martes, 30 de noviembre de 2010

Reporte sobre el cambio climático elaborado para Vox Populi de la Ciencia




¿Cómo surgió la preocupación por el cambio climático?
(Emitido en Vox Populi de la Ciencia el 3 de diciembre de 2009)



• El papel de la atmósfera como trampa que atrapa la radiación en forma de calor fue planteada por primera vez hace más de 180 años por el físico francés Jean Baptiste Joseph Fourier.
• El físico irlandés John Tyndall realizó experimentos en su laboratorio y en 1859 llegó a la conclusión de que, efectivamente, gases como el vapor de agua y el dióxido de carbono, son capaces de atrapar la radiación electromagnética en forma de calor.
• En 1894, un científico sueco de apellido Högbom calculó las cantidades de dióxido de carbono que estaban emitiendo las industrias en aquellos años y llegó a la conclusión de que eran similares a las emitidas por las fuentes geotérmicas naturales.
• En 1896, en Estocolmo, el químico y físico Svante Arrhenius desarrolló laboriosos cálculos numéricos que le permitieron demostrar que si se reducía a la mitad la cantidad de dióxido de carbono de la atmósfera, el clima en Europa descendería de 4 a 5 grados centígrados, produciéndose una nueva era glacial. Así mismo, si la cantidad de dióxido de carbono se incrementaba al doble, encontró que el clima en Europa aumentaría entre 5 y 6 grados centígrados.
• En 1971, buscando ciclos largos en la evolución del clima, un grupo danés dirigido por Willi Dansgaard perforó una región helada de Groenlandia para estudiar diversas capas de hielo. Encontró que había periodos de oscilación de 12 mil años, pero entre ellos, había pequeños cambios muy abruptos que parecían durar uno o dos siglos.

• En 1972, Mikhail Budyko, en Leningrado, realizó cálculos que le permitieron concluir que si se seguía agregando dióxido de carbono a la atmósfera al mismo ritmo de esas fechas, el Océano Ártico se derretiría por completo hacia el año 2,050.






• Poco después, en 1974, George Kukla y su esposa Helena, estudiaron fotografías del Océano Ártico tomadas desde satélite, encontrando que las variaciones entre un año y otro eran tan grandes que si las modificaciones en la extensión de la superficie cubierta con hielo en el año de 1971 se repetía durante otros siete años, la cantidad de nieve y de hielo reflejarían tanta luz hacia el exterior (por ser de color blanco) que se generaría otra era glacial. Ellos llegaron a la conclusión de que los cambios rápidos en el clima eran factibles.





• En 1975, Cesare Emiliani publicó, en la revista científica Science, estudios realizados en lodo blando en el Golfo de México, en el cual encontraron evidencias que le permitieron estudiar los cambios climáticos ocurridos hace 11,600 años. Encontró que el nivel del mar había aumentado a tasas de 20 centímetros por década. También logró detectar que en el periodo que va de hace 12 mil a hace 11 mil años, los cambios de temperatura en la región del Golfo de México habían sido de hasta 7 a 10 grados centígrados. Lo más preocupante fue que en un periodo de apenas 50 años, la temperatura había saltado 5 grados centígrados hacia arriba.

Cesar Emiliane ha estudiado el fondo marino, aquí uno de los mapas que resultan de sus trabajos:


• En 1988 se iniciaron trabajos de dos grupos de investigación distintos, uno estadounidense y el otro europeo, que perforaron el hielo en dos sitios distintos, separados 30 kilómetros entre sí. Ambos grupos habían planeado trabajar juntos, pero debido a que aparecieron diferencias, decidieron trabajar cada uno por su lado. El resultado fue que los hallazgos de ambos fueron coincidentes, lo cual demostró que no se trataba de algún accidente local que pudiera resultar de la forma particular del subsuelo rocoso sobre el cual descansa la capa de hielo estudiada, sino de una tendencia regional más amplia. Entre 2002 y 2004, ambos grupos publicaron evidencia de que en Groenlandia habían ocurrido cambios de temperatura de hasta 7 grados centígrados durante la era de la última glaciación, que se ubica entre hace 110,000 y hace 11,000 años. A ésta también suele ser llamada como: la última era del hielo.
• En resumen, las oscilaciones de temperatura que en los años 1950 se creía que tomaban decenas de miles de años, en los años 1970 se pensó que podría llevarse unos cuantos miles de años. En 1980 se llegó a la conclusión de que tales oscilaciones podrían ocurrir en tan solo unos cientos de años, para llegar a la conclusión, en los años 1990, de que los cambios podrían ocurrir en tan solo 50 años.
• Regresando a los dos grupos de estadounidenses y europeos, un día de verano de 1992 los estadounidenses encontraron que en un cilindro de hielo recién extraído se encontraban grandes cambios en tan solo tres capas, que equivalían a tres años únicamente. Lo más sorprendente fue que los europeos, alejados 30 kilómetros de ellos, encontraban exactamente lo mismo.
• Al menos en Groenlandia, el clima parecía haber cambiado extremadamente rápido.


Fuente: http://www.aip.org/history/climate/rapid.htm#N_42_




El Cambio Climático 2 (emitido el 9 de diciembre de 2009 en Vox Populi de la Ciencia


Los primeros resultados de los estudios realizados en el mar de Noruega en 1992 confirmaron la existencia de cambios abruptos en la temperatura y la humedad. La evidencia encontrada en los hielos de Groenlandia era muy clara, pero surgieron dudas acerca de la posibilidad de que esos datos locales tuvieran alguna clase de significado para el resto del mundo.

Trabajos posteriores basados en cambios químicos de muestras tomadas en estalagmitas de cuevas en California, en el Mar de Arabia, en Suiza y en China, confirmaron que las modificaciones climáticas habían ocurrido en todo el hemisferio norte. Si escogemos el buscador google en la opción de imágenes, y escribimos la palabra estalagmita, la computadora nos proporcionará fotografías de cuevas que presentan un techo con protuberancias con forma de conos que apuntan hacia abajo, y en el suelo otras similares apuntando hacia arriba. Las del techo se llaman estalactitas y las del suelo estalagmitas.









La tecnología dedicada al estudio de radiaciones aportó el mejoramiento de las técnicas basadas en el carbono 14, un isótopo del carbono cuya concentración disminuye con el tiempo, lo cual es una propiedad que permite saber la antigüedad de los fósiles. Los nuevos métodos proporcionaron las bases para localizar los tiempos en que se formaron ciertas partículas de polen con características que permitieron reconocer con mucha precisión los cambios en la temperatura. Así fue posible comprobar que había habido cambios tanto en Japón como en la Tierra del Fuego en América del Sur. Por lo tanto, los cambios bruscos no habían ocurrido solamente en el hemisferio norte, sino en todo el mundo. Se empezó a sospechar que los procesos de cambio encontrados por los grupos de Dansgaard y de Oeschger podrían haber sido acompañados por un vaivén en todo el patrón de circulación de las corrientes de agua del Océano Atlántico Norte.





Los resultados anteriores eran difíciles de aceptar, y junto con las dudas surgió la pregunta referente al posible gatillo disparador de los cambios. Desde fines de la década de los años 1990 se venía sospechando que la posible respuesta no estaba precisamente en el Océano Atlántico Norte, que había sido intensamente estudiado por los científicos, sino en la influencia mutua del Océano Pacífico con fenómenos como El Niño. Se pudo comprender que hay un sistema organizado de vientos con patrones adecuadamente balanceados en el cual participan las masas de aire tropical del Océano Pacífico con los vientos del norte del Atlántico. Así, esta sincronización global tendría que ser el gatillo disparador que se buscaba, en el sentido de que, una vez alterado, la reorganización del mismo produciría cambios bruscos en donde, por ejemplo, un fenómeno permanente de El Niño, no intermitente como en la actualidad, podría venir acompañado de una desaparición masiva del hielo en el Ártico.

En el año 2001 un grupo de expertos concluyó que una desaparición de la circulación de corrientes del Océano Atlántico Norte era improbable, pero reconocieron que no podía descartarse. En los siguientes cuatro años se pudo comprobar que las aguas de esa región venían presentando concentraciones menores de sal, al parecer debido a que el hielo del Ártico se derretía cada vez más, y también, a que los ríos que desembocan en el Océano Atlántico Norte son cada vez más caudalosos.




En el año 2005 se publicaron datos más difíciles de enmarcar en el contexto de descubrimientos que se venían realizando: se anunció que la cantidad de calor que portaban las aguas que avanzan hacia el sur en el Océano Atlántico Norte había disminuido para ser 30% menos que el medido en los años 1950.

Los especialistas en la modelación climática encontraron que había problemas serios con los modelos que se venían utilizando, pues estos estaban diseñados para proporcionar casi exclusivamente soluciones estables, de modo que con ellos nunca iban a encontrar procesos climáticos con cambios abruptos.

Ahora se considera que los cambios abruptos han ocurrido tanto en periodos de glaciaciones, como en periodos de climas cálidos. De modo que están bien documentados descensos de temperatura de hasta 14 grados en periodos que van desde una década hasta 70 años. Como podemos recordar, en un programa previo informamos que una de las hipótesis más aceptadas en la actualidad, acerca de la desaparición de la especie de Neanderthal pudo deberse a uno de estos cambios bruscos en el periodo de vida de una generación, tal que sus métodos de cacería se vieron obsoletos súbitamente a causa de los cambios en la flora de los sitios en que vivían. Algunos especialistas se atreven a relacionar la presencia de grandes sequías con la devastación de varias culturas de América del Norte, y también, con el decaimiento y desaparición de culturas como la de los Mayas en México y América Central, o la de los Mesopotámicos en lo que ahora es Irak.

Mediciones realizadas en los últimos siete años, en los que se ha usado sondeos desde satélites y desde aviones, muestran que las capas de hielo se han estado adelgazando y que la pérdida de zonas blancas en el Ártico y en la Antártida aumenta la absorción de calor en la tierra. Este es un cambio cualitativo importante, de modo que los cambios bruscos del clima podrían tener varias fuentes.

El riesgo de cambios bruscos sigue en duda, pero los paneles intergubernamentales han concluido que son posibles las sorpresas climáticas. Se sabe que éstas incluirían zonas muy frías y otras muy calientes, así como lugares extremadamente húmedos y otros sumamente secos.

Es un hecho que la temperatura está creciendo, aquí una de las gráficas que muestran la magnitud del peligro




VI

Un punto que es de especial importancia es el ascenso del nivel del mar. En el número del 19 de enero de 2007 de la revista científica Science, se publicó un artículo de Stefan Rahmstorf, se intitula “Un enfoque semiempírico para proyectar el incremento futuro en el nivel del mar” (A Semi-Empirical Approach to Projecting Future Sea-Level Rise). En ese reporte se presenta una relación de proporcionalidad entre el crecimiento de la temperatura y el ascenso en el nivel del mar.

Rahmstorf encuentra que existe un incremento de 3.4 milímetros anuales en el nivel del mar por cada grado Celsuis de temperatura. Así, comparado con el nivel del mar en los años 1990, para el año 2100 el mar estaría entre 50 centímetros y un metro cuarenta centímetro más alto.

Sin embargo, Stefan Rahmstorf advierte que el impacto podría ser muy superior y cita trabajos científicos con datos llamados paleoclimáticos que sugieren que durante la etapa más extrema de la última glaciación, hace 20 mil años, el nivel del mar estuvo 120 metros más abajo del actual. Y todo lo anterior con cambios de apenas 4 o 5 grados centígrados menos en la temperatura.

Además, Rahmstorf cita trabajos que demuestran que en el periodo del Plioceno, hace tres millones de años, en los que hubo calentamientos de tan solo 2 o 3 grados centígrados, el nivel del mar subió entre 25 y 35 metros por encima de los niveles actuales.



La gráfica de Stefan Rahmstorf nos muestra el crecimiento del nivel del mar:







Algunas mediciones mías a través de Google Earth arrojan los siguientes resultados:
1. El edificio del Pentágono (en los EE.UU.) que está a 10 metros sobre el nivel del mar quedaría 15 metros debajo del agua.
2. La Casa Blanca y el Capitolio (también en los EE.UU.) quedarían debajo del nivel del mar.
3. Una gran parte de Londres (Inglaterra) también quedaría bajo las aguas
Y respecto a lugares más cercanos:
1. Todo Empalme quedaría bajo el agua, pues la costa se trasladaría hasta el cerrito colorado.
2. En Guaymas el agua llegaría casi hasta la carretera desde la costa del balneario de Miramar a la conexión que lo une con la vía de cuatro carriles. Por el poniente el mar avanzaría desde los muelles hasta casi 800 metros más al poniente de la separación que hay para entrar a la calle Serdán o para avanzar hacia Empalme. De hecho, estudiando por el norte la altura sobre el nivel del mar, Guaymas quedaría convertida en una isla, pues la carretera de cuatro carriles, donde conecta con la separación hacia San Carlos, está por debajo de los 21 metros sobre el nivel del mar. El agua inundaría zonas cercanas a la separación de la carretera de cuatro carriles con la carretera de cuotas y la dirección hacia Guaymas.
3. Todo Puerto Peñasco quedaría cubierto por el agua, y sobreviviría una pequeña parte como islote en la zona situada hacia el sur de la marina. El agua penetraría más de once kilómetros y hasta allí se recorrería la costa.

En general revisar http://www.giss.nasa.gov/research/news/20060925/
Para quienes entienden Inglés, conviene ver el video de Stefan Rahmstorf en: http://www.youtube.com/watch?v=yEw4PdaW37A

Ahora bien, el incremento en el nivel del mar no es la única manifestación del cambio en el clima. Así como es posible que la extinción del hombre de Neanderthal pudo deberse a las modificaciones en su entorno, habrá muchas poblaciones que en la actualidad saben sobrevivir en determinadas condiciones climáticas y que se verán afectadas por los cambios en los patrones de vientos, de humedad y de temperatura. Toda la cadena trófica, o conjunto de cadenas alimentarias, se verán afectadas con la consecuente desaparición masiva de especies.

En realidad, el nombre correcto no es: cambio climático, sino crisis climática.

miércoles, 24 de noviembre de 2010

Actualidades 24 de noviembre de 2010

I ¿Cómo reconoce los colores y las formas nuestro cerebro?




En la visión, los objetos se reconocen por su forma y por las propiedades de su superficie. En esta última importan el color y la brillantez; por ejemplo, al ver una manzana apreciamos tanto su forma como su color, pero además, sabemos reconocer que ésta está brillante u opaca.

Se sabe que estas propiedades son procesadas en la parte posterior del cerebro, a partir de la información enviada por los ojos a través del nervio óptico, pero hasta hace poco tiempo no se tenía conocimiento de cuáles regiones procesan estos detalles de los objetos que vemos.

Los investigadores Hisashi Tanigawa, Haidong Lu y Anna Roe, de la Universidad Vanderbilt, en Nashville, han publicado en la revista científica Nature Neuroscience un artículo intitulado Organización Funcional para el Color y la Orientación en el área V4 de Macacos Functional organization for color and orientation in macaque V4. En este trabajo reportan su estudio de un grupo de monos macacos a los cuales les analizaron la región del cerebro llamada V4, que se ubica en la región occipital, es decir, en la parte interior contigua a la nuca de los macacos y de los seres humanos.

Los macacos son un género de primates que, como los humanos, han logrado trasladarse a vivir en otras regiones distintas a los trópicos. De hecho, el ser humano y los macacos son los únicos primates no extinguidos que se aventuraron a salir del trópico. Viven en el norte de África, pero también en el Estrecho de Gibraltar, en Japón y en Afganistán. Se conocen 22 especies de ellos y son muy utilizados para experimentos científicos.

Ellos reportan que en la región V4 del cerebro existen compartimientos en los cuales procesan, por ejemplo, el color púrpura, el verde y el amarillo. También explican que cuando se busca un objeto de color amarillo el cerebro dirige su atención hacia objetos de ese color específico, restando atención al resto de elementos de distinto color.




El color púrpura se consigue en la pintura con una combinación del color azul con el rojo y algunas personas se refieren a él como: color violáceo por su parecido con el violeta. En las computadoras se utilizan códigos RGB, que quiere decir: rojo, verde, azul, con los números (102,0,153) para obtenerlo.

Las partes del cerebro o compartimientos a que nos estamos refiriendo, son llamadas dominios por los investigadores que han publicado el artículo, e informan también que para reconocer las formas de los objetos también existen dominios del cerebro que muestran preferencia por los trazos verticales, mientras que otros dominios prefieren los trazos horizontales. Así, la forma resulta de la unión que hace el cerebro de los resultados que ofrece cada compartimiento.

Fuente: http://www.sciencedaily.com/releases/2010/11/101116093546.htm




II. El costo social por ser un alumno NERD es mayor entre la población afroamericana y la nativa de los Estados Unidos que en la población caucásica, asiática e hispana.

El término NERD apareció en los Estados Unidos en la década de los años 1950 y se popularizó a través de una serie de televisión de ese país que llevó el nombre de Happy Days y que se emitió entre los años 1974 y 1984.

Los especialistas en Derecho han detectado que existe una discriminación hacia las personas que son consideradas NERDS, pero encuentran difícil el desarrollo de una legislación que los proteja porque la descripción se complica debido al carácter altamente subjetivo del concepto, es decir, que varía mucho de unas personas a otras, de modo que puede tener significados muy distintos.

El término NERD puede ser usado con orgullo o en forma ofensiva para referirse a una persona con fuertes aptitudes para la ciencia, las matemáticas o el cómputo. También suele ser vista como alguien poco común, con una forma de vestir fuera de lo común, sin habilidades para las relaciones sociales.

Thomas Fuller-Rowell y Stacey Doan, investigadores de la Universidad de Michigan, han publicado un artículo intitulado: The social costs of academia success across ethnic groups, (El costo social del éxito académico a través de grupos étnicos). Su trabajo aparece en la revista Child Development y su estudio fue financiado por el Instituto Nacional de Salud de los Estados Unidos.

Para hacer un estudio estadístico se busca obtener una muestra representativa de la población que se va a estudiar. Por ejemplo, si se desea conocer la intención de voto de los hermosillenses, no es necesario entrevistar a todos los habitantes de esta ciudad. Se hace una selección adecuada y al azar. Por ejemplo, si hay 50% de habitantes jóvenes, se busca que la muestra tengoa 50% de habitantes con el intervalo de edad correspondiente, entre otras consideraciones más.

Con especialistas en la estadística, los investigadores realizaron un análisis de una muestra representativa nacional en la que se consideraron 13 mil adolescentes de más de cien escuelas de los Estados Unidos. Como indicadores del éxito académico consideraron siete promedios de calificaciones y realizaron entrevistas en las que pidieron a los estudiantes que asignaran un número de 7 a 12 para indicar qué tan aceptados o rechazados se sentían, socialmente, por otros estudiantes.

También preguntaron qué tan frecuentemente habían sido tratados en forma poco amistosa en la semana anterior a la entrevista, cómo se sentían porque no les agradaban a otros estudiantes y qué tan solitarios se sentían.





Los investigadores encontraron diferencias entre los grupos étnicos, encontrando que entre los blancos la relación entre altas calificaciones y mayor aceptación social es directa, es decir, a mayores resultados favorables en los exámenes, más aceptación.

Entre los estudiantes afroamericanos y entre los nativos de lo que ahora es el territorio de los Estados Unidos, conocidos por nosotros como indígenas estadounidenses, la relación entre los altos promedios fue a la inversa, es decir, a mejores calificaciones, menos aceptación.

Según el estudio, los estudiantes de origen asiático presentan una conducta similar a la de los jóvenes caucásicos, es decir, los habitantes estadounidenses usualmente conocidos como: blancos. A su vez, los estudiantes hispanos, considerados como un solo grupo homogéneo, muestran características similares a los asiáticos y los caucásicos en su aceptación de los NERDS, pero con la diferencia de que en el caso de los hispanos la relación depende en gran medida de que se trate de mexicanos, cubanos o puertorriqueños. En particular, los mexicanos mostraron conductas similares a los afroamericanos. Lo cual revela que hay una gran diferencia entre mexicanos y cubanos o puertorriqueños, de modo que no es justificable haberlos tratado como un solo grupo homogéneo.

Fuente: http://www.sciencedaily.com/releases/2010/11/101117094244.htm





III. El aprendizaje de la lectura, y su práctica, producen cambios en las redes del cerebro que controlan la visión y el lenguaje.


Un estudio realizado por diez investigadores de universidades de Francia, Portugal, Bélgica y Brasil, permitió detectar diferencias en la actividad de distintas áreas del cerebro aún cuando las actividades que se les plantearon fueron las mismas. El artículo fue publicado el 11 de noviembre de 2010 en la revista científica Science y se intitula: “How Learning to Read Changes the Cortical Networks for Vision and Language”, que traducido al español es: “Cómo el aprendizaje de la lectura cambia las redes corticales para la visión y el lenguaje”.

En el trabajo de investigación se sometió a actividades de descripción de figuras, de letras y de símbolos, a 63 personas de características que mencionaremos más adelante. Se trató de que relacionaran el objeto que veían con el lenguaje hablado, y en los casos en que fue posible, el lenguaje hablado y el escrito.

En el caso de la relación del lenguaje hablado y el escrito se buscó detectar hasta qué punto coincidían las áreas del cerebro dirigidas a controlar cada uno de los lenguajes.

En el estudio participaron franceses, portugueses y brasileños. A los franceses se les pagaron 80 euros por su participación. A los portugueses se les alojó durante tres noches en un hotel y se les llevó de paseo un día por París. A los brasileños, localizados en Brasilia, no se les pagó porque las leyes de Brasil prohíben el pago a las personas que participan en estudios científicos, en cambio sí se les proporcionó despensa en alimentos en cantidad equivalente a un día de trabajo.

En total participaron 41 brasileños y 22 portugueses y franceses. Estos últimos con la característica de saber leer y tener cierto grado de escolaridad. En el caso de los brasileños se trataba de 10 personas que no sabían leer por razones sociales, es decir, por ausencia de sistemas escolarizados en la zona en que vivían, o por falta de tiempo ante la necesidad de trabajar para sobrevivir, etcétera, pero no por razones relacionadas con algún impedimento físico.

Se buscó que en el grupo hubiera iletrados, personas que no saben leer, también individuos que aprendieron a leer en la etapa adulta, así como otras personas que desde la niñez hasta la juventud siguieron un sistema escolarizado que los llevó a obtener un título universitario.

La edad promedio de los iletrados era de 53.3 años. Uno de ellos pudo identificar 15 letras, y otro 16 letras, pero ninguno pudo leer palabras. En este caso todos fueron brasileños porque en Portugal no fue posible encontrarlos, tampoco en Francia, aunque los investigadores afirman que hicieron el esfuerzo.

Además, entre los brasileños había un grupo de 10 ex-iletrados, que habían aprendido a leer en su etapa adulta, siendo alfabetizados entre 1 y 5 años antes de la realización del estudio, con un promedio de 2.4 años de haber sido alfabetizados. También había 21 brasileños que sí eran capaces de leer, todos con una escolaridad que en México llamamos de nivel licenciatura.

Tanto franceses como portugueses y brasileños, fueron sometidos a escáner con resonancia magnética y se estudió la respuesta de su cerebro ante el lenguaje hablado y ante la conexión de éste con los símbolos de la lectura.

Nosotros tomamos algunos materiales del documento de respaldo que se llama: “Material de Soporte en Línea”, el artículo no se ofrece de manera gratuita y tiene un costo de más de 35 dólares.

Prestamos atención a las diferencias entre las imágenes de las resonancias magnéticas practicadas y a los pies de figura con los que los investigadores explican sus resultados. Nuestros comentarios pueden ser revisados por todas aquellas personas capaces de leer el idioma inglés, siguiendo los datos que serán publicados en nuestro blog.

En la página 20 del documento mencionado se encuentra la figura 5, con imágenes de resonancia magnética que muestran cómo los adultos que aprendieron a leer hace cuando mucho cinco años, tienen ya más actividad cerebral en regiones dedicadas a la lectura de oraciones, lo cual se presenta en la imagen como áreas coloreadas con color naranja, mientras que en las imágenes de quienes no saben leer aparece una actividad sumamente reducida.

En la página 23 del mismo trabajo se presentan las imágenes de resonancia magnética para los tres tipos de personas: iletrados, ex- iletrados y letrados: se buscaba observar la actividad cerebral al comprender oraciones habladas, oraciones escritas, y también, la coincidencia de zonas cerebrales al realizar las dos actividades.

Las imágenes son muy convincentes debido a que muestran cómo se encuentra más iluminado el cerebro de quienes saben leer, que el de aquéllos que no saben. Dicho de otra forma, el cerebro está más activo en quienes saben leer, haciendo relaciones entre las neuronas del sistema visual que todos tenemos, el sistema del habla, los símbolos de la letra escrita y el reconocimiento de sonidos. Las figuras también estarán en nuestro blog.









Fuente: http://www.sciencemag.org/content/suppl/2010/11/08/science.1194140.DC1/Dehaene.SOM.pdf
http://www.jornada.unam.mx/2010/11/16/index.php?section=ciencias&article=a02n1cie
I













II








III








domingo, 21 de noviembre de 2010

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba) 3 de noviembre de 2010





I. Estudio científico desarrollado por especialistas del Imperial College, de Londres, concluye que la droga más peligrosa es el alcohol.

Un sistema de medición del riesgo en que se incurre cuando se consumen determinadas drogas ha producido como resultado que la más peligrosa de todas es el alcohol. Un conjunto de expertos dirigido por el Profesor David Nutt, del Imperial College de Londres, publicó el primero de noviembre de este año, en la revista científica Lancet, un artículo en el que explica cómo diseñaron un sistema de medida de riesgos de drogas. Los autores son: David J Nutt, Leslie A King, y Lawrence D Phillips. El artículo se intitula Drug harms in the UK: a multicriteria decision analysis (Daños por drogas en el Reino Unido: Un análisis para decisiones con criterios múltiples).





Se reunió un conjunto de expertos que trató de encontrar una tabla de criterios de riesgo, llegando a la conclusión de lo que podrían realizar y concluyeron que estos podían ser los siguientes:
1. Mortalidad debida al uso de la droga específica,
2. Mortalidad relacionada con el uso de la droga,
3. Daño directo debido a la droga específica,
4. Daño relacionado con el uso de la droga,
5. Dependencia de la droga, o adicción,
6. Impedimentos en la función mental directamente causados por la droga,
7. Impedimentos en la función mental relacionados con la droga,
8. Pérdida de capacidad para relacionarse con su entorno,
9. Pérdida de relaciones, y
10. Heridas.





Además consideraron
1. Criminalidad,
2. Daño al ambiente que rodea al consumidor,
3. Conflicto familiar,
4. Daño internacional,
5. Costo económico, y
6. Declinación de la cohesión de la comunidad.

Cuando procedieron al análisis de las drogas calificaron con calificación de 100 puntos el máximo de peligrosidad, por cada uno de los criterios analizados, para cada una de las drogas estudiadas. Así mismo, asignaron un cero cuando el peligro era considerado nulo. A su vez, una droga con 50 puntos en un criterio específico significó que era la mitad de peligrosa que una de 100 puntos.




Cada droga recibió una calificación de cero a cien por cada criterio y después se calculó un promedio para considerar la combinación de todos los criterios. Los resultados fueron los siguientes:

En primer lugar el alcohol con una calificación de 72 puntos.
En segundo lugar la heroína con 55 puntos.
En tercer lugar el crack con 54 puntos.
En cuarto lugar el cristal con 33 puntos.
En quinto lugar la cocaína con 27 puntos.
En sexto lugar el tabaco con 26 puntos.
En séptimo lugar la anfetamina con 23 puntos.
En octavo lugar la mariguana con 20 puntos.
Después siguieron: el GHB con 18 puntos, el valium con 15, la ketamina con 15 también, la metadona con 14, el butano con 10, el khat, el éxtasis y los esteroides anabólicos con 9, el LSD con 7, la buprenorfina con 6 y los hongos con 5 puntos. Estos últimos son conocidos como hongos alucinógenos, entre los cuales puede mencionarse la Amanita Muscaria, el Peyote, la Ayahuasca y la Datura Brugmancia. La amanita crece en Siberia y el peyote es conocido en México.
Los investigadores afirman que su estudio mantiene concordancia con otros estudios similares hechos por especialistas del Reino Unido y de Holanda. Concluyen también que sus hallazgos demuestran que el sistema de clasificación que se usa oficialmente no tiene relación con la evidencia de daño que las drogas causan.
Afirmaron también que se podría clasificar como clase A a las drogas con más de 40 puntos, que fue el caso del alcohol, la heroína y el crack; como clase B a los que quedaron entre 39 y 20 puntos; como clase C a los que se ubicaron entre 19 y 10 puntos y como clase D a las drogas que recibieron menos de 10 puntos. Esta clasificación permitiría situar rápidamente en la memoria de una población el grado de peligrosidad de cada droga.
Fuentes: http://www.sciencedaily.com/releases/2010/11/101101162138.htm
10.1016/S0140-6736(10)61462-6


II. Se ha inventado un pequeño aparato que permite a la mujer hacerse sus propias mamografías en su casa.
El Profesor Zhipeng Wu, de la Escuela
de Electricidad y de Ingeniería Electrónica de la Universidad de Manchester en Inglaterra, ha inventado un escáner portátil que utiliza ondas de radio para detectar, en un segundo, la presencia de tumores malignos o benignos usando una computadora en su casa. El Escáner es un sistema que permite barrer con un haz de luz, o de ondas de radio, o de ultrasonido, toda una región para esperar una señal de respuesta que será detectada mediante censores, que son como micrófonos para el sonido y que producen una señal que será enviada a un sistema de análisis mediante cómputo, entre otras posibilidades.

El uso de tecnología basada en ondas de radio, o en micro ondas, ya se ha utilizado en Canadá, en Estados Unidos y también en el Reino Unido, pero su uso obliga a emplear varios minutos para disponer de una imagen, además de que se necesita que estén en hospitales o en centros de atención especializada.

El trabajo del Profesor Wu le permite al paciente recibir una imagen de video en tiempo real usando el escáner a base de frecuencias de ondas de radio y mostrar la presencia de un tumor. El tiempo real significa que se presenta en pantalla la misma señal que se está recibiendo, a diferencia de las radiografías a las que estamos acostumbrados, que presentan una imagen que se tomó hace minutos, o hace días. Además de reducir el tiempo de espera para ser atendidos, permite evitar el uso de rayos X como es el caso de las mamografías actuales.

Este escáner puede ser utilizado en la comodidad de la casa y usar una cantidad pequeña de tiempo para mantener el monitoreo del pecho, y según el reporte del portal de difusión científica: Daily Science News, utiliza la misma tecnología de un teléfono celular, es tan pequeño como una pequeña mochila para guardar el lonche de los niños, usa poca energía eléctrica y lo pueden tener en su casa.





El cáncer de pecho es la segunda causa de muerte en las mujeres y constituye el 8.2% de los casos de fallecimientos por esa razón en los Estados Unidos. La forma usual de detectarlo es a base de mamografías, con una precisión del 95% en el caso de mujeres de más de 50 años pero es mucho menos efectivo en las mujeres jóvenes.

Otros sistemas distintos al del Profesor Zhipeng Wu necesitan de la aplicación de ciertas clases de gel para poder trabajar, pero el suyo puede ser utilizado incluso con un brasier puesto. La presencia del tumor, o de cualquier otra anormalidad, es detectada mediante ondas de radio porque la capacidad para conducir electricidad en las células del tumor es diferente que en el tejido normal, eso hace que el paso de las ondas de radio sea diferente y que se pueda detectar mediante un sensor para transmitirlo enseguida a una pantalla de computadora.

El Profesor Wu ha enviado su invento a un concurso de innovaciones, de modo que no tenemos noticia de su posible fabricación y comercialización. Es indudable que esta clase de aparatos podría diseñarse y construirse en México, a fin de acortar los tiempos para que se encuentre disponible al público, pues además, se corre el riesgo de que la patente sea comprada por alguna gran transnacional vendedora de aparatos para hospitales, que la podrá guardar hasta esperar el momento propicio para su comercialización o su congelación, según convenga a sus intereses.

Fuente: http://www.sciencedaily.com/releases/2010/10/101027090838.htm



Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba) 10 de noviembre de 2010


I. Científicos de la Universidad McMaster, de Ontario, Canadá, han logrado desarrollar células de sangre a partir de células de la piel
.
La sangre está compuesta por varios tipos de células. Éstas son los eritrocitos, los leucocitos y las plaquetas. Los eritrocitos son los glóbulos rojos, que contienen una gran cantidad de hemoglobina, la sustancia que les da el color rojo y que es portadora de oxígeno y de nutrientes para las células del organismo. No tienen núcleo, de modo que no se reproducen a sí mismos y no tienen mitocondria, de modo que necesitan de otras fuentes de energía para su funcionamiento. Por cada milímetro cúbico de sangre la mujer tiene un promedio de 4.5 millones de eritrocitos y el hombre 5 millones de ellos.

La mitocondria es un cuerpo que se encuentra en el interior de muchas células, proviene de una bacteria que se introdujo en células en alguna etapa muy antigua de la evolución y se acomodó a vivir allí. Uno de sus papeles principales es proporcionar energía a la célula.




Los leucocitos no contienen un pigmento que les dé color, razón por la cual se les llama glóbulos blancos y son los encargados de la defensa del organismo (el llamado sistema inmunológico), su tamaño oscila entre 8 y 20 micras de diámetro. Hay varios tipos de leucocitos: los linfocitos, los monolitos, los neutrófilos, basófilos y eosinófilos.

La palabra glóbulo viene del latín globulus y uno de los significados asignados en el diccionario en línea de la Real Academia Española es: pequeño cuerpo esférico. Esa es la razón por la que reciben el nombre de glóbulos rojos y glóbulos blancos.

Las plaquetas son la tercera componente de la sangre, juegan un papel importante en el conjunto de mecanismos necesarios para detener la pérdida de sangre, o hemorragia. A este conjunto de procesos se les llama hemostasis y el componente fundamental para su funcionamiento son las plaquetas, que tienen de 2 a 3 micras de diámetro y resultan de la fragmentación de un tipo de célula llamada megacariocito. Una célula muy grande, que mide cerca de 80 micras y se encuentra en la médula ósea.




El megacariocito juega un papel muy importante en la formación de la sangre, un proceso que se llama hematopoyesis y que ha sido controlado por los científicos de la Universidad McMaster, de Ontario, Canadá, quienes trabajaron a partir de células de la piel y no tuvieron necesidad de recurrir a células madre para realizar el trabajo. Ellos son, Eva Szabo, Srhavanti Rampalli, Ruth Risueño, Angelique Schnerch, Ryan Mitchell, Aline Friebi, Marilyne Levadous y Mickie Bhatia. Han publicado su investigación en la revista Nature, en la edición en línea del pasado 7 de noviembre.



Como hemos mencionado en otros programas, hay ocasiones en que la producción científica necesita ser conocida rápidamente para evitar la duplicación de esfuerzos, y también, para ganar la primicia en los descubrimientos. Por esa razón, muchas revistas científicas han aplicado la política de publicar sus artículos en Internet, en un portal especial dedicado a ese propósito. A eso es a lo que llamamos edición en línea.
Fuentes: http://www.sciencedaily.com/releases/2010/11/101107202144.htm

sábado, 20 de noviembre de 2010

Nobel de Química en 2010 (Vox Populi de la Ciencia, Radio Bemba) 13 de octubre de 2010



Se otorga el premio Nobel de química a Richard Heck, a Ei-ichi Negishi y a Akira Suzuki, por el desarrollo de procesos para producir (sintetizar) compuestos orgánicos usando paladio como catalizador en un sistema que se llama acoplamientos cruzados.

Sus biografías están siendo publicadas en los diarios, de modo que nos dedicaremos a explicar en qué consistió su trabajo y por qué es de mucho impacto para la sociedad. Nuestra fuente es: Jan E. Bäckvall, Profesor de Química Orgánica de la Universidad de Estocolmo y miembro del Comité Nobel para Química. Su escrito se encuentra en línea para ser consultado en el sitio oficial del premio Nobel.


Existe un conjunto de elementos químicos que se llaman metales de transición. Si tenemos una tabla periódica a la mano, veremos en la parte central de la misma un bloque marcado con la letra d.

El uso de la letra d para ese conjunto de elementos situados en el centro de la tabla periódica es porque en los átomos los electrones se van acomodando en capas marcadas con las letras: s, p, d, e, etcétera. En especial los elementos químicos del bloque d tienen lleno de electrones las primeras dos capas (s y p) pero tienen la capa d sin llenar completamente.

Ese hecho determina propiedades químicas específicas que son características de estos elementos químicos, entre los cuales se puede mencionar al hiero, cobalto, cobre, zinc, paladio, entre otros. Se recomienda consultar una tabla periódica a colores y encontrar que del elemento 21 al 30, después del 39 al 48, etcétera, están marcados como metales de transición.

En particular el que juega un papel fundamental en los procesos es el paladio, su símbolo es Pd, su número atómico es 46 y es un metal de color blanco, que se usa, por ejemplo, en los filtros de los automóviles para evitar hasta el 90% de los gases nocivos que estos emiten.

El paladio es uno de esos metales que participan en procesos de catálisis, es decir, en modificaciones de la velocidad con la que ocurren las reacciones químicas, haciendo que sean más rápidas o más lentas, según se necesite. Por ejemplo, los convertidores catalíticos de los autos tienen platino, rodio y paladio, que actúan sobre los gases provenientes del motor para acelerar su reacción química haciendo que se oxiden de inmediato y salgan a la atmósfera como gases inocuos, en el mejor de los casos, con una eficiencia de hasta 90%.

En el caso de las reacciones químicas con sustancias orgánicas, llamadas así porque muchas de ellas aparecen como resultado de seres vivos o de restos de ellos, el control de los procesos de reacción química es muy complicado porque las posibilidades de enlaces que se llevan a cabo entre átomos, o que se rompen, es muy grande. ¿Por qué? Porque las moléculas involucradas están compuestas por muchos átomos.

En estas reacciones químicas es fundamental la presencia de los átomos de carbono y el interés en los enlaces químicos de estos átomos se ha notado en el otorgamiento de premios nobel en los más de cien años que lleva de existir el premio. Por ejemplo, en 1912 se otorgó por la reacción de Grignard, en 1950 por la reacción de Diles-Alder, en 1979 por la de Witting y en 2005 por la de Chauvin, Grubbs y Schrok. Todas ellas involucrando enlaces con átomos de carbono.

La diferencia entre las reacciones anteriores y la de Heck, Negishi y Suzuki, es que estos últimos manejan enlaces químicos sencillos, con un electrón aportado por el carbono, en lugar de enlaces dobles, con dos electrones aportados por el carbono.

El paladio juega un papel fundamental y la idea es simple: el paladio gasta uno de sus enlaces en ligarse a un átomo de carbono y otro de sus enlaces en ligarse a otro carbono, acercándolos. Una vez que esos dos carbonos están muy cerca, abandonan al átomo de paladio y se ligan entre ellos, que era la intención original del científico o del técnico que aplica ahora el procedimiento.



El trabajo de Heck, uno de los tres ganadores del Nobel, inició en 1968 y se extendió durante más de cuatro años hasta que consiguió lo que se llama ahora el mecanismo de reacción de Heck.

Otro de los ganadores del Nobel, Negishi, inició sus trabajos en 1976 y alcanzó grandes logros al año siguiente, hasta que en 1978 logró establecer sus mejores resultados, que cristalizaron en el trabajo de Suzuki, quien a partir de 1979 avanza, junto con sus colaboradores, en el desarrollo de un proceso químico que se llama la reacción de Suzuki.

Cabe aclarar que se trata de equipos de trabajo, no de acciones individuales y que los ganadores del Nobel eran los líderes de grupo. Además, se apoyaron en resultados parciales de muchos otros grupos de investigadores que hacen una lista larga de líderes de otros grupos de trabajo.

¿Por qué es importante este procedimiento de catálisis usando paladio?
Se usa en la síntesis orgánica orientada a blancos, llamada así porque se producen nuevos compuestos químicos sin necesidad de trabajar con productos indeseados que no son de interés y que obligan a purificar las sustancias hasta quedarse con la que sí interesa.

Así se producen, entre otros compuestos químicos, esteroides, estricnina y el ácido escopadúlcico diterpenoide B31, que tiene propiedades citotóxicas y antitumorales.

También se produce la Pumiliotoxina A, una sustancia tóxica que se produce en la piel de las ranas y que ellas usan para su defensa.

Se produce una sustancia antiviral conocida con el nombre de hennoxazole A34. Un herbicida llamado Prosulforon, que produce y vende la empresa Ciba-Geigy.

Nobel de Química en 2010 (Vox Populi de la Ciencia, Radio Bemba) 13 de octubre de 2010

Se otorga el premio Nobel de química a Richard Heck, a Ei-ichi Negishi y a Akira Suzuki, por el desarrollo de procesos para producir (sintetizar) compuestos orgánicos usando paladio como catalizador en un sistema que se llama acoplamientos cruzados.

Sus biografías están siendo publicadas en los diarios, de modo que nos dedicaremos a explicar en qué consistió su trabajo y por qué es de mucho impacto para la sociedad. Nuestra fuente es: Jan E. Bäckvall, Profesor de Química Orgánica de la Universidad de Estocolmo y miembro del Comité Nobel para Química. Su escrito se encuentra en línea para ser consultado en el sitio oficial del premio Nobel.


Existe un conjunto de elementos químicos que se llaman metales de transición. Si tenemos una tabla periódica a la mano, veremos en la parte central de la misma un bloque marcado con la letra d.

El uso de la letra d para ese conjunto de elementos situados en el centro de la tabla periódica es porque en los átomos los electrones se van acomodando en capas marcadas con las letras: s, p, d, e, etcétera. En especial los elementos químicos del bloque d tienen lleno de electrones las primeras dos capas (s y p) pero tienen la capa d sin llenar completamente.

Ese hecho determina propiedades químicas específicas que son características de estos elementos químicos, entre los cuales se puede mencionar al hiero, cobalto, cobre, zinc, paladio, entre otros. Se recomienda consultar una tabla periódica a colores y encontrar que del elemento 21 al 30, después del 39 al 48, etcétera, están marcados como metales de transición.

En particular el que juega un papel fundamental en los procesos es el paladio, su símbolo es Pd, su número atómico es 46 y es un metal de color blanco, que se usa, por ejemplo, en los filtros de los automóviles para evitar hasta el 90% de los gases nocivos que estos emiten.

El paladio es uno de esos metales que participan en procesos de catálisis, es decir, en modificaciones de la velocidad con la que ocurren las reacciones químicas, haciendo que sean más rápidas o más lentas, según se necesite. Por ejemplo, los convertidores catalíticos de los autos tienen platino, rodio y paladio, que actúan sobre los gases provenientes del motor para acelerar su reacción química haciendo que se oxiden de inmediato y salgan a la atmósfera como gases inocuos, en el mejor de los casos, con una eficiencia de hasta 90%.

En el caso de las reacciones químicas con sustancias orgánicas, llamadas así porque muchas de ellas aparecen como resultado de seres vivos o de restos de ellos, el control de los procesos de reacción química es muy complicado porque las posibilidades de enlaces que se llevan a cabo entre átomos, o que se rompen, es muy grande. ¿Por qué? Porque las moléculas involucradas están compuestas por muchos átomos.

En estas reacciones químicas es fundamental la presencia de los átomos de carbono y el interés en los enlaces químicos de estos átomos se ha notado en el otorgamiento de premios nobel en los más de cien años que lleva de existir el premio. Por ejemplo, en 1912 se otorgó por la reacción de Grignard, en 1950 por la reacción de Diles-Alder, en 1979 por la de Witting y en 2005 por la de Chauvin, Grubbs y Schrok. Todas ellas involucrando enlaces con átomos de carbono.

La diferencia entre las reacciones anteriores y la de Heck, Negishi y Suzuki, es que estos últimos manejan enlaces químicos sencillos, con un electrón aportado por el carbono, en lugar de enlaces dobles, con dos electrones aportados por el carbono.

El paladio juega un papel fundamental y la idea es simple: el paladio gasta uno de sus enlaces en ligarse a un átomo de carbono y otro de sus enlaces en ligarse a otro carbono, acercándolos. Una vez que esos dos carbonos están muy cerca, abandonan al átomo de paladio y se ligan entre ellos, que era la intención original del científico o del técnico que aplica ahora el procedimiento.

El trabajo de Heck, uno de los tres ganadores del Nobel, inició en 1968 y se extendió durante más de cuatro años hasta que consiguió lo que se llama ahora el mecanismo de reacción de Heck.

Otro de los ganadores del Nobel, Negishi, inició sus trabajos en 1976 y alcanzó grandes logros al año siguiente, hasta que en 1978 logró establecer sus mejores resultados, que cristalizaron en el trabajo de Suzuki, quien a partir de 1979 avanza, junto con sus colaboradores, en el desarrollo de un proceso químico que se llama la reacción de Suzuki.

Cabe aclarar que se trata de equipos de trabajo, no de acciones individuales y que los ganadores del Nobel eran los líderes de grupo. Además, se apoyaron en resultados parciales de muchos otros grupos de investigadores que hacen una lista larga de líderes de otros grupos de trabajo.

¿Por qué es importante este procedimiento de catálisis usando paladio?
Se usa en la síntesis orgánica orientada a blancos, llamada así porque se producen nuevos compuestos químicos sin necesidad de trabajar con productos indeseados que no son de interés y que obligan a purificar las sustancias hasta quedarse con la que sí interesa.

Así se producen, entre otros compuestos químicos, esteroides, estricnina y el ácido escopadúlcico diterpenoide B31, que tiene propiedades citotóxicas y antitumorales.

También se produce la Pumiliotoxina A, una sustancia tóxica que se produce en la piel de las ranas y que ellas usan para su defensa.

Se produce una sustancia antiviral conocida con el nombre de hennoxazole A34. Un herbicida llamado Prosulforon, que produce y vende la empresa Ciba-Geigy.

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba) 13 de octubre de 2010



Investigadores de psiquiatría del Centro Médico de la Universidad Rush han presentado un reporte de investigación en el que se informa del uso de campos magnéticos en el cráneo de personas enfermas de depresión.

El sistema se llama Estimulación Magnética Transcranial (TMS por sus siglas en Inglés) y consiste de pulsos de campos magnéticos enfocados hacia ciertas partes del cerebro. Un pulso es una señal que sube de magnitud y disminuye de inmediato. Por ejemplo, cuando tocamos una puerta repetidas veces para que nos abran, estamos produciendo pulsos de ondas sonoras. Algo análogo se hace, pero con campos magnéticos que son similares a los usados en la resonancia magnética.

En el caso del tratamiento de pacientes que padecen depresión se dirigieron los pulsos de campos magnéticos hacia la parte frontal izquierda de su córtex para estimular esas regiones del cerebro. Se consideró un grupo de 301 pacientes, de los cuales fueron seleccionados al azar 148 a los cuales se les aplicó el sistema de pulsos de campos magnéticos, mientras que a los otros 153 se les aplicó un falso tratamiento. Este último es lo que se llama un grupo de control en las técnicas de estudios estadísticos.

De los 148 pacientes seleccionados, 143 se sometieron a tres semanas de aplicación del tratamiento con pulsos magnéticos, y de ellos, 99 decidieron mantenerlo durante 24 semanas (seis meses). De estos últimos, solamente 10 recayeron en la depresión.

Las conclusiones de los científicos es que el tratamiento que se propondrá, después de estas experiencias exitosas, es la de una sesión de 40 minutos diarios durante 4 a 6 semanas.





En los Estados Unidos se ven afectados por la depresión al menos 14 millones de adultos y los investigadores piensan que para el año 2020 será la segunda causa de incapacidad para la vida pública y el trabajo en el mundo. Se trata de una enfermedad que debilita a las personas, y aunque existen tratamientos a base de fármacos, en algunos casos no resulta efectivo, además de que tienen efectos colaterales.
Fuente: http://depression-treatment-center.net/

miércoles, 15 de septiembre de 2010

Actualidades científicas (Vox Populi de la Ciencia, Radio Bemba) 1 de septiembre de 2010


I. Usando células madre, científicos de instituciones educativas y hospitales de investigación del Reino Unido, Francia, Italia y Suecia, han logrado cultivar células similares a las del hígado a partir de células de la piel.



Quince científicos de los países que ya mencionamos han publicado un artículo intitulado “Modelaje de desórdenes metabólicos hereditarios del hígado usando células madre humanas pluripotentes. Esta clase de células tiene la característica de que pueden desarrollar descendencia que las lleve a producir diversos tejidos.
El artículo fue publicado en la revista científica Journal of Clinical Disorders del 25 de agosto de 2010 y se encuentra en línea en la dirección que aparecerá en nuestro blog.
Fuente: http://www.jci.org/articles/view/43122

Ellos tomaron unas células de la piel llamadas fibroblastos a partir de pacientes con varias enfermedades metabólicas del hígado que son hereditarias y lograron generar un conjunto de células madre humanas específicas de cada paciente, a las cuales llaman células IPS por su nombre en Inglés. Después diferenciaron varios cultivos distintos para producir nuevos grupos de células con detalles específicos distintos. Cada uno de estos grupos es conocida con el nombre de línea de células y lograron que formaran agrupaciones de células con características similares a las del hígado humano, ya que produjeron albúminas y una familia de proteínas llamadas citocromos P450. A su vez, las albúminas también son proteínas y se encuentran en grandes cantidades en el plasma de la sangre.

Las enfermedades de las células del hígado son difíciles de investigar porque no es posible cultivar células de ese órgano en el laboratorio. Los problemas del hígado son la quinta causa de muerte en el Reino Unido, además, la mortalidad de jóvenes se ha incrementado a razón de 8 a 10% cada año, por eso el desarrollo de células que se comportan como hepatocitos maduros es considerado un gran logro que ayudará a la investigación para encontrar nuevas terapias.
Fuente: http://www.sciencedaily.com/releases/2010/08/100825131546.htm


II. Científicos que trabajan para una de las oficinas de la NASA han encontrado que el fenómeno de El Niño es cada vez más poderoso.


Científicos de la NASA que se dedican a estudiar los datos meteorológicos colectados por medio de sus satélites han encontrado que son cada vez más pronunciados los fenómenos de El Niño, que consisten en un aumento de la temperatura en la superficie del agua en el Océano Pacífico.

La temperatura del agua en la región ecuatorial del Océano Pacífico oscila hacia temperaturas más altas o menores de manera alternada, tal que cuando está más caliente en el este, en las aguas que se encuentran al sur de México, está más fría en las aguas que se encuentran al sur de China y Noreste de Australia.

El fenómeno también es conocido como la oscilación del sur y al periodo de agua más caliente le llaman El Niño, a la vez que a la etapa de agua más fría le llaman La Niña. Cuando la temperatura del agua no está en ninguno de los dos extremos, se le llama periodo neutral.

Revisando las imágenes de satélite y las tablas de temperaturas, presiones y movimiento de los vientos, entre otros datos, los científicos llegaron a la conclusión de que se observa un fenómeno de calentamiento del área del Océano Pacífico y de que éste es lidereado por el fenómeno de El Niño, que parece haberse trasladado hacia la región central de ese Oceáno. Según los científicos, el Niño se conduce como una maquinaria que va jalando al resto de regiones hacia un calentamiento.

La magnitud del fenómeno de El Niño se establece mediante la medición de su temperatura para calcular qué tanto se separa de la temperatura promedio del agua.

Este nuevo fenómeno ha sido llamado también: El Niño del Pacífico Central, Alberca Caliente El Niño y El Niño Modoki, de una palabra del Japonés que significa: similar pero diferente. Estos eventos de El Niño fueron observados en 1991 y 1992, en 1994 y 1995, en 2002 y 2006, en 2004 y 2005 y finalmente en 2009 y 2010.

Estas observaciones coinciden con predicciones de varios modelos climáticos en los que se asegura que estos eventos forman parte del proceso de calentamiento global y que serán cada vez más poderosos y más frecuentes.

El estudio fue publicado recientemente en la revista científica Geophysical Research Letters, que podemos traducir como Cartas de Investigación sobre Geofísica.

Fuente: http://www.sciencedaily.com/releases/2010/08/100825200657.htm

para más información acerca de que es El Niño, se puede consultar:
http://sealevel.jpl.nasa.gov/.



III. La exposición a pesticidas está relacionada con el déficit de atención de los niños, un desorden de conducta mejor conocido como ADHD.



Un artículo publicado en la revista Pediatrics explica que se ha encontrado conexión entre la exposición a pesticidas organofostados y la incidencia de niños con el síndrome de déficit de atención.

En el estudio realizado se estudió a 1 139 niños de los Estados Unidos y se midieron los niveles de pesticidas en la orina. La conclusión de los autores es que la exposición a los pesticidas organofosfatados en niños en desarrollo puede tener efectos en el sistema neuronal y contribuir a conductas de deficiencia en la atención e hiperactividad.

Los autores mencionan también que ya se sospechaba de esta relación, debido a que ya se había detectado este fenómeno en animales con exposición a los pesticidas organofosfatados, mismos que presentaban conductas similares al déficit de atención y a la hiperactividad.

El trabajo fue desarrollado por Maryse Bouchard, de la Universidad de Montreal y de la Universidad de Harvard, por David C. Bellinger, Robert Wright y Marc Weisskpof de la Universidad de Harvard, con el apoyo de el Instituto Canadiense para Investigación de la Salud y también del Instituto de Ciencias de la Salud y Ambientales.

Fuente: http://www.sciencedaily.com/releases/2010/05/100517132846.htm

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba) 25 de agosto de 2010

 
I. Estudios clínicos demuestran, por primera vez, la efectividad de tomar agua como método para controlar el apetito y bajar de peso.



La Dra. Brenda Davy y seis colaboradores del Instituto de Salud Pública e Investigación sobre el Agua, han publicado un artículo en el que reportan que tomar agua 30 minutos antes de cada comida ayuda a disminuir el consumo de alimentos, lo cual repercute en la disminución de peso.
 
El interés de este grupo de investigación está dirigido hacia el hecho, bien establecido, de que los adultos mayores tienen un peso superior al promedio del resto de la población, producto de un proceso de aumento de peso conforme avanza su edad.
 
Para el desarrollo de su investigación estudiaron un conjunto de 48 seres humanos adultos, formaron dos grupos de personas con edades entre 55 y 75 años. Ambos grupos siguieron una dieta reducida en calorías para disminuir su sobre peso pero a uno de ellos le indicaron que tomara dos tazas de agua antes de cada comida, en tanto que al otro grupo les permitieron asistir a su toma de alimentos sin tomar agua.
 
El resultado fue que la ingesta de calorías se redujo en el grupo que tomaba agua 30 minutos antes de cada comida, lo cual repercutió después en una disminución de peso más notable.
 
Fuente: http://www.ipwr.org/science/davy.html
 
En palabras de Brenda Davy, traducida por nosotros, afirma: “Encontramos en estudios iniciales que las personas con edad media, o avanzada, quienes tomaron dos tazas de agua justo antes de ingerir sus alimentos comieron entre 75 y 90 calorías menos durante sus comidas. En un estudio más reciente encontramos que en el curso de 12 semanas, quienes siguieron el método de tomar agua perdieron aproximadamente 2.5 kilos más que quienes no lo hicieron.”
 
Brenda Davy trabaja ahora para el Virgina Tech y recomienda tomar agua con la frecuencia adecuada pero afirma que no se sabe cuánta agua debe consumir cada persona y advierte sobre los excesos en que se puede caer si se toma demasiada agua, lo cual puede llevar a quienes lo hacen a una condición que se conoce como: intoxicación con agua o hiperhidratación. La recomendación para las personas saludables es que consuman el agua necesaria para saciar su sed.
 
Este caso de intoxicación con agua debería ser leído por las personas jóvenes debido a que, en la actualidad, la costumbre de ingerir agua para evitar el consumo de alimentos está muy difundida entre las damas que tratan de controlar su peso para mejorar, o conservar, una figura que consideran ideal en los patrones de belleza modernos. Como puede verse, la intoxicación por agua es un tema suficientemente importante para ser abordado en un programa próximo de Vox Populi de la Ciencia.

 
II. Se pueden detectar cuatro tipos de cáncer por medio de nanosensores. Funcionan mediante un aparato similar al alcoholímetro que se usa en algunas ciudade
s.


Con fecha 10 de agosto de 2010, ocho investigadores de apellidos: Peng, Hakim, Broza, Billan, Abdah-Bortnyak, Kuten, Tisch y Haick, publicaron en la revista British Journal of Cancer, número 103, páginas 542 a 551, un artículo cuyo título es: Detección de cánceres de pulmón, seno, colorectal y de próstata mediante el uso de arreglos de nanosensores para analizar el aliento que se recibe de la boca de la persona para ser almacenado en un pequeño recipiente.
 
Los autores explican que el crecimiento de los tumores viene acompañado de cambios en genes y/o proteínas que pueden llevar a la formación de peróxidos en las membranas de las células.
 
Los peróxidos son compuestos en los que hay, entre otros átomos, pares de oxígenos que están ligados únicamente por un enlace químico, razón por la cual a cada oxígeno le sobra otro enlace. Cada enlace es una conexión entre dos átomos. Se trata de una región del espacio en la que se mueven electrones que son compartidos por ambos átomos, pero cuando se hacen maquetas para representar moléculas son presentados con picadientes y otros objetos largos.
 
Cuando se forman estos peróxidos, las células emiten compuestos volátiles orgánicos que son expulsados a través del aliento y pueden ser detectados por medio de nanosensores. Se le llama compuestos volátiles porque son gases que se difunden en el aire.
 
Los nanosensores son formados con algunas decenas o miles de átomos, que pueden ser usados para detectar algo. En el caso que nos interesa ahora se trata de grupos, o arreglos, de estos pequeños compuestos.
 
Son tan pequeños que si pudiéramos alinear átomos de hidrógeno como si fueran canicas, bastaría unas cuantas decenas de ellos para igualar el tamaño de un nanocompuesto.
 
Los investigadores lograron caracterizar los estados de salud de personas con cánceres de pulmón, seno, colorectal y próstata analizando el aliento de 177 voluntarios con edades de 20 a 75 años de edad. La colección de aliento de los voluntarios se realizó antes de que llevaran alguna clase de tratamiento y de acuerdo a los datos que subjetivamente proporcionaban ellos, parecían estar sanos. Dicho de otra forma: ellos se sentían bien de salud.
 
Los distintos alientos capturados fueron analizados en los detectores hechos con nanopartículas de oro y se usaron técnicas de cromatografía de gases, además de técnicas de espectrometría.
 
La cromatografía de gases es un sistema para separar gases y estudiar de qué están compuestos. Con frecuencia aparecen en programas sobre asuntos criminales en la televisión de los Estados Unidos y su grado de complejidad nos obliga a exponer su funcionamiento en un programa próximo de Vox Populi de la Ciencia.
 
Las técnicas de espectrometría aprovechan la propiedad que tiene cada átomo de absorber y emitir luz de ciertos colores que son típicos de cada átomo, razón por la cual esos colores son como una credencial de identificación de cada átomo.
 
Los investigadores pudieron diferenciar, en este estudio, los distintos tipos de cáncer, independientemente de la edad, el género, el estilo de vida y de otros factores que pueden llevar a confusión.
 
Los investigadores concluyen que sus resultados podrían llevar al desarrollo de métodos fáciles de usar, no caros, portátiles y no invasivos, para diagnosticar estos cuatro tipos de cáncer.
 
Fuente: http://www.nature.com/bjc/journal/v103/n4/full/6605810a.html
 

III. Un grupo de investigadores canadiense desarrolló un neuromicrochip que puede ser conectado a diferentes partes del cerebro y se podrá vigilar zonas del cerebro extremadamente pequeñas.


Uno de los problemas con los estudios del cerebro es la capacidad de resolución de los aparatos que se usan. Con esto queremos decir que muchas veces no se logra diferenciar con detalle de cuáles zonas cerebrales se trata. Es un problema similar a tratar de ver los cráteres de la luna con un telescopio de muy mala calidad.
 
Los investigadores han logrado cultivar neuronas en aparatos de laboratorio y conectarlas en las terminales de los chips. Y al revés, también han logrado conectar los chips a células cerebrales.
 
La técnica les permite vigilar cambios pequeños en la actividad cerebral, al nivel del intercambio de sustancias de las neuronas con el medio que las rodea a través de sus membranas. También han logrado estudiar el efecto de las sinapsis sobre las neuronas.
 
Como hemos explicado en otras ocasiones en este programa de radio. Las neuronas tienen una parte principal llamada soma, después un cordón largo que se llama axón, que se ramifica en hebras pequeñas similares a las raíces más delgadas de los árboles. Esas hebras terminan en protuberancias que se llaman sinapsis y que tienen en su interior glándulas que producen unas sustancias llamadas neurotransmisores con las que bañan las membranas de otras células.
 
El neurochip fue desarrollado en el Instituto del Cerebro Hotchkiss, del Departamento de Biología Celular y Anatomía de la Universidad de Calgary.
 
Ellos concluyen que su neurochip permite estudiar cómo trabajan pares de células y que su uso permitirá entender mejor cómo trabajan los fármacos utilizados para diversas enfermedades del cerebro. En especial las que son neurodegenerativas, como el mal de Parkinson y el Alzheimer.
Fuente: http://www.hbi.ucalgary.ca/news-stories/Advances-Neurochip-Technology
 

miércoles, 25 de agosto de 2010

Las inundaciones en Hermosillo y un evento catastrófico de probabilidad muy pequeña

Emisión del 25 de agosto de 2010
(continuación del programa del 18 de agosto previo)


IV. ¿Por qué se inundaron las casas y comercios de las calles Galeana, Dr. Pesqueira y Boulevard Centenario?





Conviene establecer que en los sitios en que la calle Galeana cruza el vado del río, la altura sobre el nivel del mar es de 196 metros.
A la altura del Boulevard Serna se incrementa a 198 metros sobre el nivel del mar y a 275 metros al norte del Serna, la altura de la calle Galeana sobre el nivel del mar es de 200 metros. Cuatro metros más que en el vado del río.




La calle Galeana, en su cruce con la calle Tehuantepec alcanza una altura de 202 metros sobre el nivel del mar. Lo mismo ocurre en su cruce con la calle Dr. Paliza, cerca de la catedral de la ciudad de Hermosillo.
Este incremento de altura respecto al vado del río se revierte enseguida, pues en el cruce de la calle Galeana con Boulevard Centenario la altura sobre el nivel del mar es de 201 metros.




En el cruce de la calle Galeana con la calle Dr. Pesqueira tenemos de nuevo 202 metros sobre el nivel del mar. De allí en adelante, caminando siempre hacia el norte, todo es cuesta arriba, hasta alcanzar en el centro de las artes de la UNISON, en la calle Colosio 206 metros sobre el nivel del mar.

Entonces tenemos una cuenca pequeña que capta agua de lluvia y la canaliza por la calle Dr. Pesqueira y por el mismo Boulevard Centenario rumbo al poniente, hacia la calle Reforma y no hacia el vado del río. Una cuenca es el territorio en el que el agua de lluvia lleva a un mismo arroyo o río.







El problema reside en que esa conducción es muy lenta y en que se trata del agua captada en todo el centro de la ciudad, más la que baja por la falda norte del cerro de la Campana.



Para demostrar que efectivamente ése es el caso, tomemos ahora la calle Yáñez como referencia. En su cruce con el Boulevard Luis Encinas (o Blvd. Transversal) hay una altura de 210 metros sobre el nivel del mar.
Avanzando hacia el sur por la calle Yáñez, en su cruce con la calle Monterrey la altura sobre el nivel del mar es de 208 metros. Cuando se llega a la calle Serdán, esa altura ya ha disminuido un metro, lo mismo ocurre en el cruce de las calles Yáñez y No Reelección, después sigue la falda del cerro de la Campana.
La conclusión es que el agua que llueve sobre el centro de la ciudad no tiende a alejarse del cerro de la Campana hacia el norte, sino que tiende a salir hacia el poniente, hacia la plaza Zaragoza y de allí al destino que ya mencionamos: la calle Reforma, en lugar del vado del río.
¿Con qué velocidad viaja el agua? Eso depende de la inclinación del terreno, de la fricción de la corriente de agua con el suelo y de la viscosidad de este líquido, sin considerar otros efectos físicos de importancia menor.

El agua que se encuentra en las calles Serdán y Rosales está a 208 metros sobre el nivel del mar y cae 2 metros desde allí hasta el cruce de calle Rosales y No Reelección, después cae 5 metros desde el cruce de Rosales y No Reelección hasta la calle Galeana. Esto último ocurre en una distancia de 350 metros.

Usando fórmulas de las matemáticas para medir la inclinación, o pendiente en palabras de los matemáticos, sabemos que es un número que resulta más de tres veces menor que el del tramo que va desde el centro de la ciudad hasta la calle Galeana, debido a que el agua recorre más distancia y baja menos altura respecto al nivel del mar. Dicho de otra forma ¡El agua baja rápidamente y casi se queda estancada!

V. Un escenario catastrófico, poco probable, como premisa para estudiar el riesgo de inundación en Hermosillo

Regresando al documento desarrollado por IMPLAN en el año 2006, cabe afirmar que la calidad del mapa disponible en ese documento no es técnicamente buena, porque no dibuja adecuadamente las curvas de nivel del terreno de la ciudad, razón por la cual nos dimos a la tarea de medir las alturas sobre el nivel del mar en la ciudad de Hermosillo, pensando en el siguiente escenario catastrófico, pero improbable:

1.Supongamos lluvias similares a las ocurridas en el área de Empalme y Guaymas los días 2 y 3 de septiembre de 2009 como parte de los efectos del huracán Jimena.
2.Supongamos, además, que eso ocurre después de lluvias de julio y agosto correspondientes a los picos más altos de precipitaciones en la cuenca del Río Sonora, tal que están a su máxima capacidad las presas Rodolfo Félix Valdéz (llamada también del molinito) y Abelardo L. Rodríguez, así como la gran cantidad de pequeños represos ubicados en los arroyos afluentes del Río Sonora. Se le llama afluentes a los ríos más pequeños, o arroyos, que aportan su agua a otro más caudaloso.

¿Cuál es la consecuencia probable en este escenario?
Descontrol en el manejo de las avenidas sobre la presa del molinito y posible descontrol en el manejo de la presa Abelardo L. Rodríguez, cuya capacidad ya no es de 250 millones de metros cúbicos debido a que se encuentra azolvada, es decir, llena de tierra después de décadas de recibir las avenidas de los ríos San Miguel y Sonora.

VI. ¿Qué efectos puede producir sobre la ciudad de Hermosillo la imposibilidad de controlar el desfogue de la presa Abelardo L. Rodríguez?

Para tener una respuesta es necesario invertir en la investigación necesaria para estudiar, mediante cálculos teóricos y mediante laboratorios con sistemas de maquetas construidas a escala, cuál puede ser la conducta del agua cuando se presentan diversos volúmenes de paso de agua a través del vertedor.
Se requiere revisar periódicamente las condiciones del bordo de la presa para detectar la presencia de posibles grietas y la situación general de la resistencia del mismo.
Mientras tanto, algunos datos de la altura sobre el nivel del mar son sumamente preocupantes, como se aprecia a través de los siguientes datos que tomamos del servicio gratuito de Google Earth, con las limitaciones asociadas a esa gratuidad.
1.En el vaso de la Presa Abelardo Rodríguez marca 219 metros sobre el nivel del mar.
2.Desde la calle Dr. Paliza tomamos la Reforma rumbo al norte y en su cruce con la calle Colosio (esquina de la Universidad de Sonora), marca 200 metros sobre el nivel del mar. Estos son 19 metros por debajo del nivel medido en la presa.
3.La misma calle Reforma, en el cruce con Boulevard Navarrete nos encontramos a 206 metros sobre el nivel del mar. Esto es enfrente del gimnasio de la Universidad de Sonora. Todavía a 13 metros debajo del nivel de la presa.
4.Si seguimos hacia el norte por la calle Reforma, en el cruce con Boulevard Luis Encinas vuelve a marcar 206 metros sobre el nivel del mar.
5.Por la misma calle Reforma, en el cruce con calle Veracruz, nos encontramos a 209 metros sobre el nivel del mar. Diez metros por debajo del nivel de la presa.
6.Por la calle Reforma, en el cruce con la calle Nogales, ahora Santiago Healy, estamos a 215 metros sobre el nivel del mar. Cuatro metros debajo del nivel reportado en la presa.
7.Por la calle Reforma, a 192 metros al norte del cruce con la José Carmelo se alcanza precisamente el mismo nivel encontrado en el vaso de la Presa: 219 metros sobre el nivel del mar
8.Cambiamos ahora de calle, pensemos en tomar el Boulevard Abelardo L. Rodríguez, rumbo a la salida a Nogales. Encontramos que la altura de 219 metros sobre el nivel del mar se alcanzan casi en el cruce con la calle Veracruz, frente a una gasolinera.
9.Si tomamos la calle Monte Verde, orientada en forma paralela a la calle Reforma, encontramos que el nivel de la presa se encuentra a un lado del Mercado Número 2, cerca de la calle José María Mendoza.
10.Tomando la calle Olivares hacia el norte encontramos los 219 metros sobre el nivel del mar a casi 2 kilómetros hacia el norte del cruce con el Boulevard Luis Encinas.
¿Qué ocurre en la margen sur del río Sonora?
11.Al sur del vado del río, la colonia Praderas se encuentra a 199 metros sobre el nivel del mar. Veinte por debajo del nivel marcado en la presa.
12.La colonia Nacameri está a 197 metros sobre el nivel del mar. Veintidós metros debajo del nivel de la presa.
13.La colonia San Ángel se encuentra a 198 metros sobre el nivel del mar. Veintiuno por debajo del nivel de la presa.
14.Gran parte de la colonia El Apache está a 197 metros sobre el nivel del mar.
15.Tomando por el camino del Seri, se baja desde 193 metros sobre el nivel del mar, hasta 189 metros sobre el nivel del mar.
16.La colonia Los Lagos está a 190 metros sobre el nivel del mar. Veintinueve metros por debajo del nivel marcado para la presa.
17.La colonia Las Quintas y la Colonia Fuentes del Mezquital, se encuentran a 195 metros sobre el nivel del mar. Veinticuatro por debajo de la presa.
Estos 17 puntos considerados indican que es preferible una política de planeación en la que se nos proteja sobre la base de prevenir escenarios de niveles catastróficos, poco probables, pero que no son de probabilidad cero.

miércoles, 18 de agosto de 2010

Las lluvias copiosas sobre Hermosillo obligan a la autoridad a planear para protegernos con base en la prevención de escenarios catastróficos (Vox Pop

I. ¿Qué significan los reportes de lluvia en milímetros?

El jueves 29 de julio de 2010, entre las 3:30 y las 6:00 de la tarde llovió sobre la ciudad de Hermosillo, Sonora, una precipitación de más de 87 milímetros. Es decir, el agua de lluvia que cae se recibe en un aparato diseñado de modo que recopila el agua para colocarla en un cilindro en el cual se mide el nivel del agua. Asi se determina a cuánto asciende la precipitación. La llovizna posterior haría que la medida pasara a ser de más de 103 milímetros de lluvia. ¿Qué significa esto?

Cuando se dice que ha llovido un milímetro se refieren a que la cantidad de agua sobre una superficie horizontal de un metro cuadrado se levanta 1 milímetro de altura. Para conocer a cuánto asciende el volumen de agua por cada metro cuadrado, basta tener presente que el área de un metro cuadrado equivale a 10 mil centímetros cuadrados y que multiplicados por la altura, que en este caso es de un milímetro, es decir, una décima de centímetro, resulta que el volumen que buscamos son mil centímetros cúbicos, es decir, un litro de agua.




Cuando nos dicen que la lluvia ha sido de 20 milímetros, significa que han caído 20 litros de agua por cada metro cuadrado. Entonces, el 29 de julio de 2010 cayeron sobre Hermosillo más de 103 litros de agua por cada metro cuadrado.






Si alguien de nuestros escuchas vive en una casa de interés social, con 150 metros cuadrados de construcción más terreno, resulta que sobre su vivienda cayeron 15 450 litros de agua desde la 3:30 de la tarde hasta la mañana del día 30 de julio de 2010. ¿Cómo nos podemos imaginar esta cantidad de agua?

Para imaginarnos los 15 450 litros de agua es suficiente con recordar que un tinaco grande, de los que se usan para almacenar agua durante las ocho horas que nos proporcionan agua, tiene una capacidad de mil litros. Es decir, sobre cada vivienda de tamaño promedio de la ciudad de Hermosillo, llovió una cantidad de agua equivalente a 15 tinacos grandes completos, más la mitad de otro de ese tamaño.



Si aceptamos que cada familia consume, en promedio, la mitad de un tinaco grande de agua al día, encontraremos que llovió, sobre cada casa de interés social, el agua suficiente para el consumo de 31 días.

Si aproximamos el plano de la ciudad de Hermosillo mediante un polígono irregular de 90 kilómetros cuadrados, resulta que la lluvia proporcionó más de 9.3 millones de metros cúbicos de agua. Casi el doble de lo captado por la presa Abelardo L. Rodríguez como consecuencia de una avenida del río San Miguel que fue calificada como gigantesca.



Quienes vivimos esta lluvia del jueves 29 de julio por la tarde aprendimos que la ciudad de Hermosillo no está preparada para eso. Como ejemplo, mostraremos en el blog de este programa diez fotografías tomadas en la zona de las calles Galeana y Boulevard Centenario, a menos de 200 metros de la catedral de Hermosillo.

Aquí explicaremos a qué se debió eso y cuáles son los riesgos que corremos en esta ciudad en la que las autoridades municipales y estatales sí saben el peligro en que nos encontramos, pero no actúan en consecuencia.

II. Un plan que no ofreció resultados positivos, como lo prueba la lluvia copiosa del 29 de julio de 2010.

En la dirección de Internet que será publicada en el blog de este programa se encuentra un documento que se llama: Programa de Desarrollo Urbano 2006-2010, desarrollado por el Instituto Municipal de Desarrollo Urbano, fechado en agosto de 2006 y citando como domicilio Dr. Aguilar No. 17 entre Galeana y Comonfort, justamente en la zona en que se registraron las fotos de la inundación a que nos estamos refiriendo. Sus teléfonos también serán publicado en el blog, son: 213-57-74 y 213-64-57.
Fuente: http://www.implanhermosillo.gob.mx/pdu.html

Lo interesante es que en la página 25 del primer capítulo del documento que citamos, se afirma lo siguiente acerca de la ciudad de Hermosillo: “Se ubican zonas de inundación hacia el norte y noreste de la Presa Abelardo L. Rodríguez y en los márgenes del Río Sonora al Poniente de la ciudad, que se presentarían en caso de avenidas extraordinarias.” Cabe aclarar que el documento tiene un error en este punto, pues revisando el mapa, debería decir noroeste.

Enseguida presentan un mapa a colores en el que pintan de color oscuro la zona de presunta inundación, misma que incluye todo el centro de la ciudad, la zona de la Universidad de Sonora y casi todas las colonias que se encuentran al poniente. Todas las colonias de los márgenes del vado del río, así como otras que serán mencionadas más adelante en este programa, que forman parte de las 46 colonias inundadas que reportó el diario El Imparcial en su edición del 30 de julio de 2010.
Fuente: http://www.elimparcial.com/EdicionImpresa/EjemplaresAnteriores/BusquedaEjemplares.asp?Fecha=30/7/2010&seccion=1&subseccion=1&ppal=s

En el documento del Instituto Municipal de Desarrollo Urbano se describen las zonas hidráulicas de Hermosillo y se propone un plan de desagües del agua de lluvia. Si intentaron realizarlo y terminarlo en el periodo del presidente municipal anterior, ahora está claro que la infraestructura existente no fue suficiente.

En el mismo documento se menciona que existe un sistema de dos presas para prevenir las avenidas. El problema es que este presunto sistema representa un espejismo que debería ser analizado con datos estadísticos.

III. Un criterio para atender la seguridad y la calidad de vida de la población

Cuando se habla de datos estadísticos en diseño de ciudades, edificios y casas habitación, es incorrecto prevenir únicamente situaciones promedio, es decir, conjuntos de circunstancias que ocurren de forma cotidiana.

Sostenemos que lo correcto es encontrar cuáles son las situaciones más extremas, aunque sean improbables y tomar decisiones para prevenir esas situaciones extremas.



Un ejemplo se puede tomar a partir de las exigencias que se implantan, a través de reglamentos, para construir previendo sismos de 6, 7 u 8 grados Richter. Considerando que en Hermosillo no hay registro de temblores de gran magnitud, la prevención con base en situaciones promedio sería optar por no considerar análisis sísmicos para otorgar permisos de construcción.

En cambio, tomar prevenciones para cuidar a la población de situaciones extremas sería exigir condiciones de construcción adecuadas para soportar sismos de 8 grados Richter en Hermosillo.

A manera de ejemplo, conviene informar que los segundos pisos de la ciudad de México, construidos durante la gestión de Andrés Manuel López Obrador, se planearon con límites de resistencia en los que pueden soportar un sismo de 8 grados Richter durante dos minutos, con los segundos pisos llenos de trailers cargados.









Actuar con base en situaciones promedio equivale a las siguientes conductas individuales:
No ponerse el cinturón de seguridad, al fin que nunca chocamos;
no comprar seguro para el automóvil, al fin que no chocamos porque somos cuidadosos para conducir;
no tramitar nuestra credencial de seguridad social, al fin que somos muy saludables y nunca nos enfermamos.