martes, 30 de noviembre de 2010

Reporte sobre el cambio climático elaborado para Vox Populi de la Ciencia




¿Cómo surgió la preocupación por el cambio climático?
(Emitido en Vox Populi de la Ciencia el 3 de diciembre de 2009)



• El papel de la atmósfera como trampa que atrapa la radiación en forma de calor fue planteada por primera vez hace más de 180 años por el físico francés Jean Baptiste Joseph Fourier.
• El físico irlandés John Tyndall realizó experimentos en su laboratorio y en 1859 llegó a la conclusión de que, efectivamente, gases como el vapor de agua y el dióxido de carbono, son capaces de atrapar la radiación electromagnética en forma de calor.
• En 1894, un científico sueco de apellido Högbom calculó las cantidades de dióxido de carbono que estaban emitiendo las industrias en aquellos años y llegó a la conclusión de que eran similares a las emitidas por las fuentes geotérmicas naturales.
• En 1896, en Estocolmo, el químico y físico Svante Arrhenius desarrolló laboriosos cálculos numéricos que le permitieron demostrar que si se reducía a la mitad la cantidad de dióxido de carbono de la atmósfera, el clima en Europa descendería de 4 a 5 grados centígrados, produciéndose una nueva era glacial. Así mismo, si la cantidad de dióxido de carbono se incrementaba al doble, encontró que el clima en Europa aumentaría entre 5 y 6 grados centígrados.
• En 1971, buscando ciclos largos en la evolución del clima, un grupo danés dirigido por Willi Dansgaard perforó una región helada de Groenlandia para estudiar diversas capas de hielo. Encontró que había periodos de oscilación de 12 mil años, pero entre ellos, había pequeños cambios muy abruptos que parecían durar uno o dos siglos.

• En 1972, Mikhail Budyko, en Leningrado, realizó cálculos que le permitieron concluir que si se seguía agregando dióxido de carbono a la atmósfera al mismo ritmo de esas fechas, el Océano Ártico se derretiría por completo hacia el año 2,050.






• Poco después, en 1974, George Kukla y su esposa Helena, estudiaron fotografías del Océano Ártico tomadas desde satélite, encontrando que las variaciones entre un año y otro eran tan grandes que si las modificaciones en la extensión de la superficie cubierta con hielo en el año de 1971 se repetía durante otros siete años, la cantidad de nieve y de hielo reflejarían tanta luz hacia el exterior (por ser de color blanco) que se generaría otra era glacial. Ellos llegaron a la conclusión de que los cambios rápidos en el clima eran factibles.





• En 1975, Cesare Emiliani publicó, en la revista científica Science, estudios realizados en lodo blando en el Golfo de México, en el cual encontraron evidencias que le permitieron estudiar los cambios climáticos ocurridos hace 11,600 años. Encontró que el nivel del mar había aumentado a tasas de 20 centímetros por década. También logró detectar que en el periodo que va de hace 12 mil a hace 11 mil años, los cambios de temperatura en la región del Golfo de México habían sido de hasta 7 a 10 grados centígrados. Lo más preocupante fue que en un periodo de apenas 50 años, la temperatura había saltado 5 grados centígrados hacia arriba.

Cesar Emiliane ha estudiado el fondo marino, aquí uno de los mapas que resultan de sus trabajos:


• En 1988 se iniciaron trabajos de dos grupos de investigación distintos, uno estadounidense y el otro europeo, que perforaron el hielo en dos sitios distintos, separados 30 kilómetros entre sí. Ambos grupos habían planeado trabajar juntos, pero debido a que aparecieron diferencias, decidieron trabajar cada uno por su lado. El resultado fue que los hallazgos de ambos fueron coincidentes, lo cual demostró que no se trataba de algún accidente local que pudiera resultar de la forma particular del subsuelo rocoso sobre el cual descansa la capa de hielo estudiada, sino de una tendencia regional más amplia. Entre 2002 y 2004, ambos grupos publicaron evidencia de que en Groenlandia habían ocurrido cambios de temperatura de hasta 7 grados centígrados durante la era de la última glaciación, que se ubica entre hace 110,000 y hace 11,000 años. A ésta también suele ser llamada como: la última era del hielo.
• En resumen, las oscilaciones de temperatura que en los años 1950 se creía que tomaban decenas de miles de años, en los años 1970 se pensó que podría llevarse unos cuantos miles de años. En 1980 se llegó a la conclusión de que tales oscilaciones podrían ocurrir en tan solo unos cientos de años, para llegar a la conclusión, en los años 1990, de que los cambios podrían ocurrir en tan solo 50 años.
• Regresando a los dos grupos de estadounidenses y europeos, un día de verano de 1992 los estadounidenses encontraron que en un cilindro de hielo recién extraído se encontraban grandes cambios en tan solo tres capas, que equivalían a tres años únicamente. Lo más sorprendente fue que los europeos, alejados 30 kilómetros de ellos, encontraban exactamente lo mismo.
• Al menos en Groenlandia, el clima parecía haber cambiado extremadamente rápido.


Fuente: http://www.aip.org/history/climate/rapid.htm#N_42_




El Cambio Climático 2 (emitido el 9 de diciembre de 2009 en Vox Populi de la Ciencia


Los primeros resultados de los estudios realizados en el mar de Noruega en 1992 confirmaron la existencia de cambios abruptos en la temperatura y la humedad. La evidencia encontrada en los hielos de Groenlandia era muy clara, pero surgieron dudas acerca de la posibilidad de que esos datos locales tuvieran alguna clase de significado para el resto del mundo.

Trabajos posteriores basados en cambios químicos de muestras tomadas en estalagmitas de cuevas en California, en el Mar de Arabia, en Suiza y en China, confirmaron que las modificaciones climáticas habían ocurrido en todo el hemisferio norte. Si escogemos el buscador google en la opción de imágenes, y escribimos la palabra estalagmita, la computadora nos proporcionará fotografías de cuevas que presentan un techo con protuberancias con forma de conos que apuntan hacia abajo, y en el suelo otras similares apuntando hacia arriba. Las del techo se llaman estalactitas y las del suelo estalagmitas.









La tecnología dedicada al estudio de radiaciones aportó el mejoramiento de las técnicas basadas en el carbono 14, un isótopo del carbono cuya concentración disminuye con el tiempo, lo cual es una propiedad que permite saber la antigüedad de los fósiles. Los nuevos métodos proporcionaron las bases para localizar los tiempos en que se formaron ciertas partículas de polen con características que permitieron reconocer con mucha precisión los cambios en la temperatura. Así fue posible comprobar que había habido cambios tanto en Japón como en la Tierra del Fuego en América del Sur. Por lo tanto, los cambios bruscos no habían ocurrido solamente en el hemisferio norte, sino en todo el mundo. Se empezó a sospechar que los procesos de cambio encontrados por los grupos de Dansgaard y de Oeschger podrían haber sido acompañados por un vaivén en todo el patrón de circulación de las corrientes de agua del Océano Atlántico Norte.





Los resultados anteriores eran difíciles de aceptar, y junto con las dudas surgió la pregunta referente al posible gatillo disparador de los cambios. Desde fines de la década de los años 1990 se venía sospechando que la posible respuesta no estaba precisamente en el Océano Atlántico Norte, que había sido intensamente estudiado por los científicos, sino en la influencia mutua del Océano Pacífico con fenómenos como El Niño. Se pudo comprender que hay un sistema organizado de vientos con patrones adecuadamente balanceados en el cual participan las masas de aire tropical del Océano Pacífico con los vientos del norte del Atlántico. Así, esta sincronización global tendría que ser el gatillo disparador que se buscaba, en el sentido de que, una vez alterado, la reorganización del mismo produciría cambios bruscos en donde, por ejemplo, un fenómeno permanente de El Niño, no intermitente como en la actualidad, podría venir acompañado de una desaparición masiva del hielo en el Ártico.

En el año 2001 un grupo de expertos concluyó que una desaparición de la circulación de corrientes del Océano Atlántico Norte era improbable, pero reconocieron que no podía descartarse. En los siguientes cuatro años se pudo comprobar que las aguas de esa región venían presentando concentraciones menores de sal, al parecer debido a que el hielo del Ártico se derretía cada vez más, y también, a que los ríos que desembocan en el Océano Atlántico Norte son cada vez más caudalosos.




En el año 2005 se publicaron datos más difíciles de enmarcar en el contexto de descubrimientos que se venían realizando: se anunció que la cantidad de calor que portaban las aguas que avanzan hacia el sur en el Océano Atlántico Norte había disminuido para ser 30% menos que el medido en los años 1950.

Los especialistas en la modelación climática encontraron que había problemas serios con los modelos que se venían utilizando, pues estos estaban diseñados para proporcionar casi exclusivamente soluciones estables, de modo que con ellos nunca iban a encontrar procesos climáticos con cambios abruptos.

Ahora se considera que los cambios abruptos han ocurrido tanto en periodos de glaciaciones, como en periodos de climas cálidos. De modo que están bien documentados descensos de temperatura de hasta 14 grados en periodos que van desde una década hasta 70 años. Como podemos recordar, en un programa previo informamos que una de las hipótesis más aceptadas en la actualidad, acerca de la desaparición de la especie de Neanderthal pudo deberse a uno de estos cambios bruscos en el periodo de vida de una generación, tal que sus métodos de cacería se vieron obsoletos súbitamente a causa de los cambios en la flora de los sitios en que vivían. Algunos especialistas se atreven a relacionar la presencia de grandes sequías con la devastación de varias culturas de América del Norte, y también, con el decaimiento y desaparición de culturas como la de los Mayas en México y América Central, o la de los Mesopotámicos en lo que ahora es Irak.

Mediciones realizadas en los últimos siete años, en los que se ha usado sondeos desde satélites y desde aviones, muestran que las capas de hielo se han estado adelgazando y que la pérdida de zonas blancas en el Ártico y en la Antártida aumenta la absorción de calor en la tierra. Este es un cambio cualitativo importante, de modo que los cambios bruscos del clima podrían tener varias fuentes.

El riesgo de cambios bruscos sigue en duda, pero los paneles intergubernamentales han concluido que son posibles las sorpresas climáticas. Se sabe que éstas incluirían zonas muy frías y otras muy calientes, así como lugares extremadamente húmedos y otros sumamente secos.

Es un hecho que la temperatura está creciendo, aquí una de las gráficas que muestran la magnitud del peligro




VI

Un punto que es de especial importancia es el ascenso del nivel del mar. En el número del 19 de enero de 2007 de la revista científica Science, se publicó un artículo de Stefan Rahmstorf, se intitula “Un enfoque semiempírico para proyectar el incremento futuro en el nivel del mar” (A Semi-Empirical Approach to Projecting Future Sea-Level Rise). En ese reporte se presenta una relación de proporcionalidad entre el crecimiento de la temperatura y el ascenso en el nivel del mar.

Rahmstorf encuentra que existe un incremento de 3.4 milímetros anuales en el nivel del mar por cada grado Celsuis de temperatura. Así, comparado con el nivel del mar en los años 1990, para el año 2100 el mar estaría entre 50 centímetros y un metro cuarenta centímetro más alto.

Sin embargo, Stefan Rahmstorf advierte que el impacto podría ser muy superior y cita trabajos científicos con datos llamados paleoclimáticos que sugieren que durante la etapa más extrema de la última glaciación, hace 20 mil años, el nivel del mar estuvo 120 metros más abajo del actual. Y todo lo anterior con cambios de apenas 4 o 5 grados centígrados menos en la temperatura.

Además, Rahmstorf cita trabajos que demuestran que en el periodo del Plioceno, hace tres millones de años, en los que hubo calentamientos de tan solo 2 o 3 grados centígrados, el nivel del mar subió entre 25 y 35 metros por encima de los niveles actuales.



La gráfica de Stefan Rahmstorf nos muestra el crecimiento del nivel del mar:







Algunas mediciones mías a través de Google Earth arrojan los siguientes resultados:
1. El edificio del Pentágono (en los EE.UU.) que está a 10 metros sobre el nivel del mar quedaría 15 metros debajo del agua.
2. La Casa Blanca y el Capitolio (también en los EE.UU.) quedarían debajo del nivel del mar.
3. Una gran parte de Londres (Inglaterra) también quedaría bajo las aguas
Y respecto a lugares más cercanos:
1. Todo Empalme quedaría bajo el agua, pues la costa se trasladaría hasta el cerrito colorado.
2. En Guaymas el agua llegaría casi hasta la carretera desde la costa del balneario de Miramar a la conexión que lo une con la vía de cuatro carriles. Por el poniente el mar avanzaría desde los muelles hasta casi 800 metros más al poniente de la separación que hay para entrar a la calle Serdán o para avanzar hacia Empalme. De hecho, estudiando por el norte la altura sobre el nivel del mar, Guaymas quedaría convertida en una isla, pues la carretera de cuatro carriles, donde conecta con la separación hacia San Carlos, está por debajo de los 21 metros sobre el nivel del mar. El agua inundaría zonas cercanas a la separación de la carretera de cuatro carriles con la carretera de cuotas y la dirección hacia Guaymas.
3. Todo Puerto Peñasco quedaría cubierto por el agua, y sobreviviría una pequeña parte como islote en la zona situada hacia el sur de la marina. El agua penetraría más de once kilómetros y hasta allí se recorrería la costa.

En general revisar http://www.giss.nasa.gov/research/news/20060925/
Para quienes entienden Inglés, conviene ver el video de Stefan Rahmstorf en: http://www.youtube.com/watch?v=yEw4PdaW37A

Ahora bien, el incremento en el nivel del mar no es la única manifestación del cambio en el clima. Así como es posible que la extinción del hombre de Neanderthal pudo deberse a las modificaciones en su entorno, habrá muchas poblaciones que en la actualidad saben sobrevivir en determinadas condiciones climáticas y que se verán afectadas por los cambios en los patrones de vientos, de humedad y de temperatura. Toda la cadena trófica, o conjunto de cadenas alimentarias, se verán afectadas con la consecuente desaparición masiva de especies.

En realidad, el nombre correcto no es: cambio climático, sino crisis climática.

miércoles, 24 de noviembre de 2010

Actualidades 24 de noviembre de 2010

I ¿Cómo reconoce los colores y las formas nuestro cerebro?




En la visión, los objetos se reconocen por su forma y por las propiedades de su superficie. En esta última importan el color y la brillantez; por ejemplo, al ver una manzana apreciamos tanto su forma como su color, pero además, sabemos reconocer que ésta está brillante u opaca.

Se sabe que estas propiedades son procesadas en la parte posterior del cerebro, a partir de la información enviada por los ojos a través del nervio óptico, pero hasta hace poco tiempo no se tenía conocimiento de cuáles regiones procesan estos detalles de los objetos que vemos.

Los investigadores Hisashi Tanigawa, Haidong Lu y Anna Roe, de la Universidad Vanderbilt, en Nashville, han publicado en la revista científica Nature Neuroscience un artículo intitulado Organización Funcional para el Color y la Orientación en el área V4 de Macacos Functional organization for color and orientation in macaque V4. En este trabajo reportan su estudio de un grupo de monos macacos a los cuales les analizaron la región del cerebro llamada V4, que se ubica en la región occipital, es decir, en la parte interior contigua a la nuca de los macacos y de los seres humanos.

Los macacos son un género de primates que, como los humanos, han logrado trasladarse a vivir en otras regiones distintas a los trópicos. De hecho, el ser humano y los macacos son los únicos primates no extinguidos que se aventuraron a salir del trópico. Viven en el norte de África, pero también en el Estrecho de Gibraltar, en Japón y en Afganistán. Se conocen 22 especies de ellos y son muy utilizados para experimentos científicos.

Ellos reportan que en la región V4 del cerebro existen compartimientos en los cuales procesan, por ejemplo, el color púrpura, el verde y el amarillo. También explican que cuando se busca un objeto de color amarillo el cerebro dirige su atención hacia objetos de ese color específico, restando atención al resto de elementos de distinto color.




El color púrpura se consigue en la pintura con una combinación del color azul con el rojo y algunas personas se refieren a él como: color violáceo por su parecido con el violeta. En las computadoras se utilizan códigos RGB, que quiere decir: rojo, verde, azul, con los números (102,0,153) para obtenerlo.

Las partes del cerebro o compartimientos a que nos estamos refiriendo, son llamadas dominios por los investigadores que han publicado el artículo, e informan también que para reconocer las formas de los objetos también existen dominios del cerebro que muestran preferencia por los trazos verticales, mientras que otros dominios prefieren los trazos horizontales. Así, la forma resulta de la unión que hace el cerebro de los resultados que ofrece cada compartimiento.

Fuente: http://www.sciencedaily.com/releases/2010/11/101116093546.htm




II. El costo social por ser un alumno NERD es mayor entre la población afroamericana y la nativa de los Estados Unidos que en la población caucásica, asiática e hispana.

El término NERD apareció en los Estados Unidos en la década de los años 1950 y se popularizó a través de una serie de televisión de ese país que llevó el nombre de Happy Days y que se emitió entre los años 1974 y 1984.

Los especialistas en Derecho han detectado que existe una discriminación hacia las personas que son consideradas NERDS, pero encuentran difícil el desarrollo de una legislación que los proteja porque la descripción se complica debido al carácter altamente subjetivo del concepto, es decir, que varía mucho de unas personas a otras, de modo que puede tener significados muy distintos.

El término NERD puede ser usado con orgullo o en forma ofensiva para referirse a una persona con fuertes aptitudes para la ciencia, las matemáticas o el cómputo. También suele ser vista como alguien poco común, con una forma de vestir fuera de lo común, sin habilidades para las relaciones sociales.

Thomas Fuller-Rowell y Stacey Doan, investigadores de la Universidad de Michigan, han publicado un artículo intitulado: The social costs of academia success across ethnic groups, (El costo social del éxito académico a través de grupos étnicos). Su trabajo aparece en la revista Child Development y su estudio fue financiado por el Instituto Nacional de Salud de los Estados Unidos.

Para hacer un estudio estadístico se busca obtener una muestra representativa de la población que se va a estudiar. Por ejemplo, si se desea conocer la intención de voto de los hermosillenses, no es necesario entrevistar a todos los habitantes de esta ciudad. Se hace una selección adecuada y al azar. Por ejemplo, si hay 50% de habitantes jóvenes, se busca que la muestra tengoa 50% de habitantes con el intervalo de edad correspondiente, entre otras consideraciones más.

Con especialistas en la estadística, los investigadores realizaron un análisis de una muestra representativa nacional en la que se consideraron 13 mil adolescentes de más de cien escuelas de los Estados Unidos. Como indicadores del éxito académico consideraron siete promedios de calificaciones y realizaron entrevistas en las que pidieron a los estudiantes que asignaran un número de 7 a 12 para indicar qué tan aceptados o rechazados se sentían, socialmente, por otros estudiantes.

También preguntaron qué tan frecuentemente habían sido tratados en forma poco amistosa en la semana anterior a la entrevista, cómo se sentían porque no les agradaban a otros estudiantes y qué tan solitarios se sentían.





Los investigadores encontraron diferencias entre los grupos étnicos, encontrando que entre los blancos la relación entre altas calificaciones y mayor aceptación social es directa, es decir, a mayores resultados favorables en los exámenes, más aceptación.

Entre los estudiantes afroamericanos y entre los nativos de lo que ahora es el territorio de los Estados Unidos, conocidos por nosotros como indígenas estadounidenses, la relación entre los altos promedios fue a la inversa, es decir, a mejores calificaciones, menos aceptación.

Según el estudio, los estudiantes de origen asiático presentan una conducta similar a la de los jóvenes caucásicos, es decir, los habitantes estadounidenses usualmente conocidos como: blancos. A su vez, los estudiantes hispanos, considerados como un solo grupo homogéneo, muestran características similares a los asiáticos y los caucásicos en su aceptación de los NERDS, pero con la diferencia de que en el caso de los hispanos la relación depende en gran medida de que se trate de mexicanos, cubanos o puertorriqueños. En particular, los mexicanos mostraron conductas similares a los afroamericanos. Lo cual revela que hay una gran diferencia entre mexicanos y cubanos o puertorriqueños, de modo que no es justificable haberlos tratado como un solo grupo homogéneo.

Fuente: http://www.sciencedaily.com/releases/2010/11/101117094244.htm





III. El aprendizaje de la lectura, y su práctica, producen cambios en las redes del cerebro que controlan la visión y el lenguaje.


Un estudio realizado por diez investigadores de universidades de Francia, Portugal, Bélgica y Brasil, permitió detectar diferencias en la actividad de distintas áreas del cerebro aún cuando las actividades que se les plantearon fueron las mismas. El artículo fue publicado el 11 de noviembre de 2010 en la revista científica Science y se intitula: “How Learning to Read Changes the Cortical Networks for Vision and Language”, que traducido al español es: “Cómo el aprendizaje de la lectura cambia las redes corticales para la visión y el lenguaje”.

En el trabajo de investigación se sometió a actividades de descripción de figuras, de letras y de símbolos, a 63 personas de características que mencionaremos más adelante. Se trató de que relacionaran el objeto que veían con el lenguaje hablado, y en los casos en que fue posible, el lenguaje hablado y el escrito.

En el caso de la relación del lenguaje hablado y el escrito se buscó detectar hasta qué punto coincidían las áreas del cerebro dirigidas a controlar cada uno de los lenguajes.

En el estudio participaron franceses, portugueses y brasileños. A los franceses se les pagaron 80 euros por su participación. A los portugueses se les alojó durante tres noches en un hotel y se les llevó de paseo un día por París. A los brasileños, localizados en Brasilia, no se les pagó porque las leyes de Brasil prohíben el pago a las personas que participan en estudios científicos, en cambio sí se les proporcionó despensa en alimentos en cantidad equivalente a un día de trabajo.

En total participaron 41 brasileños y 22 portugueses y franceses. Estos últimos con la característica de saber leer y tener cierto grado de escolaridad. En el caso de los brasileños se trataba de 10 personas que no sabían leer por razones sociales, es decir, por ausencia de sistemas escolarizados en la zona en que vivían, o por falta de tiempo ante la necesidad de trabajar para sobrevivir, etcétera, pero no por razones relacionadas con algún impedimento físico.

Se buscó que en el grupo hubiera iletrados, personas que no saben leer, también individuos que aprendieron a leer en la etapa adulta, así como otras personas que desde la niñez hasta la juventud siguieron un sistema escolarizado que los llevó a obtener un título universitario.

La edad promedio de los iletrados era de 53.3 años. Uno de ellos pudo identificar 15 letras, y otro 16 letras, pero ninguno pudo leer palabras. En este caso todos fueron brasileños porque en Portugal no fue posible encontrarlos, tampoco en Francia, aunque los investigadores afirman que hicieron el esfuerzo.

Además, entre los brasileños había un grupo de 10 ex-iletrados, que habían aprendido a leer en su etapa adulta, siendo alfabetizados entre 1 y 5 años antes de la realización del estudio, con un promedio de 2.4 años de haber sido alfabetizados. También había 21 brasileños que sí eran capaces de leer, todos con una escolaridad que en México llamamos de nivel licenciatura.

Tanto franceses como portugueses y brasileños, fueron sometidos a escáner con resonancia magnética y se estudió la respuesta de su cerebro ante el lenguaje hablado y ante la conexión de éste con los símbolos de la lectura.

Nosotros tomamos algunos materiales del documento de respaldo que se llama: “Material de Soporte en Línea”, el artículo no se ofrece de manera gratuita y tiene un costo de más de 35 dólares.

Prestamos atención a las diferencias entre las imágenes de las resonancias magnéticas practicadas y a los pies de figura con los que los investigadores explican sus resultados. Nuestros comentarios pueden ser revisados por todas aquellas personas capaces de leer el idioma inglés, siguiendo los datos que serán publicados en nuestro blog.

En la página 20 del documento mencionado se encuentra la figura 5, con imágenes de resonancia magnética que muestran cómo los adultos que aprendieron a leer hace cuando mucho cinco años, tienen ya más actividad cerebral en regiones dedicadas a la lectura de oraciones, lo cual se presenta en la imagen como áreas coloreadas con color naranja, mientras que en las imágenes de quienes no saben leer aparece una actividad sumamente reducida.

En la página 23 del mismo trabajo se presentan las imágenes de resonancia magnética para los tres tipos de personas: iletrados, ex- iletrados y letrados: se buscaba observar la actividad cerebral al comprender oraciones habladas, oraciones escritas, y también, la coincidencia de zonas cerebrales al realizar las dos actividades.

Las imágenes son muy convincentes debido a que muestran cómo se encuentra más iluminado el cerebro de quienes saben leer, que el de aquéllos que no saben. Dicho de otra forma, el cerebro está más activo en quienes saben leer, haciendo relaciones entre las neuronas del sistema visual que todos tenemos, el sistema del habla, los símbolos de la letra escrita y el reconocimiento de sonidos. Las figuras también estarán en nuestro blog.









Fuente: http://www.sciencemag.org/content/suppl/2010/11/08/science.1194140.DC1/Dehaene.SOM.pdf
http://www.jornada.unam.mx/2010/11/16/index.php?section=ciencias&article=a02n1cie
I













II








III








domingo, 21 de noviembre de 2010

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba) 3 de noviembre de 2010





I. Estudio científico desarrollado por especialistas del Imperial College, de Londres, concluye que la droga más peligrosa es el alcohol.

Un sistema de medición del riesgo en que se incurre cuando se consumen determinadas drogas ha producido como resultado que la más peligrosa de todas es el alcohol. Un conjunto de expertos dirigido por el Profesor David Nutt, del Imperial College de Londres, publicó el primero de noviembre de este año, en la revista científica Lancet, un artículo en el que explica cómo diseñaron un sistema de medida de riesgos de drogas. Los autores son: David J Nutt, Leslie A King, y Lawrence D Phillips. El artículo se intitula Drug harms in the UK: a multicriteria decision analysis (Daños por drogas en el Reino Unido: Un análisis para decisiones con criterios múltiples).





Se reunió un conjunto de expertos que trató de encontrar una tabla de criterios de riesgo, llegando a la conclusión de lo que podrían realizar y concluyeron que estos podían ser los siguientes:
1. Mortalidad debida al uso de la droga específica,
2. Mortalidad relacionada con el uso de la droga,
3. Daño directo debido a la droga específica,
4. Daño relacionado con el uso de la droga,
5. Dependencia de la droga, o adicción,
6. Impedimentos en la función mental directamente causados por la droga,
7. Impedimentos en la función mental relacionados con la droga,
8. Pérdida de capacidad para relacionarse con su entorno,
9. Pérdida de relaciones, y
10. Heridas.





Además consideraron
1. Criminalidad,
2. Daño al ambiente que rodea al consumidor,
3. Conflicto familiar,
4. Daño internacional,
5. Costo económico, y
6. Declinación de la cohesión de la comunidad.

Cuando procedieron al análisis de las drogas calificaron con calificación de 100 puntos el máximo de peligrosidad, por cada uno de los criterios analizados, para cada una de las drogas estudiadas. Así mismo, asignaron un cero cuando el peligro era considerado nulo. A su vez, una droga con 50 puntos en un criterio específico significó que era la mitad de peligrosa que una de 100 puntos.




Cada droga recibió una calificación de cero a cien por cada criterio y después se calculó un promedio para considerar la combinación de todos los criterios. Los resultados fueron los siguientes:

En primer lugar el alcohol con una calificación de 72 puntos.
En segundo lugar la heroína con 55 puntos.
En tercer lugar el crack con 54 puntos.
En cuarto lugar el cristal con 33 puntos.
En quinto lugar la cocaína con 27 puntos.
En sexto lugar el tabaco con 26 puntos.
En séptimo lugar la anfetamina con 23 puntos.
En octavo lugar la mariguana con 20 puntos.
Después siguieron: el GHB con 18 puntos, el valium con 15, la ketamina con 15 también, la metadona con 14, el butano con 10, el khat, el éxtasis y los esteroides anabólicos con 9, el LSD con 7, la buprenorfina con 6 y los hongos con 5 puntos. Estos últimos son conocidos como hongos alucinógenos, entre los cuales puede mencionarse la Amanita Muscaria, el Peyote, la Ayahuasca y la Datura Brugmancia. La amanita crece en Siberia y el peyote es conocido en México.
Los investigadores afirman que su estudio mantiene concordancia con otros estudios similares hechos por especialistas del Reino Unido y de Holanda. Concluyen también que sus hallazgos demuestran que el sistema de clasificación que se usa oficialmente no tiene relación con la evidencia de daño que las drogas causan.
Afirmaron también que se podría clasificar como clase A a las drogas con más de 40 puntos, que fue el caso del alcohol, la heroína y el crack; como clase B a los que quedaron entre 39 y 20 puntos; como clase C a los que se ubicaron entre 19 y 10 puntos y como clase D a las drogas que recibieron menos de 10 puntos. Esta clasificación permitiría situar rápidamente en la memoria de una población el grado de peligrosidad de cada droga.
Fuentes: http://www.sciencedaily.com/releases/2010/11/101101162138.htm
10.1016/S0140-6736(10)61462-6


II. Se ha inventado un pequeño aparato que permite a la mujer hacerse sus propias mamografías en su casa.
El Profesor Zhipeng Wu, de la Escuela
de Electricidad y de Ingeniería Electrónica de la Universidad de Manchester en Inglaterra, ha inventado un escáner portátil que utiliza ondas de radio para detectar, en un segundo, la presencia de tumores malignos o benignos usando una computadora en su casa. El Escáner es un sistema que permite barrer con un haz de luz, o de ondas de radio, o de ultrasonido, toda una región para esperar una señal de respuesta que será detectada mediante censores, que son como micrófonos para el sonido y que producen una señal que será enviada a un sistema de análisis mediante cómputo, entre otras posibilidades.

El uso de tecnología basada en ondas de radio, o en micro ondas, ya se ha utilizado en Canadá, en Estados Unidos y también en el Reino Unido, pero su uso obliga a emplear varios minutos para disponer de una imagen, además de que se necesita que estén en hospitales o en centros de atención especializada.

El trabajo del Profesor Wu le permite al paciente recibir una imagen de video en tiempo real usando el escáner a base de frecuencias de ondas de radio y mostrar la presencia de un tumor. El tiempo real significa que se presenta en pantalla la misma señal que se está recibiendo, a diferencia de las radiografías a las que estamos acostumbrados, que presentan una imagen que se tomó hace minutos, o hace días. Además de reducir el tiempo de espera para ser atendidos, permite evitar el uso de rayos X como es el caso de las mamografías actuales.

Este escáner puede ser utilizado en la comodidad de la casa y usar una cantidad pequeña de tiempo para mantener el monitoreo del pecho, y según el reporte del portal de difusión científica: Daily Science News, utiliza la misma tecnología de un teléfono celular, es tan pequeño como una pequeña mochila para guardar el lonche de los niños, usa poca energía eléctrica y lo pueden tener en su casa.





El cáncer de pecho es la segunda causa de muerte en las mujeres y constituye el 8.2% de los casos de fallecimientos por esa razón en los Estados Unidos. La forma usual de detectarlo es a base de mamografías, con una precisión del 95% en el caso de mujeres de más de 50 años pero es mucho menos efectivo en las mujeres jóvenes.

Otros sistemas distintos al del Profesor Zhipeng Wu necesitan de la aplicación de ciertas clases de gel para poder trabajar, pero el suyo puede ser utilizado incluso con un brasier puesto. La presencia del tumor, o de cualquier otra anormalidad, es detectada mediante ondas de radio porque la capacidad para conducir electricidad en las células del tumor es diferente que en el tejido normal, eso hace que el paso de las ondas de radio sea diferente y que se pueda detectar mediante un sensor para transmitirlo enseguida a una pantalla de computadora.

El Profesor Wu ha enviado su invento a un concurso de innovaciones, de modo que no tenemos noticia de su posible fabricación y comercialización. Es indudable que esta clase de aparatos podría diseñarse y construirse en México, a fin de acortar los tiempos para que se encuentre disponible al público, pues además, se corre el riesgo de que la patente sea comprada por alguna gran transnacional vendedora de aparatos para hospitales, que la podrá guardar hasta esperar el momento propicio para su comercialización o su congelación, según convenga a sus intereses.

Fuente: http://www.sciencedaily.com/releases/2010/10/101027090838.htm



Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba) 10 de noviembre de 2010


I. Científicos de la Universidad McMaster, de Ontario, Canadá, han logrado desarrollar células de sangre a partir de células de la piel
.
La sangre está compuesta por varios tipos de células. Éstas son los eritrocitos, los leucocitos y las plaquetas. Los eritrocitos son los glóbulos rojos, que contienen una gran cantidad de hemoglobina, la sustancia que les da el color rojo y que es portadora de oxígeno y de nutrientes para las células del organismo. No tienen núcleo, de modo que no se reproducen a sí mismos y no tienen mitocondria, de modo que necesitan de otras fuentes de energía para su funcionamiento. Por cada milímetro cúbico de sangre la mujer tiene un promedio de 4.5 millones de eritrocitos y el hombre 5 millones de ellos.

La mitocondria es un cuerpo que se encuentra en el interior de muchas células, proviene de una bacteria que se introdujo en células en alguna etapa muy antigua de la evolución y se acomodó a vivir allí. Uno de sus papeles principales es proporcionar energía a la célula.




Los leucocitos no contienen un pigmento que les dé color, razón por la cual se les llama glóbulos blancos y son los encargados de la defensa del organismo (el llamado sistema inmunológico), su tamaño oscila entre 8 y 20 micras de diámetro. Hay varios tipos de leucocitos: los linfocitos, los monolitos, los neutrófilos, basófilos y eosinófilos.

La palabra glóbulo viene del latín globulus y uno de los significados asignados en el diccionario en línea de la Real Academia Española es: pequeño cuerpo esférico. Esa es la razón por la que reciben el nombre de glóbulos rojos y glóbulos blancos.

Las plaquetas son la tercera componente de la sangre, juegan un papel importante en el conjunto de mecanismos necesarios para detener la pérdida de sangre, o hemorragia. A este conjunto de procesos se les llama hemostasis y el componente fundamental para su funcionamiento son las plaquetas, que tienen de 2 a 3 micras de diámetro y resultan de la fragmentación de un tipo de célula llamada megacariocito. Una célula muy grande, que mide cerca de 80 micras y se encuentra en la médula ósea.




El megacariocito juega un papel muy importante en la formación de la sangre, un proceso que se llama hematopoyesis y que ha sido controlado por los científicos de la Universidad McMaster, de Ontario, Canadá, quienes trabajaron a partir de células de la piel y no tuvieron necesidad de recurrir a células madre para realizar el trabajo. Ellos son, Eva Szabo, Srhavanti Rampalli, Ruth Risueño, Angelique Schnerch, Ryan Mitchell, Aline Friebi, Marilyne Levadous y Mickie Bhatia. Han publicado su investigación en la revista Nature, en la edición en línea del pasado 7 de noviembre.



Como hemos mencionado en otros programas, hay ocasiones en que la producción científica necesita ser conocida rápidamente para evitar la duplicación de esfuerzos, y también, para ganar la primicia en los descubrimientos. Por esa razón, muchas revistas científicas han aplicado la política de publicar sus artículos en Internet, en un portal especial dedicado a ese propósito. A eso es a lo que llamamos edición en línea.
Fuentes: http://www.sciencedaily.com/releases/2010/11/101107202144.htm

sábado, 20 de noviembre de 2010

Nobel de Química en 2010 (Vox Populi de la Ciencia, Radio Bemba) 13 de octubre de 2010



Se otorga el premio Nobel de química a Richard Heck, a Ei-ichi Negishi y a Akira Suzuki, por el desarrollo de procesos para producir (sintetizar) compuestos orgánicos usando paladio como catalizador en un sistema que se llama acoplamientos cruzados.

Sus biografías están siendo publicadas en los diarios, de modo que nos dedicaremos a explicar en qué consistió su trabajo y por qué es de mucho impacto para la sociedad. Nuestra fuente es: Jan E. Bäckvall, Profesor de Química Orgánica de la Universidad de Estocolmo y miembro del Comité Nobel para Química. Su escrito se encuentra en línea para ser consultado en el sitio oficial del premio Nobel.


Existe un conjunto de elementos químicos que se llaman metales de transición. Si tenemos una tabla periódica a la mano, veremos en la parte central de la misma un bloque marcado con la letra d.

El uso de la letra d para ese conjunto de elementos situados en el centro de la tabla periódica es porque en los átomos los electrones se van acomodando en capas marcadas con las letras: s, p, d, e, etcétera. En especial los elementos químicos del bloque d tienen lleno de electrones las primeras dos capas (s y p) pero tienen la capa d sin llenar completamente.

Ese hecho determina propiedades químicas específicas que son características de estos elementos químicos, entre los cuales se puede mencionar al hiero, cobalto, cobre, zinc, paladio, entre otros. Se recomienda consultar una tabla periódica a colores y encontrar que del elemento 21 al 30, después del 39 al 48, etcétera, están marcados como metales de transición.

En particular el que juega un papel fundamental en los procesos es el paladio, su símbolo es Pd, su número atómico es 46 y es un metal de color blanco, que se usa, por ejemplo, en los filtros de los automóviles para evitar hasta el 90% de los gases nocivos que estos emiten.

El paladio es uno de esos metales que participan en procesos de catálisis, es decir, en modificaciones de la velocidad con la que ocurren las reacciones químicas, haciendo que sean más rápidas o más lentas, según se necesite. Por ejemplo, los convertidores catalíticos de los autos tienen platino, rodio y paladio, que actúan sobre los gases provenientes del motor para acelerar su reacción química haciendo que se oxiden de inmediato y salgan a la atmósfera como gases inocuos, en el mejor de los casos, con una eficiencia de hasta 90%.

En el caso de las reacciones químicas con sustancias orgánicas, llamadas así porque muchas de ellas aparecen como resultado de seres vivos o de restos de ellos, el control de los procesos de reacción química es muy complicado porque las posibilidades de enlaces que se llevan a cabo entre átomos, o que se rompen, es muy grande. ¿Por qué? Porque las moléculas involucradas están compuestas por muchos átomos.

En estas reacciones químicas es fundamental la presencia de los átomos de carbono y el interés en los enlaces químicos de estos átomos se ha notado en el otorgamiento de premios nobel en los más de cien años que lleva de existir el premio. Por ejemplo, en 1912 se otorgó por la reacción de Grignard, en 1950 por la reacción de Diles-Alder, en 1979 por la de Witting y en 2005 por la de Chauvin, Grubbs y Schrok. Todas ellas involucrando enlaces con átomos de carbono.

La diferencia entre las reacciones anteriores y la de Heck, Negishi y Suzuki, es que estos últimos manejan enlaces químicos sencillos, con un electrón aportado por el carbono, en lugar de enlaces dobles, con dos electrones aportados por el carbono.

El paladio juega un papel fundamental y la idea es simple: el paladio gasta uno de sus enlaces en ligarse a un átomo de carbono y otro de sus enlaces en ligarse a otro carbono, acercándolos. Una vez que esos dos carbonos están muy cerca, abandonan al átomo de paladio y se ligan entre ellos, que era la intención original del científico o del técnico que aplica ahora el procedimiento.



El trabajo de Heck, uno de los tres ganadores del Nobel, inició en 1968 y se extendió durante más de cuatro años hasta que consiguió lo que se llama ahora el mecanismo de reacción de Heck.

Otro de los ganadores del Nobel, Negishi, inició sus trabajos en 1976 y alcanzó grandes logros al año siguiente, hasta que en 1978 logró establecer sus mejores resultados, que cristalizaron en el trabajo de Suzuki, quien a partir de 1979 avanza, junto con sus colaboradores, en el desarrollo de un proceso químico que se llama la reacción de Suzuki.

Cabe aclarar que se trata de equipos de trabajo, no de acciones individuales y que los ganadores del Nobel eran los líderes de grupo. Además, se apoyaron en resultados parciales de muchos otros grupos de investigadores que hacen una lista larga de líderes de otros grupos de trabajo.

¿Por qué es importante este procedimiento de catálisis usando paladio?
Se usa en la síntesis orgánica orientada a blancos, llamada así porque se producen nuevos compuestos químicos sin necesidad de trabajar con productos indeseados que no son de interés y que obligan a purificar las sustancias hasta quedarse con la que sí interesa.

Así se producen, entre otros compuestos químicos, esteroides, estricnina y el ácido escopadúlcico diterpenoide B31, que tiene propiedades citotóxicas y antitumorales.

También se produce la Pumiliotoxina A, una sustancia tóxica que se produce en la piel de las ranas y que ellas usan para su defensa.

Se produce una sustancia antiviral conocida con el nombre de hennoxazole A34. Un herbicida llamado Prosulforon, que produce y vende la empresa Ciba-Geigy.

Nobel de Química en 2010 (Vox Populi de la Ciencia, Radio Bemba) 13 de octubre de 2010

Se otorga el premio Nobel de química a Richard Heck, a Ei-ichi Negishi y a Akira Suzuki, por el desarrollo de procesos para producir (sintetizar) compuestos orgánicos usando paladio como catalizador en un sistema que se llama acoplamientos cruzados.

Sus biografías están siendo publicadas en los diarios, de modo que nos dedicaremos a explicar en qué consistió su trabajo y por qué es de mucho impacto para la sociedad. Nuestra fuente es: Jan E. Bäckvall, Profesor de Química Orgánica de la Universidad de Estocolmo y miembro del Comité Nobel para Química. Su escrito se encuentra en línea para ser consultado en el sitio oficial del premio Nobel.


Existe un conjunto de elementos químicos que se llaman metales de transición. Si tenemos una tabla periódica a la mano, veremos en la parte central de la misma un bloque marcado con la letra d.

El uso de la letra d para ese conjunto de elementos situados en el centro de la tabla periódica es porque en los átomos los electrones se van acomodando en capas marcadas con las letras: s, p, d, e, etcétera. En especial los elementos químicos del bloque d tienen lleno de electrones las primeras dos capas (s y p) pero tienen la capa d sin llenar completamente.

Ese hecho determina propiedades químicas específicas que son características de estos elementos químicos, entre los cuales se puede mencionar al hiero, cobalto, cobre, zinc, paladio, entre otros. Se recomienda consultar una tabla periódica a colores y encontrar que del elemento 21 al 30, después del 39 al 48, etcétera, están marcados como metales de transición.

En particular el que juega un papel fundamental en los procesos es el paladio, su símbolo es Pd, su número atómico es 46 y es un metal de color blanco, que se usa, por ejemplo, en los filtros de los automóviles para evitar hasta el 90% de los gases nocivos que estos emiten.

El paladio es uno de esos metales que participan en procesos de catálisis, es decir, en modificaciones de la velocidad con la que ocurren las reacciones químicas, haciendo que sean más rápidas o más lentas, según se necesite. Por ejemplo, los convertidores catalíticos de los autos tienen platino, rodio y paladio, que actúan sobre los gases provenientes del motor para acelerar su reacción química haciendo que se oxiden de inmediato y salgan a la atmósfera como gases inocuos, en el mejor de los casos, con una eficiencia de hasta 90%.

En el caso de las reacciones químicas con sustancias orgánicas, llamadas así porque muchas de ellas aparecen como resultado de seres vivos o de restos de ellos, el control de los procesos de reacción química es muy complicado porque las posibilidades de enlaces que se llevan a cabo entre átomos, o que se rompen, es muy grande. ¿Por qué? Porque las moléculas involucradas están compuestas por muchos átomos.

En estas reacciones químicas es fundamental la presencia de los átomos de carbono y el interés en los enlaces químicos de estos átomos se ha notado en el otorgamiento de premios nobel en los más de cien años que lleva de existir el premio. Por ejemplo, en 1912 se otorgó por la reacción de Grignard, en 1950 por la reacción de Diles-Alder, en 1979 por la de Witting y en 2005 por la de Chauvin, Grubbs y Schrok. Todas ellas involucrando enlaces con átomos de carbono.

La diferencia entre las reacciones anteriores y la de Heck, Negishi y Suzuki, es que estos últimos manejan enlaces químicos sencillos, con un electrón aportado por el carbono, en lugar de enlaces dobles, con dos electrones aportados por el carbono.

El paladio juega un papel fundamental y la idea es simple: el paladio gasta uno de sus enlaces en ligarse a un átomo de carbono y otro de sus enlaces en ligarse a otro carbono, acercándolos. Una vez que esos dos carbonos están muy cerca, abandonan al átomo de paladio y se ligan entre ellos, que era la intención original del científico o del técnico que aplica ahora el procedimiento.

El trabajo de Heck, uno de los tres ganadores del Nobel, inició en 1968 y se extendió durante más de cuatro años hasta que consiguió lo que se llama ahora el mecanismo de reacción de Heck.

Otro de los ganadores del Nobel, Negishi, inició sus trabajos en 1976 y alcanzó grandes logros al año siguiente, hasta que en 1978 logró establecer sus mejores resultados, que cristalizaron en el trabajo de Suzuki, quien a partir de 1979 avanza, junto con sus colaboradores, en el desarrollo de un proceso químico que se llama la reacción de Suzuki.

Cabe aclarar que se trata de equipos de trabajo, no de acciones individuales y que los ganadores del Nobel eran los líderes de grupo. Además, se apoyaron en resultados parciales de muchos otros grupos de investigadores que hacen una lista larga de líderes de otros grupos de trabajo.

¿Por qué es importante este procedimiento de catálisis usando paladio?
Se usa en la síntesis orgánica orientada a blancos, llamada así porque se producen nuevos compuestos químicos sin necesidad de trabajar con productos indeseados que no son de interés y que obligan a purificar las sustancias hasta quedarse con la que sí interesa.

Así se producen, entre otros compuestos químicos, esteroides, estricnina y el ácido escopadúlcico diterpenoide B31, que tiene propiedades citotóxicas y antitumorales.

También se produce la Pumiliotoxina A, una sustancia tóxica que se produce en la piel de las ranas y que ellas usan para su defensa.

Se produce una sustancia antiviral conocida con el nombre de hennoxazole A34. Un herbicida llamado Prosulforon, que produce y vende la empresa Ciba-Geigy.

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba) 13 de octubre de 2010



Investigadores de psiquiatría del Centro Médico de la Universidad Rush han presentado un reporte de investigación en el que se informa del uso de campos magnéticos en el cráneo de personas enfermas de depresión.

El sistema se llama Estimulación Magnética Transcranial (TMS por sus siglas en Inglés) y consiste de pulsos de campos magnéticos enfocados hacia ciertas partes del cerebro. Un pulso es una señal que sube de magnitud y disminuye de inmediato. Por ejemplo, cuando tocamos una puerta repetidas veces para que nos abran, estamos produciendo pulsos de ondas sonoras. Algo análogo se hace, pero con campos magnéticos que son similares a los usados en la resonancia magnética.

En el caso del tratamiento de pacientes que padecen depresión se dirigieron los pulsos de campos magnéticos hacia la parte frontal izquierda de su córtex para estimular esas regiones del cerebro. Se consideró un grupo de 301 pacientes, de los cuales fueron seleccionados al azar 148 a los cuales se les aplicó el sistema de pulsos de campos magnéticos, mientras que a los otros 153 se les aplicó un falso tratamiento. Este último es lo que se llama un grupo de control en las técnicas de estudios estadísticos.

De los 148 pacientes seleccionados, 143 se sometieron a tres semanas de aplicación del tratamiento con pulsos magnéticos, y de ellos, 99 decidieron mantenerlo durante 24 semanas (seis meses). De estos últimos, solamente 10 recayeron en la depresión.

Las conclusiones de los científicos es que el tratamiento que se propondrá, después de estas experiencias exitosas, es la de una sesión de 40 minutos diarios durante 4 a 6 semanas.





En los Estados Unidos se ven afectados por la depresión al menos 14 millones de adultos y los investigadores piensan que para el año 2020 será la segunda causa de incapacidad para la vida pública y el trabajo en el mundo. Se trata de una enfermedad que debilita a las personas, y aunque existen tratamientos a base de fármacos, en algunos casos no resulta efectivo, además de que tienen efectos colaterales.
Fuente: http://depression-treatment-center.net/