jueves, 23 de junio de 2011

Envenenamiento por Cianuro en el Incendio de la Guardería ABC (Vox Populi de la Ciencia, Radio Bemba)

22 de junio de 2011

Existen elementos para afirmar que los niños que sí sobrevivieron al incendio de la guardería ABC, respiraron humo que contenía gases venenosos conteniendo cianuro.
En el portal de Internet de Radio Bemba se publicó, este 17 de junio de 2011, una nota sobre la entrevista realizada a la Señora Fabiola Domínguez, madre de la pequeña Paola. La niña es sobreviviente del incendio de la guardería, pero su mamá expuso algunas de las dificultades que ella ha enfrentado para atender la secuela de enfermedades de su hija, mismas que el Instituto Mexicano del Seguro Social (IMSS) pretende ignorar. El caso de la niña Paola no es único, pues hay decenas de niños con problemas similares. Como ya dijimos, hay elementos para afirmar que todos los niños sobrevivientes respiraron aire contaminado con cianuro.

La foto que sigue está tomada desde lejos. La actitud de la policía era de ferocidad. Un día después, un camarógrafo fue golpeado por los policías presentes allí.




El cianuro es el nombre que se usa para designar a un grupo amplio de compuestos que contienen un átomo de carbono ligado a un átomo de nitrógeno por medio de tres enlaces químicos. Considerando que el carbono puede actuar con cuatro enlaces, queda uno libre que le sirve para ligarse a otros compuestos. Normalmente se representa con las letras mayúsculas CN. Ese enlace triple es muy fuerte, de modo que es muy difícil de descomponer.

El cianuro se puede unir al sodio para formar cianuro de sodio (NaCN), al potasio para formar cianuro de potasio (KCN). También se puede unir al hidrógeno para formar cianuro de hidrógeno. Este último es importante para la exposición que estamos haciendo porque se encuentra en el poliuretano que se usa como material aislante en nuestro país. En particular, es el que se quemó en el techo de la guardería ABC el 5 de junio de 2009.

Nueve días después de la tragedia en la guardería ABC, Arnulfo Castellanos Moreno publicó en su blog de Internet lo siguiente:
La organización Global Health & Safety Initiative, publicó en mayo de 2008 un documento titulado Toxic Chemicals in Building Materials (an Overview for Health Care Organizations). En éste señala que el poliuretano termoplástico se hace con polyols y diisocianatos. Los polyols pertenecen al grupo de los alcoholes y los segundos se forman con dos cadenas de isocianatos, cada una de las cuales contiene un átomo de cianuro. El diisocianato está considerado como un severo irritante bronquial y asmágeno, hasta el punto de que exposiciones crónicas al mismo pueden ser fatales en dosis altas. Está hecho con una variedad de intermediarios químicos altamente peligrosos, incluyendo formaldeído (clasificado como altamente carcinógeno por la Agencia Internacional de Investigación Contra el Cáncer) y fosgeno (gas altamente letal usado como veneno en la Primera Guerra Mundial). Durante la combustión, los poliuretanos emiten cianuro hidrogenado y monóxido de carbono.
La fuente es la siguiente: http://www.healthybuilding.net/healthcare/Toxic%20Chemicals%20in%20Building%20Materials.pdf

Lo anterior está tomado del siguiente blog:
http://fisicahistoriayasuntosuniversitarios.blogspot.com/2009/06/la-propagacion-del-incendio-en-la.html

La siguiente foto fue tomada por el lado sur. El auto que se ve era de la policía, que no dejaba acercarse. Se puede ver el humo del incendio.



La población está expuesta al cianuro por varias fuentes. Una de ellas es al consumir alimentos o agua. Otra es mediante la inhalación como un componente del aire. Sin embargo, en pequeñas cantidades no causa los efectos de intoxicación ya mencionados. El envenenamiento por cianuro más común ocurre a través de exposición industrial, actos intencionales e inhalación de humo. El más común es cuando ocurren incendios. En este caso se emite cianuro de hidrógeno (HCN), que es liberado cuando se queman plásticos, espumas de poliuretano, cigarros, ropa hecha de una tela llamada rayón.

El cianuro de hidrógeno es un gas incoloro, aunque en ocasiones puede tomar un color azul pálido. Se genera en la quema de ciertos materiales y acabamos de mencionar algunos de ellos. La producción del cianuro de hidrógeno depende de varios factores, que incluyen la composición química del material que se quema, del contenido de oxígeno en los alrededores del incendio, de la temperatura alcanzada en el proceso de la combustión, entre otras.

Cuando se quema un combustible que contiene cianuro, la sustancia que se desprende la mayoría de las veces es el cianuro de hidrógeno y algunos expertos que han estudiado este tema aseguran que su efecto perjudicial para la salud se refuerza con la presencia de monóxido de carbono, haciendo que entre ambos sean más peligrosos que cuando están separados.

Con frecuencia se adjudican las intoxicaciones en los incendios al monóxido de carbono, pero un estudio mencionado en el año 2004 por el Programa Internacional de Chemical Safety estableció que de las muertes por incendio en Maryland en un periodo de seis años, con 523 decesos resultantes de 392 incendios, en realidad en todos los casos se encontraron niveles tóxicos de cianuro en la sangre de las víctimas.

La foto que sigue indica cómo se aplicó el poliuretano espreado en el techo de un almacén. En otro similar, pero en Hermosillo Sonora, se hizo lo mismo y después pasó a ser la Guardería ABC.



El antídoto estándar para combatir el envenenamiento por cianuro en los Estados Unidos es un tratamiento en el que se administran a la persona un conjunto de tres sustancias químicas: el nitrito de amilo, el nitrito de sodio y el tiosulfato de sodio. En Alemania se usa el 4-dimetilaminofenol. En Inglaterra se aplica a las víctimas el edetato de cobalto. En Francia se usa una sustancia química conocida como hidroxocobalamina.

De acuerdo al portal de Internet de la Universidad Nacional de Australia (ANU por sus siglas en inglés), el cianuro es muy venenoso porque se liga a una enzima que recibe el nombre de citocromo C oxidasa, que se encuentra en bacterias y en mitocondrias de las células. Detiene la acción del citocromo C oxidasa en el proceso de respiración y la dosis letal para un adulto depende del peso de su cuerpo. Esta dosis letal oscila entre 30 y 210 miligramos de uno de los compuestos del cianuro: el cianuro de hidrógeno.

¿Pero qué son las mitocondrias? Cómo informamos en el programa de Vox Populi de la Ciencia emitido el 10 de noviembre de 2010, la mitocondria es un cuerpo que se encuentra en el interior de muchas células, proviene de una bacteria que se introdujo en células en alguna etapa muy antigua de la evolución y se acomodó a vivir allí. Uno de sus papeles principales es proporcionar energía a la célula.

En ocasiones las dosis no fatales de cianuro ocasionan una forma de intoxicación con síntomas de cansancio, dolor de cabeza, náuseas (estómago revuelto), dolor de estómago, vómito y diarrea. En África es común el envenenamiento con cianuro porque éste se encuentra en algunas variedades de una raíz que se llama mandioca y que se parece al camote que se come en México.
Fuente: http://www.anu.edu.au/BoZo/CCDN/two.html


En cualquier incendio casero puede desprenderse el gas de hidrógeno de cianuro. Enseguida vemos un sillón que se quema.




La literatura preparada para conocimiento de las asociaciones de bomberos en los Estados Unidos menciona varios incidentes que están relacionados con envenenamiento por cianuro. La advertencia para quienes trabajan combatiendo fuegos es común. Los portales de Internet de organizaciones como: Bomberos Profesionales de California (CPF por su nombre en inglés) avisa que en la quema de plásticos, poliuretano y otros materiales sintéticos, el riesgo de respirar cianuro es muy grande.
Fuente: http://www.cpf.org/go/cpf/health-and-safety/health-and-safety-updates/health-and-safety-updates/cyanide-exposure-can-lead-to-acute-and-chronic-illness/

Ver tambien:
http://www.firerescue1.com/fire-products/hazmat-equipment/articles/484050-RI-firefighters-hospitalized-for-cyanide-exposure/

Nuestra conclusión es que existen elementos para afirmar que los niños que sobrevivieron al incendio de la guardería ABC, respiraron humo que contenía gases venenosos conteniendo cianuro. Como señalamos hace más de 2 años, esto se puede comprobar recolectando restos de ceniza de las paredes y sometiéndolas al análisis mediante un espectrómetro de masas.


Enseguida presentamos una gráfica de la forma de las curvas que son estudiadas por los expertos. En este caso se trata del método de cromatografía de gases. Se debe a la tesis de un postulante para obtener su grado de maestría en ciencias en la Universidad Nacional Autónoma de México. Su nombre se lee en la figura:

jueves, 16 de junio de 2011

El caso de dopaje con clembuterol Problema deportivo y peligros en la salud (Vox Populi de la Ciencia, Radio Bemba)

15 de mayo de 2011

El diario La Jornada publicó el 10 de junio de 2011 la noticia del dopaje de cinco futbolistas que integraban la Selección Mexicana hasta el día anterior. Según declaración del Secretario General de la Federación Mexicana de Fútbol, Decio de María, los análisis habían sido realizados el pasado 21 de mayo de 2011. No explica si se refiere a la toma de muestras o al estudio de laboratorio.

El dirigente de la Federación Mexicana de Fútbol agregó que la sustancia prohibida que había sido detectada era Clembuterol y afirmó que ellos suponían que los seleccionados habían comido carne o pollo contaminados con esa sustancia los días 18, 19 ó 20 de mayo de 2011.

El problema no es exclusivo de los cinco deportistas que corren el riesgo de ser suspendidos de su actividad profesional durante dos años. En realidad es un problema de salud de los mexicanos, como se ve de los siguientes datos:
• El 26 de junio de 2006 se registraron 161 casos de intoxicación por Clembuterol en Jalisco. Para confirmar el consumo de carne contaminada, a los pacientes de estos casos se les practicaron análisis de orina y sangre, los cuales permitieron determinar el grado de intoxicación. De los casos atendidos, al menos cuatro fueron considerados como graves.
• Según el sistema de comunicación social del Gobierno del Estado de Jalisco, ha habido intoxicaciones en los estados de Zacatecas, Morelos y Estado de México, al menos desde el 14 de febrero de 2001. Entre los síntomas más comunes de la intoxicación por Clembuterol, se mencionan taquicardias, nerviosismo, dolor de cabeza, náuseas, vómito y dolores musculares generalizados.




Todos los casos anteriores constituyen una violación a las disposiciones oficiales mexicanas, pues como se establece en el DIARIO OFICIAL, fechado el miércoles 11 de octubre de 2000, la Secretaría de Agricultura, Ganadería y Desarrollo Rural, decretó la NORMA Oficial Mexicana NOM-061-ZOO-1999 (SAGARPA), para establecer que el uso del Clembuterol queda prohibido a partir de esa fecha e impone como sanción lo que se indique en las disposiciones contenidas en la Ley Federal de Sanidad Animal y la Ley Federal sobre Metrología y Normalización.

En junio de 2009 se publicó una evaluación externa hecha a la SAGARPA por parte de una institución que se firma NACIONES UNIDAS PARA LA AGRICULTURA Y LA ALIMENTACIÓN. En el documento emitido se afirma que el Secretario Técnico del Sistema Nacional de Sanidad, Inocuidad y Calidad Agropecuaria y Alimentaria (SINASICA), manifestó que “…ni la Secretaría de Salud, ni la de Agricultura han podido exigir condiciones mínimas de control sanitario para el 70% de carne de res que se consume en el país...”





De acuerdo al mismo documento, el funcionario afirmó que “La falta de control en los rastros y mataderos actualmente provoca que los productos para consumo nacional que salen a la venta pongan en riesgo la salud humana...”
Fuente: http://www.sagarpa.gob.mx/programas/evaluacionesExternas/Lists/Otras%20Evaluaciones/Attachments/5/Informe_Evaluacion_SINASICA.pdf

El documento de evaluación ya mencionado critica que las medidas de presunta vigilancia sobre los rastros y mataderos no evitan la incorporación de clembuterol a la carne, pues esto se hace en un animal vivo, por lo que la medida de prevención debería comprender la aplicación de Buenas Prácticas de Producción. Dicho de otra forma, vigilar directamente a los productores, en lugar de limitarse a revisar el producto final en los sitios donde se mata a los animales y se procesa la carne para su venta.






Claramente, la salud del pueblo mexicano está poniéndose en peligro porque, como de costumbre, la aprobación de leyes en México no incluye el cumplimiento de las mismas. Además, como ya es costumbre en nuestro país, las instituciones gubernamentales no hacen realmente su trabajo.

Todo lo anterior tiene que ver con el desconocimiento que los funcionarios del gobierno federal, los senadores y los diputados tienen de la ciencia en México, así como de la necesidad de acompañar las medidas que toman, con los presupuestos adecuados para que los estudios pertinentes se realicen.

El mismo problema aqueja a los funcionarios de la Federación Mexicana de Fútbol, y también, a los comentaristas de televisión, quienes no hicieron otra cosa que acompañar a los dirigentes de ese deporte en el intento de control de daños.

Sucede que la prueba de los deportistas fue recogida el 21 de mayo de 2011, pero los resultados fueron conocidos después del 8 de junio, casi 18 días después. La razón que se aduce es la aglomeración de muestras a ser revisadas en el Laboratorio de la Universidad de California en Los Ángeles (UCLA).

El argumento que se esgrime es que se trata de un laboratorio certificado por organismos deportivos internacionales. Afirman también que se trata de pruebas especializadas que solamente pueden ser realizadas fuera de México. Aparentemente, los dirigentes del fútbol nacional desconocen que el Instituto de Biotecnología de la Universidad Nacional Autónoma de México puede realizar ese tipo de pruebas, y que la UNAM, en su carácter de institución de enseñanza, ha formado, y puede seguir formando, a los especialistas que podrían operar un laboratorio dedicado a la realización de esa clase de pruebas en México.

Basamos la afirmación anterior en que para llevar a cabo los análisis necesarios para detectar Clembuterol es suficiente con disponer de un cromatógrafo de gases y un espectrómetro de masas, aparatos disponibles en el Instituto de Biotecnología ya mencionado. Por ejemplo, se puede consultar el documento intitulado Métodos de Biotecnología (Cromatografía de Gases), elaborado para esa institución por la Bióloga Laura Patricia Olguín Pérez y el Biólogo Héctor Rodríguez Magadán, fechado el 8 de junio de 2004.




Los dirigentes de la Federación Mexicana de Fútbol pagan grandes sumas de dinero en bufetes de abogados y en despachos contables, pero ignoran la necesidad de disponer de un sistema de consultoría que pudiera ser atendido por las universidades mexicanas, como la UNAM, a fin de aprender cuáles son las medidas adecuadas para evitar los bochornos similares al que enfrentan ahora.



Ignoran también que con un laboratorio apropiado podrían ellos mismos disponer de los estudios necesarios para dictaminar sobre la calidad de los alimentos antes de ser administrados a sus atletas, en lugar de confiar en un sistema federal ineficiente que ofrece certificaciones cuya validez podría pasar primero por otro deporte nacional: el de la corrupción, que permite a las grandes empresas administrar Efedrina y Clembuterol a sus reses, ovejas, puercos o pollos, a fin de que desarrollen en menos de dos meses el peso que alcanzarían en cinco o seis meses.




Incluso el Doctor Juan Manuel Herrera, director de los servicios médicos de la Comisión Nacional del Deporte, parece desconocer los detalles referentes a la determinación de Clembuterol en el organismo de los atletas, pues según el diario especializado en deportes, ESTO, él habría declarado que era imposible saber si la causa del dopaje era un medicamento ingerido o carne contaminada con esa sustancia prohibida.

El espectrómetro de masas propociona curvas parecidas a las siguientes y pueden ser interpretadas por los especialistas:



La realidad es que un laboratorio bien equipado costaría mucho menos que el dinero que ya no ganarán porque no colocarán en el fútbol francés al portero de la Selección Mexicana. Pagar tres doctores en ciencias y tres asistentes de laboratorio les resultaría mucho más rentable que perder negocios de transmisión en México de los partidos del fútbol de Francia.

Si dispusieran de un laboratorio bien equipado, debidamente asesorados por el Instituto de Biotecnología de la UNAM, habrían revisado los alimentos antes de ser ingeridos, habrían descubierto inmediatamente los casos de dopaje en lugar de esperar 18 días, habrían podido pasar de los estudios de concentración de Clembuterol en orina, a los de concentración en sangre, donde está perfectamente establecido cuál es la ley matemática que siguen las medidas de concentración de esa sustancia conforme pasa el tiempo.

Así se demuestra en un artículo científico que fue publicado en 1991 por H. H. Meyer y L.M. Rinke, el cual apareció en la revista Journal of Animal Science y donde los autores reportan cómo estudiaron la concentración de Clembuterol en becerros. Trabajaron a base de pruebas de sangre que fueron tomadas cada 3 horas al principio, cada 6 horas después, y por último cada 8 y cada 10 horas.

Meyer y Rinke demostraron que se puede usar una ley matemática que se llama función exponencial decreciente. Ésta se estudia en los primeros cuatro semestres y se aprende a usar en diversas asignaturas de las carreras de ciencias e ingeniería. Se trata de una expresión que aparece con mucha frecuencia y en muchos escenarios diferentes. Por ejemplo, si tomamos una medicina determinada, los análisis de su concentración en la sangre serán explicados con esa ley. O bien, si se colectan las mediciones de radiactividad en el suelo de Fukushima, se verá que la concentración de Iodo disminuye también con esa misma ley.

Ejemplo de esta ley matemática se aprecia en la siguiente gráfica, donde tenemos varias curvas distintas en las que lo único que cambia es la rapidez con la cual baja la curva para acercarse al eje horizontal.



Si los dirigentes del fútbol mexicano tuvieran la costumbre de consultar a los científicos, sabrían que disponiendo de laboratorios adecuados podrían haber estudiado a sus futbolistas los días 21, 22 y 23 de mayo de 2011. Podrían también haber establecido los números que acompañan a la función de decrecimiento exponencial y saber cuándo desaparecerían los residuos del Clembuterol.

A la inversa, podrían haber revisado las concentraciones de esa sustancia en la sangre de los deportistas antes de la primera prueba, y saber, sin lugar a dudas, la hora y el día en el cual pudieron haber ingerido la carne contaminada o el medicamento prohibido. El argumento es simple: si se revisa la ley matemática mencionada hacia el futuro, la concentración del Clembuterol disminuye, pero si se revisa hacia el pasado, aumenta. Esta revisión hacia el pasado se realizaría hasta el punto en que la concentración de la sustancia prohibida provocaría la muerte del deportista, de modo que se podría encontrar así la hora y el día en que la sustancia entró al organismo.

Nos explicaremos con el siguiente ejemplo. Supongamos que las mediciones del laboratorio nos dicen que a las 12 del mediodía del día 21 de mayo hay una alta concentración de Clembuterol en el torrente sanguíneo de un deportista. A las 8 de la noche de ese día será menor y a las 6 de la mañana del 22 de mayo será todavía más pequeña. En cambio, siguiendo la ley de la función exponencial decreciente pero ahora hacia el pasado, a las 8 de la noche del día 20 de mayo la concentración sería muy alta y a las 12 del día del mismo 20 de mayo sería todavía mayor. Así se encontraría que en ese punto la ley matemática ya sería irreal, de modo que, necesariamente estaría ubicada en esas horas el paso de concentración cero de la sustancia al punto más alto.

La realidad es que en México las autoridades de la SAGARPA y las de Salud no hacen su trabajo y ponen en peligro la salud de los mexicanos. En el mismo sentido, los dirigentes del fútbol de nuestro país prefirieron confiar en un laboratorio extranjero y enterarse 18 días después. Se vieron obligados a admitir públicamente que Guillermo Ochoa, portero del Club América, había dado positivo en Clembuterol. Perdieron la oportunidad de colocarlo en un club francés. Se esfumó la oportunidad de transmitir partidos de la liga francesa, que verían muchos admiradores de este deportista, generando una cantidad de espectadores que les habría permitido vender muchos comerciales.

Al no confiar en la ciencia mexicana, se ahorraron los centavos, pero después perdieron la oportunidad de ganar los pesos cobrando comisiones y comerciales.

jueves, 9 de junio de 2011

Sismología en el Golfo de Baja California (Vox Populi de la Ciencia, Radio Bemba)

8 de junio de 2011

Tratándose de sismicidad cercana a la Ciudad de Hermosillo, la parte del Golfo de Baja California que más nos debe interesar es la región media del mismo. La literatura científica más abundante sobre el tema proviene del Centro de Investigación Científica y de Educación Superior de Ensenada, desde donde se han producido una cantidad importante de artículos sobre sismicidad en la península y también en el golfo.

Para cerrar nuestras exposiciones sobre la sismicidad en el Golfo tomaremos como base un trabajo de Leobardo López Pineda y Cecilio Rebollar, quienes estudiaron el sismo ocurrido el 12 de marzo de 2003. Su magnitud fue de 6.2 grados Richter y se localizó a los 26.58 grados latitud norte y 111.09 grados longitud oeste, aproximadamente a 150 kilómetros al sur de Guaymas, en la cuenca de Carmen. En el programa del primero de junio de 2011, que ya puede ser consultado en nuestro blog, se explicó lo que son estas cuencas.
Fuente: Leobardo López Pineda y Cecilio Rebollar, Source characteristics of the Mw 6.2 Loreto earthquake of 12 march 2003 that occurred in a transform fault in the middle of the Gulf of California, Mexico, Bulletin of the Seismological Society of America, No. 2, pp. 419-430, April 2005, doi: 10.1785/0120030227.

El artículo de Leobardo López Pineda y Cecilio Rebollar señala la existencia de siete sismos importantes con epicentro en esa zona: uno muy poderoso ocurrido en 1901, dos más en 1964, uno en 1971, otro más en 1974, uno en 1988 y el de 2003, que ellos estudian. Se piensa que el primero de ellos fue de 7.0 grados Richter, los de 1964 ocurrieron el 5 y el 6 de julio de ese año, el primero fue de 6.3 grados y el segundo de 6.5.

A su vez, el sismo de 1971 ocurrió el 30 de julio de ese año y fue de 6.5 grados Richter, luego le siguió otro el 31 de mayo de 1974, con magnitud de 6.3 grados. El del 24 de febrero de 1988 fue de 6.6 grados y ocurrió a 117 kilómetros al sur de Guaymas. El sismo del 28 de agosto de 1995 fue de 6.2 grados Richter y finalmente el de 2003, que ya mencionamos.





Leobardo López Pineda y Cecilio Rebollar informan que el sector medio del Golfo de Baja California es parte de la frontera entre las placas del Norte América y la del Pacífico. En esa parte media se encuentran las cuencas de Guaymas, la de Carmen y la de Farallón.

Ellos afirman que esas cuencas son diferentes de las cuencas localizadas en la parte su del Golfo porque éstas últimas han desarrollado una propiedad que ellos llaman anomalías magnéticas, mientras que las que se encuentran en la parte media y en el norte del Golfo no tienen esa característica. Las anomalías magnéticas son variaciones bruscas en el campo magnético de la tierra, lo cual es resultado de las propiedades químicas o magnéticas de las rocas del subsuelo.

A partir del estudio de esas anomalías magnéticas, los expertos han concluido que la velocidad de separación de las placas es de 2 a 6 centímetros por año. Los especialistas en sismología manejan un concepto que llaman “stress drop”, en el idioma inglés, el cual podemos traducir como “caída de esfuerzo” y es una magnitud física que se mide en unidades de presión, que a su vez se entiende como la fuerza sobre un centímetro cuadrado, o alguna otra unidad de área. La caída del esfuerzo es la diferencia entre el esfuerzo en una falla geológica antes y después de un sismo.


Leobardo López Pineda y Cecilio Rebollar informan que esas caídas del esfuerzo se incrementan conforme se avanza de la cuenca de Wagner, localizada en la parte norte del Golfo de Baja California, hacia las cuencas de la parte media del Golfo. En la cuenca de Wagner se han calculado caídas de esfuerzo de 18 bars (o sea 18 atmósferas) cuando mucho. En cambio, en el sismo del 30 de julio de 1971 en la cuenca de Carmen la caída de esfuerzo fue de 125 bars (125 atmósferas).

En general, los sismos originados en el Golfo no han sido de magnitud superior a 7 grados Richter, pero como sabemos del sismo reciente de Lorca en España, incluso sismos de magnitud relativamente menor pueden ser destructivos, dependiendo de la frecuencia de oscilación del suelo, de la frecuencia a la que se pueden mover los edificios y de otras propiedades como la aceleración que presentan las ondas sísmicas.

Cerramos esta serie sobre la sismicidad en el Golfo de Baja California con una invitación a que se dedique más atención a esta clase de investigaciones, mejorando la formación y la contratación de personal de alto nivel sobre esta rama de la geofísica. Creando nuevas instituciones dedicadas al tema y/o fortaleciendo las existentes. Mejorando, además, la calidad de la información hacia el público, a fin de que respalde la solicitud de mejores presupuestos para esta clase de investigaciones y se traduzcan en conocimiento necesario para indicar cuáles son los cuidados que se deben tener en las construcciones de casas habitación, edificios públicos y privados, entre otros cuidados que se deben tener.

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba)


I. Los astrónomos han detectado que la población de planetas que no orbitan alrededor de ninguna estrella podría ser mayor de lo imaginado.


Una acumulación de gas hidrógeno puede llegar a formar una estrella solamente cuando tiene una masa 50 veces superior a la de Júpiter. Cuando están por debajo de esa masa se forman planetas gigantes. Existe una técnica para detectar cuerpos del tamaño de planetas mayores que Júpiter, pero que no tienen la masa suficiente como para llegar a convertirse en una estrella. Es la técnica de micro lentes gravitacionales (o micro-lensing en inglés), los planetas que se han descubierto son más de 500 y reciben el nombre de exoplanetas.






La técnica de micro lentes gravitacionales consiste en buscar y detectar desviaciones de la trayectoria original de la luz proveniente de una estrella o galaxia. Dichas desviaciones se deben a un efecto predicho por Albert Einstein desde antes de 1913, cuando todavía no terminaba de elaborar su Teoría General de la Relatividad. El fenómeno consiste en que la trayectoria de la luz proveniente de otra estrella lejana se curva cuando pasa junto a un objeto con una masa suficientemente grande. En cambio, cuando la masa no es suficientemente grande, la curvatura de la trayectoria de la luz es muy difícil, o imposible, de medir.

Este fenómeno ya ha sido observado cuando la luz pasa cerca de estrellas como el Sol, o también, cuando pasa cerca de grandes cúmulos de galaxias. El primero en estudiar teóricamente las lentes gravitacionales fue el físico soviético Orest Danilovich Khvolson, quien en el año 1924 publicó un artículo sobre el tema en la revista científica alemana Notas Astronómicas (Astronomische Nachrichten). Sin embargo, el tema recibió atención suficiente sólo cuando Albert Einstein publicó sobre el mismo tema en el año de 1936.

La explicación de estos fenómenos es de nivel técnico muy alto, pero podemos informar que en el caso de cúmulos de galaxias la cantidad de masa es tan grande que se trata de lentes gravitacionales muy poderosos. En ese caso el efecto es detectable con un arreglo de radiotelescopios. Estos son diseñados para recibir ondas de radio en lugar de luz visible como lo hacen los telescopios ópticos.

Las imágenes recibidas pueden ser procesadas para traducir a luz visible las señales captadas y obtener una fotografía digital que podemos ver. Hay decenas de ejemplos de ellas y en el blog de Vox Populi de la Ciencia encontrarán las ligas de Internet necesarias para consultar algunas imágenes.

Las lentes gravitacionales fuertes, producidas por cúmulos de galaxias por ejemplo, han sido detectadas por telescopios colocados en órbita en el espacio, como el Telescopio Hubble, que recibe y procesa señales en frecuencias de luz visible, ultravioleta e infra rojo cercano.

En cambio, cuando se trata de objetos poco masivos, como los planetas del tamaño de Júpiter, la trayectoria de la luz cambia muy poco pero la presencia del objeto se manifiesta, aunque sea opaco, porque la estrella de la luz lejana cambia de intensidad en el transcurso del tiempo, mostrando un pico muy pronunciado en el que la intensidad crece súbitamente y vuelve a disminuir. Para medir estos cambios de intensidad se recurre a una rama de la óptica que se llama fotometría. En el blog de este programa se encontrará una liga de Internet en la que podrán encontrar una imagen de la forma de esas curvas.

http://nexsci.caltech.edu/




Desde 1995 se han detectado más de 500 exoplanetas, doce de ellos por medio de la técnica de micro lentes gravitacionales. La mayoría de ellos se encuentran atrapados por alguna estrella, en torno a la que giran de manera similar a la forma en que lo hacen los planetas de nuestro sistema solar. Sin embargo, algunos de ellos, que son de 3 a 15 veces más masivos que Júpiter, no parecen tener una órbita, sino que vagan libres por el espacio.

El 19 de mayo de 2011 la revista científica Nature publicó un artículo del astrónomo de la Universidad de Japón Takahiro Sumi y varios colaboradores. Es un reporte en el que argumentan sobre la existencia de evidencia a favor de que existen muchos objetos con masas iguales a las de Júpiter, o hasta 3.5 veces mayores. Concluyen que esos objetos del tamaño de Júpiter no orbitan alrededor de una estrella, sino que se mueven alrededor del centro de la galaxia como lo hace nuestro Sol.

http://www.nature.com/nature/journal/v473/n7347/full/nature10092.html



Takahiro Sumi afirma que los hallazgos de ellos muestran que la formación de sistemas solares podría ser un proceso inestable en el que de pronto una de las acumulaciones de masa, que podríamos llamar un pre planeta, es expulsado hacia el exterior súbitamente, alejándose así de la región donde nació.

II. Se están afianzando nuevas técnicas para detectar el cáncer. En el Congreso de la Sociedad Estadounidense de Oncología Clínica, realizado en la ciudad de Chicago del 3 al 7 de junio de 2011 se presentaron varios métodos que permiten contar el número de células cancerosas circulando en la sangre.


Las noticias del congreso están reportando varias de estas técnicas de medición, las cuales se basan en una clase de instrumentos conocidos como citómetros de flujo.

Los citómetros de flujo pueden analizar miles de partículas por segundo, siempre y cuando sean del tamaño de las células. Pueden separar esos objetos microscópicos para contar solamente aquéllos que tienen propiedades que han sido especificadas de antemano. Por ejemplo, es posible especificar su tamaño, la forma en que absorben o dispersan la luz, etcétera.





Por ejemplo, en el congreso que ya hemos mencionado se presentó un trabajo en el que se midió el número de células que circulaban en la sangre de enfermos de cáncer de próstata. Una revisión de los contenidos de este congreso en años anteriores nos permite afirmar que esta línea se viene investigando al menos desde el año 2006.

El estudio al que nos referimos se intitula: “Evaluación de la enumeración de células de tumor circulantes como un biomarcador de respuesta eficaz”. Dicho trabajo es promovido por una empresa privada que busca desarrollar medios de diagnóstico para su venta.

Además, cabe agregar que cuando se dispone de esta clase de evidencia se le llama biomarcadores. Por esa razón, los científicos afirman que el conteo de células de tumores que circulan en el torrente sanguíneo es un posible biomarcador. Se espera que en los próximos años este biomarcador pudiera ser incorporado al conjunto de pruebas clínicas de diagnóstico. De ser así, podrá ayudar a los médicos cuando evalúan a sus pacientes.

El conteo de células circulando en el torrente sanguíneo, provenientes de cáncer de próstata, se encuentra ya en la fase 3 del procedimiento que se sigue para autorizar o rechazar un fármaco o un sistema de diagnóstico médico. Este proceso empieza desde una fase 0 y llega hasta una fase 5. Este sistema de separación en fases será explicado en otro programa de Vox Populi de la Ciencia.
Fuente:





III. ¿Por qué el planeta Júpiter es tan grande y Marte es tan pequeño?

El Doctor Kevin Wash, investigador del Instituto de Investigación del Sureste, una institución con sede en San Antonio, Texas, ha dirigido un grupo de investigación que realizó un estudio mediante computadoras para tratar de saber por qué el planeta Júpiter tiene una masa 2 mil 970 veces mayor que la de Marte.

El 5 de junio de 2011 se publicó un artículo en la revista científica Nature. El título del trabajo lo traducimos como: “Una pequeña masa para Marte a partir de una migración de gas dominada por un Júpiter primario”. Es una publicación lograda por Kevin Walsh, Alessandro Morbidelli, Sean Raymond, David O'Brien y Avi Mandell.

El trabajo de estos cinco investigadores se basa en técnicas de cómputo para realizar cálculos sobre la concentración de gas en diversos puntos de una nube de moléculas de gas. El más común en el universo es el hidrógeno. El diámetro de estas nubes de gas es de al menos 9.5x1014 kilómetros, que son mas de 210 mil veces la distancia promedio de Neptuno al Sol. La cantidad de masa que contienen es de hasta 6 millones de masas como la de nuestro sol.

La rama de la física en la que se basan los investigadores se llama hidrodinámica y tiene expresiones matemáticas tan complicadas que para ser resueltas se recurre a una rama de las matemáticas que se llama análisis numérico. Ésta proporciona una serie de procedimientos que reciben el nombre de métodos numéricos, los cuales se basan en unos procedimientos repetitivos, que solamente se pueden llevar a cabo por medio de computadoras.

Lo que estos cinco científicos han hecho es proporcionar condiciones iniciales a la máquina, es decir, la concentración original de gas en una nebulosa, para que la computadora haga el cálculo con base en programas de cómputo. Este es un trabajo muy cuidadoso, de modo que cuando se dispone de uno de estos programas, primero es necesario probarlo con problemas cuyos resultados ya son conocidos. Así se puede estar seguro de que funciona correctamente.

Una vez que los científicos pudieron confiar en sus programas de cómputo, hicieron funcionar a las computadoras con distintas hipótesis acerca de las posiciones iniciales en las que aparecieron las primeras acumulaciones de masa dentro de la nube de gas, tal que debido a la fuerza de gravedad empezaron a atraer más masa. Después de mucho trabajo pudieron encontrar que las posiciones actuales de las órbitas de Júpiter, Saturno, Urano y Neptuno, así como sus masas, pueden aparecer en el resultado numérico solamente cuando se admite que fueron los primeros planetas en formarse.

En ese proceso, Júpiter actúa como un ladrón de masa que nace a 520 millones de kilómetros del centro de giro de toda la nube de gas, apenas dos terceras partes de la distancia a la que se encuentra ahora. Se acerca al centro de la nebulosa hasta 225 millones de kilómetros, apenas 50% más lejos que la distancia a la cual se encuentra ahora la Tierra. Así transcurren los primeros 150 mil años. Durante ese periodo Saturno se ubica girando a menos de 750 millones de kilómetros del centro, una distancia ligeramente menor a la que actualmente se encuentra Júpiter.


8 de junio de 2011



De acuerdo al modelo de cómputo, ambos planetas atraían casi toda la masa disponible, a la vez que se iban alejando hasta ocupar las órbitas y las masas que tienen en la actualidad. Así, la formación posterior de Marte, la Tierra, Venus y Mercurio, ocurrió cuando la masa disponible ya había disminuido mucho.
Fuente:
http://www.nature.com/nature/journal/vaop/ncurrent/pdf/nature10201.pdf


En entrevista para el portal de difusión científica Science Daily News, Kevin Walsh afirmó que estaban muy contentos con sus resultados porque este modelo de cómputo que han desarrollado reproduce también la distribución correcta de asteroides en medio de Júpiter y Marte, incluyendo sus propiedades de contenido de agua, con unos asteroides muy secos y otros con cantidades de agua similares a las de los cometas.



http://www.sciencedaily.com/releases/2011/06/110605132437.htm

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba)





8 de junio de 2011



I. Los astrónomos han detectado que la población de planetas que no orbitan alrededor de ninguna estrella podría ser mayor de lo imaginado.


Una acumulación de gas hidrógeno puede llegar a formar una estrella solamente cuando tiene una masa 50 veces superior a la de Júpiter. Cuando están por debajo de esa masa se forman planetas gigantes. Existe una técnica para detectar cuerpos del tamaño de planetas mayores que Júpiter, pero que no tienen la masa suficiente como para llegar a convertirse en una estrella. Es la técnica de micro lentes gravitacionales (o micro-lensing en inglés), los planetas que se han descubierto son más de 500 y reciben el nombre de exoplanetas.






La técnica de micro lentes gravitacionales consiste en buscar y detectar desviaciones de la trayectoria original de la luz proveniente de una estrella o galaxia. Dichas desviaciones se deben a un efecto predicho por Albert Einstein desde antes de 1913, cuando todavía no terminaba de elaborar su Teoría General de la Relatividad. El fenómeno consiste en que la trayectoria de la luz proveniente de otra estrella lejana se curva cuando pasa junto a un objeto con una masa suficientemente grande. En cambio, cuando la masa no es suficientemente grande, la curvatura de la trayectoria de la luz es muy difícil, o imposible, de medir.

Este fenómeno ya ha sido observado cuando la luz pasa cerca de estrellas como el Sol, o también, cuando pasa cerca de grandes cúmulos de galaxias. El primero en estudiar teóricamente las lentes gravitacionales fue el físico soviético Orest Danilovich Khvolson, quien en el año 1924 publicó un artículo sobre el tema en la revista científica alemana Notas Astronómicas (Astronomische Nachrichten). Sin embargo, el tema recibió atención suficiente sólo cuando Albert Einstein publicó sobre el mismo tema en el año de 1936.

La explicación de estos fenómenos es de nivel técnico muy alto, pero podemos informar que en el caso de cúmulos de galaxias la cantidad de masa es tan grande que se trata de lentes gravitacionales muy poderosos. En ese caso el efecto es detectable con un arreglo de radiotelescopios. Estos son diseñados para recibir ondas de radio en lugar de luz visible como lo hacen los telescopios ópticos.

Las imágenes recibidas pueden ser procesadas para traducir a luz visible las señales captadas y obtener una fotografía digital que podemos ver. Hay decenas de ejemplos de ellas y en el blog de Vox Populi de la Ciencia encontrarán las ligas de Internet necesarias para consultar algunas imágenes.

Las lentes gravitacionales fuertes, producidas por cúmulos de galaxias por ejemplo, han sido detectadas por telescopios colocados en órbita en el espacio, como el Telescopio Hubble, que recibe y procesa señales en frecuencias de luz visible, ultravioleta e infra rojo cercano.

En cambio, cuando se trata de objetos poco masivos, como los planetas del tamaño de Júpiter, la trayectoria de la luz cambia muy poco pero la presencia del objeto se manifiesta, aunque sea opaco, porque la estrella de la luz lejana cambia de intensidad en el transcurso del tiempo, mostrando un pico muy pronunciado en el que la intensidad crece súbitamente y vuelve a disminuir. Para medir estos cambios de intensidad se recurre a una rama de la óptica que se llama fotometría. En el blog de este programa se encontrará una liga de Internet en la que podrán encontrar una imagen de la forma de esas curvas.






Desde 1995 se han detectado más de 500 exoplanetas, doce de ellos por medio de la técnica de micro lentes gravitacionales. La mayoría de ellos se encuentran atrapados por alguna estrella, en torno a la que giran de manera similar a la forma en que lo hacen los planetas de nuestro sistema solar. Sin embargo, algunos de ellos, que son de 3 a 15 veces más masivos que Júpiter, no parecen tener una órbita, sino que vagan libres por el espacio.

El 19 de mayo de 2011 la revista científica Nature publicó un artículo del astrónomo de la Universidad de Japón Takahiro Sumi y varios colaboradores. Es un reporte en el que argumentan sobre la existencia de evidencia a favor de que existen muchos objetos con masas iguales a las de Júpiter, o hasta 3.5 veces mayores. Concluyen que esos objetos del tamaño de Júpiter no orbitan alrededor de una estrella, sino que se mueven alrededor del centro de la galaxia como lo hace nuestro Sol.
Fuente:




Takahiro Sumi afirma que los hallazgos de ellos muestran que la formación de sistemas solares podría ser un proceso inestable en el que de pronto una de las acumulaciones de masa, que podríamos llamar un pre planeta, es expulsado hacia el exterior súbitamente, alejándose así de la región donde nació.

II. Se están afianzando nuevas técnicas para detectar el cáncer. En el Congreso de la Sociedad Estadounidense de Oncología Clínica, realizado en la ciudad de Chicago del 3 al 7 de junio de 2011 se presentaron varios métodos que permiten contar el número de células cancerosas circulando en la sangre.
Las noticias del congreso están reportando varias de estas técnicas de medición, las cuales se basan en una clase de instrumentos conocidos como citómetros de flujo.

Los citómetros de flujo pueden analizar miles de partículas por segundo, siempre y cuando sean del tamaño de las células. Pueden separar esos objetos microscópicos para contar solamente aquéllos que tienen propiedades que han sido especificadas de antemano. Por ejemplo, es posible especificar su tamaño, la forma en que absorben o dispersan la luz, etcétera.

Por ejemplo, en el congreso que ya hemos mencionado se presentó un trabajo en el que se midió el número de células que circulaban en la sangre de enfermos de cáncer de próstata. Una revisión de los contenidos de este congreso en años anteriores nos permite afirmar que esta línea se viene investigando al menos desde el año 2006.

El estudio al que nos referimos se intitula: “Evaluación de la enumeración de células de tumor circulantes como un biomarcador de respuesta eficaz”. Dicho trabajo es promovido por una empresa privada que busca desarrollar medios de diagnóstico para su venta.

Además, cabe agregar que cuando se dispone de esta clase de evidencia se le llama biomarcadores. Por esa razón, los científicos afirman que el conteo de células de tumores que circulan en el torrente sanguíneo es un posible biomarcador. Se espera que en los próximos años este biomarcador pudiera ser incorporado al conjunto de pruebas clínicas de diagnóstico. De ser así, podrá ayudar a los médicos cuando evalúan a sus pacientes.

El conteo de células circulando en el torrente sanguíneo, provenientes de cáncer de próstata, se encuentra ya en la fase 3 del procedimiento que se sigue para autorizar o rechazar un fármaco o un sistema de diagnóstico médico. Este proceso empieza desde una fase 0 y llega hasta una fase 5. Este sistema de separación en fases será explicado en otro programa de Vox Populi de la Ciencia.
Fuente:





III. ¿Por qué el planeta Júpiter es tan grande y Marte es tan pequeño?
El Doctor Kevin Wash, investigador del Instituto de Investigación del Sureste, una institución con sede en San Antonio, Texas, ha dirigido un grupo de investigación que realizó un estudio mediante computadoras para tratar de saber por qué el planeta Júpiter tiene una masa 2 mil 970 veces mayor que la de Marte.

El 5 de junio de 2011 se publicó un artículo en la revista científica Nature. El título del trabajo lo traducimos como: “Una pequeña masa para Marte a partir de una migración de gas dominada por un Júpiter primario”. Es una publicación lograda por Kevin Walsh, Alessandro Morbidelli, Sean Raymond, David O'Brien y Avi Mandell.

El trabajo de estos cinco investigadores se basa en técnicas de cómputo para realizar cálculos sobre la concentración de gas en diversos puntos de una nube de moléculas de gas. El más común en el universo es el hidrógeno. El diámetro de estas nubes de gas es de al menos 9.5x1014 kilómetros, que son mas de 210 mil veces la distancia promedio de Neptuno al Sol. La cantidad de masa que contienen es de hasta 6 millones de masas como la de nuestro sol.

La rama de la física en la que se basan los investigadores se llama hidrodinámica y tiene expresiones matemáticas tan complicadas que para ser resueltas se recurre a una rama de las matemáticas que se llama análisis numérico. Ésta proporciona una serie de procedimientos que reciben el nombre de métodos numéricos, los cuales se basan en unos procedimientos repetitivos, que solamente se pueden llevar a cabo por medio de computadoras.

Lo que estos cinco científicos han hecho es proporcionar condiciones iniciales a la máquina, es decir, la concentración original de gas en una nebulosa, para que la computadora haga el cálculo con base en programas de cómputo. Este es un trabajo muy cuidadoso, de modo que cuando se dispone de uno de estos programas, primero es necesario probarlo con problemas cuyos resultados ya son conocidos. Así se puede estar seguro de que funciona correctamente.

Una vez que los científicos pudieron confiar en sus programas de cómputo, hicieron funcionar a las computadoras con distintas hipótesis acerca de las posiciones iniciales en las que aparecieron las primeras acumulaciones de masa dentro de la nube de gas, tal que debido a la fuerza de gravedad empezaron a atraer más masa. Después de mucho trabajo pudieron encontrar que las posiciones actuales de las órbitas de Júpiter, Saturno, Urano y Neptuno, así como sus masas, pueden aparecer en el resultado numérico solamente cuando se admite que fueron los primeros planetas en formarse.

En ese proceso, Júpiter actúa como un ladrón de masa que nace a 520 millones de kilómetros del centro de giro de toda la nube de gas, apenas dos terceras partes de la distancia a la que se encuentra ahora. Se acerca al centro de la nebulosa hasta 225 millones de kilómetros, apenas 50% más lejos que la distancia a la cual se encuentra ahora la Tierra. Así transcurren los primeros 150 mil años. Durante ese periodo Saturno se ubica girando a menos de 750 millones de kilómetros del centro, una distancia ligeramente menor a la que actualmente se encuentra Júpiter.

De acuerdo al modelo de cómputo, ambos planetas atraían casi toda la masa disponible, a la vez que se iban alejando hasta ocupar las órbitas y las masas que tienen en la actualidad. Así, la formación posterior de Marte, la Tierra, Venus y Mercurio, ocurrió cuando la masa disponible ya había disminuido mucho.
Fuente:



En entrevista para el portal de difusión científica Science Daily News, Kevin Walsh afirmó que estaban muy contentos con sus resultados porque este modelo de cómputo que han desarrollado reproduce también la distribución correcta de asteroides en medio de Júpiter y Marte, incluyendo sus propiedades de contenido de agua, con unos asteroides muy secos y otros con cantidades de agua similares a las de los cometas.




miércoles, 1 de junio de 2011

Sismicidad en el Golfo de Baja California (Vox Populi de la Ciencia, Radio Bemba)

1 de junio de 2011




Los sismógrafos modernos usan sensores electrónicos que en la mayoría de los casos utilizan el efecto piezoeléctrico para funcionar. Éste es un fenómeno en el que un material al que se le aplica una cierta presión responde con un voltaje que puede ser detectado con un instrumento de medida muy sensible. Los materiales que son de utilidad para este fin pueden ser naturales o artificiales, como el cuarzo, el rubidio, las cerámicas piezoeléctricas, que son las más utilizadas en la actualidad.

El efecto piezoeléctrico fue descubierto en 1880 por Pierre Curie y Paul Langevin, quien lo usó por primera vez para diseñar aparatos receptores de sonido bajo el agua durante la Primera Guerra Mundial. Modernamente se construyen dispositivos con cerámica piezoeléctrica para detectar las vibraciones sísmicas, que como ya informamos, son la base de los sismógrafos digitales modernos.




Los sismógrafos detectan las ondas de vibración del suelo, sea continental o marino, de manera similar a la forma en que los micrófonos registran los sonidos. Ambos convierten la onda recibida en corrientes eléctricas alternas que pueden ser procesadas. Las corrientes eléctricas alternas se llaman así porque no van de un polo positivo a uno negativo como en las baterías de los aparatos de sonido que los jóvenes llaman mp3. Las corrientes alternas se mueven en una dirección del circuito y enseguida en la contraria.

Hay sismógrafos de periodos cortos, de menos de un segundo, que sirven para detectar sismos locales. Otros son los sismógrafos de banda ancha, que pueden detectar oscilaciones con periodos de 1 segundo hasta 20 segundos de duración, como mínimo, y en algunos casos, hasta de mil segundos o más. Estos últimos son los más caros.

Esta clase de aparatos fueron utilizados para tender una red de detectores de sismos en el Golfo de Baja California. Se trató de un acuerdo entre la Universidad Nacional Autónoma de México, el Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE), el Instituto de Física del Globo de París, la Universidad de Utrecht, el Observatorio de la Tierra Lamont-Doherty y el Instituto Nacional de Geofísica y Vulcanología.

Este esfuerzo de seis instituciones académicas llevó a crear una red de detectores de sismos que se llama Red de Sismógrafos de Grabación Autónoma (NARS, por sus siglas en inglés). En el caso del Golfo de Baja California su nombre es NARS-Baja Seismic Network. Se encuentra además la Red Sismológica de Banda Ancha (RESBAN) operada por el CICESE y que usa el sismógrafo CMG-40T, fabricado por la empresa Guralp Systems, del Reino Unido.


Los especialistas han estado buscando en el Golfo de Baja California una frontera que se llama discontinuidad de Mohorovicic, o más sencillamente Moho. Se trata de la frontera entre la corteza terrestre y la siguiente capa terrestre, que se llama manto. Esa frontera es marcada con base en las características químicas de ambas capas. No es una diferencia dinámica entre ambas, pues en términos dinámicos, la frontera entre la parte que se desliza de manera relativamente rígida y una más plástica, se encuentra aproximadamente a 70 kilómetros debajo de la superficie oceánica y a 150 kilómetros en la corteza continental.

Avanzando de noroeste hacia sureste, el Golfo de Baja California es clasificado en las siguientes cuencas, que podemos considerar como grandes placas delimitadas por fallas geológicas que son ramificaciones de la principal. Estas son: 1) la cuenca de Wagner, enfrente de Puerto Peñasco; 2) la de Delfín, al norte de la Isla Ángel de la Guarda, 3) la cuenca de Tiburón, al occidente de la Isla del Tiburón; 4) la cuenca de Guaymas, al occidente de la Bahía de Guaymas; 5) la cuenca de Carmen enseguida; 6) la cuenca de Farallón, al occidente de la Bahía de Topolobampo, en la línea divisoria de Sonora con Sinaloa. Así nos acercamos a la boca del Golfo, donde se inicia la cuenca de Mazatlán.

Según la tesis doctoral de Leobardo López Pineda, intitulada: Análisis de la Sismicidad y Estructura de la Corteza en el Golfo de California, del Centro de Investigación Científica y de Educación Superior de Ensenada, presentada en el año 2004, el centro del Golfo se caracteriza por la presencia de cuencas pull-apart vocablo del idioma inglés con el que los sismólogos se refieren a pedazos de la corteza terrestre que se van separando. Es el caso de las últimas tres cuencas que mencionamos.





Según Leobardo López Pineda, la velocidad de separación en la cuenca de Carmen, al sur de la de Guaymas, es de entre 2 y 6 centímetros por año. Él menciona la existencia de un catálogo en el que se anotan los sismos de magnitud superior a 7 grados Richter ocurridos desde el siglo XIX hasta 1988, y uno de ellos ocurrió el 7 de enero de 1901 con epicentro en la cuenca de Carmen a 130 kilómetros al suroeste de Navojoa.

Este sismo de gran magnitud pudo deberse, según Leobardo López Pineda, a la presencia de asperezas entre las cuencas de Carmen y la de Farallón, de modo que por esa razón se acumularon grandes esfuerzos que fueron liberados súbitamente durante el sismo de 1901.

Según este mismo investigador, los sismos de 1971, de 6.5 grados; de 1974, con 6.3 grados; el de 1988, con 6.6 grados, el de 1995, con 6.0 grados y el de 2003, con 6.2 grados; pudieron deberse a la acumulación de esfuerzos entre las cuencas de Guaymas y la de Carmen, aproximadamente a 50 kilómetros de Huatabampo.




Para nuestra imaginación de personas no expertas en el ramo de la sismología, podemos comparar esta acumulación de esfuerzos con las cuarteaduras en los vidrios, que siguen líneas irregulares, con picos que se atoran cuando hay un desplazamiento relativo entre dos hojas de esos vidrios. Debido a que el movimiento continúa, ocurren deformaciones en el subsuelo del mar, que llevan a alguna clase de ruptura cuando la energía elástica acumulada supera la resistencia del material que forma a la corteza.

Leobardo López Pineda afirma que la fricción entre las placas no es uniforme, pero este tema será abordado en el próximo programa.

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba)

1 de junio de 2011

I. Un grupo de expertos de la Organización Mundial de la Salud clasifica las ondas electromagnéticas de radiofrecuencia como posibles cancerígenos para los humanos. La comunicación por medio de teléfonos celulares queda incluida dentro de esta clasificación.

La Agencia Internacional para la Investigación sobre el Cáncer, que es una dependencia de la Organización Mundial de la Salud, ha clasificado las ondas electromagnéticas de radiofrecuencia como posible elemento cancerígeno en contra de los seres humanos. En especial se menciona el glioma, que es un tipo de cáncer en el cerebro y lo asocia con el uso de teléfonos inalámbricos.




La noticia surge a partir de una reunión de un grupo de trabajo formado por 31 científicos pertenecientes a 14 países distintos que se reunieron en la ciudad de Lyon, Francia. Ellos concluyen que podría haber peligro de contraer el cáncer como consecuencia de la exposición a los campos electromagnéticos de radiofrecuencia.

Pero, ¿qué es un campo electromagnético y qué son las ondas de radiofrecuencia?
Un campo eléctrico es producido por una carga eléctrica. Un campo magnético es producido por una carga eléctrica que se mueve. Por ejemplo, en el caso de los alambres de cobre que conducen corriente eléctrica, son los electrones del cobre los que se mueven a través del material los que producen un campo magnético. Cuando tenemos corrientes eléctricas que cambian con el tiempo, aparecen campos magnéticos que también son cambiantes en el tiempo, lo cual los lleva a producir campos eléctricos que también cambian en el tiempo. Como éstos últimos también producen campos magnéticos variables en el tiempo, se da una reciprocidad en la cual campos eléctricos y magnéticos se generan entre sí, propagándose por el espacio hasta regiones muy alejadas de las cargas y las corrientes eléctricas que les dieron origen. En este caso se llaman ondas electromagnéticas.




Ejemplo de las ondas electromagnéticas son la luz, los rayos X, los rayos ultravioleta, que nos queman cuando vamos a la playa, y también, las ondas de radio, que sirven para comunicarnos. Éstas últimas son las ondas de radiofrecuencia. En particular, los teléfonos celulares reciben y emiten ondas de radiofrecuencia, y también lo hacen los sistemas de teléfonos inalámbricos que se acostumbran en algunas casas.



La radiación ultravioleta y los rayos X corresponden al tipo de ondas que pueden romper las moléculas que forman nuestros tejidos, por eso se les llama radiación ionizante y los científicos han estado conscientes de eso desde hace muchas décadas. En cambio, la luz visible, los rayos infrarrojos, las microondas y las ondas de radiofrecuencia, no rompen las moléculas de nuestros tejidos, por eso no habían sido consideradas como preocupantes.

El Doctor Jonathan Samet, de la Universidad del Sur de California, líder del Grupo de Trabajo de la Organización Mundial de la Salud, afirmó que se le ha asignado a este presunto peligro la clasificación 2B, que se usa para dar a entender que podría haber algún riesgo, lo cual obliga a seguir realizando investigaciones. El Doctor Samet hace ver que se necesita todavía mucha información más, pero hace ver que es importante tomar medidas pragmáticas para reducir la exposición durante el uso de dispositivos tales como los sistemas de manos libres para conversar, entre otros.

El Grupo de Trabajo consideró centenares de artículos científicos para evaluar la posibilidad de riesgo de cáncer debido al uso de aparatos que trabajan con base en ondas de radiofrecuencia, pero llegó a la conclusión de que las conclusiones no están bien fundamentadas desde el punto de vista científico. Los expertos consideraron que se necesita estudiar los datos de exposición a este tipo de ondas, realizar experimentos con animales, encontrar el mecanismo por el cual podrían generar cáncer, si acaso es verdad que lo generan.

Los artículos de investigación considerados por el grupo de expertos incluyen 1,237,913 nuevos casos de cáncer de cerebro, y de ellos, dos terceras partes correspondían al cáncer conocido como glioma. Ellos consideraron que las evidencias son inadecuadas, que la calidad de los estudios es insuficiente y que no encontraron consistencia en los datos estadísticos.

La información puede ser ampliada consultando el blog de Vox Populi de la Ciencia, donde estará disponible el portal de difusión científica que hemos usado como fuente.
http://www.sciencedaily.com/releases/2011/05/110531133115.htm


II. Una disfunción cerebral conocida con el nombre de discalculia, que afecta al 7% de las personas, es la causa de dificultades para el manejo de conceptos numéricos. Podría ser hereditaria y un grupo de especialistas propone que se le tome más en serio.

Todos sabemos de la existencia de estudiantes que enfrentan muchas dificultades para aprender las matemáticas. Lo novedoso es que un grupo de especialistas, que colaboran con el Profesor Brian Butterwood, han publicado un artículo en el que argumentan sobre la necesidad de atender este problema de la misma forma en que ya se reconoce que la dislexia es una dificultad que amerita educación especial.




El artículo de investigación fue publicado en la revista científica Science, se intitula “Discalculia: Del el cerebro a la educación”, los autores son Brian Butterworth, Sashank Varma y Diana Laurillard, del Reino Unido. La publicación se encuentra en la edición en línea desde el viernes 27 de mayo de 2011 y la referencia completa aparecerá en el blog del programa Vox Populi de la Ciencia.
Fuente: Brian Butterworth, Sashank Varma and Diana Laurillard.Dyscalculia: From Brain to Education. Science, 27 May 2011: Vol. 332 no. 6033 pp. 1049-1053 DOI:10.1126/science.1201536

Los autores afirman que algunos de los estudiantes con dificultades para aprender las bases numéricas podrían sufrir de un desorden neurocognitivo que impide la adquisición de las bases numéricas y los conceptos aritméticos. Ellos lo consideran como el equivalente matemático de la dislexia, una dificultad para expresarse verbalmente, que suele ser confundida con la disgrafía o dificultad para escribir correctamente las letras y otros símbolos.



Butterworth, Varma y Laurillard plantean que se necesita la detección del problema de discalculia mediante pruebas adecuadas diseñadas y aplicadas por especialistas, a fin de que quienes la padecen sean atendidos por expertos a fin de conducirlos hacia la superación de la discalculia mediante esquemas de trabajo desarrollados para ese propósito.

Según los autores, se nace con la discalculia y experimentos realizados con gemelos, y con otros grupos de población seleccionados para el estudio, permiten llegar a la conclusión de que podría tratarse de un problema de origen hereditario.

La Profesora Diana Laurillard, coautora del artículo, como ya informamos, e integrante del Instituto de Educación de la Universidad de Londres, dice que “El hecho de que sea hereditaria no significa que los expertos están desarmados para ayudar a superar la discalculia.” Ella afirma que en su centro de trabajo han desarrollado software para ayudar a los niños con discalculia y sostiene que esos logros han sido posibles porque las investigaciones realizadas les han permitido identificar cuál es la parte del cerebro donde se presenta el problema. Declara también que la comprensión del problema ha sido posible como resultado del trabajo conjunto de varias disciplinas científicas, entre las cuales menciona la neurociencia y la psicología.
Fuentes: http://www.sciencemag.org/content/332/6033/1049
http://www.sciencedaily.com/releases/2011/05/110526141414.htm


III. Después de más de 50 años de trabajo y 750 millones de dólares gastados, un grupo de científicos de la NASA concluye, una vez más, que la teoría gravitatoria de Einstein, es correcta.


El fenómeno estudiado se llama “Efecto de Lense y Thirring” debido a que fue descubierto en 1918 por los físicos austriacos Josef Lense y Hans Thirring. Ellos estudiaron una formulación matemática de la gravitación que fue desarrollada por Albert Einstein entre 1911 y 1915. Razonando con argumentos matemáticos pudieron demostrar que existe un fenómeno que ahora se llama gravito-magnetismo. Consiste en que un cuerpo con una gran masa que está rotando en torno a un eje propio, hace que un pequeño satélite que gira a su alrededor ejecute unos movimientos oscilatorios similares a los que podemos observar en un trompo que ponemos a girar en suelo plano. Es un efecto tan pequeño en magnitud que 45 años después de su predicción teórica nunca se había intentado medirlo.



Fue a partir de 1963 que se empezó a planear su medición, pero el experimento necesitaba de una tecnología que no estuvo disponible durante varias décadas, de modo que durante más de 40 años fue solamente un proyecto en el papel. Por ejemplo, en el año 2007 el portal de noticias de la Universidad de Stanford informaba que desde el año 2004 un satélite orbitaba alrededor de la Tierra colectando datos para determinar si era correcta la predicción teórica basada en la Teoría de la Relatividad General de Einstein. El responsable era el Profesor Francis Everitt y la misión recibía el nombre de Gravity Probe B (o también GP-B) y lo que trataban de detectar era una rotación del satélite artificial de menos de dos milésimas de grado por año. Esa fase de colección de datos terminó en diciembre de 2007, pero los científicos esperaban tardar todavía 18 meses más en el análisis de datos.
Fuente: http://news.stanford.edu/pr/2007/pr-aps-041807.html

El experimento tardó tantos años en llevarse a cabo que fue detectado antes por un mecanismo diferente, aunque con una calidad inferior en la precisión. Por esa razón, en 1995 se analizó la conveniencia de financiar o no el proyecto GP-B. Muchos científicos consideraron exagerado el gasto que se pretendía realizar y se opusieron a su apoyo, hasta el punto de que todavía ahora lo siguen criticando. A consecuencia de esta oposición, en el año 2008 se le retiraron muchos de los fondos necesarios para realizar el análisis de datos, siendo la Universidad de Stanford la que mantuvo el interés en la continuación del trabajo.

Finalmente, el 4 de mayo de 2011 se anunció que el efecto de Lense y Thirring es correcto sin lugar a dudas. El equipo de científicos dirigido por Everitt necesitó de un apoyo adicional de $3.73 millones de dólares proveniente de instituciones privadas, entre las cuales se encuentra la Fundación Saudí para la Ciencia, del Rey Abdulaziz
http://www.nature.com/news/2011/110510/full/473131a.html