domingo, 28 de febrero de 2010

Física del Deporte del Hockey sobre Hielo (Vox Populi de la Ciencia, Radio Bemba, 24 de febrero de 2010)

(Vox Populi de la Ciencia, Radio Bemba, 24 de febrero de 2010)

En esta ocasión presentaremos algunos comentarios sobre la física de un deporte que se llama Hockey sobre hielo, debido a que se están realizando los Juegos Olímpicos de Invierno en Vancouver, Canadá. Lo que haremos será presentar algunas conclusiones de un artículo de enseñanza de la física que hemos estudiado. La traducción del título del artículo al español es: “Un Deporte Frío Lleno de Física” (A Cool Sport Full of Physics) publicado por la revista The Physics Teacher, volumen 46, en octubre de 2008, página 398. El autor se llama Alain Haché, del Departamento de Física y Astronomía de la Universidad de Moncton, de Canadá.

¿Qué es el hockey sobre hielo?
Es un deporte en el que se enfrentan dos equipos formados por 6 jugadores cada uno, quienes se deslizan sobre una cancha de hielo, utilizando zapatos adecuados, que están provistos de unas cuchillas metálicas. Es muy popular en Canadá, Estados Unidos, Suecia, Finlandia, Rusia, República Checa, Estonia, Letonia y Lituania. Otros países lo practican pero con menor intensidad.




La cancha de uso internacional mide 61 metros de largo por 30 metros de ancho, mientras que las canchas de la liga profesional de los Estados Unidos miden lo mismo de largo pero solamente 26 metros de ancho. El hockey sobre hielo es similar al fútbol soccer en el sentido de que se trata de introducir un pieza de juego en una portería que es un semicírculo de 1.8 metros en el caso del hockey internacional. En lugar del balón redondo que conocemos, se trata de una pieza con forma de disco, llamada puck, hecha de un material similar al de las llantas, que mide un poco más de 2.5 centímetros de grueso y tiene un diámetro de 7.6 centímetros. Su masa es de entre 156 y 170 gramos y cuando es golpeada con el palo de juego puede alcanzar velocidades superiores a los 150 kilómetros por hora. Esta pieza es congelada horas antes del juego para que pierda su capacidad de botar y para que no sea peligrosa para el público asistente, pues se ha reportado la muerte de personas del público, como fue el caso de una niña de 14 años, quien murió el 18 de marzo de 2002 en Columbus Ohio, después de haber sido golpeada por la pieza de juego dos días antes. Ella se llamaba Brittanie Cecil.

El puck es golpeado con el palo de hockey que porta el jugador, hecho de un material flexible. Mide desde 1.5 metros hasta 2 metros y tiene en la parte inferior una forma parecida a una letra jota, con una parte final curva que mide de 25 a 30 centímetros y es aplanada para dirigir el puck. Pueden ser de aluminio, fibra de vidrio, fibra de carbono, entre otros compuestos. Estos materiales vinieron a reemplazar al palo de madera que se usaba inicialmente.


La física en el hockey sobre hielo
La energía del puck del hockey

Los puck pueden alcanzar velocidades de hasta 170 kilómetros por hora, apenas por debajo de los 255 kilómetros por hora que alcanza la pelota de golf, los 225 de la pelota de tenis o los 190 kilómetros por hora de la pelota de beisbol bateada.

Supera la velocidad lanzada por el pitcher, con hasta 160 kilómetros por hora, la jabalina del atletismo con 110 o la del futbol soccer con hasta 105 kilómetros por hora. También está por encima del disco lanzado por los deportistas olímpicos, con 90 kilómetros por hora o el balón del futbol americano con 70 kilómetros por hora.

Los 170 kilómetros por hora que alcanza el puck del hockey son casi 47 metros por segundo, por lo cual lleva una energía cinética de 185 joules. Para tener una idea de cuánta energía es, podemos imaginar la energía con la que llega al suelo una bola de 10 kilogramos que se suelta desde 1 metro 88 centímetros. Esta energía es ligeramente superior al de una pelota de béisbol lanzada a una velocidad de 100 millas por hora por uno de los pitchers más veloces de las ligas profesionales.



El artículo que estudiamos realiza un estudio de la técnica de golpeo que usa el jugador, para llegar a la conclusión de que no podrían imprimir velocidades por encima de 160 kilómetros por hora con todos sus músculos en un movimiento técnicamente correcto. El autor Alain Haché encontró que los 10 kilómetros por hora faltantes se consiguen porque el jugador golpea el palo contra el hielo aproximadamente 30 centímetros antes del sitio en el que se encuentra el puck, haciendo que el palo se doble, de donde resulta la energía faltante cuando se desdobla.

El choque entre los jugadores
Alain Haché afirma que el hockey sobre hielo es el juego de contacto más rápido que existe, pues los jugadores alcanzan velocidades promedio de 40 kilómetros por hora y calculó cuánta es la energía disipada cuando chocan dos jugadores de 90 kilogramos de peso corporal cada uno. Encontró que cada uno lleva una energía de 6 mil joules, y que si se supone una deformación de 20 centímetros cuando chocan, la fuerza del impacto recibido es de 14 mil newtons. Para darnos una idea de cuánto se trata, es la fuerza que se necesita para mantener colgada una masa de 1 428 kilogramos. Cantidad superior a la masa de un auto compacto como el tsuru.




¿Por qué el hielo es resbaloso?
La unidad de medida de la fricción se llama coeficiente de fricción y está definido como el cociente que resulta de dividir la fuerza necesaria para hacer que se deslice un bulto entre la fuerza con que la tierra atrae al bulto, es decir su peso. El coeficiente de fricción de una superficie de aluminio lisa es de 0.61, el de una superficie de cobre es de 0.53, el coeficiente de fricción de una superficie de madera lisa se ubica entre 0.25 y 0.5, mientras que una superficie de teflón tiene un coeficiente de fricción de .04. En cambio, el del hielo, es de .005, apenas 12.5% del que mencionamos para el teflón. Entonces, ¿por qué el hielo es tan resbaloso?

Una explicación popular, pero falsa, es que lo resbaladizo del hielo se debe a que se derrite cuando se ejerce presión sobre él. Otra explicación, también muy difundida, y también falsa, es que se genera calor cuando se frota una superficie contra el hielo, haciendo que éste se derrita.

La explicación correcta es relativamente reciente y para elaborar la respuesta científicamente aceptada se analizó el hielo con técnicas de dispersión de electrones, resonancia magnética nuclear y microscopios de fuerza atómica. La complicación de estos métodos nos obliga a posponer su explicación para otra ocasión, pero los hallazgos encontrados son los siguientes:

1.Un bloque de hielo tiene una estructura en la que las moléculas de agua forman figuras hexagonales.



2.En la superficie, sin embargo, las moléculas encuentran muy pocos átomos vecinos con los cuales asociarse, lo cual los hace mantenerse en forma líquida en una cubierta extremadamente delgada, que es de unos cuantos nanómetros de gruesa, incluso a -200 grados Celsius.
3.Dentro de esa superficie, el hielo es extremadamente duro.
En consecuencia, es esa capa de agua tan delgada la que da lugar a lo resbaladizo del hielo.

Actualidades Científicas, 24 de febrero de 2010

(vox populi de la ciencia, radio bemba)


I. Científicos de universidades del Reino Unido, Nueva York y Los Ángeles identifican una proteína fundamental en el desarrollo de tumores cerebrales llamados neurofibromatosis 2.
Existe un tipo de tumores cancerosos que reciben el nombre de neurofibromatosis 2, que atacan a unas células que se llaman células de Schwann, debido a su descubridor. También existe un tejido que sirve para alimentar a las neuronas, se llama glía y es más del 50% del tejido cerebral. Parte de ese tejido son las células de Schwann, que se ubican alrededor del axón de las neuronas. Conviene recordar que una neurona típica consta de un cuerpo principal, llamado soma, un cordón muy largo similar al cordón umbilical con el que nacen los niños, llamado axón, además de otro más, semejante a las raíces de las plantas, que se llaman dendritas y que terminan en unos pequeños bultos llamados sinápsis.

Un grupo de investigadores de la Escuela de Medicina de la Península en Plymouth, en el Reino Unido; más investigadores de la Universidad Cornell, en Nueva York; también del Colegio Médico Weil, de Nueva York; y del Centro de Investigación sobre Tumores Neuronales de Los Ángeles, han identificado un mecanismo clave que hace que ciertas células del cerebro se empiecen a convertir en tumores. La base está en una proteína llamada Merlin, cuyos planos para ser fabricada (es decir, sintetizada) se contienen en el gene NF2, localizado en el cromosoma 22 del ser humano.

Cabe recordar, también, que en el núcleo de las células hay una sustancia que recibe el nombre de cromatina y que está formada por unos bastoncitos que reciben el nombre de cromosomas. Si en el buscador de google seleccionamos la opción de imágenes, y escribimos: cromosoma, encontraremos muchas figuras de estos bastoncitos organizados de manera similar a la letra X. Miden entre 0.2 y 20 micras (cada micra es una millonésima de metro) y en cada cromosoma se contienen muchos genes. A su vez, los genes se forman de hélices de ADN y cada uno contiene las órdenes para producir una cadena de reacciones químicas que terminan por formar al menos un tipo de proteína. Cuando en un organismo se fabrica (es decir, sintetiza) una proteína, se dice que se expresa el gene que contiene los planos para formarla.




La función original de la proteína Merlin es intervenir en el núcleo de las células para impedir el desarrollo de tumores, sin embargo, cuando ocurren mutaciones que afectan la codificación de esta proteína, su capacidad para actuar se ve afectada, abriendo la puerta al desarrollo de los tumores. Los investigadores esperan que al comprender este mecanismo se podrán abrir las puertas para desarrollar terapias efectivas contra esta clase de tumores que aparecen en cantidades de 20 a 30 simultáneamente, lo cual dificulta su tratamiento a base de intervenciones quirúrgicas. Las estadísticas disponibles demuestran que afecta a una de cada 2 500 personas en el mundo.
Fuente: http://www.sciencedaily.com/releases/2010/02/100222104949.htm

II. En la Universidad de Tel Aviv, en Israel, se estudia el veneno del alacrán para extraer un analgésico sustituto de la morfina.
El Profesor Michael Gurevitz, del Departamento de Ciencias de la Universidad de Tel Aviv, explicó que se encuentran estudiando unas toxinas que se encuentran en el veneno del alacrán. Éstas están formadas a base de péptidos, una moléculas formadas por cadenas de aminoácidos, pero que no son tan largas como las proteínas.

Esos péptidos afectan a unos orificios que se encuentran en las membranas de las células y que sirven para que cada célula intercambie sustancias químicas con su exterior. Reciben el nombre de canales y se abren o se cierran para intercambiar: glucosa, iones de sodio, iones de calcio, iones de potasio, iones de cloro, entre otros compuestos.

Durante el transcurso de millones de años, el alacrán ha evolucionado para fabricar un veneno que contiene más de 300 péptidos; un grupo de ellos afecta a reptiles, otro a insectos, pero también, hay un grupo específico para mamíferos.

En el proceso de afectación de los canales de las células, diferentes péptidos influyen sobre distintos tipos de canales, y en particular, hay algunos péptidos que afectan de tal forma que se suprime la sensación del dolor. Por esa razón, los científicos se encuentran estudiando cuáles son esos péptidos que producen la insensibilidad al dolor, porque una vez encontrados, esperan saber cómo fabricarlos artificialmente para usarlos como analgésicos que no tendrían efectos colaterales.




De esa forma, los investigadores piensan que se podría disponer de fármacos que no impliquen los riesgos adictivos de drogas como la morfina, que es muy eficiente para suprimir el dolor, pero que produce dependencia.
Fuente: http://www.sciencedaily.com/releases/2010/02/100216163341.htm

III. En un cementerio del sur de Italia encuentran un cadáver de hace 2 mil años. Lo interesante es que sus genes corresponden a un hombre originario del este de Asia
.
La Escuela de Historia, Clásicos y Arqueología, de la Universidad de Edimburgo, en el Reino Unido, mantiene un proyecto de investigación en el que se estudia una región del sur de Italia, se llama Vagnari y está cerca del Golfo de Tarento. Si observamos el mapa de Italia, reconoceremos que tiene la forma de una bota. Entre el tacón y la suela, hay una entrada del Mar Mediterráneo que es el golfo mencionado.

Allí han descubierto el cadáver de alguien que probablemente era un esclavo, y al proceder a estudiar su ADN, encontraron que corresponde a las características de habitantes del este de Asia. Este hallazgo indica que hace dos mil años había allí trabajadores que no eran originarios de Italia, pues venían de lugares situados fuera de las fronteras del Imperio Romano. Aparte de estos datos, no se sabe cómo llegó allí esta persona.




El cementerio fue descubierto en el año 2002 por Alastair Small, también de la Universidad de Edimburgo y la excavación y el estudio actual se realiza con fondos del Consejo de Canadá para la Investigación en Ciencias Sociales y Humanidades.
Fuente: http://www.shc.ed.ac.uk/Research/vagnari/excavations.htm
http://www.sciencedaily.com/releases/2010/02/100201171756.htm

miércoles, 17 de febrero de 2010

Efectos de los campos electromagnéticos en la salud, 17 de febrero de 2010

(Vox Populi de la Ciencia, Radio Bemba)


SI LEES EL IDIOMA INGLÉS, TE CONVIENE CONSULTAR EL DOCUMENTO FUENTE EN LA SIGUIENTE DIRECCIÓN:
http://www.bioinitiative.org/


En esta ocasión hablaremos del efecto de los campos electromagnéticos sobre la salud, prestando atención a lo que llamamos radiación no ionizante.

Las ondas electromagnéticas de frecuencia superior a la luz visible, como la radiación ultravioleta o los rayos X, se caracterizan porque rompen enlaces químicos de sustancias que se encuentran en nuestras células, haciendo que las moléculas contenidas en ellas salgan rotas en diversos pedazos. Es lo que ocurre, por ejemplo, cuando nos exponemos en forma exagerada al sol, con resultados que se manifiestan como quemaduras.

En cambio, siempre se pensó que era inocua la radiación con frecuencia como la luz visible, o por debajo de ella, que no rompe los enlaces químicos, y no hace pedazos las moléculas. A ésta se le llamó radiación no ionizante y hasta hace pocas décadas se creía que su uso podría generalizarse sin riesgo para la salud de los seres humanos.

Lo que haremos es presentar 19 afirmaciones formuladas por un grupo de científicos que opinan lo contrario, es decir, que piensan que la llamada radiación no ionizante sí hace daño a nuestra salud.

La fuente de estas afirmaciones es un documento del cual tenemos una copia, misma que podemos proporcionar a aquellas personas que se pongan en contacto con nosotros.

La organización que produce dicho documento, con una extensión de más de 600 páginas, se encuentra en la dirección de Internet: http://www.bioinitiative.org/, que además será incluida en el blog de este programa a partir del jueves 18 de febrero de 2010.

Todas las afirmaciones que haremos están contenidas en la sección dirigida al público del documento que hemos mencionado, y fue redactada por Amy Sage, domiciliada en Santa Barbara, California. Por la naturaleza tan delicada de las 19 afirmaciones que se harán, se recomienda prestar especial atención a las palabras que se usan y cuidarse de no propalar esta clase de notas con palabras distintas a las usadas. En todo caso, recomendamos a quienes leen fácilmente el idioma inglés, que asistan a la dirección de Internet mencionada para leer el original.

Lo que haremos aquí es hablar de los efectos de los campos de frecuencia extremadamente baja y de los de radiofrecuencia, que son los campos de frecuencia extremadamente baja emitidos por las corrientes alternas que circulan por las instalaciones de nuestras casas. Oscilan 60 veces por segundo, por eso se dice que su frecuencia es de 60 hertz.




De manera natural, astros como Júpiter emiten radiación en frecuencias de radio. Y también, los electrones en la ionósfera, una capa de la atmósfera que se encuentra a más de 20 kilómetros de altura, oscilan y emiten en radiofrecuencia, en cambio, los campos de frecuencia extremadamente baja, aparecen cuando el hombre aprendió a controlar dispositivos eléctricos y usar las corrientes eléctricas alternas para los aparatos que conocemos y que funcionan con electricidad.



Los teléfonos celulares y los teléfonos inalámbricos emiten en una banda que llamamos radiofrecuencia, que es ligeramente superior a la que se usa en las radios de frecuencia modulada, o FM.



Las afirmaciones son las siguientes:

1.Hay muy pocas dudas sobre el hecho de que los campos magnéticos de frecuencia extremadamente baja causan leucemia en los niños. El rango de riesgo empieza en niveles de exposición de 2 miligauss.
2.Hay alguna evidencia de que otras formas de cáncer infantil están relacionadas con los campos de frecuencia extremadamente baja, pero aún no se han hecho estudios suficientes.
3.Los niños con leucemia y que se han recuperado tiene tasas de sobrevivencia bajas si se mantienen expuestos a los campos de frecuencia extremadamente baja. El rango de intensidad se sitúa en 1 miligauss según un estudio y arriba de 3 miligauss en otro estudio.
4.Estos niveles de exposición a los campos de frecuencia extremadamente baja están siempre presentes, y dada la evidencia científica existente, es necesaria la prevención y la intervención de políticas de salud pública.
5.Las personas que han usado teléfonos celulares durante diez años o más tiene altas tasas de padecimiento de tumor cerebral maligno y de neurinoma acústico, un tumor que se origina en el conducto auditivo interno. Si no se hace el diagnóstico temprano puede extenderse. La afectación puede ser peor si el teléfono celular es utilizado en un solo lado de la cabeza.
6.Las personas que han usado teléfonos inalámbricos durante diez años o más, tienen altas tasas de malignidad en los tumores cerebrales y en los riesgos de neurinoma acústico.
7.La exposición corriente a las emisiones de teléfonos celulares e inalámbricos no son sanos, dados los estudios realizados.
8.Hay fuertes evidencias de que las mujeres expuestas a los campos de frecuencia extremadamente baja se encuentran entre los grupos de riesgo para el cáncer de pecho. Se trata de exposiciones a 10 miligauss, o más, durante periodos prolongados.
9.Dadas las altas tasas de riesgo de desarrollo de cáncer de pecho, y la importancia crítica de la prevención, la exposición a los campos de frecuencia extremadamente baja debería ser reducida para todas las personas que han vivido en esos ambientes durante periodos prolongados.
10.Los estudios en células de cáncer de pecho en humanos, y algunos estudios en animales, que muestran que los campos de frecuencia extremadamente baja son un factor de riesgo para el cáncer de pecho. Hay evidencia que respalda la existencia de relación entre el cáncer de pecho y la exposición a los campos de frecuencia extremadamente baja.
11.Hay fuerte evidencia de que la exposición a los campos de frecuencia extremadamente baja son un factor de riesgo para el Alzheimer.
12.Hay muy pocas dudas de que los campos electromagnéticos emitidos por los teléfonos celulares afectan la actividad eléctrica del cerebro.
13.Los cambios en la forma en la cual reaccionan el cerebro y el sistema nervioso dependen mucho de las exposiciones específicas. La mayoría de los estudios únicamente buscan efectos de corto término, de modo que las consecuencias de largo plazo son desconocidas.
14.Las consecuencias de la exposición prolongada en los niños, cuyo sistema nervioso continúa en desarrollo hasta la adolescencia, es desconocida hasta ahora. Esto podría tener serias implicaciones en la salud cuando lleguen a adultos. Una sociedad funcionando durante años sometida a los campos de frecuencia extremadamente baja, y de radiofrecuencia, resultan en la disminución en la capacidad para pensar, juzgar, memorizar, aprender y controlar la conducta.
15.Los efectos de la exposición por periodos prolongados a las tecnologías inalámbricas incluyen la emisión de teléfonos celulares, pero también otros diseños de uso personal. Todo el cuerpo está expuesto a las transmisiones de radiofrecuencia a partir de las torres de celulares o de simples antenas sin que todavía existan certidumbre sobre sus efectos. Sin embargo hay evidencia a la mano que sugiere la existencia de bioefectos con impacto en la salud, que puede ocurrir, y que ha ocurrido, a niveles bajos de exposición, mismos que se encuentran miles de veces por debajo de los límites considerados como sanos para el público.
16.Tanto los campos de frecuencia extremadamente baja, como los de radiofrecuencia, pueden ser considerados tóxicos para el sistema genético, pues dañarán al ADN bajo ciertas condiciones de exposición, incluyendo niveles de exposición por debajo de los límites considerados aceptables.
17.Los campos de frecuencia extremadamente baja, y los de radiofrecuencia, pueden hacer que las células produzcan las llamadas proteínas de estrés, lo cual significa que la respuesta celular natural encuentra a dichos campos como potencialmente peligrosos. Estas proteínas se encuentran en muy baja cantidad en el organismo, pero se incrementan bajo determinadas condiciones que son peligrosas para el organismo.
18.Hay evidencia sustancial de que los campos de frecuencia extremadamente baja, y los de radiofrecuencia, pueden causar reacciones inflamatorias, alérgicas y cambios en la función inmunológica normal.
19.El estrés oxidativo, que aparece cuando no hay un balance entre la producción de oxígeno con capacidad reactante, y la capacidad del organismo para procesarlo, produce radicales libre, como el OH, que dañan el ADN. Esta situación es considerada como un mecanismo biológico plausible para la producción de cáncer y de enfermedades involucradas con los campos de frecuencia extremadamente baja, que así afectan al sistema nervioso central.

Actualidades Científicas (Vox Populi de la Ciencia, 17 de febrero de 2010)

(Vox Populi de la Ciencia, Radio Bemba)

I. Se está creando música a partir de las estrellas.

Para los científicos es familiar que las estrellas supernovas son silenciosas explosiones masivas consideradas como las más energéticas del universo. El silencio se debe a que el sonido es una onda que se propaga en el aire, y como el espacio entre las estrellas y la Tierra está vacío, no existe un medio para la propagación de las ondas sonoras.



Ahora existe un proyecto musical que recibe el nombre de “Ritmos del Universo”, en el cual se trata de trasladar las ondas electromagnéticas a ondas sonoras. Uno de los principales artistas que participan en el proyecto es Mickey Hart, percusionista que ha sido ganador del Grammy y trabaja en colaboración con el astrofísico George Smoot del Laboratorio Nacional Lawrence de Berkeley.





Lo que se hace es tomar los datos de las ondas electromagnéticas recibidas de las estrellas supernovas para modificar su frecuencia y restringirlas a las frecuencias de los sonidos que podemos escuchar. Una versión de 12 segundos de estos sonidos puede ser escuchada en youtube, buscando con la frase: “Music of the Universe”.
http://www.sciencedaily.com/releases/2010/01/100129164526.htm

II. La sinfonía inconclusa de Einstein es una obra que está por escribirse.

Una obra publicada en el año 2000, de la editorial Berkley Books, 2003, ganadora del Premio 2001 para Escritores de Ciencias del Instituto de Física de los Estados Unidos (American Institute of Physics Science Writing Prize), que versa sobre un tema similar es el libro de Marcia Bartusiak:



“La Sinfonía Inconclusa de Einstein”, se explica cómo una nueva generación de observatorios, localizados en el mundo entero, han sido diseñados y se encuentran en construcción con el propósito de detectar las ondas gravitacionales.



Éstas son pequeñas perturbaciones en el campo gravitacional y se piensa que viajan a la velocidad de la luz a través del universo. El problema es que, aunque existe evidencia indirecta de su existencia, nunca ha sido posible detectarlas en ningún laboratorio.


III. Ha sido descubierto un gene primitivo que, cuando falla, puede ser la causa de casi el 15% de los cánceres que padece el ser humano.

Un gene primitivo de cáncer ha sido descubierto en animales antiguos.
Científicos de la Universidad de Innsbruck, en Austria, se encuentran buscando las causas del cáncer y como parte de su trabajo han estudiado un gene del cáncer cuya antigüedad es de 600 millones de años. Han sido los primeros en identificar un gene canceroso (razón por la que se les llama oncogenes) que recibe el nombre de myc y lo han encontrado en un pólipo, es decir, en un crecimiento anormal de tejido similar a los que son encontrados en nuestros cuerpos y que tiene la apariencia de una bola blanda, aunque también los hay con estructura fibrosa.
El gene myc juega un papel importante en el crecimiento de los organismos y contiene las claves, es decir códigos, necesarios para que sea fabricada una proteína que actúa como un gene regulador que controla la expresión del 15% de todos los genes humanos. Se dice que un gene se expresa, cuando se desarrollan las órdenes para la fabricación de las proteínas cuyos códigos son portados por el gene.
Dicho de otra manera, el gene myc se encarga de que ese 15% de genes se activen o se mantengan desactivados.
Cuando deja de regularse el gene myc ocurre una proliferación descontrolada de células, lo cual lleva a la aparición de algunos de los aproximadamente 30% de cánceres conocidos.
Según Klaus Bister, del Instituto de Bioquímica de la Universidad de Innsbruck, se necesita comprender cuáles son los genes regulados por el myc, y de ésos, cuáles son importantes en el desarrollo de algún tipo de cáncer.


http://www.sciencedaily.com/releases/2010/02/100211090750.htm

IV. Una mutación en el gene p53 podría ser la causa de que las mujeres más pobres presenten más frecuencia de reaparición del cáncer de pecho.

En un artículo publicado en el mes de febrero por la revista científica British Journal of Cancer, científicos de la Universidad de Dundee, en el Reino Unido, afirman que la mutación de un gene llamado p53 está asociado con las privaciones económicas, lo cual ayuda a que las mujeres de las comunidades pobres sean más propensas a que el cáncer de pecho regrese de nuevo.



El Doctor Lee Baker explica que uno de los factores encontrados en sus estudios es cierta predisposición genética, mientras que otro factor es el estilo de vida, como por ejemplo: fumar, tomar, llevar dietas pobres, es decir regímenes alimenticios que resultan de las privaciones económicas. Todo lo cual se manifiesta en mutaciones del gene p53.



http://www.dundee.ac.uk/pressreleases/2010/prfeb10/prognosis.htm

miércoles, 10 de febrero de 2010

Los cambios en el ritmo de latidos del corazón durante el canto y el tocado de la flauta

(Vox Populi de la Ciencia, Radio Bemba, 10 de febrero de 2010)

Fuente: Lászlo Harmat, y Töres Theorell, Heart Rate Variability During Singing and Flute, Music and Medicine 2(1) 10-17, 2010.

En el número de enero de 2010 de la revista científica Música y Medicina (Music and Medicine), se incluye un artículo cuyo título podemos traducir como: “Los cambios en el ritmo de latidos del corazón durante el canto y el tocado de la flauta”. Sus autores son el Maestro en Ciencias Lásló Harmat, originario de Hungría, y el Médico y Doctor en Ciencias Töres Theorell, de la Universidad de Estocolmo en Suecia.



En su artículo reportan la investigación que realizaron para determinar de qué manera se modifica el ritmo con que late el corazón de los músicos que se dedican al canto y a tocar la flauta de manera profesional. La razón que los lleva a seleccionar a esta clase de músicos está relacionada con el hecho de que para realizar su trabajo ambos tienen que manejar correctamente técnicas de respiración que se aprenden en los centros de enseñanza musical y que, de manera natural, a todas las personas nos ocurre que nuestro corazón incrementa su ritmo cuando llenamos con aire nuestros pulmones y lo reduce cuando lo expulsamos. A este fenómeno se le conoce como arritmia sinusal respiratoria.

Está bien estudiado que hay varias fuentes de cambio en el ritmo con que late el corazón, regulado por el sistema nervioso parasimpático. Es el caso del incremento en los latidos del corazón debido a la actividad física, la digestión, el acto sexual, y según las evidencias disponibles, también tiene relación con la regulación de la actividad metabólica.

Según Laśló Harmat y Töres Theorell, los cantantes profesionales tienen más habilidad para establecer una variación más pronunciada de los latidos del corazón durante el canto y citan otro trabajo dirigido por Töres Theorell, publicado en el año 2003, en el que hacen un estudio empírico para discutir la posibilidad de que el canto promueva sentirse bien.

Para comprender algunas de las causas de este complicado sistema de influencias sobre el ritmo cardiaco de los cantantes y los flautistas, Harmat y Theorell realizaron experimentos con nueve músicos profesionales, cinco cantantes y cuatro flautistas, con edad promedio de 35.3 años y desviación estándar de 13.181 años, lo cual los sitúa en el rango de edades de 20 a 66 años. Cinco de ellos son mujeres y cuatro son varones. Todos de nacionalidad sueca o húngara.

En la selección de participantes evitaron realizar observaciones con casos en los que había asuntos somáticos, psiquiátricos o de enfermedades cardiovasculares. A los músicos seleccionados se les extendió una invitación y se les presentó verbalmente y por escrito todos los elementos referentes al estudio que se estaba realizando, siguiendo el procedimiento indicado por Comité Regional de Investigación Ética, con sede en Estocolmo. Cabe agregar que, para llevar a cabo la investigación, antes fue necesario el permiso extendido por este comité.

Las piezas musicales a ser interpretadas fueron clasificadas en a) piezas fáciles o de interpretación relajada, y b) piezas extenuantes. Los investigadores explican en su artículo qué se basaron para clasificar la música, pero aquí solamente presentaremos breves fragmentos de cuatro de ellas. El listado completo puede ser encontrado en el reporte científico que venimos mencionando.

Además, los músicos realizaron su interpretación en varias circunstancias distintas: a) en ensayo con público y sin público, y b) en un concierto formal. Los latidos de su corazón fueron medidos y grabados en archivos digitales para ser estudiados en computadora después. El instrumento que se usó recibe el nombre de Actiheart, es un pequeño dispositivo de tamaño similar al de una moneda grande, aunque más grueso, tiene 3.3 centímetros de diámetro y 0.7 centímetros de grosor. Contiene los sensores y el sistema de grabado, se coloca en diversas partes del pecho y permite estudiar el ritmo cardiaco, sus variaciones en el tiempo, y también, una estimación de la energía consumida durante el proceso de toma de los datos, que en este caso corresponde a la interpretación de la pieza musical seleccionada.




Los investigadores realizaron mediciones en intervalos de 1 minuto y sometieron los datos obtenidos a un estudio estadístico. Entre los datos encontrados, podemos citar los siguientes:
1.El promedio de los latidos por minuto fue menor en el ensayo de piezas musicales catalogadas como de interpretación relajada, con 94.5.
2.Con un promedio de 99.3 latidos por minuto, le siguió la interpretación de la pieza musical extenuante en ensayo.
3.En cambio, la interpretación de la pieza musical clasificada como relajada, pero en un concierto, proporcionó un promedio de 117.3 latidos por minuto.
4.Por último, la pieza musical extenuante, interpretada en concierto, produjo un promedio de más de 129 latidos por minuto.
En síntesis, presentarse en un concierto hace que los músicos incrementen los latidos de su corazón. También, la naturaleza de la pieza musical juega un papel en el promedio del número de latidos del corazón.



Además, los investigadores encontraron que hay diferencias considerables entre las personas. Por ejemplo, el rango de variación del promedio de latidos por minuto, en concierto, con las piezas extenuantes, fue de 100 hasta 144.

Sin embargo, el tipo de afectación debido a la presencia de público en ensayo, y después en concierto, fue similar en todos los músicos. Es decir, unos son más nerviosos que otros, pero a todos les afecta de manera similar.



Los investigadores reportan que buscaron la posibilidad de efectos debidos a la edad, el sexo y el tipo de instrumento, pero no encontraron diferencias significativas en esos factores. Sin embargo, ellos reconocen que otros autores sí han encontrado diferencias de género y citan un trabajo de 1997, desarrollado por cuatro investigadores, en el que estudiaron el efecto de la audiencia sobre la ansiedad de los músicos.

Actualidades Científicas 10 de febrero de 2010

(Vox Populi de la Ciencia, Radio Bemba)
10 de febrero de 2010

I. La falta de prudencia para arriesgar el dinero en las apuestas está relacionada con lesiones en una región del cerebro que se llama amígdala cerebral.

Benedetto De Martino, quien realiza un postdoctorado en el Instituto Tecnológico de California, mejor conocido como el CalTech por su nombre en inglés, realizó un estudio que permite demostrar por primera vez algo que ya se sospechaba desde hacía años: que la tendencia a no atender las señales de riesgo cuando se llevan a cabo juegos de azar, es un problema de conducta relacionado con lesiones en la amígdala cerebral. Éstas no deben confundirse con las amígdalas faríngeas, también llamadas adenoides, que se encuentran en la parte superior de la garganta y que atrapan muestras"de las bacterias y de los virus aunque pueden infectarse ellos mismos. Los científicos creen que los adenoides funcionan como parte del sistema inmunológico del cuerpo al filtrar los gérmenes que tratan de invadir el cuerpo y que ayudan a desarrollar los anticuerpos contra los gérmenes.

Para explicar dónde se localiza la amígdala cerebral, conviene recordar que el cerebro tiene una parte central muy antigua, similar al cerebro de los reptiles, y además, otra relativamente nueva que crece como un hongo al rededor de la más vieja. Esta parte nueva es el córtex, donde también se encuentra el neocórtex, una zona muy grande en el ser humano, que hace la diferencia entre nuestro rendimiento cerebral y el resto de los animales. En esta zona se encuentran cuatro partes que reciben el nombre de lóbulos, son: el temporal, el frontal, el parietal y el occipital. En este punto es recomendable asistirse de una figura, que puede ser encontrada en un libro de anatomía, o también en el internet.



Regresando a las amígdalas cerebrales, éstas son dos regiones del cerebro que están formadas por un conjunto de neuronas localizadas en los lóbulos temporales, hacia el centro del cerebro, en una parte que suele llamarse también el cerebro límbico. Esta región se encarga de procesar las emociones y se sabe que aquellas personas con lesiones en esa área del cerebro pueden observar las caras de otras personas y reconocer varias expresiones de sentimientos, excepto la del miedo. Se ha confirmado también que las personas con lesiones en la amígdala cerebral no reconocen el sentimiento del miedo en sí mismas.

El experimento consistió en darle a los participantes $50 dólares al principio del juego y a jugar mediante el lanzamiento de una moneda con oportunidades de ganar o perder de $50 contra $50. Según las reglas del juego, la probabilidad de ganar o perder variaba en el transcurso del tiempo, por ejemplo, a veces podrían ganar $50 dólares o perder $20, dependiendo del resultado del juego; mientras que a la siguiente ocasión podrían ganar $30 o perder $40.

En el grupo de estudio había dos personas con lesiones en la amígdala cerebral por razones genéticas y había personas saludables como grupo de control para comparar los resultados. Como era de esperarse, las personas saludables tenían poca tendencia a jugar cuando la diferencia entre ganar y perder era pequeña, pero estaban plenamente dispuestos a jugar si las diferencias entre ganar y perder eran grandes (con ganancia muy superior a la de pérdida).

En cambio, las personas que tenían lesionada la amígdala cerebral no se veían muy afectadas por esas diferencias, e incluso, llegaron a jugar cuando la ganancia posible era mucho más pequeña que la pérdida.





En los análisis financieros se le llama aversión al riesgo a la actitud de las personas que tratan de evitar las inversiones que son peligrosas porque la probabilidad de perder aumenta. Por esa razón, los autores del estudio afirman que las lesiones en la amígdala cerebral están relacionadas con esa falta de prudencia en el manejo de recursos económicos cuando se participa en juegos de azar.
Fuente: http://www.sciencedaily.com/releases/2010/02/100208154645.htm


II. Los residuos del tabaco adheridos a las paredes de las habitaciones en las que previamente han estado fumadores, contienen agentes cancerígenos cuyo potencial tóxico se mantiene durante días, semanas y hasta meses.


Investigadores del Laboratorio Nacional Lawrence de Berkeley han logrado demostrar que las superficies de los sitios en los cuales han estado personas fumando absorben los residuos del tabaco de tal forma que estos reaccionan con el aire del interior. En particular, este aire interior contiene contaminaciones de ácido nítrico que reaccionan con los residuos del tabaco que está pegado a las paredes, produciendo nuevas sustancias cancerígenas que permanecen allí durante semanas o meses.



Estas sustancias se encuentran en las paredes, en los techos, en los pisos, las alfombras y las superficies de los muebles de la habitación. El compuesto que se produce se llama nitrosamina, el cual consta de un complejo de átomos que se llaman nitritos y de otro complejo de átomos que se llaman aminos. Se presenta también en los alimentos cuando las temperaturas de cocinado son muy altas y en el estómago del ser humano con altas condiciones de acidez.

Según Hugo Destaillats, químico del Departamento del Laboratorio de Ambientes Interiores de Berkeley, “... las nitrosaminas se encuentran entre los agentes cancerígenos más poderosos que resultan en el tabaco sin quemar y en el humo del tabaco.”
Fuente: http://www.sciencedaily.com/releases/2010/02/100208154651.htm

III. Afirman científicos del Colegio Universitario de Londres (University College London) que la mayoría de los ingredientes para que esté presente la vida se encuentran en la luna de Saturno que se llama Encélado.
Un grupo del Laboratorio Mullard de Ciencias Espaciales que trabaja en la misión Cassini-Huygens ha encontrado iones de agua con carga negativa en secciones de hielo de la luna Encélado, que gira en torno a Saturno.




A partir de datos obtenidos en vuelos del año 2008, ellos encontraron evidencia de la presencia de agua líquida en esa luna de Saturno. Los datos fueron obtenidos mediante un aparato que porta la nave espacial llamado espectrómetro de plasma, el cual fue usado para obtener evidencia de la presencia de varios compuestos químicos, incluyendo hidrocarbonos.

Según el Profesor Andrew Coates, líder del grupo, no es sorpresa que se encuentre agua allí, lo novedoso es la presencia de iones de agua de vida corta, es decir, ganan un electrón, pero lo vuelven a perder pronto. Según Andrew Coates, parte de lo interesante del hallazgo está en que además hay iones negativos de carbono y energía suficiente para la realización de reacciones químicas típicas de las que ocurren en los ambientes en los que se presenta la vida.



¿Pero qué son los iones? Conviene explicar que los iones se forman cuando el número de electrones no coincide con el número de protones en un átomo o en una molécula, lo cual da lugar a que las cargas negativas de los electrones no se equilibran con las cargas positivas de los protones. La situación más estable es cuando la carga eléctrica total suma cero, pero por diversos accidentes puede suceder que se pierda o se gane un electrón, con lo cual se genera la falta o el exceso de cargas negativas.

El espectrómetro de plasma de la nave Cassini-Huygens tiene tras de sí a un equipo de trabajo asociado de cuando menos 58 científicos provenientes de 16 instituciones académicas, localizadas en los siguientes países: los Estados Unidos, Francia, Inglaterra, Finlandia, Noruega y Hungría. En el año 2004, la Editorial SpringerLink publicó un artículo en el cual se explicó la naturaleza del aparato, sus funciones y las actividades que se esperaba realizar una vez que la nave espacial se colocara en órbita en torno a Saturno, dicho artículo consta de 114 páginas.

La nave Cassini-Huygens despegó el 15 de octubre de 1997 de la estación de Cabo Cañaveral, impulsado por un cohete de dos etapas del tipo Titán IV/B. Fue planeada para sobrevolar Saturno durante 4 años, con la separación de una parte acoplada que se llama la sonda Huygens, preparada para penetrar en la atmósfera de Titán, otra de las lunas de Saturno.

La luna de Saturno llamada Encélado fue descubierta en 1789 por William Herschel, su masa es de 1.08X1020 kilogramos, menos del 1.5% de la masa de nuestra Luna. Su atracción gravitatoria es el 1.15% de la fuerza gravitacional que sentimos en la Tierra, lo cual quiere decir que una persona de 100 kilogramos se sentiría en Encélado como si fuera de solamente 1 kilogramo más 150 gramos.

El nombre de esta luna se debe a un personaje de la mitología griega, Encélado, quien era un gigante de cien brazos.

La NASA mantiene un sitio de Internet con información actualizada sobre la nave espacial Cassini-Huygens y el 9 de febrero de 2010, a las 22:00 horas de Hermosillo, Sonora, se encontraba orbitando en torno a Saturno en una órbita elíptica de excentricidad grande, es decir, de forma bastante alargada, viajando a una velocidad de 12 926 kilómetros por hora, a más de 5 299 kilómetros de Saturno.




Fuentes:
http://www.sciencedaily.com/releases/2010/02/100209144657.htm
http://saturn.jpl.nasa.gov/
http://saturn.jpl.nasa.gov/mission/presentposition/

miércoles, 3 de febrero de 2010

Agua desalada por medio de energía solar, 3 de febrero de 2010

Agua desalada por medio de energía solar
(Vox Populi de la Ciencia, Radio Bemba)

Una de las contribuciones más interesantes para desalar agua por medio de energía solar es el sistema desarrollado por el científico indú Anil K. Rajvanshi, quien en 1980 publicó, en la Revista Solar Energy, un artículo intitulado: Un esquema para desalar agua de mar a gran escala mediante energía solar (A scheme for large scale desalination of sea water by solar energy).

Propone un esquema para desalar agua en el Desierto de Thar, localizado al oeste de la India, en su frontera con Pakistán. En éste se trata de trasladar agua de mar a 80 kilómetros de distancia, subiéndola 46 metros sobre el nivel del mar, impulsada por bombas que funcionan con electricidad proporcionada por 415 turbinas eólicas, con capacidad cada una para generar 200 kilowatts.



La propuesta de Anil Rajvanshi inicia con el traslado de agua de mar con una rapidez de 216 000 metros cúbicos por hora para introducirlos en un sistema de tubos de concreto de forma rectangular, semienterrados en la arena del desierto, para que absorban el calor de la tierra calentada por el sol. El agua pasaría de 15.5 grados Celsius a 54.4 grados Celsius a las 2 P.M. de un día típico de junio. Una vez alcanzada esa temperatura, el agua de los tubos semienterrados pasaría a un área de desalinización, en la cual se usaría el método de evaporación súbita (conocida como flash evaporation, en inglés). Este procedimiento consiste en lograr la evaporación de un líquido en un recipiente mediante la acción de reducir la presión a la que se encuentra en el interior. Es lo mismo que ocurre cuando destapamos súbitamente una olla con agua caliente que tenemos en la estufa, aunque aún no se acerca a los 100 grados Celsius, suelta vapor debido a la reducción brusca de la presión.

La propuesta de Anil Rajvanshi implica la colocación de 9 600 de estos colectores, cada uno con una longitud de 609 metros con 60 centímetros, una anchura de 80 centímetros, enterrados a la mitad y separados entre sí 60 centímetros.



En este método, como en todos los procesos de desalado de agua, hay agua que contiene concentrados de sal muy superiores y que es necesario desechar. Anil Rajvanshi proponía regresarla al mar mediante un canal aprovechando la acción de la gravedad.

En la etapa de mayor temperatura, en junio, produciría 13 600 metros cúbicos de agua desalada por hora, lo cual se traduce en casi 3 778 litros de agua pura por segundo.

Según Anil Rajvanshi el mínimo de temperatura se presentaría a las 6 de la mañana, con 20 grados Celsius en la superficie de la tierra y 40 grados Celsius debajo de los tubos, para crecer paulatinamente hasta las 2 de la tarde en el caso de la superficie de la arena y hasta las 6 de la tarde en la tierra localizada debajo de los tubos.



La posibilidad de trasladar esta clase de tecnología al caso de Sonora presenta la ventaja de que el agua disponible sería la del Golfo de Baja California, que difícilmente se localiza por debajo de 25 grados Celsius, 10 más que la del mar arábigo del que habla Anil Rajvanshi.

Métodos distintos para desalar agua, 3 de febrero de 2010

(Vox Populi de la Ciencia, Radio Bemba)


Fuente:
Nuestra fuente es un documento del Congreso de la Organización de la ONU para la Alimentación y la Agricultura, conocida como FAO por su nombre en inglés.
Se llama “Desalación de agua para aplicaciones a la agricultura”, se realizó el 26 y 27 de abril de 2004 en Roma. El material escrito se distingue como el “Paper 5”, que podemos traducir aquí como “Documento 5” y está fechado en Roma, en el año 2006.

Tecnologías para desalar agua:
A partir de la página 5 del documento citado se listan y discuten brevemente las tecnologías para desalar agua:

La primera de ellas fue la destilación térmica, que consiste en convertir el agua salada en vapor para condensarla posteriormente en agua pura.



Posteriormente se desarrolló el método de electro-diálisis, que consiste en aplicar campos eléctricos al agua salada para separar las moléculas de sales hacia un parte del recipiente y las moléculas de agua hacia otra.

Otro método es el de ósmosis inversa que consiste en aplicar presión sobre el agua para hacerla pasar a través de una membrana en la cual se quedan las partículas de sal. El problema con este último es que mientras más alta es la concentración de sal, más presión se requiere, con el consecuente consumo de energía eléctrica. Por ejemplo, en el caso del agua salobre que tiene entre 0.5 y 30 gramos de sal por litro, lo cual técnicamente le llaman como 0.5 a 30 partes por millar, se requieren entre 100 y 270 kilopascales de presión, en cambio, cuando se trata de agua salada, con más de 35 gramos de sal por cada litro, se necesitan desde 550 hasta 1 000 kilopascales de presión, una cantidad considerablemente superior. Por esa razón, la ósmosis inversa no es recomendada para el agua de mar, sino para aguas salobres.




Cada kilopascal es equivalente a inflar una llanta a una presión de 20.89 libras por pulgada cuadrada, de modo que una llanta de un automóvil grande, inflada a 40 libras por pulgada cuadrada, equivale a casi dos kilopascales.

Entonces 270 kilopascales es cercana a la presión de 130 llantas como las de un automóvil de ocho cilindros.

Un tercer método para desalar agua es el que se basa en la energía solar, que permite calentar el agua para después producir vapor.

Cabe agregar que hay varias formas para determinar la salinidad del agua: una de ellas es mediante la conductividad eléctrica, que disminuye conforme decrece la cantidad de sal disuelta en el agua. Otro método es el índice de refracción del agua, que aumenta con la cantidad de sal en el agua y otro es un método de conteo de los iones de cloro.

Las plantas desaladoras son clasificadas como
Plantas pequeñas, cuando producen no más de 500 metros cúbicos de agua por día.
Plantas de tamaño medio, cuando producen desde 500 hasta 5 000 metros cúbicos de agua por día.
Plantas grandes, cuando producen más de 5 000 metros cúbicos de agua por día.
A razón de un consumo de 100 litros diarios de agua por habitante, considerando que Hermosillo tiene cerca de 750 000 habitantes, y proyectando una solución para una ciudad de 1 500 000 de habitantes, estaríamos hablando de un consumo de 75 000 metros cúbicos de agua diarios, lo cual nos coloca en la necesidad de una planta catalogada como grande.

Según el documento que hemos mencionado, en el Golfo Pérsico existen plantas grandes para destilar agua de mar, con un costo de $1 a $1.50 dólares estadounidenses por cada metro cúbico, es decir, casi por cada tinaco de agua de 1 100 litros. Existen plantas que trabajan con ósmosis inversa, de tamaño medio, con costos de producción de $1 a $1.50 dólares estadounidenses por cada metro cúbico y de hasta $1 cuando son de tamaño grande.

Según el reporte, el sistema de uso de energía solar para desalar agua, combinado con el sistema de evaporación súbita en etapas múltiples, consume 3.5 kilowatts hora de energía por cada metro cúbico de agua desalada. Siempre y cuando la capacidad de las plantas sea superior a 5 000 metros cúbicos por día, es decir, debe tratarse de plantas grandes.

Siempre según el documento mencionado, el procedimiento por ósmosis inversa consume de 4 a 7 kilowatts hora de energía por cada metro cúbico de agua desalada, lo cual lo coloca entre los más caros en cantidad de electricidad consumida.

En cambio, el método de electro-diálisis puede llegar a consumir solamente 1 kilowatt hora por cada metro cúbico de agua desalada.

Aparte de las consideraciones anteriores, cabe señalar que existen gastos de instalación y de mantenimiento, que serán discutidos en otra ocasión.

También debe considerarse el impacto sobre el medio ambiente, ya que las sales extraídas se concentran en porcentajes superiores a los del agua salobre, o las del agua de mar, lo cual implica destrucción de terrenos si se depositan en lagunas, o repercuten en la modificación de la salinidad del agua de mar, con el correspondiente efecto sobre la vida marina.
Hay además uso de aditivos químicos, anticorrosivos, ruido y emisión de gases invernadero.

Datos de la fuente: http://openpdf.com/ebook/desalination-pdf.html

Water desalination for agricultural applications
Proceedings of the FAO Expert Consultation on Water
Desalination for Agricultural Applications
26–27 April 2004, Rome
Paper 5
La edición corresponde a J. Martínez Beltrán y S. Koo-Oshima
FOOD AND AGRICULTURE ORGANIZATION OF THE UNITED NATIONS
Rome, 2006

Actualidades científicas, 3 de febrero de 2010

(Vox Populi de la Ciencia, Radio Bemba, 3 de febrero de 2010)

I. Células madre rescatan células nerviosas por contacto directo.
Una célula madre es una célula que tiene capacidad de autorrenovarse mediante divisiones de si misma. También puede continuar una vía de diferenciación para la que está programada y, por lo tanto, producir células de uno o más tejidos maduros, funcionales y diferenciados.



La mayoría de tejidos de un individuo adulto poseen una población específica propia de células madre que permiten su renovación periódica o su regeneración cuando se produce algún daño de sus tejidos.




Un tipo de células madre muy importantes son las embrionarias, que forman parte de la masa celular interna de un embrión de 4 a 5 días de edad y que tienen la capacidad de formar todos los tipos celulares de un organismo adulto.



Además, estas células madre embrionarias pueden mantenerse (en el embrión o en determinadas condiciones de cultivo) de forma indefinida, formando al dividirse una célula idéntica a ellas mismas, y manteniendo una población estable de células madre. Existen técnicas experimentales donde se pueden obtener células madre embrionarias sin necesidad de destruir el embrión.

El Instituto Karolinska de Suecia ha dirigido el trabajo de varios grupos de investigación que han logrado trasplantar células madre en tejido nervioso dañado. El experimento se ha desarrollado en ratones de laboratorio y también en muestras de cerebro humano in vitro. Los tejidos de cerebro humano provenían de cerebros dañados en accidentes o que habían sufrido enfermedades degenerativas. Los científicos han encontrado que en donde había conexiones dañadas que impedían el transporte de moléculas entre células, se tendieron puentes que facilitaron ese movimiento de moléculas de un lugar a otro del tejido. El científico Eric Herlenius, del Instituto Karolinska, afirma que esos hallazgos significan que se ha abierto una nueva puerta para el posible tratamiento futuro de daño neuronal. Además del instituto citado, participaron en la investigación: El Instituto de Investigación Médica de Stanford-Burnham, la Escuela de Medicina de Harvard y la Universidad Libre de Bruselas.



En síntesis, los científicos han podido demostrar que las células madres pueden establecer conexiones que permiten rescatar neuronas en peligro de morir, y aunque aún se desconoce el mecanismo preciso que les permite sobrevivir una vez que se establecen dichas conexiones, ya se piensa en una posible estrategia para el tratamiento de enfermedades neurodegenerativas mediante el trasplante de células madre en el cerebro.
Fuente: http://www.sciencedaily.com/releases/2010/02/100201171754.htm

II. Los científicos han encontrado cuál es la estructura tridimensional de una enzima que es usada por el virus del VIH (o virus del sida).
Los científicos saben que cuando el virus del sida infecta a una célula, utiliza una enzima que se llama integrasa para lograr que su información genética sea cargada en la célula y que ésta empiece a reproducir copias del virus.
Los estudios farmacológicos ya habían logrado demostrar que hay medicamentos que trabajan contra el virus del sida mediante el bloqueo de esa enzima (integrasa), pero no habían conseguido determinar cuál es la estructura tridimensional de la integrasa, es decir, cómo es el arreglo geométrico de sus átomos en el espacio.



Este acomodo geométrico es importante porque, cuando se conoce, ayuda a buscar más mecanismos para bloquear su acción. La nota importante es que la revista científica Nature acaba de publicar, este 30 de enero, un artículo de investigadores del Colegio Imperial de Londres en el que se reporta que han logrado hacer crecer un cristal que muestra la estructura tridimensional de la integrasa. Para lograr este objetivo los científicos necesitaron más de 40 000 intentos. Así lo relató el Doctor Peter Cherepanov, líder del grupo del Departamento de Medicina del Colegio Imperial de Londres.



Los científicos utilizaron la técnica de rayos X, que ya explicamos previamente en varios programas hace 10 meses, para saber cómo es el acomodo tridimensional de los átomos de la enzima llamada integrasa. La técnica se llama difracción de rayos X y consiste en que éstos son lanzados contra la muestra del cristal para saber cómo los dispersa hacia una superficie en la que se dibujan manchas blancas donde los rayos X son muy intensos y manchas oscuras donde esos rayos son muy débiles.
Fuente: http://www.sciencedaily.com/releases/2010/01/100131142438.htm

III. Pintar de blanco los techos de las casas podría ayudar a disminuir la temperatura de las ciudades en más de 3 décimas de grado centígrado.
Con un modelo desarrollado en computadora, un grupo de científicos del Centro Nacional de Investigación Atmosférica de los Estados Unidos ha podido demostrar que la temperatura de las ciudades podría disminuir en más de 3 décimas de grado Celsius si se pintan de blanco los techos de las casas. Esto es importante porque se ha podido medir que debido al asfalto y los materiales utilizados en la construcción, las ciudades se han convertido en grandes celdas calientes que presentan temperaturas locales que alcanzan de 1 a 3 grados Celsius más que las temperaturas registradas en las áreas rurales circundantes.




Los científicos han insistido en que su modelo es todavía preliminar, pues es necesario tomar en cuenta que la contaminación ensucia los techos y empaña la blancura original de los techos recién pintados.
Fuente: http://www.sciencedaily.com/releases/2010/02/100201145445.htm

III. Los árboles parecen estar creciendo más rápido debido a los cambios en el clima.
Según el ecólogo Geoffrey Parker, los bosques de Maryland, uno de los 50 estados de los Estados Unidos, están creciendo más rápido en los últimos 20 años. Midiendo la producción de árboles en toneladas por cada acre, que equivale a 4 046.85 metros cuadrados, esto es un poco más de 40% de una hectárea, o dicho de otra forma es un poco más del 40% de un cuadrado de 100 por 100 metros, Parker afirma que un censo de los bosques lo lleva a la conclusión de que por cada acre hay dos toneladas más de árboles cada año. Este dato se manifiesta en que los bosques están más empaquetados, lo cual podríamos traducir como más tupidos en el español que usamos en Sonora.



Parker afirma que ha comparado con datos de los últimos 225 años, encontrando que el censo iniciado a partir del 8 de septiembre de 1987 proporciona resultados como los que ya mencionamos.
Parker y su colega Sean McMahon afirman que este fenómeno podría deberse a un proceso de adaptación de los bosques ante el aumento de 12% en los niveles de dióxido de carbono y el incremento de 3 décimos de grado en la temperatura.
http://www.sciencedaily.com/releases/2010/02/100201171641.htm