jueves, 15 de julio de 2010

¿Es moral dedicar esfuerzos científicos al armamentismo? (Vox Populi de la Ciencia, Radio Bemba) 14 de julio de 2010

En su capítulo de libro, “Los Aspectos Éticos de la Ciencia Moderna”, Hugo Aréchiga nos plantea que:
“Dos corrientes han impulsado a la ciencia desde su aparición como fuerza social. Una, la motivación inconsciente, particularmente desarrollada en algunos individuos, de avanzar hacia lo desconocido; de plantear nuevos problemas, y de encontrar nuevas soluciones; otra, la búsqueda del bienestar derivado de los productos del conocimiento.”

Vamos a prestar especial atención a la segunda motivación, con interés particular en sus aplicaciones militares. El problema es el siguiente: habiendo tantas necesidades humanas, especialmente la pobreza, el hambre, la enfermedad y la gente sin acceso a educación y a los beneficios de los productos del trabajo, ¿es moral dedicar esfuerzos científicos al desarrollo de armas cada vez más destructivas y sofisticadas?

La revisión del libro: “El Papel de la Ética en la Investigación Científica y la Educación Superior”, coordinado por Martín Aluja y Andrea Birke, editado por el Fondo de Cultura Económica y la Academia Mexicana de Ciencias, no contiene una sola mención de la moralidad, o inmoralidad, del esfuerzo científico dedicado a asuntos militares.

A pesar de que 25 autores contribuyeron al contenido del libro, nadie se ocupó de la moralidad del trabajo científico en asuntos militares. En especial, Hugo Aréchiga se acercó ligeramente al tema cuando abordó el principio de “No atentar contra los intereses de la sociedad”, pero le dedicó menos de una página y abordó temas como: el daño ecológico, los nexos comerciales por encima de los académicos, las donaciones de empresas a científicos, para cerrar con la fabricación de datos, su falsificación y el plagio.

Aunque no se mencione, el trabajo científico en asuntos militares es un hecho conocido, por ejemplo, en octubre de 1941, cuando los Estados Unidos aún no entraba en la Segunda Guerra Mundial, se publicó en la revista American Journal of Physics un artículo intitulado “Entrenamiento de Físicos para las Industrias de Defensa”, el autor era Irvin H. Solt, de la Oficina de Educación de los Estados Unidos, y explicaba que la Ley Número 146, aprobada por el Congreso de ese país el 1 de julio de 1941, contenía un programa con 17.5 millones de dólares para cursos de ingenieros, químicos, físicos y supervisores en las industrias de guerra. Cuando esa ley fue aprobada, faltaban todavía 160 días para que Japón atacara Pearl Harbor, lo cual ocurrió el 7 de diciembre de 1941 y dio el motivo para la entrada de los Estados Unidos a la Segunda Guerra Mundial.

En el mismo sentido, la misma revista publicó en diciembre de 1942 una nota de Charles Morse, de la misma Oficina de Educación de los Estados Unidos, en la que se quejaba de la cantidad de jóvenes que se graduaban en la High School, pero luego no iban a matricularse en los College. La nota se titulaba: “High Scool Physics and the War”, que podemos traducir como “El Bachillerato y la Guerra.”

En ese ambiente se formaron los jóvenes que en 1962 tenían del orden de 40 años de edad y habían alcanzado un grado de doctor en ciencias y el resultado es bien conocido ahora: Los científicos de todos los países desarrollados estuvieron plenamente dispuestos a dedicar su trabajo a los intereses militares, aún cuando la guerra ya había terminado.

El 6 de febrero de 1986, en una conferencia en Ixtapa, en México, Gabriel García Márquez dictó una plática que llamó: El cataclismo de Damocles. En ella reflejó, con toda la categoría de su prosa, lo absurdo de la situación que se vivía entonces y que se sigue presentando en la actualidad. De ella tomamos algunos párrafos pero recomendamos la lectura directa de su artículo.



En el caso del párrafo anterior, entendemos la palabra prosa en el siguiente de los varios significados que le atribuye el diccionario en línea de la Real Academia Española: “Estructura o forma que toma naturalmente el lenguaje para expresar los conceptos, y no está sujeta, como el verso, a medida y cadencia determinadas.”

García Márquez escribió: “... el tremendo Apocalipsis cautivo en los silos de muerte de los países más ricos está malbaratando las posibilidades de una vida mejor para todos.” y basó su afirmación en datos como los siguientes:

“La UNICEF calculó en 1981 un programa para resolver los problemas esenciales de los 500 millones de niños más pobres del mundo, incluidas sus madres. Comprendía la asistencia sanitaria de base, la educación elemental, la mejora de las condiciones higiénicas, del abastecimiento de agua potable y de la alimentación. Todo esto parecía un sueño imposible de 100.000 millones de dólares. Sin embargo, ese es apenas el costo de 100 bombarderos estratégicos B-1B, y de menos de 7 000 cohetes Crucero, en cuya producción ha de invertir el gobierno de los Estados Unidos 21 200 millones de dólares.”




“En la salud, por ejemplo: con el costo de 10 portaviones nucleares Nimitz, de los 15 que van a fabricar los Estados Unidos antes del año 2000, podría realizarse un programa preventivo que protegiera en esos mismos 14 años a más de 1.000 millones de personas contra el paludismo, y evitara la muerte -sólo en África- de más de 14 millones de niños.”



“En la alimentación, por ejemplo: el año pasado había en el mundo, según cálculos de la FAO, unos 565 millones de personas con hambre. Su promedio calórico indispensable habría costado menos de 149 cohetes MX, de los 223 que serán emplazados en Europa Occidental. Con 27 de ellos podrían comprarse los equipos agrícolas necesarios para que los países pobres adquieran la suficiencia alimentaría en los próximos cuatro años. Ese programa, además, no alcanzaría a costar ni la novena parte del presupuesto militar soviético de 1982.”
Antes de continuar conviene explicar en qué sentido usa la palabra: “silos” García Márquez. Se refiere a los pozos que contienen el equipo electrónico, el combustible y los cohetes que transportan bombas nucleares. Además, se le llama “asistencia sanitaria de base” al conjunto de cuidados médicos, medicinas y vacunas fundamentales para prevenir enfermedades o curarlas si ya han aparecido. Finalmente, el “promedio calórico” es la cantidad de energía que requiere un organismo vivo para mantenerse y que tiene que ingerir a través del alimento.



“En la educación, por ejemplo: con sólo dos submarinos atómicos tridente, de los 25 que planea fabricar el gobierno actual de los Estados Unidos, o con una cantidad similar de los submarinos Typhoon que está construyendo la Unión Soviética, podría intentarse por fin la fantasía de la alfabetización mundial. Por otra parte, la construcción de las escuelas y la calificación de los maestros que harán falta al Tercer Mundo para atender las demandas adicionales de la educación en los 10 años por venir, podrían pagarse con el costo de 245 cohetes Tridente II, y aún quedarían sobrando 419 cohetes para el mismo incremento de la educación en los 15 años siguientes.”

Los comentarios de García Márquez en 1986 no fueron oídos por ninguno de los gobiernos de los países desarrollados. A manera de ejemplo, el gasto militar de los Estados Unidos pasó de 426 600 millones de dólares en ese año, a 535 900 millones de dólares en el año 2006.



Ésta es una forma de uso incorrecto de recursos económicos, que los Estados Unidos ya no pueden sostener, pues su déficit presupuestal anual es similar al gasto militar de cada año, como se verá en una gráfica que será publicada en el blog de este programa.



Además, hay dos agravantes recientes para el presupuesto del gobierno de los Estados Unidos:
1.El gasto de las guerras contra Irak, que según Joseph Stiglitz, premio nobel de economía, le costará en los próximos decenios al menos 3 mil millones de dólares cuando se agregue la manutención de las tropas heridas, accidentadas, o con secuelas de guerra.
2.El financiamiento otorgado a los banqueros para que salieran de su crisis en 2008 y 2009, lo cual se hizo con créditos en los que hipotecan el gasto del gobierno federal en los próximos años, pues en realidad, no tienen ese dinero.

Todos los países desarrollados tienen problemas similares ahora. Según informa Alejandro Nadal, en su artículo: La Tragedia Griega, publicado en el diario La Jornada el 24 de febrero de 2010, gran parte de la deuda actual de Grecia se gestó en el gasto militar de ese país, al adquirir, entre otros instrumentos de guerra, costosísimos aviones de combate.

En palabras de José Antonio de la Peña, Presidente de la Academia Mexicana de Ciencias en el año 2003, “Frecuentemente nos preguntamos si una acción está bien, si es buena, o por el contrario, si está mal.” para agregar más adelante que se trata de una “Tarea importante pero difícil. Finalmente, las normas morales cambian de una sociedad a otra y se modifican en el paso del tiempo: la sociedad puede obedecer diferentes normas y aceptar distintos valores de acuerdo con circunstancias o contextos diferentes.”
Fuente: Prologo al libro “Los Aspectos Éticos de la Ciencia Moderna”

A su vez, en las páginas 232 y 233 de su libro sobre Ética, Adolfo Sánchez Vázquez sostiene que han existido diferentes morales de clase. Mientras no se den las condiciones reales de una moral universal, válida para toda la sociedad, no puede existir un sistema de moral válido para todos los tiempos y todas las sociedades.

Afirma también que el hombre debe intervenir en la transformación de la sociedad porque, sin su intervención se abre la posibilidad de que el hombre no subsista como tal.

El tema del uso de la ciencia para fines militares se incrusta dentro de esta problemática.

La física en el ciclismo (Vox Populi de la Ciencia, Radio Bemba, 14 de julio 2010)

En esta ocasión presentaremos algunos aspectos de la física involucrada en la estrategia de las competencias de ciclismo de ruta. Éste se practica generalmente en carreteras y se trata de pruebas que duran varios días. Hemos seleccionado este tema porque en estas fechas se está llevando a cabo el torneo de ruta más famoso del mundo: el Tour de Francia (o vuelta a Francia), que se realiza en su 97a edición, desde el 3 hasta el 25 de julio de 2010. Son 20 días de competencia efectiva, con una etapa en cada una de ellos y dos días de descanso.

Al finalizar, los competidores habrán recorrido 3 642 kilómetros, habiendo partido desde Rotterdam, en Holanda, para terminar en París el 25 de julio. El sábado 3 de julio inició con una breve competencia, llamada prólogo, de 8 kilómetros y 900 metros dentro de la ciudad de Rotterdam, para partir al día siguiente hacia Bruselas, en Bélgica y entrar a territorio francés el miércoles 7 de julio.



En esta ocasión la competencia estará compuesta por 20 etapas, además del prólogo ya mencionado, 9 de ellas serán en terreno plano, 6 serán en montaña, con 3 de ellas terminando en una carretera con inclinación muy pronunciada, también están programadas 4 etapas accidentadas y una de ellas es una competencia contrarreloj individual de 52 kilómetros. Por etapas accidentadas entendemos que ses corren sobre carreteras muy angostas, con empedrado o adoquín, además de otras irregularidades del terreno.




El sistema de competencia tiene un ganador general al final y se trata del ciclista que suma menos tiempo en las 20 etapas, se le llama: el ganador de la vuelta a Francia. Además tiene un ganador por acumulación de puntos, que se van ganando en metas intermedias en cada una de las etapas. También se reconoce a un ganador por cada etapa y existe un premio a la combatividad. Además, los ciclistas participan agrupados en equipos y se otorga un premio al equipo ganador al final. Con ello los organizadores logran que cada etapa atraiga interés especial, pues hay oportunidades para varias clases de especialidades, ya que por sus habilidades los ciclistas se dividen: en velocistas (que les llaman esprinters), escaladores (especialistas en montaña), etcétera.

Los equipos que se forman tienen el propósito de ayudarse de acuerdo a la especialidad que se va necesitando conforme transcurre cada etapa, pero en especial, buscan tener un integrante que es considerado como el fundamental para contender por el premio individual y general más importante. Así, se utilizan un conjunto de estrategias sumamente amplio, y de todas ellas, prestaremos atención a las siguientes, que por su sencillez pueden ser rápidamente apreciadas en la televisión:
1.Los ciclistas tienden a formarse en líneas largas, unos detrás de otros, o en un grupo muy grande que se llama pelotón. Todo con el propósito de evitar la acción directa del viento sobre sus cuerpos.
2.En cada etapa hay ciclistas que intentan escaparse del pelotón, con lo cual consiguen victorias parciales en las metas intermedias, acumulando puntos, pero difícilmente logran llegar primero a la meta final de la etapa, porque el pelotón se dedica a perseguirlos hasta darles alcance. A la primera acción le llamaremos escapada y a la persecución le llamaremos cacería.
3.El favorito, o los favoritos, para ganar la vuelta a Francia casi nunca pedalean delante del pelotón, ni tampoco de algún grupo que se escapa, salvo en ocasiones especiales. Generalmente, participan en un escape en zona montañosa, o accidentada. Nunca en terreno llano.
4.Hay grupos que tienen velocistas (llamados esprinters), a quienes cuidan para que nunca vayan al frente, cuidándolos hasta unos cuantos cientos de metros cerca de la meta de la etapa para que salgan a gran velocidad y se adjudiquen el triunfo. Estos aparecen en etapas de terreno llano y casi nunca en etapas con demasiados kilómetros de zona montañosa.

La base para nuestra explicación descansa sobre los siguientes trabajos científicos, lo cual nos llevará a una reflexión para el caso de nuestro país: un artículo de Frederic Grappe, Robin Candau, Alain Belli and Jean Denis Rouillon, del Laboratorio de Ciencias del Deporte, en Besancon Francia, y del Laboratorio de Fisiología de la Facultad de Medicina de Lyon, Francia. Su trabajo trata sobre la fricción del aire en los ciclistas y se publicó en la Revista Ergonomics, volumen 40, página 1299 a 1311, del año 1997.
Los autores realizaron mediciones en cuatro posiciones del ciclista, desde una totalmente erguida, es decir parados sobre sus pedales, hasta otra en la que colocan su tronco en forma tan horizontal como les es posible.





Otra de nuestras fuentes es un trabajo de Sabino Padilla, Iñigo Mujika, Francisco Ángulo y Juan Goiriena, publicado en la revista Journal of Applied Physiology,volumen 89, páginas 1522 a 1527, del año 2000. Ellos trabajan para el Departamento de Investigación y Desarrollo, Servicios Médicos del Club Atlético de Bilbao; del Mediplan Sport en Vitoria-Gasteiz y del Instituto Médico Basurto de la Universidad del País Vasco, en Leioa, España.
Los autores estudiaron el caso de doce ciclistas en un velódromo y más adelante mencionaremos algunos de sus hallazgos. Su trabajo se puede leer en Internet en la dirección que aparecerá en nuestro blog.
en: http://jap.physiology.org/cgi/reprint/89/4/1522



La reflexión es la siguiente: ¿cuántos institutos de esta clase, dedicados a ciencias del deporte, tenemos en México? En el tour de Francia no hay ningún mexicano ahora, ni se esperan muchos triunfos en las olimpiadas de 2012 en Londres. Antes de exigir a nuestros deportistas, o de molestarse con sus actuaciones, conviene pensar en la respuesta a esta pregunta.

En el trabajo de los franceses, el estudio de los doce ciclistas en un velódromo con nivel de competitividad que variaba desde regional hasta nacional (en Francia), con edades de18.4 años hasta 21.97 años, con estaturas desde 1 metro con 72.5 centímetros hasta 1 metro con 81.5 centímetros. Se recurrió a una expresión matemática para calcular la fuerza total que actúa contra el avance de los ciclistas, a ésta se le llama la fuerza de amortiguamiento. Esa expresión matemática contiene dos términos: uno que viene de la fricción con el aire, la cual es proporcional a la superficie que presenta el ciclista contra el viento y también al cuadrado de la velocidad con respecto al aire.

El otro término de la expresión matemática se debe a la pérdida de energía conforme rueda la bicicleta cierta distancia. Este último es proporcional al peso de la bicicleta y del ciclista. La fuerza en contra del avance del ciclista lo hace trasladarse cada vez más lento, lo cual en física se llama pérdida de energía cinética. Cabe aclarar que ésta no desaparece, pues solamente se transforma en otra clase de energía que llamamos calor y que se manifiesta como movimiento de los átomos del suelo y de las llantas de la bicicleta.

Sus trabajos entran al detalle de hallazgos que ya habían sido encontrados por otros investigadores desde 1979, e incluso, agregan algunas correcciones que no consideraremos en nuestra explicación.

El punto fundamental para nuestra explicación es la forma matemática de la fuerza de resistencia que se presenta cuando surcamos el aire. En ella aparecen cuatro factores:
Primero: la densidad del aire.
Segundo: el coeficiente de fricción.
Tercero: el área que presenta cada ciclista, o atleta, frente al aire. Depende de cada ciclista y de la posición con la que se enfrenta al aire.
Cuarto: el cuadrado de la velocidad con respecto al viento, sin considerar vientos laterales.

En el diccionario en línea de la Real Academia Española, el tercero de los significados del verbo surcar es: “Ir o caminar por un fluido rompiéndolo o cortándolo”.

La dependencia de la fricción respecto del área que presenta cada ciclista frente al aire es importante porque un ciclista demasiado alto, con piernas y muslos más largos, es más poderoso en su pedaleo, pero también suele ser más corpulento en el tronco de su cuerpo, de modo que su área expuesta al aire crece, haciéndolo perder parte de lo ganado con su poderío muscular.

La dependencia de la fricción respecto del cuadrado de la velocidad nos explica por qué afecta más a los ciclistas que a los corredores de largas distancias. Un corredor de maratón se desplaza a una velocidad que oscila entre los 20 y los 23 kilómetros por hora, mientras que un ciclista lo hace al doble, así, resulta que la fricción es cuatro veces mayor.




Lo anterior nos permite explicar la primera de nuestras preguntas ¿por qué los ciclistas tienden a formarse en líneas largas? Porque los que avanzan detrás ahorran energía hasta en un 37% cuando el compañero del frente carga con la mayor parte de la responsabilidad al surcar el aire.
En 1979 un investigador del Departamento de Ingeniería Mecánica de la Universidad Stale de California, llamado Chester R. Kyle publicó mediciones con las cuales demostró que la fricción con el aire disminuye en el 37% mencionado únicamente cuando la rueda trasera del ciclista que va al frente se encuentra a menos de 10 centímetros de la rueda delantera de la bicicleta del ciclista que lo sigue.

Chester Kyle encontró que cuando el ciclista perseguidor se empieza a alejar, la fricción que recibe aumenta, de modo que a una distancia de 3 metros ya no le sirve de nada ir detrás del compañero que se encuentra al frente.

En 1998 Tim Old, investigador de la Escuela de Educación Física y Estudios sobre el Deporte y el Ejercicio, de la Universidad del Sur de Australia publicó en la revista científica European Journal of Applied Physiology un artículo intitulado: Las matemáticas de la escapada y de la cacería en el ciclismo.

Basándose en las mediciones hechas por Kyle, y otros investigadores, se apoyó en un modelo matemático proporcionado por el Doctor Kevin Norton y desarrolló un programa de computadora para modelar qué podría pasar con los ciclistas que se escapan y con los del pelotón que los siguen hasta darles alcance. Esta clase de fenómeno se puede observar cada año, casi todos los días, en el tour de Francia que pasan por un canal deportivo todas las mañanas (entre 6 y 9 am, hora de Hermosillo). Cabe agregar, a propósito de la falta de apoyo a la ciencia en México, que el trabajo de Tim Old fue apoyado por la Comisión Australiana del Deporte.

Con su programa de computadora, Tim Old concluyó que el éxito de los que se escapan depende de varias circunstancias que enumeramos enseguida:
El número de ciclistas que se escapa. De hecho, cuando los que se escapan son más que los perseguidores y todos los competidores cooperan, es imposible que les den alcance.
En forma precisa, lo que se hace es dividir el número de ciclistas escapados entre el número de los que tratan de darles alcance. Cuando este cociente es mayor o igual a 1, la computadora concluye que es imposible que les den alcance.
Cuando ese cociente se aleja de 1 para acercarse al 0, la conclusión de la computadora es que el grupo perseguidor los alcanzará, siempre y cuando se trate de terreno llano.
Cuando se trata de terreno accidentado, como empedrado o adoquines con superficie irregular, o de carreteras inclinadas hacia arriba como en las zonas montañosas, la probabilidad de una escapada exitosa es muy alta.

La oportunidad de que una escapada sea exitosa en terreno accidentado y en carreteras cuesta arriba se debe a que hay otro número que juega un papel muy importante. El cociente que resulta de dividir las energías gastadas en el proceso de rodar sobre el terreno entre las energías gastadas en contra de la fricción del aire.




Al correr sobre terreno accidentado, o sobre una cuesta inclinada, la energía gastada en rodar crece y el cociente mencionado aumenta. Entonces aumenta también la probabilidad de que la escapada sea exitosa. Así obtenemos la respuesta a la tercera y a la cuarta pregunta. También nos explica cuál será la táctica que será utilizada los días 14, 15 y 16 de julio en las montañas de Los Alpes, o más tardar, el 17 de julio siguiente. Los expertos prevén que el grupo Astana, con el español Alberto Contador como líder, organizará una escapada que lleve a su líder adelante de los competidores que le pueden disputar el triunfo de la vuelta a Francia. Como sus principales contendientes se señala al australiano Cadel Evans con el equipo BMC y a Andy Schlek, de Luxemburgo, con el equipo Saxo Bank.

Otras fuentes consultadas:
Tim Old, The mathematics of breaking away and chasing in cycling, Eur J Physiol (1998) 77: 492-497.
Cliff Frohlich, Effect of wind and altitude on record performance in foot races, pole vault, and long jump, Am J Phys 53 (8), 1984.
Además es recomendable consultar: http://www.efluids.com/efluids/pages/bicycle.htm
y una discusión sobre el récord de la hora en http://www.wolfgang-menn.de/altitude.htm

miércoles, 7 de julio de 2010

El SNI y sus objetivos IV (Vox Populi de la Ciencia, Radio Bemba) 7 de julio de 2010

En programas anteriores hemos hablado de la existencia de un programa de gobierno para apoyar con sobresueldos a ciertos investigadores científicos que son evaluados conforme a una serie de criterios que hemos enumerado.

También hemos dicho que, incorrectamente, la gran mayoría de los científicos mexicanos cree que se trata de una evaluación de pares, es decir, de una evaluación hecha por otros científicos como ellos. Nuestra base para la crítica se encuentra en que el mismo reglamento del sistema nacional de investigadores establece que las solicitudes de pertenencia a ese sistema de entrega de sobresueldos son entregadas primero a la burocracia del Consejo Nacional de Tecnología, la cual actúa como filtro primario, previo a la evaluación de las comisiones de científicos.

Hemos afirmado también que no es verdad que el sistema nacional de investigadores constituye un sistema de apoyo al desarrollo de una ciencia para México y hemos afirmado que la creencia de muchos científicos, en el sentido de que ellos pertenecen a una comunidad científica internacional, es una percepción falsa.

Para demostrar que esa creencia de una comunidad científica internacional objetiva, comprometida con las mejores causas de la humanidad, es una ilusión, relatamos el caso de dos científicos estadounidenses aparentemente dedicados a temas de física pura. Tomando los datos del libro Mentes Disciplinadas, de Jeff Schmidt, hicimos ver que en realidad ellos estaban trabajando para los intereses militares de su país.


Dijimos también que por escribir ese libro, Jeff Schmidt fue despedido del consejo editorial de la revista de difusión científica estadounidense Physics Today. Ahora continuaremos con otros dos botones de muestra, hablaremos del trabajo de Norman Rostoker y del de Nathan Rynn.

Norman Rostoker es reconocido como profesor emérito de la Escuela de Ciencias Físicas, en el Departamento de Física y Astronomía de la Universidad de California en Irvine. Tiene 85 años de edad, es especialista en física de plasmas con interés inicial en explosivos lanzados en chorros, teoría de energía de bandas y reactores de fisión. Es Fundador del laboratorio de haces de iones y electrones con pulsos de potencia en la Universidad de Cornell. Extrañamente, a pesar de ser un científico exitoso, su currículum incluye únicamente 27 publicaciones, lo cual sugiere que la mayor parte de su trabajo no fue hecho para ser publicado, sino para ser utilizado en actividades clasificadas como secretas.

Los reactores de fisión son instalaciones que usan la propiedad que tiene un isótopo del uranio, el 235, llamado así porque tiene 92 protones el núcleo y 143 neutrones. La propiedad que lo hace muy interesante es la de partirse en dos cuando es golpeado por un neutrón. Así resultan dos núcleos de elementos que se encuentran a la mitad de la tabla periódica, como el tecnecio o el paladio, entre otras posibilidades. Además, despide una cantidad de energía que a escala atómica es sumamente grande, lo cual es utilizado para acumular muchos de esos fenómenos en los que los átomos de uranio 235 se parten y despiden energía. Cuando esto ocurre de manera controlada sirven para calentar agua hasta convertirla en vapor que sale a presión y mueve turbinas para generar energía. En cambio, cuando se produce de manera acelerada, en menos de una cien milésima de segundo, lo que se tiene es una bomba atómica.

Uno de los trabajos descritos por el grupo fundado por Rostoker es descrito por ellos mismos como sigue: “Estamos evaluando diseños de almacenamiento de energía que involucran la acumulación de electrones en una trampa magnética y liberación rápida de energía por medio de interruptores magnéticos. Hemos obtenido resultados significativos con experimentos en pequeña escala involucrando inyectores termoiónicos y compresión magnética rápida... Además, será evaluado el uso de línea de pulso y diodos para inyección en campos estáticos. También planeamos el estudio de varios métodos más para producir pulsos cortos e intensos de radiación.”

Como escribe Jeff Schmidt, los investigadores no dicen en ninguna parte para qué quieren producir esos pulsos de radiación cortos, pero revisando el contrato de su programa de apoyo económico, con número DNA001-74-C-0056, de la Agencia Nuclear de Defensa, el contenido es directo, cito: “Objetivo: Desarrollo de fuentes de ultra potencia para simular efectos de armas nucleares y capacidades de almacenamiento de energía que exceden significativamente las posibilidades actuales.”

El origen de esta clase de simulaciones en laboratorio lo revela un documento intitulado: “Revisión de Laboratorio”, fechado en el año fiscal 1981, en los laboratorios Harry Diamond”, del ejército de los Estados Unidos. Cito: “Debido a que en la actualidad no se pueden realizar pruebas con armas nucleares en ambiente real, los simuladores son la liga disponible con la realidad.”

Conviene señalar que en ese tiempo el marco internacional de fondo era la guerra fría, que en 1974 se había promovido la anulación de pruebas nucleares subterráneas con potencias por encima de 150 kilotones. Se trató de un acuerdo de los Estados Unidos con la Unión Soviética y llevaba la intención de estorbar las posibilidades de desarrollo nuclear de Francia y de China, que no mordieron el anzuelo. En esa época existía también el acuerdo de 1976 conocido como SALT II, que traducido al español viene a ser Tratado Número II de Limitación de Armas Estratégicas, que no fue firmado por Jimmy Carter y Leonid Brezhnev sino hasta el 18 de junio de 1979, para ser después objetado por el senado estadounidense en vísperas de la elección presidencial ganada por Ronald Reagan en noviembre de 1980. Finalmente, el tratado no entró en vigencia sino hasta 1990, cuando ya los científicos estadounidenses no necesitaban de pruebas nucleares reales, porque podían simularlas en el laboratorio.

Otro caso es el del profesor Gregory Benford, un agradable escritor de al menos 17 novelas de ciencia ficción, entre las cuales se encuentra “El temor de la Fundación” y “El triunfo de la Fundación”. Él es integrante del Consejo Científico de la NASA, es profesor de la Universidad de California en Irvine, y en la época estudiada en archivos por Jeff Schmidt tenía un apoyo de 130 mil dólares del ejército de los Estados Unidos para un proyecto de “Radiación Coherente a partir de Inestabilidades de Haces Relativistas de Plasma”. Nos saltamos la descripción impecablemente técnica de Benford, para exponer la explicación que Jeff Schmidtt encontró en “El Oficio de Investigación del Ejército”, de número DAAG29-78-G-0020, cito: “...esta investigación es interesante como una fuente de radiación de rayos X para el estudio de daños con base en radiación.”.

Según Jeff Schmidtt, el interés militar en las microondas de un milímetro era el diseño y construcción de aparatos capaces de detectar blancos enemigos a pesar del oscurecimiento por medio de humo, polvo o niebla en el campo de batalla.

En palabras del autor del libro “Mentes Disciplinadas”, muchos de los profesores mencionados por él podían dejar la universidad y tomar trabajos en laboratorios militares sin afectar el significado social o científico de su trabajo. Sin embargo, había una cuota de imagen que perdían, debido a que existe una mística de imagen positiva que sí se tiene presente en los ambientes académicos de los Estados Unidos, en la que se ve a los profesores universitarios como personas inteligentes, de mente abierta y con objetivos intelectuales.

Schmidt relata cómo en una entrevista debida a su fama como escritor de ciencia ficción, Benford sorprendió a un ingenuo reportero que le preguntó para qué serviría su investigación científica, cito: “Cuando tú estás combatiendo un incendio forestal, por ejemplo, no puedes ver dónde estás tirando el agua debido al humo.” Nada dijo de las aplicaciones militares esperadas por el ejército.

En palabras de Schmidt, página 80 de su libro, “Los grandes conocimientos técnicos no son suficientes para obtener y mantener un trabajo como científico. Cada pequeño paso en la investigación científica abre un número de direcciones ilimitadas, todas la cuales llevan a nueva verdad científica, pero no todas esas verdades científicas son de interés para aquéllos que emplean a los científicos o respaldan la investigación.”

Las preguntas que procede plantear ahora son:
¿Resulta moralmente correcto dedicar el esfuerzo de los científicos al diseño de armas?
¿Es estratégicamente aceptable que los científicos mexicanos actúen como apéndices de esos trabajos?

Actualidades Científicas (Vox Populi de la Ciencia, Radio Bemba) 7 de julio de 2010

Avisos:
A propósito de la física en el fútbol, en el programa del 14 de mayo de 2008 tratamos la física del chanfle en el minuto 45 con 50 segundos. En el blog aparecerá la dirección donde pueden bajar el programa y escuchar la explicación.
http://info.fisica.uson.mx/arnulfo.castellanos/dedae/Agujero%20Negro/14%20de%20mayo%20de%202008.html

También, en el programa del 28 de mayo de 2008 tratamos el tema de la física en el deporte y se explicó en detalle el efecto Magnus. En el blog aparecerá la dirección en la que se puede bajar ese programa y escucharlo a partir del minuto 22 con 26 segundos. Se habla también de las diferencias de presión:
http://info.fisica.uson.mx/arnulfo.castellanos/dedae/Agujero%20Negro/28%20de%20mayo%20de%202008.html

I. El clima de verano del Océano Pacífico oriental, que nos afecta directamente en Sonora, está presentando características de agua fría asociadas con el fenómeno de La Niña.
Existe en el Océano Pacífico un fenómeno de oscilación de aguas tibias y frías a lo largo del ecuador. Su característica es que cuando las aguas del océano están tibias en la región ecuatorial y occidental, están frías en la parte oriental y viceversa.

Expresado en términos de países y de islas, decimos que cuando el agua del océano Pacífico está tibia cerca de Indonesia, Borneo y principalmente Nueva Guinea (la isla con forma de dinosaurio), está fría en las costas de Centroamérica, de Colombia y del sur de México.



Este fenómeno tiene una periodicidad que va de 7 a 11 años, de modo que las tendencias a aguas tibias nos llegan en esos periodos, lo cual está asociado con probabilidad de mayores lluvias en este caso. Al fenómeno de aguas tibias en los mares cercanos a México se le llama El Niño y al de aguas frías se le llama La Niña. En términos científicos se le llama Fenómeno de la Oscilación del Sur El Niño.




La razón por la que se llama El Niño se debe a que los pescadores del norte de Perú aprendieron en la práctica que había ocasiones en las que el agua fría que corre sobre sus costas desde el sur desaparecía periódicamente en los días de navidad. Como ellos estaban habituados a pescar cierto tipo de peces característicos del agua fría cotidiana, resultaban afectados por la disminución de su pesca. Comprendieron también que desde las costas de Ecuador, situado al norte de su región, corría un agua tibia que hacía que los peces se fueran hacia el sur.

Los especialistas en meteorología disponen de datos sobre el clima que se remontan a muchas decenas de años. Estos incluyen humedad y temperatura del aire, dirección en la que sopla el viento a diferentes alturas y la velocidad con la que se mueve. La presión de la atmósfera sobre la superficie terrestre, sobre el nivel del mar, etcétera. Con estas mediciones han podido trazar mapas de conducta en las diferentes épocas del año y han podido encontrar que existen regularidades asociadas con fenómenos que ocurrieron pocas semanas o meses antes, así como con otros que siguieron después. A eso les llaman patrones de circulación y les permite tener una idea de lo que puede ocurrir después. Les llaman patrones de circulación del aire.

El sistema de predicción del clima del gobierno de los Estados Unidos anuncia que en el mes de mayo de 2010 se observaron patrones de circulación del viento que ellos clasifican como los típicos de la llegada del fenómeno llamado La Niña, es decir, el de aguas más frías en las aguas del Océano Pacífico localizadas al sur de México.
Fuente: http://www.cpc.noaa.gov/products/outlooks/hurricane.shtml

La consulta que nosotros hicimos del mapa de temperaturas de las aguas del Océano Pacífico hacia el sur de México nos permite afirmar que, ayer 6 de julio, la región de agua más caliente se encontraba aproximadamente a 1 600 kilómetros al suroeste de las costas de Jalisco, con una temperatura de entre 28 y 30 grados centígrados. Frente a las costas de Oaxaca y de Guerrero se pudo observar una región cerca a la costa con temperaturas cercanas a los 31 grados centígrados, que es considerada como muy caliente y que produce mucho vapor de agua. Otra región similar se pudo observar frente a las costas del Estado de Nayarit.
Fuente: http://www.wunderground.com/tropical/?index_region=ep

La Comisión Nacional del Agua tiene un sistema de twitter en el cual se actualizan rápidamente avisos de fenómenos climáticos que están ocurriendo, pero no tiene un sistema propio de estudio de las condiciones climáticas para los próximos dos meses.
https://twitter.com/huracanconagua

Por ejemplo, en la información disponible el 7 de julio de 2010, se puede leer un mensaje con 20 horas de antigüedad, dice“Para seguir la imagen de satélite infrarrojo les recomiendo la link NASA http://wwwghcc.msfc.nasa.gov/GOES/goeseastconusir.html”
También se lee un mensaje que a las 13:40, hora de Hermosillo, tenía dos horas de antigüedad, se lee: “Segundo núcleo de tormentas Norte-Oax Este-Puebla y Este-Tlaxcala; tercer núcleo a lo largo Sierra de Chiapas; cuarto núcleo San-LuisPotosí”

Como puede verse, combina información local con información liberada por las instituciones estadounidenses de análisis del clima.

II. El interés de las organizaciones estudiosas climáticas de los Estados Unidos está en el Océano Atlántico y predicen para esa región una producción de huracanes por encima de lo normal.
Durante el verano y el inicio del otoño, la principal preocupación de las autoridades políticas y educativas de los Estados Unidos, en cuanto a asuntos climáticos, se encuentra en el fenómeno de los huracanes que se originan el Océano Atlántico. Por esa razón, ellos hacen mucho énfasis en el papel de los fenómenos de El Niño y de la Niña, en relación con su influencia sobre la cantidad y la potencia de los huracanes que surgen en el Océano Atlántico y avanzan desde enfrente de las costas de África hacia el Mar Caribe y en muchas ocasiones hacia la costa norte del Golfo de México, Florida o la costa este de los Estados Unidos.





En la actualidad, el Servicio Nacional para el Clima de los Estados Unidos está prediciendo que esperan actividad de huracanes en el Atlántico por encima de lo normal, a razón de 70% de probabilidad de acertar, contra 30% de probabilidad de fallar.

Según ellos, habrá de 8 a 14 huracanes y de ellos de 3 a 7 serán huracanes mayores, es decir, los que son de grado 3 o más. En otros programas hemos explicado qué significan las escalas de los huracanes y lo retomaremos de nueva cuenta hacia finales del mes de agosto de 2010.

III. Un área de interés común entre México y los Estados Unidos es el monzón de Norteamérica.
El monzón de Norteamérica es un fenómeno anual que ocurre desde los últimos días de junio hasta principios de septiembre. Es un evento meteorológico bien definido que los especialistas llaman una singularidad y que, para quienes no somos conocedores del tema, es un conjunto de fenómenos de vientos húmedos y lluvias de verano copiosas que, en la percepción del observador común, ocurren sobre la Sierra Madre Occidental, desde Sinaloa hasta Sonora. Ocasionalmente las tormentas avanzan hacia el oeste, con lo cual ocurren lluvias sobre ciudades como Hermosillo. En este contexto, la palabra singularidad se refiere a una modificación brusca de las condiciones climáticas que son consideradas cotidianas.




En Arizona lo perciben como corrientes de humedad que avanzan desde el Océano Pacífico y también desde el Golfo de México, aunque este último como fuente del monzón sobre Arizona ha sido considerado discutible y no genera consenso entre los especialistas. Se considera que el 70% de la precipitación en Sonora y Arizona ocurre durante esta etapa del monzón.

Una explicación bastante detallada sobre las características de las tormentas de verano aparecerá en una dirección que estará en el blog de Vox Populi de la Ciencia. Se trata de un sitio de la Universidad del Estado de Arizona.
Fuente: http://geoplan.asu.edu/aztc/monsoon.html

El SNI y sus objetivos III Arnulfo Castellanos Moreno (Vox Populi de la Ciencia, Radio Bemba)

Después de pasar el filtro administrativo, las solicitudes de los aspirantes a ser considerados como científicos reconocidos como integrantes del Sistema Nacional de Investigadores, son evaluadas mediante el número de publicaciones, la calidad de la revista en que se publica, lo cual se mide por medio de un número llamado parámetro de impacto, el número de citas que recibe cada uno de sus artículos, la naturaleza aislada o colectiva de su trabajo. Más recientemente se ha agregado el número de tesis doctorales dirigidas, a lo cual se le llama: formación de personal.

De esta forma aparentemente neutral, los científicos mexicanos se han convertido en pequeños apéndices de grandes corrientes de investigación científica que se mueven a nivel internacional bajo la influencia indiscutible de las revistas de mayor impacto, casi siempre estadounidenses, en primer lugar, y europeas, en segundo.

El carácter neutral de estas corrientes de investigación científica es falso, como se descubre a continuación, basándonos en el contenido del libro: “Mentes Disciplinadas”, de Jeff Schmidt, un ex editor de la revista Physics Today, quien fue despedido de la misma después de 19 años de trabajar en ella, inmediatamente después de la publicación de ese libro.

Empezaremos por citar el caso de Alexie Maradudin, de la Universidad de California en Irvine, quien explica a qué se dedica el grupo de investigación que él dirige: “Una gran parte de la actividad científica en mi grupo se dedica al estudio teórico de los fenómenos de superficie”, y en su visión como profesor afirma “Como maestro, creo que mi papel no es solamente transmitir información a mis estudiantes, sino también enseñarlos cómo pensar y razonar.”
Fuente: http://www.physics.uci.edu/faculty/maradudin.html

Maradudin es un hombre de ciencia muy exitoso, reporta 423 publicaciones científicas desde 1958 hasta 2008, 159 publicaciones en proceedings, es decir libros que resultan de congresos de física que seleccionan el material más interesante presentado en ellos para publicarlo. Reporta 69 libros, capítulos de libro y artículos de revisión. Estos últimos son solicitados por los editores de las revistas científicas a quiénes ellos consideran que son autoridades académicas en un campo de la ciencia.

En determinado momento, Maradudin tenía un apoyo de 578 000 dólares por parte de la fuerza aérea de los Estados Unidos para realizar una investigación sobre “Interacción de Radiación Electromagnética con Materiales Sólidos”. La explicación científica del proyecto de investigación de este profesional de la física, no muestra más interés que la curiosidad científica, y el honesto deseo por saber más sobre los fenómenos de nuestro mundo.

Sin embargo, luego de hacer ver que se trata de una exposición de objetivos impecablemente libre de intereses militares y en el que no se descubre algún fundamento social para adquirir más de medio millón de dólares de apoyo, Jeff Schmidt pasó a revisar el contrato de Investigación Científica número F49620-78-C-0019 de la Fuerza Aérea, que se encuentra archivado en el Centro de Información Técnica de Defensa, fechado el 26 de octubre de 1978 y el 29 de agosto de 1985. La descripción que hace la fuerza aérea, que se puede leer en la página 74 de su libro “Mentes Disciplinadas”, cito:

“Aquí resulta clara la naturaleza del fundamento social de esta investigación en física teórica fundamental: 'vigilancia y detección', 'detectores de infrarrojos [calor]', 'ventanas y espejos' para láseres de altas energías, 'materiales bajo la acción de haces de láser' - en una palabra: armas”

Jeff Schmidt es el señor de la siguiente fotografía:




También como resultado del estudio del mismo archivo de la Fuerza Aérea, en la página 75 de su libro, Jeff Schmidt agrega un comentario más acerca de un trabajo previo de Maradudin y otro colega de apellido Mills, intitulado “Investigación Teórica y Experimental de Propiedades de Materiales de Cristales y Superficies de Cristales”, apoyado por la fuerza aérea, cito: “La tecnología de energía de láser de altas energías está encontrando amplia aplicación en los futuros sistemas de la Fuerza Aérea ... Mejor que las pruebas de ensayo y error de una amplia variedad de materiales, esta investigación busca el entendimiento de las interacciones cuánticas en y sobre cristales sólidos”.

Yo agrego un comentario más acerca del título de uno de los más de 400 artículos de Maradudin, publicado en la revista científica Physical Review B, volumen 44, páginas 8565 a 8571, en 1991: “Estructura de Bandas Fotónicas de sistemas bidimensionales: Redes triangulares”. También invito a ver la figura del avión F-117 “halcón nocturno” en el internet. Su prototipo se estaba probando en las fechas en que este trabajo fue elaborado.



Después de revisar el Oficio de Apoyo a la Investigación, número DAAL03-92-G-0239, tal y como se describe en el Resumen de Trabajo Unitario del 23 de mayo de 1995, Jeff Schmidt cita también la opinión gubernamental sobre otro proyecto intitulado “Retrodispersión mejorada de luz a partir de superficies aleatorias y fenómenos relacionados” (The enhanced backscattering of light from random surfaces and related phenomena). El ejército afirmaba que el trabajo de Maradudin era altamente relevante para ellos porque ayudaría en la detección de amigos y enemigos.

Por cierto, este trabajo incluyó en al menos una publicación al físico mexicano Eugenio Méndez, del Departamento de Óptica del CICESE. Un hombre considerado muy exitoso porque reporta más de 80 publicaciones científicas. La traducción al español del artículo al que nos referimos es: “Retrodispersión mejorada de luz a partir de superficies metálicas con rugosidades débiles aleatorias” y apareció en Applied Optics, volumen 32 páginas 3335 a 3343 en 1993.

En el próximo programa trataremos el caso de los siguientes investigadores: Norman Rostoker, Nathan Rynn y Gregory Benford.

La conclusión de los ejemplos anteriores es que gran parte de la investigación científica a la cual se encuentran atados nuestros científicos mexicanos tiene que ver con intereses militares de los países integrantes de la OTAN (Organización del Tratado del Atlántico Norte).

El SNI sin objetivos nacionales (parte II) (Vox Populi de la Ciencia, Radio Bemba) 16 de junio de 2010 (diferido hasta el 30 de junio)

El SNI como sistema burocrático de selección y represión de becarios.
El sistema nacional de investigadores mexicano no ha estado exento de la naturaleza excluyente y represiva del gobierno mexicano, como la denunció desde hace más de veinte años el Doctor Mauricio Schoijet. Datos al respecto se encuentran en la dirección de Internet siguiente:
Ver: http://www.uow.edu.au/~bmartin/dissent/documents/Schoijet1.html

Los científicos mexicanos han optado por ser ajenos a la problemática denunciada por Mauricio Schoijet, con frecuencia, nuestros científicos hablan del sistema nacional de investigadores como una estructura en la que prevalece una evaluación de pares, que consiste en una revisión realizada por otros colegas.

Eso es falso, como puede comprenderse si se consulta el Artículo 37 del reglamento del sistema, conforme al cual, las solicitudes son turnadas por el Director del CONACYT a las comisiones dictaminadoras. A su vez, el Artículo 31 establece que a dicho director lo nombra el presidente de la república, de modo que casi siempre se trata de un funcionario que, en el mejor de los casos, abandonó hace tiempo la investigación científica, o nunca han hecho investigación, como es el caso del director actual: Carlos Romero Hicks.

Lo anterior indica que, como denunció hace décadas Mauricio Schoijet, puede existir una selección previa al punto de vista de las comisiones dictaminadoras.


Los científicos mexicanos como integrantes de una comunidad científica internacional.
Los científicos mexicanos se consideran integrantes de una comunidad científica internacional en la que se establecen vínculos sociales definidos por su vocación y profesión y no por su pertinencia nacional. Los avances tecnológicos, de la mano de los desarrollos en física y química, produjeron la imagen de los científicos como símbolo del progreso mundial, dotados de un interés intrínsecamente internacional, con una profesión que los convirtió en símbolos de la tolerancia, la solución pacífica de los conflictos y del espíritu universal que debería reinar entre los seres humanos de todas las naciones.

El objetivo de los científicos mexicanos es realizar investigación científica con calidad suficiente para ser publicada en revistas especializadas que aceptan para su publicación artículos revisados previamente por al menos un árbitro, quien es una persona experta en el tema y a la cual se le supone como imparcial y movido únicamente por los valores de búsqueda de la verdad.

Los científicos mexicanos como estudiosos de ¡los temas de interés!
En las conferencias de los científicos mexicanos es frecuente la frase: “este es un tema de interés en la actualidad”, después de la cual, se pasa a exponer la naturaleza del problema para seguir con la solución del mismo, lo cual se supone como la aportación fundamental del ponente.

La frase “tema de interés” contiene un contenido profundo, significa que el trabajo podrá llamar la atención de otros colegas, podrá ser leído y citado en otras publicaciones científicas, lo cual constituye una medida muy significativa de éxito. De hecho, constituye uno de los parámetros fundamentales para medir la calidad de un científico mexicano.

Otro elemento de importancia es cuál es la revista (o revistas) en las cuales es de interés el tema que se expone, pues a éstas se les mide con base en otro número que se llama parámetro de impacto. La que es considerada como una de las más prestigiosas a nivel mundial es la revista Physical Review A, que tiene un consejo editorial y un campo de interés en el que admite publicaciones científicas, puedo enumerar por ejemplo: potencia y versatilidad de láseres, información cuántica, control coherente, átomos ultrafríos, materia condensada, sistemas de pocos cuerpos, etcétera.

La Revista Mexicana de Física es menospreciada en los hechos por los científicos mexicanos debido a que no tiene audiencia en el extranjero, e incluso, se promueve la escritura de sus artículos en el idioma Inglés, hasta el grado de que hace pocos años ese fue uno de los objetivos de un candidato en campaña por la presidencia de la Sociedad Mexicana de Física.

Cuando pasan el filtro administrativo las solicitudes de los aspirantes a ser considerados como científicos reconocidos como integrantes del Sistema Nacional de Investigadores, se les evalúa mediante el número de publicaciones, la calidad de la revista en que publica, es decir, el parámetro de impacto de la misma, el número de citas que recibe su artículo, la naturaleza aislada o colectiva de su trabajo. Más recientemente, el número de tesis doctorales dirigidas, a lo cual se le llama: formación de personal.

De esta forma aparentemente neutral, los científicos mexicanos se han convertido en pequeños apéndices de grandes corrientes de investigación científica que se mueve a nivel internacional bajo la influencia indiscutible de las revistas de mayor impacto, casi siempre estadounidenses en primer lugar, y europeas en segundo.

El carácter neutral de estas corrientes de investigación científica es falso, como se descubre a continuación. Descansamos sobre el contenido del libro: “Mentes Disciplinadas”, de Jeff Schmidt, un ex editor de la revista Physics Today, quien fue despedido de la misma después de 19 años de trabajar en ella, inmediatamente después de la publicación de ese libro. Este será el tema que abordaremos en la próxima ocasión.

Estudio sobre el balón de fútbol (Vox Populi de la Ciencia, Radio Bemba) 30 de junio de 2010

John Eric Goff, del Departamento de Física del Colegio Lynchburg, del estado estadounidense de Virginia; y Matt. J. Carré, del Departamento de Ingeniería Mecánica de la Universidad de Sheffield, del Reino Unido, publicaron en noviembre de 2009, un artículo intitulado “Análisis de la trayectoria de un balón de fútbol soccer”, en la revista American Journal of Physics.

En el mismo reportan lo que ocurre con la trayectoria de un balón de fútbol que gira en torno a si mismo. Ellos trabajaron tomando imágenes con cámaras que realizan más tomas por segundo que las cámaras de video comerciales disponibles al público general. Imágenes similares pueden ser vistas en la actualidad cuando las televisoras presentan el viaje del balón en cámara lenta.



Los investigadores utilizaron dos cámaras para filmar el vuelo de un balón. Cada una de las cámaras tenía la capacidad para tomar mil cuadros por segundo y trabajaron con un sistema de análisis de datos basado en computadora.

A partir de mediciones experimentales, los investigadores pudieron calcular los coeficientes que aparecen en la expresión matemática que nos dice de qué magnitud es la fuerza que recibe un balón en el aire. Con esos datos pudieron hacer programas de computadora que les permitieron calcular cuánto se desviaría un balón que vuela girando en torno a un eje horizontal. Éste no es un giro para hacer un chanfle, sino para acortar la distancia que recorre el balón, similar a lo que hacen los jugadores de tenis con algunos tiros en los que la pelota viaja de manera que parece que saldrá por la línea de fondo y termina tocando el suelo de la cancha muy cerca de la línea.

Sus resultados indicaron que un balón que se eleva sin girar desde los 90 centímetros hasta un poco más de 3 metros, con una velocidad inicial suficiente para alcanzar una distancia de 26 metros, al girar podría curvarse lo suficiente como para volar únicamente 18 metros.

Los jugadores profesionales son capaces de producir trayectorias del balón de fútbol con grandes curvas. Los autores analizaron un tiro de David Beckham en un juego contra Grecia durante las eliminatorias del año 2001 para el mundial que se realizó en 2002 en Japón y Korea. Allí encontraron que le imprimió al balón una velocidad de 36 metros por segundo, que son 129.6 kilómetros por hora. Le imprimió al balón una rotación de 63 radianes por segundo, que son un poco más de 10 vueltas del balón en torno a su eje en un segundo. En estos casos el eje de giro tiene una orientación cercana a la vertical. La fuerza lateral debida al efecto Magnus hizo que el balón sufriera una desviación lateral de 3 metros respecto de la trayectoria original, en una distancia de 27 metros, lo cual indica que duró en el aire 0.98 segundos. La aceleración del balón de fútbol fue de 6.2 metros por segundo al cuadrado.

Un video de este gol de David Beckham puede ser observado en la siguiente dirección:
http://www.youtube.com/watch?v=rKDvtnEhLP0

Traducido a experiencia cotidiana, la distancia de vuelo fue como la extensión del frente de tres casas comunes en Hermosillo, Sonora y la desviación fue similar a la de una recámara pequeña en una casa de interés social. La aceleración fue casi dos terceras partes de la aceleración que imprime la fuerza de gravedad a los objetos que caen libremente.

El nuevo balón de fútbol soccer (Vox Populi de la Ciencia) 16 de junio de 2010

El balón Jabulani del mundial de fútbol de Sudáfrica


La fuente que tomamos para expresar las pruebas a que fue sometido el balón de fútbol soccer que se está usando para jugar el mundial de fútbol en Sudáfrica se llama Popular Science. Es una revista mensual producida e impresa en los Estados Unidos, fue fundada en 1872 y se especializa en difundir noticias de ciencia y tecnología para ser leída por el público no especializado. Ha ganado dos premios periodísticos por su labor: el de excelencia general en 2003 y el de la mejor revista de sección en 2004. También ha sido criticada por optar por las noticias espectaculares, antes que por la fiabilidad científica y porque en su afán de hacerse entender por el público se aparta, según algunos investigadores científicos, de la verificabilidad de sus descubrimientos.

Según un artículo de Brett Zarda, publicado el 4 de diciembre de 2009 en Popular Science, titulado: “La Ciencia Detrás de Jabulani, el Balón de Adidas para la Copa Mundial de 2010”, el balón elaborado para ser usado en Sudáfrica (llamado Jabulani) difiere del usado en Alemania (de nombre Teamgeist) en que este último era más liso en su superficie.

Dicho de otra forma, el balón Jabulani tiene una superficie exterior más rugosa, con lo cual se intenta que se estabilice mejor en el vuelo, evitando la ausencia de rotación del balón Teamgeist, que se usó en Alemania en el 2006.




La falta de rotación del Teamgeist generaba un efecto similar al que ya hemos tratado en este programa Vox Populi de la Ciencia cuando hablamos de la bola de nudillos del beisbol. Esa falta de rotación produce una conducta herrática del balón en vuelo.

En el programa de Vox Populi de la Ciencia del 21 de octubre de 2009 dijimos que:
“...lo importante es el movimiento relativo entre las moléculas del aire y la superficie de la pelota, de modo que colgarla en el túnel y hacer que el viento sople, es equivalente a lanzar la bola para que se mueva a través de la atmósfera.

Walls y Sawyer lograron observar que la fuerza lateral de la pelota sin girar dependía de la orientación de la misma frente a la corriente de aire recibido. Una fuerza lateral permite explicar la razón por la cual se desvía de la trayectoria original.

La razón de esa fuerza lateral es que las costuras necesarias para el recubrimiento de la pelota no presentan una simetría y debido a esa rugosidad que la hace diferente respecto a una esfera perfecta, se producen turbulencias diversas alrededor de la pelota.

El fenómeno que se presenta es que el viento se mueve a diferentes velocidades en los alrededores de la pelota; así, mientras en ciertas áreas de la superficie el aire se desliza con suavidad, en otras vibra con brusquedad, generando diferencias de presión que dan lugar a una fuerza neta del aire circundante sobre la pelota.”

El balón Jabulani tiene una serie de estrías y de pequeños picos que se han agregado para que el balón sea más fácil de patear y de atrapar cuando por parte de los porteros. Como señalamos en el mismo programa del 21 de octubre de 2009, cuando hablamos de la bola de nudillos, el giro de una pelota le proporciona una fuente de estabilidad porque adquiere una cantidad física que se llama momento angular, que tiende a conservarse. Como hemos mencionado en otro programa, es también el responsable de la estabilidad de las bicicletas.

En el programa de Vox Populi de la Ciencia del 4 de noviembre de 2009 hablamos del lanzamiento del beisbol que llamamos: curva, para cuyo propósito nos basamos en un artículo de investigación de Lyman Briggs, en su artículo de 1959 en el American Journal of Physics. En esa ocasión señalamos que: “las costuras de la pelota juegan un papel muy importante, pues sucede que cuando se hacen los experimentos con pelotas lisas, el efecto Magnus produce una desviación al revés. En general, basta que la pelota sea rugosa, pues en el caso del tenis ocurre lo mismo que en el beisbol.”

En el próximo programa de Vox Populi de la Ciencia presentaremos un estudio en el cual se demuestra que existe un parámetro fundamental para estudiar la aerodinámica de los balones en vuelo: se llama número de Reynolds y dependen del diámetro de la pelota, de la velocidad con que viaja y de la densidad del aire a través de algo llamado viscosidad dinámica.

Esto introduce otro elemento de dificultad para los jugadores, pues la densidad del aire cambia con la altura sobre el nivel del mar y el mundial de Sudáfrica se está jugando a cuando menos tres grupos de alturas distintas:
I.Johanesburgo a 1700 metros sobre el nivel del mar (msnm ).
II.Pretoria (a 1270 msnm), Polokwane (a 1280 msnm), Rustenburgo (a 1200 msnm) y Bloemfontein (a 1370 msnm).
III.Ciudad del Cabo, Durban y Bahía Nelson Mandela a menos de 60 msnm.

Regresando a las reglamentaciones de la FIFA para los balones de fútbol: las pruebas a que fue sometido el balón Jabulani cumplen con las exigencias reglamentarias de esa federación como se indica en la tabla que sigue:
Característica
Exigencia de FIFA
Balón Jabulani
Circunferencia del balón
Mínimo 68.5 cms.
Máximo 69.5 cms.
69 cms. Con +/- 0.2 cms.
Redondez: diámetro medido en 16 pares de puntos diferentes
Diferencia máxima 1.5%
Diferencia máxima 1%
Absorción de agua: a balón presionado y rotado en agua 250 veces
Incremento máximo de peso 10%
Incremento de peso 0%
Peso del balón
De 420 a 445 gramos
440 gramos +/- 0.2 gramos
Rebote uniforme: se deja caer el balón diez veces sobre una placa de acero
Diferencia máxima entre el bote más alto y el más bajo menor o igual a 10 cms.
Rebote más alto 149 centímetros y el más bajo 143 centímetros (diferencia 6 centímetros)
Pérdida de presión: medida después de tres días de inflado
Pérdida máxima 20%
Pérdida menor o igual a 1%

Fuente: http://www.popsci.com/technology/article/2009-12/science-behind-jubulani-adidass-2010-world-cup-soccer-ball

Solamente hay una prueba de la FIFA de carácter dinámico, todas las demás son pruebas estáticas, de modo que hay mucha libertad para diseñar el balón, y en este caso, las rugosidades juegan un papel muy importante.

Las críticas de los jugadores al balón Jabulani
Contrario a las declaraciones de los diseñadores, muchos jugadores han manifestado su desagrado con el balón diseñado para la empresa Adidas por parte de Andy Harland y su equipo de investigadores de la Universidad de Loughborough del Reino Unido.

Por ejemplo, Julio César, portero de Brasil, dijo que ese balón no es mejor que cualquier otra pelota de plástico que se puede comprar en el mercado.
El jugador italiano Giampolo Pazzini afirmó que ese balón es una catástrofe.
El delantero brasileño Luis Fabiano declaró que el balón está embrujado, pues cambia de dirección a la mitad del vuelo, como si estuviera siendo controlado.
Julio Baptista, compañero de equipo de Fabiano, ha dicho que cada vez que pateaba el balón Jabulani, salía en la dirección contraria a la que él quería.
Por el contrario, el jugador alemán Michael Ballack, quien no jugará con su selección debido a una lesión, afirmó que el balón Jabulani era una maravilla.

Una Máquina Pateadora de Balones para el Estudio de sus Propiedades (Vox Populi de la Ciencia, Radio Bemba) 16 de junio de 2010

El balón oficial de la copa mundial de fútbol en Sudáfrica fue diseñado en la Universidad de Loughborough del Reino Unido, y para el desarrollo del mismo, el equipo de investigación dirigido por Andy Harland desarrolló una máquina robot cuyo propósito es patear balones para impactarlos repetidas veces con las mismas condiciones de impacto, lo cual no se puede lograr si quienes lo hacen son humanos.

Los investigadores son Cristopher Holmes, Roy Jones, Andy Harland y David Ward, todos de la Universidad de Loughborough. Aunque no pueden reportar muchos de los detalles y datos técnicos del balón Jabulani, porque son propiedad de la empresa Adidas que los contrató para su desarrollo, si han estado en libertad de publicar un artículo en el cual describen su máquina pateadora.

Con la máquina pateadora lograron lanzar el balón a velocidades de 38.1 metros por segundo, lo cual equivale a un poco más de 137 kilómetros por hora, una velocidad que es 21% superior al máximo que alcanzan los balones en los partidos cotidianos de fútbol. El diseño de la máquina pateadora estuvo basado en un servo motor, que es capacidad de acelerar la pierna pateadora hasta alcanzar una velocidad angular de 2300 grados por segundo, lo cual equivale a casi 6 vueltas y media por segundo.

Los servomotores son motores eléctricos controlados mediante un programa de computadora que permite precisar cuántos grados debe moverse un brazo mecánico y a qué velocidad de rotación debe hacerlo. Además, un sistema de radio permite dirigir el sistema de cómputo a control remoto.
Fuente: Journal of Sports Science and Medicine (2007) Suppl. 10 45. En el sitio: http://www.jssm.org

Recomendación para la Federación Mexicana de Fútbol:
En lugar de gastar 5 millones de dólares anuales en el sueldo del técnico Javier Aguirre, pueden financiar el diseño y construcción de una máquina similar en México para que practiquen cientos de veces diarias los remates a gol recibiendo envíos de balones en situación controlada y dirigida por los entrenadores.
Pueden recurrir al Laboratorio de Robótica del Instituto Nacional de Astrofísica Óptica y Electrónica.
A Eduardo Bayro-Corrochano del Centro de Investigacion y de Estudios Avanzados del I.P.N. CINVESTAV, Unidad Guadalajara.
Al Laboratorio de Interfases Inteligentes de la Universidad Nacional Autónoma de México.

La Ganona del Mundial: la Federación Internacional del Futbol Asociado (FIFA) (Vox Populi de la Ciencia, Radio Bemba) 16 de junio de 2010

Guillermo Almeyra, columnista en el diario La Jornada, publica el domingo 12 de junio de 2010, que se hace una “...utilización ideológica y política del campeonato mundial de futbol por el capitalismo ...”
Afirma también que el fútbol es una actividad en la que “...unos cuantos muy bien pagados juegan ante millones de personas que jamás podrán practicar un deporte porque no tienen campos, salarios ni alimentación suficientes, ni tiempo libre al terminar sus trabajos extenuantes y mal pagados, y por eso simplemente miran la caja idiota que, de paso, se populariza y redime cada tanto de sus crímenes contra la conciencia política y la cultura populares, aunque aparezca como una diversión es, en realidad, una maniobra diversionista.”

Guillermo Almeyra afirma también que “La FIFA ... posee más de mil millones de dólares y el año pasado ganó 300 millones simplemente cobrando comisiones a las federaciones integrantes. Y la compra-venta de jugadores –quienes encuentran en un mundial una vidriera para su exposición– mueven cientos de millones de dólares que quedan en manos de los dirigentes de los clubes, de los intermediarios y representantes, y de otros tantos coyotes, y sólo en muy pequeña medida llegan a los modernos gladiadores de este circo.”

Guillermo Almeyra concluye que “... en la mayor crisis económica y social del capitalismo mundial y en una crisis ecológica que podría ser fatal para el destino de la civilización y del planeta, viviremos preocupados durante un mes por unas pelotas y, perdónenme la expresión, por unos pelotudos charlatanes y explotadores de la ingenuidad.”
Fuente: http://www.jornada.unam.mx/2010/06/13/index.php?section=opinion&article=019a1pol

En el mundo de los negocios, la FIFA es extremadamente quisquillosa con sus derechos de propiedad, según información del diario EL ECONOMISTA, publicada el 2 de junio de 2010, la FIFA bloqueó la transmisión de escenas de fútbol del mundial a través de YouTube.

Esta empresa (YouTube) anunció que retirará todos los videos que los usuarios suban a la página sin autorización y que no cuenten con los derechos de autor correspondientes. La FIFA advirtió a Google, empresa dueña de dicha página de Internet, que no debería transmitir los videos que aficionados suben a su plataforma de alojamiento sobre los juegos durante la Copa Mundial de Sudáfrica 2010, debido a que varios de ellos son copiados directamente de transmisiones televisivas lo que violaría los derechos de transmisión pagados por las televisoras.

Tras la advertencia, Google utilizará la herramienta de Video ID para detectar el material ilegal capturado de la televisión y eliminarlos inmediatamente.
Fuente: http://eleconomista.com.mx/tecnociencia/2010/06/02/fifa-bloquea-youtube-transmisiones-mundial