15 C
Aguascalientes
sábado, octubre 5, 2024

Los tres mayores errores de la física del siglo XX

Errare humanum est, dice el viejo aforismo, lo cual realmente no es una buena excusa. Y a ojos de la sociedad equivocarse como científico es peor, por supuesto, porque se supone que depender de la ciencia es la mejor manera para que las personas se aseguren de tener razón. Pero como los científicos son humanos (al menos la mayoría de ellos), ni siquiera la ciencia está libre de errores. De hecho, los errores son bastante comunes en la ciencia y no es malo, porque cometer errores suele ser el mejor camino para avanzar. Un experimento erróneo puede inspirar otros que no sólo corrijan el error original, sino que también revele cosas insospechadas. De ahí que los científicos eviten la segunda parte del aforismo: sed perseverare diabolicum, pero perseverar (en el error) es diabólico.

El tramposo neutrino

En febrero de 1985 la prestigiosa revista Physical Review Letters publicaba un artículo de un investigador canadiense, J. J. Simpson, que había encontrado pruebas suficientes para afirmar que era muy probable que existiera un neutrino pesado, con una masa de 17 keV. Semejante afirmación, aceptada por una de las revistas de más prestigio dentro de la física, hizo que a los científicos se les pusieran los ojos como platos. Porque la historia tenía su miga.

Podemos definir al neutrino como el fantasma del padre de Hamlet del modelo estándar de la física de partículas. Medio en broma medio en serio algunos lo definen como un cuchillo muy afilado sin mango ni hoja. Es una partícula que, además, está especializada en provocar quebraderos de cabeza a los físicos de partículas. Primero porque existe una ‘leve’ discrepancia entre lo que dice la teoría y lo que aportan los datos experimentales: si la primera asegura que el neutrino no tiene masa, los experimentos dicen que sí la tiene; pequeña eso sí, pero no nula.

Experimento de neutrinos Superkamiokande. Foto: Wikipedia

Es en este entorno cuando Simpson soltó el bombazo: tenía pruebas de haber encontrado un tipo de neutrino con una masa 10 000 veces mayor de la esperada. Es como decir que había nacido un niño que pesaba no 3 kilos, sino 30 000. La sorpresa fue tal que muchos laboratorios se pusieron como locos a repetir el experimento de Simpson. Los resultados fueron negativos: el neutrino pesado no aparecía por ningún lado. Pero Simpson no se dio por vencido y repitió sus experimentos, que volvieron a dar resultados positivos, mientras que otros laboratorios confirmaban sus resultados. Algunos teóricos intentaron explicar lo ocurrido, y otros intentaron incorporarlo a la teoría existente sin necesidad de postular una nueva partícula; y otros más propusieron una nueva teoría que incorporara al nuevo neutrino. Pero los años pasaron y cada vez más experimentos cuestionaban los resultados ofrecidos por Simpson, de forma que poco a poco los físicos de partículas llegaron a un consenso: todo fue una combinación de errores. Y no se volvió a hablar más del asunto.

Claro que el neutrino tenía otras intenciones.

En el laboratorio subterráneo de Canfranc se estudian los neutrinos cósmicos. Foto: Wikipedia

El viernes 23 de septiembre de 2011 un grupo de físicos italianos anunciaba al mundo que los neutrinos habían superado la velocidad de la luz. La comunidad de físicos no se lo tomó con mucho entusiasmo: nadie se creía que realmente se hubiera roto uno de los sacrosantos pilares de la física moderna. Debía haber algún error en el experimento. Chang Kee Jung, un físico experto en neutrinos de la Universidad de Stony Bok en Nueva York lo expresó de forma muy gráfica: “No apostaría a mi mujer y a mis hijos, pero sí mi casa”. Para entender lo que sucede tenemos que volver a la masa del neutrino. Si no la tuviera se movería a la velocidad de la luz, como predice la teoría especial de la relatividad de Einstein. Pero como tiene masa está obligado a moverse más despacio que la luz. Éste era el problema.

Diez años antes, el físico chino Guang-Jiong Ni de la Universidad Fudan en Shangai, publicaba varios artículos en los que defendía que en el universo podían existir partículas superlumínicas y afirmaba claramente que una de ellas era el neutrino. En 2007 el experimento norteamericano MINOS, diseñado para enviar un chorro de neutrinos desde el Fermilab de Chicago hasta Minnesotta, a 724 km, observó ciertos indicios que apuntaban a una velocidad superior a la de la luz, pero el error en la medición no permitía lanzar las campanas al vuelo. En 2011, los italianos del experimento OPERA volvieron a la carga.

Resultado de un experimento en el CERN. Foto: CERN

Esta vez se enviaron chorros de neutrinos desde las instalaciones del CERN en Ginebra hasta los túneles de Gran Sasso, en el centro de Italia. Este viaje de 730 kilómetros lo realizaron en menos de 3 milisegundos, así que uno puede imaginarse la precisión con la que se deben hacer las mediciones. Según el equipo italiano, los neutrinos llegaron 60 nanosegundos -60 milmillonésimas de segundo- antes de lo que haría la luz. La cordura se recuperó en 2012, cuando el mismo equipo descubrió qué había ocurrido: la explicación, bien mundana, es que un cable eléctrico suelto había desincronizado los relojes del experimento.

Fusión fría

El 23 de marzo de 1989 una noticia apareció en todos los informativos, periódicos y revistas del mundo: un par de químicos de la Universidad de Utah, Martin Fleischmann y Stanley Pons, habían descubierto cómo conseguir la fusión nuclear a temperatura ambiente con un coste despreciable. Nada de grandes inversiones, bastaba con un recipiente con agua pesada, un trozo de paladio y una corriente eléctrica.

Fleischmann, que murió en 2012 retirado en la Inglaterra rural aquejado de diabetes y Parkinson, llevaba desde los años 60 trabajando en la posibilidad de que medios químicos pudieran influir en los procesos nucleares. No era una idea alocada; si queremos separar la sal común en sus elementos constituyentes, el cloro y el sodio, hay que calentarla hasta los 40 000 ºC; pero también lo podemos hacer de forma más eficaz y sin semejante gasto de energía disolviéndola en agua y haciendo pasar por ella una corriente de 4 voltios. ¿No podía suceder algo parecido con las reacciones nucleares? ¿Realmente es necesario calentar el hidrógeno a varias decenas de millones de grados para conseguir su fusión en helio?

Martin Fleischmann mostrando su dispositivo de ‘fusión fría’. Foto: Wikipedia

Los titulares periodísticos encumbraron a Fleishmann y Pons, y a la poderosa comunidad de la fusión nuclear (la línea de investigación que más dinero se come de los presupuestos públicos) se le pusieron los ojos como platos. Ellos, con sus milmillonarias instalaciones, aún estaban intentando conseguir un reactor nuclear que funcionara y un par de químicos en un sótano con unos pocos miles de dólares lo habían conseguido. Cientos de laboratorios de todo el mundo intentaron repetir el experimento a ojo, pues los químicos aún no habían publicado su artículo explicando cómo lo había hecho. Este hecho hizo arquear la ceja a bastantes: a los científicos, como a los militares, no les gusta que nadie se salte la cadena de mando, lo que en este caso significa el orden correcto en el que hay que hacer las cosas: primero publicas en una revista científica y luego anuncias el descubrimiento.

Poco a poco empezaron a aparecer los resultados obtenidos por distintos laboratorios, y las perspectivas no eran nada halagüeñas: algunos laboratorios afirmaban haber reproducido el experimento, pero a la mayoría no les salía. Por otro lado, Fleishmann y Pons no daban números fiables y los neutrones que deben producirse en toda reacción nuclear que se precie brillaban por su ausencia. Un físico afirmó: “la prueba más clara de que no han conseguido la fusión es la presencia de Fleishmann y Pons en la rueda de prensa. Si hubieran fusionado hidrógeno, los neutrones emitidos les habrían matado”.

El experimento hacía aguas por todos lados y el golpe de gracia llegó en forma de una serie de experimentos realizados en el Instituto Tecnológico de Massachusetts, el emblemático MIT. En pocas semanas la reputación científica de Fleishmann y Pons estaba destruida y desde entonces la expresión “fusión fría” se colocó en el cajón destinado a la ciencia patológica. Años más tarde, cuando ya estaba jubilado, Fleischmann confesó que cometió dos errores: llamar al proceso fusión y dar aquella “maldita conferencia de prensa”.

En el universo hay una extraña energía que acelera su expansión. Foto: Istock

El mayor error de la física teórica

El universo suele tener siempre guardado un as en la manga dispuesto a jugarlo en el momento más desagradable. Así, en 1997 los astrónomos descubrían algo que nadie se esperaba: la expansión acelerada del universo. Los cosmólogos, poco acostumbrados a grandes sorpresas, necesitaron un posavasos para su labio inferior. Nadie podía entender que el cosmos se expandiera más deprisa ahora que después de la Gran Explosión. Los teóricos encajaron bien el golpe, porque los astrónomos les habían proporcionado un juguete nuevo que destripar. Pero en cuanto empezaron a incluirla en sus ecuaciones, la alegría tornó en inseguridad.

Simulación de una detección de una partícula de energía oscura. Foto: Istock

La aparición de la energía oscura -pues así se bautizó a la misteriosa causa que hace que el universo acelere- hizo que se buscaran ‘responsables’ ocultos entre los pliegues de la teoría. Y uno de ellos fue rescatar del baúl de los recuerdos un concepto introducido por Einstein en 1917 para detener la expansión del universo que salía de forma natural de sus ecuaciones de la relatividad general: la constante cosmológica. Desempolvada y reconvertida al mundo cuántico -la podemos asimilar como la energía del vacío-, desde su aparición no ha hecho más que dar problemas a los teóricos.

Primero, porque no se entiende muy bien qué es y qué hace aquí; lo que hace todo más doloroso es que la energía oscura da cuenta de casi las tres cuartas partes de la masa-energía total del universo. Segundo, porque la diferencia entre su valor real y el teórico tiene el dudoso honor de ser la predicción más desastrosa de toda la historia de la física, que llega a más de 100 órdenes de magnitud. Esto es, que sería similar a decir que la teoría cuántica predice que el radio de un protón es mayor que el del universo visible. No es gratuito que a semejante desatino se le llame la ‘catástrofe del vacío’.

Y tercero, porque al introducirla en la archifamosa teoría de cuerdas -que pretende dar una visión unificada del cosmos- lo ha enredado todo. Hasta entonces la teoría proporcionaba un universo más o menos definido, pero la constante cosmológica ha dado lugar al fenómeno del paisaje: una superabundancia de posibles universos compatibles con el actual, al menos del orden de 10500 –un 1 seguido de 500 ceros–. Con semejante panoplia de soluciones la teoría de cuerdas se convierte en algo que es capaz de describir cualquier cosa, y eso no es bueno: si algo lo explica todo, no explica nada.

Leer mas

Leer más

Mas noticias

Verificado por MonsterInsights