Brezinski, Claude (1993): El Oficio de investigador. Madrid: Siglo XXI. Capítulo VII. Pp.103-159.

TESTIMONIOS

- UN CASO DE COINCIDENCIA

- LA VITAMINA C

- LA SÍNTESIS DE LA UREA

- LA HOLOGRAFÍA

- LOS CUATERNIONES

- LA LITOGRAFÍA

- LA PARTENOGENESIS

- LA CONGELACIÓN DE LAS CÉLULAS VIVAS

- LOS FABRICANTES DE LLUVIA

- LOS QUANTA

- LA RELATIVIDAD

- LOS IMPULSOS NERVIOSOS

- EL OFTALMOSCOPIO

- LA RADIOACTIVIDAD

- LAS GEOMETRÍAS NO EUCLIDIANAS

- LOS MÉTODOS DE MONTE-CARLO

- EL MÉTODO DEL GRADIENTE CONJUGADO

- LA LUZ RUSA

- LA ESTRUCTURA DEL BENCENO

- EL MICROSCOPIO BINOCULAR

- EL ESTETOSCOPIO

- EL FONÓGRAFO

- LA CRISTALOGRAFÍA

- ELECTRICIDAD Y MAGNETISMO

- EL BIG BANG

- EUREKA

- EL ERROR DE LEBESGUE

- LA TRANSMISIÓN DEL TIFUS

- LOS ERRORES DE KEPLER

- STIELJES Y LAS FRACCIONES CONTINUAS

- EL CALCULO INFINITESIMAL

- UN PROBLEMA DE ANÁLISIS COMBINATORIO

- LA PENICILINA

- LOS NEUTRONES LENTOS

- LA CLASIFICACIÓN PERIÓDICA

- LA CRISIS DE LA CIENCIA

- LA MEDIDA DE LOS CONJUNTOS

- LAS LEYES DE LA MECÁNICA QUÍMICA

Para los jóvenes investigadores (y también para los demás) es fundamental conocer la génesis de ciertas creaciones y descubrimientos científicos.

Pierre Simón de Laplace decía:

El conocimiento del método que ha guiado al genio no es menos útil a los'^" progresos de la ciencia e igualmente a su propia gloria que sus descubrimientos; este método es a menudo la parte más interesante. [Exposition du systéme du monde, Tomo VI de las Obras Completas, p. 464].

Y G.W. Leibniz escribía:

Hay una cosa más importante que los más bellos descubrimientos, el conocimiento del método por el cual se han hecho.

El objetivo de este capítulo es contar la historia de ciertos descubrimientos científicos. Desgraciadamente pocos científicos se han entregado a un análisis de los laberintos de sus pensamientos. En efecto, no es siempre fácil explicar cómo ha surgido una idea, cómo se ha efectuado el trabajo inconsciente que ha conducido a la creación. En 1866, Charles Hermite escribía:

Será siempre difícil, en toda rama de nuestros conocimientos, dar cuenta, con cierta fidelidad, del método seguido por los inventores; habría que admitir que sólo el autor de un descubrimiento podría explicar, con los métodos siempre débiles de nuestra mente, cómo una nueva verdad ha sido obtenida. Pero es tal vez en matemáticas donde el hecho intelectual de la invención parece más misterioso, pues la serie de las transiciones, donde se podría reconocer el y camino seguido realmente en la investigación, nunca aparece de una manera sensible en la demostración. Esta facilidad de aislar así la prueba y de aumentar la concisión del razonamiento, sin quitarle nada de rigor y claridad, explica toda la dificultad del análisis de los métodos en matemáticas.

[Mémoires de l'Académie des Sciences, (2) 35 (1866), 528-529 y Oeuvres, Tomo 4, pp. 586- 587].

No me he esforzado por clasificar las historias que siguen. Sin embargo cada una de ellas se refiere a un proceso intelectual diferente que conduce al descubrimiento: azar, rechazo de ideas admitidas, interrogación, iluminación durante el sueño, analogías con la vida corriente, búsqueda de la armonía, asociación de ideas y analogías científicas, inversión, error, observación, método experimental, etcétera.

El lector podrá establecer la clasificación.

UN CASO DE COINCIDENCIA

La teoría de la evolución de las especies fue introducida independiente y simultáneamente por Charles Darwin (1809-1882) y Alfred Russel Wallace (1823-1913). Y es curioso que sea el mismo catalizador, la obra de Thomas Robert Malthus (1766-1834) sobre el crecimiento de la población, lo que sirvió a los dos científicos. Darwin decía:

Muy pronto me di cuenta de que la selección constituía la piedra angular de la capacidad del hombre de producir razas útiles de animales y de plantas. Pero en cuanto a saber cómo la selección podía aplicarse a organismos vivos en estado natural siguió siendo para mí un misterio durante algún tiempo. En octubre de 1838, es decir, quince meses después de haber empezado mi investigación sistemática, ocurrió que leí por placer una obra titulada Malthus y la población; y estando bien preparado por mi larga observación de los hábitos de los animales y de las plantas para comprender la lucha por la existencia que se produce en todas partes, caí en la cuenta de que, en estas circunstancias, las variaciones felices debían tender a preservarse y las infelices a destruirse. El resultado de ello sería la formación de nuevas especies. Había encontrado por fin una teoría sobre la cual trabajar [...]

Se puede observar de paso que la iluminación vino a Darwin porque el terreno estaba bien preparado.

En cuanto a Wallace, había conocido el Ensayo sobre el principio de la población de Malthus cuando era profesor en Leicester en 1844-1845. Algunos años más tarde, en 1858, estaba en las islas Molucas para coleccionar mariposas y coleópteros.

Sufría de un acceso agudo de fiebre intermitente y cada día, durante mis accesos sucesivos de frío y de calor, debía acostarme durante varias horas; tiempo durante el cual no tenía otra cosa que hacer que pensar en aquello que podía interesarme particularmente. Cualquier cosa. Un día recordé el Principio de población de Malthus, que había leído veinte años antes. Pensé en su descripción de los frenos evidentes del crecimiento- enfermedad, accidentes, guerra, hambre- que mantienen la población de las razas salvajes a un nivel medio mucho más bajo que el de los pueblos civilizados. Me vino entonces la idea que estas causas o sus equivalentes ocurren continuamente también en el mundo animal [...] ¿Por qué algunos mueren, mientras que otros sobreviven? La respuesta era clara: entre todos, sólo los más aptos sobreviven. A la enfermedad escapan los más sanos; a los enemigos, los más fuertes, los más rápidos a los más astutos; al hambre, los mejores cazadores o aquellos que realizan mejor la digestión; y así sucesivamente. Entonces, me pareció de repente que este proceso autorregulador debía necesariamente mejorar la raza, de hecho que, en cada generación, los elementos inferiores debían estar inevitablemente eliminados, mientras que permanecían los elementos superiores, es decir, que no sobrevivían más que los más aptos [...] Esperaba impacientemente el fin de mi acceso de fiebre a fin de tomar inmediatamente notas con vista a un artículo sobre este tema.

Se notará que la iluminación vino a Wallace en un periodo de reposo forzado donde él podía dejar vagabundear su mente. [D. Boorstin, Les découvreurs, Seghers, París, 1986, pp. 440-445] [C. Darwin, Autobiographie, Belin, París, 1985, p. 100].

LA VITAMINA C

Albert Szent-Gyorgyi nació en Budapest el 16 de septiembre de 1893. En 1937 recibió el premio Nobel por sus descubrimientos en el campo de la oxidación en biología y, en particular, por su trabajo sobre la vitamina C.

Todo el mundo sabe que si se deja caer una manzana tendrá, al día siguiente, un color pardo alrededor del golpe. Este coloreamiento pardo, esta oxidación, es una reacción protectora de las células. Szent-Gyórgyi comenzó por estudiar los frutos que no presentaban esta oxidación como los limones y las naranjas y se dio cuenta de que, en el caso de algunas reacciones, se podía producir un retraso de un segundo o de medio segundo.

Este retraso debía ser debido a una sustancia que se puso a buscar. Llegó a cristalizarla. Faltaba todavía determinar su composición química y sintetizarla. Pero era difícil ya que no poseía más que una pequeña cantidad. Después de una estancia de un año en Estados Unidos volvió con 15 gramos de la famosa substancia, una cantidad importante y de la cual estaba muy orgulloso. Los quince gramos se usaron rápidamente sin que se descubriera su composición química. Szent-Gyorgyi examinó numerosas plantas pero en ninguna de ellas pudo encontrar la sustancia en cantidad suficiente. Fue entonces cuando vino a vivir a Szeged que es el centro de la región donde se produce la paprika, muy apreciada habitualmente por los húngaros. Una noche su mujer le sirvió paprika para cenar, sin saber que a él le costaba mucho digerirla. El no se atrevió a decírselo pero se dio cuenta de repente de que no había buscado todavía en la paprika la sustancia tan codiciada. Entonces, por cobardía conyugal como él mismo reconoce, dijo a su mujer que no se comería la paprika sino que se la llevaría a su laboratorio para analizarla. Una semana más tarde tenía entre sus manos un kilo y medio de la sustancia de la que él no había producido hasta entonces más que un miligramo cada vez, era la vitamina C. Albert Szent-Gyorgyi falleció en Woodshoh, en Estados Unidos, el 22 de octubre de 1986.

FUENTE: I. Kardos, Scientists face to face, Corvina Books, 1978, pp. 313-316.

LA SÍNTESIS DE LA UREA

Al principio del siglo XIX los científicos consideraban que las sustancias químicas se dividían en dos clases absolutamente distintas: las sustancias inertes, inorgánicas, que cuando eran calentadas y después enfriadas volvían a su estado inicial y las sustancias vivas, orgánicas, que, como el carbono, eran modificadas por el calor. Fue así como se crearon dos químicas, la mineral y la orgánica. En química mineral es imposible reorganizar la disposición de las diferentes moléculas que componen una sustancia mientras que en química orgánica es la base misma de los estudios que se han hecho.

Friedrich Woehler nació en 1800 en el pueblecito alemán de Eschersheim. Estaba interesado en la colección de minerales y en la química pero entró a la Universidad de Marburgo para estudiar medicina. Llegó sin embargo a conciliar los dos temas dedicándose a experiencias químicas sobre los líquidos del cuerpo humano en un pequeño laboratorio improvisado que había instalado en su habitación. En esta época, química y medicina no eran sólo dos campos distintos sino que eran irreconciliables: había que dedicarse a una u otra de estas ciencias. Woehler rechazó hacer esta elección y se puso en busca de un profesor que apreciara sus dobles habilidades. Lo encontró en la persona de Léopold Gmelin de la Universidad de Heidelberg que era conocido por su talento como químico y era doctor en medicina. Fue, pues, en Heidelberg donde Woehler, animado por Gmelin, pasó su doctorado en medicina siguiendo sus investigaciones en química. Gmelin recomendó incluso a Woehler que fuera a Uppsala a estudiar química con Jons Jakob Berzelius. ¡Que Berzelius hubiera podido determinar el peso atómico de tantos elementos y empezar la lista -que Mendeleiev organizara en una tabla periódica- con un material tan simple, era algo que Woehler no podía creer! Su primer trabajo fue analizar diversos minerales. Después de haber terminado sus estudios complementarios, Woehler volvió a Berlín como profesor de química y fue allí donde descubrió, en 1827, un nuevo elemento, el aluminio, y, después, el berilio.

Pero fue en 1828 cuando tuvo lugar el descubrimiento que iba a cambiar la química orgánica. Cuatro años antes, Woehler había combinado el ácido ciánico y el amoniaco para crear un nuevo compuesto que estaba formado por un átomo de carbono, uno de oxígeno, dos de nitrógeno y cuatro de hidrógeno. Woehler publicó sus resultados en los Anales de química.

Joseph Gay-Lussac, que dirigía el periódico, se dio cuenta de que este análisis era el mismo que el de otro compuesto estudiado por Justus von Liebig un año antes. Pero el producto de Liebig era azul mientras que el de Woehler era blanco y surgió una controversia entre los dos químicos. Parecía imposible que dos productos diferentes pudieran tener los mismos componentes. Berzelius resolvió el problema demostrando que los átomos estaban dispuestos de forma diferente en las dos sustancias.

Sin embargo Woehler rehizo cuidadosamente su experimento. Calentó el ácido ciánico y el amoniaco juntos y finalmente hizo evaporar el líquido por ebullición. Lo que quedó, consistía en diminutos cristales blancos de una pulgada de largo. Cuando Woehler los vio, le intrigó mucho. Había realizado muchos otros experimentos y conocía bien numerosas sustancias. Sus cristales tenían exactamente la apariencia de los cristales de urea. Esto era extraño, ¡no se podía fabricar urea en el laboratorio! En el curso de sus estudios médicos, Woehler había separado a menudo los cristales de urea de la orina. Estaban producidos por un organismo vivo durante la transformación de los alimentos. Lavoisier había demostrado que la vida era un proceso químico de combustión que suministraba energía y expulsaba sustancias. La urea era una de ellas, una sustancia orgánica que el hombre no podía fabricar artificialmente. Y sin embargo el resultado estaba ahí: Woehler había sintetizado urea a partir de ácido ciánico y amoniaco.

Para convencerse añadió ácido nítrico a la urea natural y a sus cristales; el resultado era el mismo. Woehler había realizado lo que se creía irrealizable: la producción de materia orgánica a partir de materia inorgánica.

En el capítulo VIII (pp. 161-163) veremos la continuación de esta historia al tratar de la síntesis in vivo de la urea.

LA HOLOGRAFÍA

Dennis Gábor nació en Budapest el 5 de junio de 1900. En 1971 recibió el premio Nobel de física por la invención de la holografía y la contribución a su desarrollo. El mismo contó su descubrimiento:

El punto de partida de la invención fue mi deseo de mejorar el microscopio electrónico [...] Pensaba en el microscopio electrónico y era evidente que la microscopía electrónica se detenía en el límite en el que las redes atómicas se separaban y era visible un átomo aislado. Además no era posible construir una buena lente atómica, Bien, entonces fabriquemos una mala lente, pensaba. Tomemos una mala imagen y mejorémosla. Esto necesitaba una imagen que contuviera una información completa. Las imágenes ordinarias están desprovistas de fase. Mi idea era añadir una fase standard. Era una idea clara porque era realizable.

La idea de que fuera tan simple de reconstruir la imagen original me sorprendió de pronto un día de Pascua, hace casi veinticinco años [...] Estaba sentado en las gradas esperando un partido de tenis [...] De forma general, \ creo que toda idea verdaderamente nueva se forma en el subconsciente. Si os encontráis con un problema, olvidadlo, pensad en él a continuación de forma profunda, una vez y otra, bajo cada ángulo, a continuación olvidadlo de nuevo y esperad hasta que la solución emerja del subconsciente. Naturalmente, no emerge siempre, pero a veces lo hace. Otra idea que se reveló, si se puede decir así, durante el sueño, fue uno de mis últimos inventos sobre la holografía. El hológrafo es un traductor que es capaz de convertir un símbolo en otro -fui consciente de ello durante el sueño. [I. Kardos, Scientists face to face, Corvina, Budapest 1978, pp. 84-85].

LOS CUATERNIONES

Hamilton descubrió los cuaterniones el 16 de octubre de 1843 y comunicó su descubrimiento a su amigo Graves al día siguiente. Liberando las operaciones algebraicas de la conmutatividad, su descubrimiento marca un gran paso en la evolución hacia el álgebra moderna.

Hamilton lo consideró, desde el principio, como su más bello descubrimiento científico y auguró que pasaría el resto de su vida examinando sus consecuencias. Está claro que pensaba que los cuaterniones jugarían, en el espacio tridimensional, un papel análogo al de los números complejos en el plano. Se lanzó a estas investigaciones con un gran celo que no disminuyó nunca. Algún tiempo antes de que sobreviniera su muerte, el 2 de septiembre de 1865, describía así su descubrimiento en una carta a su hijo Archibald:

En octubre de 1843, después de haber vuelto de un congreso de la British Association en Corh, el deseo de descubrir las leyes de multiplicación de los tripletes, que se había adormecido durante algunos años, me surgió de nuevo con cierta fuerza y ardor, pero entonces estaba a punto de conseguir mi objetivo, del que de vez en cuando os he hablado. Cada mañana, al principio del mes en cuestión, cuando bajaba a desayunar, tu hermano William Edwin y tú teníais la costumbre de preguntarme, Qué, papá, ¿puedes multiplicar los tripletes? A lo que yo tenía que contestar siempre, con un triste movimiento de cabeza, No, sólo puedo sumarlos y restarlos. Pero el día 16 del mismo mes -que caía en lunes y era día de Consejo de la Roy al Irish Academy (Real Academia Irlandesa)- iba a pie para asistir a éste y presidirlo, y vuestra madre caminaba conmigo, siguiendo el Royal Canal (Canal Real) en cuya dirección los pasos nos conducían; y aunque ella me hablase de vez en cuando, una corriente de fondo de pensamientos tal se deslizaba por mi mente que produjo al fin un resultado cuya importancia, no es mucho decir, sentí inmediatamente. Un circuito eléctrico pareció cerrarse; y una chispa saltó, precursora (como vislumbré inmediatamente) de numerosos años por venir de pensamientos y trabajo en una dirección precisa. Por mí mismo si me eran concedidos, o por lo menos por otros si vivía el tiempo suficiente de comunicar mi descubrimiento. Saqué al instante una libreta, que existe todavía, y a continuación tomé unas notas. No pude resistirme más al impulso -por más antifilosófico que sea- de grabar con un cuchillo sobre una piedra de Brougham Bridge, cuando pasábamos encima, la fórmula fundamental con los símbolos i, j, k:

que contiene la solución del problema. Naturalmente, como toda inscripción, se ha borrado desde hace mucho tiempo -en su lugar una placa sobre el puente conmemora el acontecimiento. Una nota más duradera, sin embargo, queda en los libros del consejo de la Academia de ese día (16 de octubre de 1843) que recuerda el hecho de que pedí y obtuve entonces la autorización de presentar un artículo sobre los cuaterniones en la primera reunión general de la sesión: esta lectura tuvo lugar en consecuencia el 13 de noviembre siguiente.

i2 = j2 = k2=ijk = -1

LA LITOGRAFÍA

La familia Senefelder vivía en Munich. El padre era actor de teatro. No es pues sorprendente que su hijo Aloys (1771-1834) haya escrito obras de teatro. Tuvo éxito, sus obras y sus historias se imprimían pero, una vez que pagaba al impresor no le quedaba más que un poco de dinero. Intentó pues imprimir él mismo sus obras y grabó para esto las palabras en finas placas de cobre. Pero evidentemente era necesario escribir a la inversa, como en un espejo y era difícil. El cobre también costaba caro y Aloys buscó otro material. Se decidió por las baldosas de piedra que se utilizan para embaldosar los suelos. Las pulía primero con arena y después las grababa lo que era más fácil ya que la piedra era más blanda que el cobre. Su trabajo avanzaba rápidamente y agotó pronto su stock de papel. No le quedaba más que una página de su historia por imprimir y no tenía más que una hoja cuando su madre vino a buscarle para que hiciera la lista de la ropa que ella daba a lavar ¿Por qué no escribir esta lista en una de sus baldosas de piedra? Pero su tinta hecha de cera, de jabón y de carbón, se había secado y se había puesto dura. Tomó un trozo y lo usó para escribir la lista en la baldosa. Cuando lavaron la ropa la lavandera la trajo, sin olvidar, felizmente para nosotros, traer igualmente la famosa baldosa. Para poder utilizarla para terminar su trabajo de imprenta, Senefelder quiso limpiarla. Pero la tinta no se iba. Intentó el ácido. No sólo la tinta no se borró sino que el ácido minó la piedra donde no había tinta, mientras las palabras sobresalían ahora de la superficie de la baldosa de piedra y Aloys pudo imprimir fácilmente la lista en el papel. Continuó sin embargo sus pruebas de limpieza ya que había notado que el agua cubría la baldosa salvo en los sitios donde había tinta. El cuerpo graso contenido en la tinta alejaba el agua y del mismo modo la tinta no se retenía en las partes mojadas de la baldosa. Lentamente Senefelder se dio cuenta de que no había necesidad de grabar la piedra. Todo lo que había que hacer era crear dos tipos de superficies sobre la piedra: una que retuviera la tinta y otra que no. Con su tinta endurecida hizo inmediatamente un dibujo en una baldosa. La mojó completamente y después pasó por encima tinta líquida. La tinta se quedó sólo encima del dibujo, no había tinta donde no había dibujado ya que la baldosa estaba húmeda. No tenía más que poner una hoja sobre la baldosa y presionar. Había inventado la litografía. Pero la historia no se acaba allí, todavía era necesario escribir o dibujar a la inversa, como en el espejo.

A pesar de este inconveniente, la litografía recorría sin embargo poco a poco su camino. Las prensas se perfeccionaron. En 1810 un impresor alemán llamado Friedrich Kónig (1774-1833) tuvo la idea de usar un tubo para extender el papel sobre la superficie plana de la baldosa y en 1846 Richard Marsh Hoe (1812-1886) inventó una prensa donde la superficie en la que estaba lo que se quería imprimir tenía igualmente forma de tubo. Más tarde se puso enfrente un rodillo de caucho para presionar el papel contra el otro tubo. Este tipo de prensa era corriente. Un día, en una imprenta de New Jersey, un incidente cualquiera hizo que la prensa se pusiera en marcha pero que el papel se quedara parado. Los dos rodillos, el del dibujo en tinta y el de caucho, dieron vueltas uno contra otro sin papel. La dificultad fue rápidamente reparada y el papel empezó a pasar. Queriendo verificar que todo había funcionado bien, el impresor examinó la prueba y vio, con sorpresa, que los dos lados de la hoja estaban impresos, uno al revés y otro del derecho. La tinta se había puesto simplemente sobre el rodillo de caucho y había dado una imagen invertida en el dorso del papel porque estaba invertida en el rodillo entintador. Se podía naturalmente partir de un rodillo entintador donde se ' había dibujado o escrito al derecho y obtener de la misma forma una "" impresión al derecho. Es el procedimiento de impresión llamado offset.

LA PARTENOGENESIS

Un domingo de marzo de 1910, yo estaba hipnotizado por la mañana sobre el visor del microscopio contemplando un cuadro impresionante: una preparación de huevos poliespérmicos de calamita (tipo de sapo) impregnados de esperma de tritón alpino, huevos acribillados de estos elementos masculinos extraños cuyas cabezas voluminosas aparecían sobre los cortes como un semillero de agujas de cirujano. Bruscamente surgió en mi mente la idea de que un traumatismo ligero, el pinchazo de una fina aguja de vidrio o de metal, podría revelarse tan eficaz como el calor o la hipertonía. Yo no estaba considerando, naturalmente, más que un nuevo factor de partenogénesis abortiva. En seguida, preparé una serie de estiletes de vidrio, y coloqué sobre algunos vidrios de reloj los huevos de una hembra madura. Esos huevos, pinchados en seco, son simplemente recubiertos de agua. Experiencia que se ha vuelto clásica y cuyo resultado está más alia de toda expectativa [...] ¿Cuál puede ser el agente providencial de un resultado excepcional, perseguido en vano desde hace tanto tiempo? [E. Bataillon, Une etiquete de trente-cinq ans sur la génération, 1900-1934, SEDES, París, 1955, pp. 24-25].

LA CONGELACIÓN DE LAS CÉLULAS VIVAS

La congelación de los tejidos vivos conservados tanto tiempo como se quiera para servirse de ellos más tarde es un viejo sueño. ¿No se habla de los soldados de Napoleón encontrados congelados después de la campaña de Rusia y después devueltos a la vida sin deterioro, ¿y no es ésa la historia de L'homme á l'oreille cassée de Edmond About?

Aunque hubieran tenido lugar numerosas experiencias científicas, era raro que el retorno a la vida de las células congeladas se efectuara en buenas condiciones.

En los años 1940 el doctor B.J. Luyet trabajaba en este problema. Ya que los daños estaban causados por los cristales de hielo, sugirió quitar toda el agua contenida en las células antes de congelarlas. Este método había sido descubierto por la Birdseye Company que fabricaba comida congelada. Si la deshidratación tenía éxito con las verduras ¿por qué no iba a funcionar con las células vivas?

Luyet y su equipo descubrieron que podían deshidratar en parte las células de pollo utilizando una mezcla azucarada. Se había obtenido un cierto éxito, pero el método no daba siempre buenos resultados. Otros científicos hicieron nuevos experimentos. En Londres, Alan S. Parkes utilizó azúcar de frutas. Andrey U. Smith y Christopher Polge repitieron todas las experiencias de Luyet con los mismos resultados: algunas células soportaban la congelación y después la descongelación y otras no. No perdieron sin embargo la esperanza de volver el método totalmente fiable y conservaron su mezcla en un refrigerador pensando retomar después sus experimentos con un nuevo método.

Fue así como, algunos meses más tarde, Smith y Polge recomenzaron sus experimentos que esta vez tuvieron éxito en casi todos los casos. El sueño parecía haberse hecho realidad. Parkes volvió a hacer el experimento con una nueva botella de azúcar de frutas, y todas las células murieron. Los científicos estaban perplejos. ¿Cómo podía el mismo experimento haber dado resultados completamente diferentes? Con cuidado examinaron y reexaminaron todos los detalles del procedimiento para encontrar la explicación. Por fin encontraron que simplemente se habían equivocado. En lugar de su vieja mezcla azucarada habían utilizado una mezcla de clara de huevo y de glicerina que tenía el mismo aspecto. Se sabía desde hacía tiempo que la glicerina impedía que se congelasen los motores pero no se había pensado nunca en utilizarla para células vivas.

Se descubrió más tarde que Jean Rostand había utilizado glicerina dos años antes, en 1946, para congelar células de rana aunque a una temperatura mucho menos baja.

Smith mejoró el método y encontró otros. Fue capaz rápidamente de congelar y conservar sangre durante largos periodos, abriendo así la vía a las esperanzas más arriesgadas. Fue así como, en enero de 1967, un científico de setenta y tres años, James H. Bedford, muerto de una enfermedad incurable fue, según sus deseos, congelado hasta que se encontrase un tratamiento de su enfermedad. En 1965 se creó una asociación para conservar los cuerpos que esperan una vida futura. ¡Todo esto por un error de botellas!

LOS FABRICANTES DE LLUVIA

Hacer llover a voluntad ha sido un viejo sueño del hombre que no se hizo realidad hasta 1946. Un hombre, John Aitken, había demostrado que las gotas de lluvia se formaban alrededor de pequeños granos de polvo que estaban en la atmósfera y fue por esto por lo que se lanzaron sin éxito, desde aviones, centenares de kilos de finas partículas de diferentes materiales o fueron elevadas desde el suelo por el fuego para tratar de hacer llover.

Durante la Segunda Guerra Mundial la General Electric había pedido a Irving Langmuir, que había obtenido en 1932 el premio Nobel de química por sus descubrimientos de electrovalencia y del hidrógeno atómico, que volviera al trabajo (ya que estaba retirado) para estudiar la formación de hielo en las alas de los aviones. Con su ayudante, Vincent Joseph Schaefer, se fueron a las montañas de New Hampshire conocidas por sus vientos glaciales y por sus tempestades de nieve. Allí se sorprendieron de constatar que la temperatura de las nubes estaba a menudo muy por debajo de cero y que, sin embargo, no había formación de cristales de hielo. Conocían la teoría, elaborada por franceses y noruegos, de que las gotas de agua se forman alrededor de pequeños granos minúsculos y se transforman en cristales de hielo que caen enseguida en forma de lluvia. Estaban pues muy sorprendidos de que a pesar del frío tan grande que podía haber en las nubes no se formara nieve. Schaefer se interesaba mucho en la nieve y había encontrado incluso un procedimiento para preservar la forma de los cristales de hielo para estudiarlos en el laboratorio.

Una vez que hubo terminado este trabajo de guerra, Schaefer continuó sus investigaciones para encontrar un corpúsculo alrededor del cual los cristales de nieve pudieran formarse en un aire húmedo y muy frío. Ensayó numerosas sustancias convencido de que, un día u otro, encontraría el éxito. Conservaba polvo, azúcar y otras sustancias en su refrigerador. Tenía así aire frío y húmedo para sus experimentos. Para imitar el aire húmedo de una nube, soplaba en su refrigerador y lanzaba en ella un puñado de cualquier sustancia. Durante meses intentó todo lo que le era posible imaginar consiguiendo, como único resultado, que el fondo de su refrigerador estuviera cada vez más recubierto por todas las sustancias que habían sido utilizadas.

Una mañana de julio se dedicaba a sus experiencias habituales cuando un amigo vino a buscarle para ir a un restaurante. Como de costumbre no cubrió su refrigerador, lo que no era necesario ya que el aire frío bajaba al fondo y no se escapaba. Al volver de comer, Schaefer se disponía a retomar sus experiencias cuando se dio cuenta de que la temperatura del refrigerador había subido por encima del punto en que los cristales de hielo permanecen sólidos. El verano estaba allí, sería necesario ser más prudente los días siguientes. Había dos posibilidades: cerrar la tapa del refrigerador y esperar a que la temperatura bajara por ella misma o intentar acelerar el proceso añadiendo nieve carbónica, y esto fue lo que hizo. Fue a buscar un paquete de nieve carbónica a una heladora y puso el paquete, humeante, en su refrigerador. Entonces, con la luz, vio pequeños trozos de algo en su aliento. Instantáneamente se dio cuenta de que eran cristales de hielo. Así había fabricado hielo, no añadiendo corpúsculos de una materia cualquiera, sino enfriando tanto su aliento que el líquido tenía que cristalizar. Entonces se puso a soplar en su refrigerador añadiendo en él grandes cantidades de nieve carbónica y se formó nieve, que cayó al fondo. Lo que él había hecho en un refrigerador, había que realizarlo ahora en una nube real. Equipó un avión con una máquina eléctrica para mandar nieve carbónica a las nubes. En un frío día de noviembre en que las nubes parecían prometedoras, Schaefer voló mientras Langmuir se quedaba en Tierra para observar. Después de haber encontrado la nube propicia, Schaefer puso su máquina de nieve carbónica en marcha, pero hacía tanto frío que el motor se estropeó antes de que la mitad de la nieve carbónica se usara. Incapaz de repararla y completamente helado, lanzó por la ventana el resto de la nieve carbónica en la nube y regresó. ¡Langmuir lo acogió con gritos de triunfo, había conseguido hacer nevar!

Cuando Schaefer descubrió que no había necesidad alguna de partículas finas para hacer cristalizar la nieve, paró naturalmente sus investigaciones en esta dirección. Pero otro joven investigador de la General Electric, Bernard Vonnegut, se interesaba en el problema. Nacido en 1914 en Indianápolis, había estudiado los procesos de fabricación del hielo cuando era estudiante en una escuela de ingenieros. Su profesor, Findeisen, había sugerido utilizar cierto material como partícula cristalizante, pero Vonnegut no tardó mucho tiempo en darse cuenta de que la idea de Findeisen era falsa ya que las partículas eran demasiado grandes. Se puso a hojear libros de química para encontrar un compuesto que tuviera buena forma y fuera suficientemente pequeño. Encontró lo que buscaba en el ioduro de plata. Estaba seguro de ello. Una vez que entró en la General Electric se procuró este producto e inventó una técnica para enviar al aire finas partículas. Pero esto no dio nada. No queriendo admitir que Schaefer tenía razón, se obstinó. Rehizo sus cálculos varias veces y, al final, pidió a un colega que examinara su ioduro de plata: no era puro. Se procuró más y rehizo su experimento que, esta vez, fue un éxito. Aunque el ioduro de plata es un producto caro, Vonnegut había descubierto un procedimiento tan ingenioso para transformarlo en humo, que hacía falta muy poca cantidad y su método era más barato que el de Schaefer. Es este método el que se usa todavía hoy en día.

LOS QUANTA

Un cuerpo negro es un cuerpo que absorbe completamente la radiación electromagnética. Su coeficiente de absorción, que mide la fracción de la energía incidente absorbida, es igual a uno. Su emisividad, es decir la potencia de la radiación electromagnética emitida por unidad de superficie, no depende más que de la temperatura y de la frecuencia.

Un problema físico importante, a finales del siglo pasado, era encontrar la ley de emisividad del cuerpo negro. Sin embargo todas las tentativas basadas en la termodinámica clásica eran incapaces de resolverlo completamente. Los resultados obtenidos estaban en contradicción con la experiencia y eran incluso absurdos, puesto que preveían una emisividad total infinita.

A este problema se enfrentó Max Planck en 1897. Puesto que la radiación del cuerpo negro no depende más que de la temperatura de las paredes y no de su naturaleza, Planck tuvo la idea de estudiar un cuerpo negro cuyas paredes fueran osciladores de Hertz. Sus propiedades podían ser calculadas sin hacer intervenir la estructura molecular entonces desconocida. Planck encontró así que la emisividad era proporcional a la energía media de los osciladores de las paredes. Pero el problema seguía sin estar resuelto. Suponiendo la validez de la ley de Wien, relativa a la distribución de la energía espectral, que era entonces la que mejor se acomodaba a la experiencia, Planck calculó que la inversa de la derivada segunda de la entropía respecto a la energía era proporcional a la energía. Sin embargo, medidas experimentales posteriores invalidaron estos resultados. Para pequeñas energías y, por tanto, para pequeñas longitudes de onda, el acuerdo entre la teoría y la experiencia era satisfactorio. No era así, sin embargo, para grandes energías y grandes longitudes de ondas. Había proporcionalidad no con relación a la energía sino con relación a su cuadrado. Planck se entregó entonces simplemente a una interpolación entre las dos fórmulas y obtuvo entonces una ley conforme con la experiencia.

Dejemos hablar a Planck:

Mas, incluso admitiendo la validez absolutamente rigurosa de la fórmula de la radiación, mientras poseía meramente el carácter de una ley descubierta por una intuición feliz, no se podía esperar que tuviese sino un significado formal. Por esta razón, desde el mismo día que hube formulado esta ley, comencé a acometer el problema de su verdadera interpretación física. Esta investigación me condujo automáticamente a estudiar las relaciones recíprocas entre entropía y probabilidad.

Y en otra obra, añade:

Después de algunas semanas, que estuvieron ciertamente ocupadas por el trabajo más encarnizado de mi vida, se hizo una luz en la oscuridad donde me debatía y se abrieron ante mí perspectivas insospechadas. [Initiations á la physique, Flammarion, París, 1941, p. 73].

Para calcular más fácilmente la probabilidad con los métodos del análisis combinatorio, Planck descompuso la energía E de un oscilador en cantidades pequeñas de la forma E = Pe donde P es un número entero y donde e es tan pequeño como se quiera. Gracias a este artificio podía calcular la energía media de un oscilador y volver a encontrar su fórmula del cuerpo negro. La descomposición E = Pe no era más que un intermediario de cálculo cómodo sin significación particular. Pero la I historia no se detiene todavía aquí. Para obtener el acuerdo con la ley de Wien de las bajas energías no se podía tomar e tan pequeño como se quisiera. Era necesario que e fuera finito y proporcional a la frecuencia u de la radiación o sea e = hu, donde h es una constante universal conocida ¡ ahora como constante de Planck. Este era un resultado revolucionario: había que renunciar en física a la idea de continuidad y aceptar que algunos fenómenos físicos puedan tener relaciones de causa-efecto discontinuas, cuantificadas. Evidentemente un resultado tan revolucionario y tan fundamental encontró numerosas resistencias. El mismo

Planck tenía tan poca confianza en su método que durante años intentó explicar sus resultados de una forma más clásica aunque estuviera convencido de la importancia de su descubrimiento. El escribió más tarde:

Por una parte, en efecto, esta constante [h] era absolutamente necesaria para obtener el verdadero valor de la entropía, ya que solamente gracias a ella se pueden determinar los dominios o intervalos indispensables para el cálculo de la probabilidad y, por otra parte, resultaba absolutamente imposible, a pesar de los mayores esfuerzos, enmarcarla dentro de una teoría clásica, cualquiera que fuera. Mientras se pudiera tratar la constante como infinitamente pequeña todo iba muy bien; pero, en el caso general, había un momento en el que se llegaba a una solución de continuidad [...] Ante el fracaso de todos los intentos destinados a salvar el abismo, era cada vez más difícil escapar al dilema siguiente: o bien toda mi serie de deducciones, que terminaba por encontrar por el cálculo la ley de la radiación negra, era, por principio, ilusoria y nada más que un artificio de cálculo sin base real, o bien una idea correspondiente a algún ente físicamente real dominaba toda esta deducción, y por consiguiente el quantum de acción [h] debía jugar un papel fundamental en física. Bajo la segunda alternativa este quantum representaba algo absolutamente novedoso; insospechado hasta entonces, y que parecía destinado a revolucionar el pensamiento físico basado sobre la misma noción de continuidad, inherente a todas las relaciones causales desde el descubrimiento del cálculo infinitesimal por Leibniz y Newton.

La experiencia se inclinó por la segunda alternativa.

Notemos, de paso, que cuando Plank afirmó que la noción de continuidad era inherente a todas las relaciones causales, se convirtió en profeta, ya que anticipó lo que ocurrió cuando Heisenberg descubrió las relaciones de incertidumbre, después de que la escuela de Copenhague, con Bohr a la cabeza, considerara que la naturaleza es esencialmente probabilística y cuestionara el principio de causalidad. Se sabe que esta interpretación probabilística no contó jamás con el asentimiento de Einstein, que pensaba que la mecánica cuántica, aunque tuviera éxitos clamorosos a su favor, estaba incompleta, y que el mundo aparecería de nuevo como determinista cuando su construcción hubiera sido acabada. Este viejo debate entre Bohr y Einstein está a punto de ser zanjado por las experiencias en curso. Es nuestra interpretación filosófica del mundo real la que corre el riesgo de ser modificada, incluso, completamente trastocada. Estos últimos desarrollos están expuestos en el libro de F. Selleri, Le grand débat de la théoríe quantique, Flammarion, París, 1986.

Pero volvamos al final de nuestra historia.

Cuando uno se llama Albert Einstein, ninguna revolución científica produce temor y él convirtió de hecho la idea de Planck en más revolucionaria todavía. Según Planck, la energía no podía estar en la materia más que cuantificada, pero en la radiación luminosa quedaba sometida a las leyes continuas de Maxwell. Einstein mostró que estas dos teorías eran incompatibles y que era preciso suponer igualmente que toda radiación estaba cuantificada: la luz debía comportarse no solamente como una onda para verificar las ecuaciones de Maxwell sino que debía componerse igualmente de partículas, de quantas cuasi-corpusculares que llamamos fotones.
Así se unificaron las concepciones ondulatorias y corpusculares de la luz que conmocionaban la física desde Newton. Así podría nacer la mecánica cuántica y toda la física moderna.
 

FUENTES: M. Planck, Autobiogmphie scientifique, Albin Michel, París, 1960, p. 91.
E. Segré, Les physiciens modernes el leurs découvertes, Fayard, París, 1984.
B. Hoffmann, P. Paty, Vétrange histoire des quanla, Seuil, París, 1981. L. Leprince-Ringuet (ed.), Les inventeurs célévres, Mazenot, París, 1960. M. Planck, Initiations á la physique, Flammarion, París, 1941 pp. 73-76.
F. Sellen, Le grand débat de la théorie quantique, Flammarion, París, 1986.
 

LA RELATIVIDAD

Desde hacía 50 años los físicos luchaban contra la idea del éter, este medio sutil que llenaba todo el espacio y que servía de soporte para la propagación de la luz y de los fenómenos eléctricos. No solamente sus propiedades se resistían al estudio sino que su misma existencia conducía a prever fenómenos que no se manifestaban a pesar de los progresos espectaculares de las técnicas de medida. Los teóricos intentaron entonces manipular la teoría electromagnética de J.C. Maxwell. H.A. Lorentz -entre otros- estudió la forma en que se transforman las ecuaciones de Maxwell cuando se pasa de un sistema de referencia a otro en movimiento rectilíneo y uniforme con relación al primero. Mostró que estas ecuaciones permanecen invariantes cuando se reemplazan las variables de espacio x, y, z y la variable temporal, por nuevas variables x\ y', z'y t' relacionadas con las primeras mediante ciertas relaciones lineales que ahora se llaman transformación de Lorentz. Lorentz, condicionado por las ideas que habían circulado hasta entonces, no consideraba las nuevas variables más que como cantidades ficticias, sin ninguna realidad física, sino únicamente destinadas a facilitar el cálculo.

En ningún caso se habían considerado las verdaderas coordenadas y el verdadero tiempo del nuevo sistema de referencia.

Despreciando los a priori y las ideas recibidas, Albert Einstein decidió tomar, como punto de partida de sus trabajos, la hipótesis de que las nuevas variables eran verdadera, real y físicamente las del nuevo sistema y que la transformación de Lorentz era la expresión física de la relación que existe entre dos sistemas de referencia en movimiento rectilíneo y uniforme uno con relación al otro. Hipótesis atrevida, ya que entrañaba el abandono de la mecánica newtoniana, pero hipótesis fructuosa porque es así como nació la teoría de la relatividad restringida en 1905.

Era evidentemente deseable extender el principio de la relatividad a movimientos acelerados cualesquiera. Interpretando geométricamente las fuerzas de gravitación de manera análoga a las fuerzas centrífugas en un sistema de referencia en rotación al que se puede considerar como resultante, en este sistema, de la forma del espacio, Einstein pudo realizar la teoría de la relatividad en 1916.

Einstein ha contado cómo llegó a esta teoría. Extraeré de su texto los pasajes que me parecen más significativos omitiendo los detalles técnicos para no conservar más que la osamenta del proceso intelectual:

Cuando, con la teoría especial de la relatividad restringida, se obtuvo la equivalencia de todos los sistemas llamados de inercia para formular las leyes de la naturaleza (1905), se planteó casi espontáneamente la cuestión de saber si no habría una equivalencia más amplia para los sistemas de coordenadas. Dicho de otro modo, si no podemos atribuir a la idea de velocidad más que un sentido relativo ¿debemos, sin embargo, obstinarnos en considerar la aceleración como un concepto absoluto?

Di por primera vez un paso adelante hacia la solución del problema, cuando intenté enmarcar la ley de gravitación dentro de la teoría especial de la relatividad restringida. Como la mayor parte de los autores de esta época, traté de establecer una ley de campo para la gravitación [...] Pero tales investigaciones me condujeron a un resultado que me hizo desconfiar mucho [...] Fue entonces cuando rechacé como inadecuada la tentativa, de la que he hablado antes, de tratar el problema de la gravitación en el marco de la relatividad restringida. Este marco no se correspondía manifiestamente con la propiedad fundamental de la gravitación [...] Estas reflexiones me ocuparon de 1908 a 1911 [...] En un principio la única cosa importante era haber reconocido que no se podía llegar a una teoría racional de la gravitación más que extendiendo el principio de relatividad.

Convenía por tanto establecer una teoría cuyas ecuaciones conservaran su forma, incluso con transformaciones no lineales de coordenadas. Ahora bien yo no sabía entonces si eso debía aplicarse a transformaciones de coordenadas absolutamente continuas cualesquiera, o bien sólo a algunas.

Vi pronto [que] [...] la interpretación simplemente física de las coordenadas debía desaparecer [...] Esta constatación me molestó mucho, ya que no podía comprender lo que entonces las coordenadas debían, en suma, significar en física. No llegué a resolver este dilema más que hacia 1912 [...] Pero quedaban todavía dos problemas que resolver [...] He trabajado en estas cuestiones de 1912 a 1914 con mi amigo Grossmann. Dos años antes de la publicación de la teoría de la relatividad general habíamos tomado ya en consideración las ecuaciones correctas de la gravitación, pero no podíamos enfocar su utilización desde el punto de vista de la física. Sobre este tema, creía todavía poder demostrar, basándome en consideraciones generales, que una ley de gravitación invariante relativa a las transformaciones de coordenadas elegidas a voluntad, no podría unirse al principio de causalidad. Tales eran los errores de mi mente que me costaron dos años de trabajo muy duro hasta que por fin, hacia final de 1915, me di cuenta de estos errores y descubrí la conexión con los hechos de la experiencia astronómica, después de que, todo avergonzado, volví a la curvatura de Riemann.

Iluminado por los conocimientos ya adquiridos, el fin felizmente alcanzado apareció casi como evidente y todo estudiante inteligente lo capta sin gran esfuerzo. Pero estas investigaciones, llenas de presentimientos, hechas en la sombra, durante años, acompañadas de un deseo ardiente de llegar a la meta, con sus alternancias de confianza y cansancio, se terminan finalmente con la brusca aparición de la claridad, todo eso no puede ser conocido verdaderamente más que por el mismo que lo ha sentido. [A. Einstein, Comment je vois le monde, Flammarion, París, 1934, pp. 234-241].

Cuando Albert Einstein recibió el premio Nobel de física en 1922 no pudo desplazarse a Estocolmo para la ceremonia de entrega del premio en diciembre porque había aceptado antes una invitación a Japón. El 14 de diciembre de 1922, y solicitado por K. Nishida, profesor de filosofía de la Universidad de Kyoto, Einstein dio una conferencia titulada Cómo he creado la teoría de la relatividad. Fue una exposición improvisada que Einstein hizo en alemán y sin notas. Una traducción simultánea fue hecha por J. Ishiwara, profesor de física en la Universidad de Tohoku y que había estudiado con Arnold Sommerfeld y Einstein entre 1912 y 1914. En 1923, Ishiwara publicó sus notas en una revista japonesa. Este artículo fue traducido parcialmente al inglés por T. Ogawa en 1979. La conferencia de Einstein fue traducida al inglés íntegramente por Yoshimasa A. Ono en 1982. Nosotros damos aquí la primera traducción al castellano:

No es fácil hablar de la forma en la cual me surgió la idea de la teoría de la «' relatividad; había tantas complejidades ocultas para motivar mi pensamiento que el impacto de cada pensamiento era diferente a las distintas etapas del desarrollo de la idea. Yo no las mencionaré todas aquí. No volveré a contar tampoco los artículos que he escrito sobre el tema. En su lugar, voy a describir brevemente el desarrollo de mi pensamiento en conexión directa con este problema.

Hace más de 17 años que tuve por primera vez la idea de desarrollar la teoría de la relatividad. Aun cuando no puedo decir exactamente de dónde me surgió la idea, estoy seguro de que estaba contenida en el problema de las propiedades ópticas de los cuerpos en movimiento. La luz se propaga a través del mar de éter en el cual la Tierra se mueve. En otros términos, el éter se desplaza en relación a la Tierra. Intenté encontrar una prueba experimental clara del flujo de éter en la literatura física pero fue en vano.

Quise entonces verificar yo mismo el flujo de éter en relación a la Tierra, o dicho de otro modo, el movimiento de la Tierra. Cuando reflexioné por primera vez sobre este problema, no dudé de la existencia de éter o del movimiento de la Tierra a través de él. Pensaba en la experiencia siguiente usando dos pares termoeléctricos: colocar unos espejos de manera que la luz proveniente de una sola fuente sea reflejada en dos direcciones diferentes, una paralela al desplazamiento de la Tierra y otra antiparalela. Si suponemos que hay una diferencia de energía entre los dos haces reflejados, podemos medir la diferencia de calor generada utilizando los dos pares termoeléctricos. Aunque la idea de esta experiencia fuera muy próxima a la de Michelson, no la llevé a cabo.

Cuando daba vueltas a este problema siendo estudiante supe del extraño resultado de la experiencia de Michelson. Rápidamente llegué a la conclusión de que nuestra idea concerniente al desplazamiento de la Tierra en relación al éter era incorrecta si se admitía el resultado nulo de Michelson como un hecho. Era el primer camino que me conducía a la teoría de la relatividad restringida. Por lo que he llegado a creer que el movimiento de la Tierra no puede ser detectado por ninguna experiencia óptica aunque la Tierra gire alrededor del Sol.

Tuve la ocasión de leer la monografía de Lorentz en 1895. Discutía y resolvía completamente el problema de la electrodinámica en el primer orden de aproximación, es decir, despreciando los términos de orden superior a v/c, donde v es la velocidad del cuerpo en movimiento y c la de la luz. Probé entonces a analizar la experiencia de Fizeau a partir de la hipótesis de que las ¡/t ecuaciones de Lorentz para los electrones son válidas tanto en el sistema de referencia de los cuerpos en movimiento como en el del vacío, como había sido discutido al principio por Lorentz. En esta época yo creía firmemente que las ecuaciones de la electrodinámica de Maxwell y las de Lorentz eran exactas.

Además la hipótesis de que estas ecuaciones debían ser válidas en el sistema de referencia de los cuerpos en movimiento conduce al concepto de invarianza de la velocidad de la luz que, sin embargo, contradice la regla de la suma de velocidades utilizada en mecánica.

¿Por qué estos dos conceptos se contradecían? Me daba cuenta de que esta dificultad era realmente difícil de resolver. Pasé en vano casi un año intentando modificar la idea de Lorentz con la esperanza de resolver este problema.

Por suerte, uno de mis amigos de Berna (Michele Besso) me ayudó a salir del apuro. Le visité con este problema un bonito día. Comencé entonces la conversación con él: Últimamente he trabajado sobre un problema difícil. Hoy he venido a verte para atacar este problema contigo. Discutimos cada aspecto de ese problema. Después comprendí de pronto donde residía la clave del problema. Al día siguiente volví a verlo de nuevo y sin decir buenos días le dije: Gracias. He resuelto completamente el problema. Un análisis del concepto de tiempo era mi solución. El tiempo no podía ser definido de forma absoluta y había una relación inseparable entre el tiempo y la velocidad de la señal. Con este nuevo concepto, podía resolver completamente por primera vez todas las dificultades.

En cinco semanas la teoría de la relatividad restringida estaba construida. No dudaba de que esta nueva teoría era razonable desde el punto de vista filosófico. Pensaba igualmente que la nueva teoría estaba de acuerdo con el argumento de Mach. Contrariamente al caso de la teoría de la relatividad general, donde el argumento de Mach se incorporaba en la teoría, en la de la relatividad restringida, el análisis de Mach tenía solamente una consecuencia indirecta.

Veamos la forma en que se creó la teoría de la relatividad general.

Mis primeras ideas sobre la teoría de la relatividad general fueron concebidas dos años más tarde, en 1907. La idea se me ocurrió de repente. No estaba satisfecho de la teoría de la relatividad restringida porque se limitaba a los sistemas de referencia que se desplazaban con velocidad constante unos con relación a otros y no podía aplicarse a un movimiento general del sistema de referencias. Luchaba por suprimir esta restricción y quería formular el problema para el caso general.

En 1907 Johannes Stark me pidió que escribiera un artículo sobre la teoría de la relatividad restringida en el periódico Jahrbuch der Radioaktivitat. Mientras lo escribía, llegué a pensar que todas las leyes de la naturaleza a excepción de la de la gravitación podían ser abordadas en el cuadro de la teoría de la relatividad restringida. Quería descubrir la razón de esto pero no podía llegar a ello de manera simple.

El punto que menos me satisfacía era el siguiente: así como la relación entre inercia y energía estaba explícitamente dada por la teoría de la relatividad restringida, la relación entre inercia y masa, o la energía del campo gravitacional, no estaba claramente elucidada. Sentía que este problema no podía ser resuelto en el cuadro de la teoría de la relatividad restringida.

La inspiración se produjo un día de repente. Estaba sentado en una silla en mi oficina de patentes en Berna. De golpe me vino una idea: si un hombre cae en caída libre, no sentirá su peso. Estaba desconcertado. Esta simple experiencia de pensamiento me produjo una fuerte impresión. Ella me condujo a la teoría de la gravitación. Continuaba mis reflexiones: un hombre que cae experimenta una aceleración (entonces lo que siente y lo que observa tienen lugar en un sistema de referencia acelerado). Decidí extender la teoría de la relatividad al sistema de referencia con aceleración. Sentía que haciendo esto podría resolver al mismo tiempo el problema de la gravitación. Un hombre que cae no siente su peso porque en su sistema de referencia hay un nuevo campo gravitacional que anula el campo gravitacional debido a la Tierra. En el sistema de referencia acelerado tenemos necesidad de un nuevo campo gravitacional.

En esa época no llegué a resolver este problema completamente. Esto me entretuvo ocho años más antes de obtener finalmente la solución completa. Durante estos años obtuve respuestas parciales a este problema.

Ernst Mach insistía sobre la idea de que los sistemas con aceleración eran equivalentes unos a otros. Esta idea contradecía la geometría euclidiana puesto que en un sistema de referencia con aceleración no puede aplicarse la geometría euclidiana. Describir las leyes físicas sin referencia a la geometría es como describir nuestros pensamientos sin palabras. Nosotros necesitamos de las palabras para expresarnos. ¿Qué debemos buscar para describir nuestro problema? Este problema estaba sin solución desde 1912, cuando tuve la buena inspiración de que la teoría de superficies de Karl Friedrich Gauss podría ser la llave de este misterio. Pensaba que las coordenadas de superficie de Gauss eran muy importantes para la comprensión de este problema. No sabía entonces que Bernhard Riemann (que había sido alumno de Gauss) había discutido en profundidad los fundamentos de la geometría. Recuerdo los cursos de geometría de mis estudios (en Zurich) por Cari Friedrich Geiser, en los que exponía la teoría de Gauss. Pensaba que los fundamentos de la geometría tenían un profundo significado físico en este problema.

Cuando regresé a Zurich desde Praga, mi amigo, el matemático Marcel Grossmann, me esperaba. El me había ayudado anteriormente en mi enriquecimiento sobre literatura matemática cuando trabajaba en la oficina de patentes en Berna y tenía dificultades para conseguir artículos de matemáticas. Me enseñó en primer lugar el trabajo de Curbastro Gregorio Ricci y después el trabajo de Riemann. Discutí con él si el problema podía ser resuelto utilizando la teoría de Riemann, o en otros términos, usando el concepto de invarianza de los puntos de una recta. Escribimos un artículo sobre este tema en 1913 a pesar de que no pudimos obtener las ecuaciones correctas para la gravitación. Estudiaba más a fondo las ecuaciones de Riemann para encontrar allí solamente múltiples razones por las cuales los resultados deseados no podían obtenerse por esta vía.

Tras dos años de lucha, descubrí que había cometido errores en mis cálculos. Volví a la ecuación inicial utilizando la teoría de la invarianza y probé a construir las ecuaciones exactas. ¡En dos semanas las ecuaciones exactas aparecieron!

En lo que concierne a mi trabajo después de 1915, quería hablar solamente del problema de la cosmología. Este problema ha conectado a la geometría del universo y al tiempo. La base de este problema proviene de las condiciones a los límites de la teoría de la relatividad general y de la discusión del problema de la inercia por Mach. A pesar de no comprender exactamente la idea de Mach sobre la inercia, su influencia sobre mi pensamiento fue enorme.

Resolví el problema de la cosmología imponiendo la invarianza de las condiciones a los límites para las ecuaciones gravitacionales. Eliminaba finalmente los límites considerando el Universo como un sistema cerrado. Como resultado, la inercia emerge como una propiedad de la materia interactuante y debe desaparecer cuando no hay otra materia para interactuar con ella. Creo que con este resultado, la teoría de la relatividad general puede ser comprendida de manera satisfactoria en el plano epistemológico.

He aquí una pequeña idea histórica de mis pensamientos cuando creé la teoría de la relatividad. [Physics Today, 35 (1982), n° 8, pp. 45-47].

La teoría de los quanta y la de la relatividad están entre las más bellas teorías físicas imaginadas por el genio humano. La primera apareció, gracias a una hipótesis atrevida, rechazando las ideas preconcebidas y la segunda por una analogía mostrando la fuerte originalidad del pensamiento de Albert Einstein.

Es bien conocido que Henri Poincaré había llegado casi al mismo punto que Einstein sobre la relatividad restringida. Sin embargo, a pesar de ser uno de los más brillantes matemáticos de todos los tiempos no tenía un espíritu osado y no se decidía. El no supo interpretar, en términos físicos, las ecuaciones obtenidas. A propósito de la relatividad escribió:

[...] es porque yo he pensado mucho tiempo que estas consecuencias de la teoría, contrarias al principio de Newton, acabarían un día por ser abandonadas. [La valeur de la science, pp. 136-137].

Hay que saber a veces ser iconoclasta. Asimismo, a propósito de los quanta, ha dicho: ¿Admitiré que no he estado satisfecho de esta nueva hipótesis? [Derniéres pensées, p. 125]. Estaba igualmente opuesto a las ideas matemáticas, entonces un poco revolucionarias, de Cantor.

Es menos conocido que otro matemático francés de gran envergadura, Jacques Hadamard, que pasó también al lado de la relatividad restringida. El ha expuesto su no-descubrimiento en el Congreso Internacional de Filosofía en Ñapóles en 1924. En el artículo titulado Cómo no he encontrado la relatividad nos dice:

[...] me ha sido precisa una particular cabezonería para no haber caído en la cuenta de las consecuencias de mis propias investigaciones [...]. [Pp. 441-453].

Tras los desarrollos matemáticos que pasaremos aquí por alto, Hadamard nos habla de la recta de Kirchhoff sobre la cual algunas magnitudes llegan a ser infinitas:

Esta línea singular, que se introduce naturalmente por el origen físico de la cuestión, no tiene analíticamente hablando ninguna relación con la ecuación

¡He impreso esto en alguna parte!

Sí, desde entonces, sabía bien, como todos los matemáticos, que hay una infinidad de cambios de variables lineales (dejando aparte otros más complicados) susceptibles de conservar la forma en la una o en la otra de las dos ecuaciones en derivadas parciales. No sólo lo sabía sino que mi atención se mostraba, de una manera absolutamente necesaria, atraída por estos cambios de variables, dada la cuestión que me estaba planteando; y era muy visible que tales cambios de variables no conservaban, en general, la situación privilegiada de la recta de Kirchhoff, sino muy al contrario podían llegar a coincidir con no importa qué otra recta salida del mismo punto A e interior al cono de ondas.

Pero de aquí a pensar que esta recta de Kirchhoff no tenía un significado físico necesario e intangible, era demasiada audacia para mí. ¿Qué quieren ustedes?, como todos mis colegas admiraba la obra cada día más vasta de los físicos, y a esta admiración se unía el respeto que el sentimiento de mi incompetencia me imponía. No había comprendido suficientemente que la física es asunto de esas personas a las que hay que saber faltar al respeto en ocasiones.

Y así es como, matemático desprovisto de imaginación, fui incapaz de trasladar a lo concreto la conclusión que la teoría matemática me imponía irresistiblemente, y como me contenté con inclinarme respetuosamente ante el punto de vista de Kirchhoff. La moraleja de esta historia es que, en su dominio, el científico no debe respetar nada y no más la obra de un Kirchhoff que lo que Copérnico respetó la de Aristóteles o Ptolomeo; y es lo que todos hacemos después de Einstein.

Es la historia del huevo de Colón; no sé con certeza si ésta no es la historia de muchos descubrimientos matemáticos, y, más generalmente, científicos.

Pero hay que saber poner al mal tiempo buena cara y decir con Hadamard:

Los errores a pesar de ser menos deseables que los éxitos, son con frecuencia más instructivos y es una lección que no pasa sin provecho para el científico que constata cómo ha podido pasar al lado de un descubrimiento importante sin sospecharlo.

Poincaré y Hadamard habrían debido meditar el pensamiento del químico inglés Joseph Priestley (1733-1804):

Los físicos más atrevidos y más originales en sus experimentos son los que dan curso libre a su imaginación, admiten la combinación de las ideas más disparatadas; y aunque varias de estas asociaciones de ideas sean extravagantes y quiméricas, habrá otras que tendrán la suerte de alumbrar los mayores descubrimientos, que, personas tímidas, prudentes y lentas en sus ideas, no podrán jamás alcanzar. [Louis de Broglie, "La physyque contemporaine et l'ouvre d'Albert Einstein", en L. de Broglie, Savants et découvertes, Albin Michel, París, 1951, pp. 306-335]. [Maurice Daumas, Lavoisier, Gallimard, París, 1941, p. 108],

LOS IMPULSOS NERVIOSOS

Uno de los ejemplos más extraordinarios del trabajo del subconsciente es el caso de Otto Loewi (1873-1961) quien recibió el premio Nobel de medicina en 1936 por su teoría química de la transmisión de los impulsos nerviosos. Desde 1903, Loewi pensaba que la transmisión de estos impulsos era debida a un agente químico mientras que en esta época se creía más bien en una transmisión de naturaleza eléctrica. No fue sin embargo hasta 1920 cuando tuvo la idea de la experiencia decisiva tras 17 años de trabajo inconsciente. El ha contado las circunstancias de su descubrimiento:

La noche anterior al domingo de Pascua de este año, me desperté, encendí la luz y escribí algunas notas sobre un minúsculo trozo de papel delgado. Después volví a dormirme. A las seis de la mañana me vino a la cabeza que durante la noche nunca escribo cosas muy importantes, pero fui incapaz de descifrar los garabatos. La noche siguiente, a las tres, la idea me volvió a surgir. Era el plano de una experiencia para determinar el sí o el no de la hipótesis de la transmisión química que yo había emitido 17 años antes. Me levanté inmediatamente, fui al laboratorio y realicé una experiencia simple sobre un corazón de rana según el modelo nocturno [...]

La historia de este descubrimiento muestra que una idea puede dormir durante décadas en el espíritu inconsciente y después volver repentinamente. Además, indica que debemos tener confianza a veces en una intuición repentina sin demasiado escepticismo. Si la hubiese examinado cuidadosamente durante el día, habría, sin ninguna duda, rechazado el tipo de experiencia que hice [...]

Algún tiempo después, al escribir mi bibliografía presté atención sobre todo a los artículos publicados en mi laboratorio. Localicé dos estudios hechos aproximadamente dos años antes de que surgiera mi idea nocturna, en los cuales, buscando igualmente una sustancia emitida por el corazón, había aplicado la técnica usada en 1920. Esta experiencia, según mi interpretación, era una preparación esencial en la idea del proyecto completo. De hecho, el concepto nocturno representaba una asociación repentina de la hipótesis de 1903 con el método testeado antes en otras experiencias. La mayor parte de los descubrimientos llamados intuitivos provienen de tales asociaciones hechas en el subconsciente. [O. Loewi, Perspectives in biology and medicine, The University of Chicago Press, 1961].

EL OFTALMOSCOPIO

Ya he dicho que algunos descubrimientos, una vez efectuados, parecen tan sencillos, casi infantiles, que uno se pregunta por qué no se habían hecho antes. Parece que el caso no sea raro tal como lo cuenta Hermann von Helmholtz (1821-1894) que inventó el oftalmoscopio en 1851:

Preparando mis lecciones, me di cuenta de la posibilidad de construir un oftalmoscopio [...] El oftalmoscopio es lo más popular que he hecho; pero, para esta invención, he tenido relativamente más- suerte que mérito. Tenía que exponer a mis alumnos la teoría de la iluminación del ojo, dada por Brücke. Sobre este punto, Brücke estaba a un paso de la invención del oftalmoscopio. El no se formuló la pregunta: ¿ Qué imagen óptica forman los rayos saliendo del ojo iluminado? Para el objetivo que él perseguía, no era necesario formularse esta pregunta; pero, si lo hubiese hecho, podía haber respondido tan rápidamente como yo.

Helmholtz y Brücke tenían la misma edad, la misma formación y se interesaban por los mismos problemas. Según el testimonio del mismo Helmholtz, si la invención no la hizo Brücke fue porque simplemente no se planteó el problema.

FUENTE: R. Taton, ob. cit., pp. 74-76.

LA RADIOACTIVIDAD

El azar juega un papel en el descubrimiento científico, por lo general, más en física que en matemáticas. Aunque la historia sea muy conocida contaré de nuevo el descubrimento de la radioactividad.

A finales de 1895, el descubrimiento de los rayos X por Rontgen había interesado vivamente al mundo científico. Estos rayos eran emitidos por las paredes de un tubo de vidrio que acababan de ser bombardeadas por rayos catódicos. Las paredes se hacían entonces fosforescentes. Henri Becquerel, que trabajaba sobre la fosforescencia y la fluorescencia, tuvo conocimiento del descubrimiento de los rayos X en el curso de una conversación con Henri Poincaré. Pensó que los dos fenómenos podían estar ligados y que había que investigar si los cuerpos fosforescentes o fluorescentes emitían rayos X. Así, guiado por una idea que finalmente iba a revelarse falsa, Becquerel intentó averiguar si el uranio convertido en fosforescente por acción de la luz emitía rayos X.

Tras haber expuesto al Sol una lámina recubierta con una capa de sal de uranio, la envolvía en un papel negro y la encerraba en un cajón en contacto con una placa fotográfica. Tras desenvolver la placa fotográfica, vio que estaba impresionada. La sal de uranio emitía por tanto una radiación capaz de atravesar el papel negro. Todo sucedía como si el uranio, hecho fluorescente por su exposición al Sol, emitiera rayos X que impresionaban la placa fotográfica. Becquerel comunicó estos resultados a la Academia de Ciencias el 24 de febrero de 1896 sin concluir, sin embargo, sobre la naturaleza de la radiación. Algunos días más tarde quiso repetir la experiencia, pero el tiempo era gris y el Sol permaneció escondido. Así las sales de uranio y las placas fotográficas envueltas con papel negro permanecieron en un cajón.

El primero de marzo el Sol volvió. Pero Becquerel, científico escrupuloso, quiso comprobar que nada había pasado en el cajón y que las

placas fotográficas estaban todavía vírgenes. Para su asombro, vio que las placas habían sido impresionadas tan netamente como en las experiencias anteriores en las que el uranio había sido previamente expuesto al Sol. Así pues, el uranio emitía una radiación continua hubiera o no sido expuesto al Sol. La radioactividad estaba descubierta.

FUENTE: L. de Broglie, "La part du hasard dans la découverte", en L. de Broglie, Savants et découvertes, Albín Michel, París, 1951, pp. 45-47.

LAS GEOMETRÍAS NO EUCLIDIANAS

En física muchas teorías nuevas, como la relatividad o la teoría de los quanta de luz, han nacido porque un investigador suficientemente audaz decidió de un golpe abandonar una hipótesis sobre la que estaba construida la antigua teoría por otra sobre la que iba a edificarse su nueva teoría. El caso es más raro en matemáticas donde todas las proposiciones se demuestran unas a partir de otras y donde ningún resultado, ni hipótesis alguna, reposa sobre una experiencia sensorial. Sin embargo, existen excepciones entre las que se encuentra la geometría que está fundada sobre un cierto número de axiomas indemostrables pero que el sentido común nos dice que aceptemos como verdades sin demostración. Así se expresaba Henri Poincaré:

Toda conclusión supone premisas; estas premisas o bien son evidentes en sí y no necesitan demostración, o bien no pueden ser establecidas más que apoyándose en otras proposiciones, y como se podría remontar así hasta el infinito, toda ciencia deductiva y en particular la geometría, debe reposar i sobre un cierto número de axiomas indemostrables. Todos los tratados de ') geometría comienzan por el enunciado de estos axiomas.

Entre ellos el célebre axioma de las paralelas de Euclides que establece por un punto exterior a una recta se puede hacer pasar una y sólo una paralela a ésta.

Se ha intentado durante mucho tiempo demostrar este axioma hasta el día en que se probó que esta demostración era imposible. Puesto que la demostración es imposible, ¿qué pasa cuando se reemplaza el axioma de las paralelas por su negación? Es la cuestión que se plantearon casi simultáneamente C. F. Gauss en 1824, J. Bolyai en 1825 y N. Lobatchevski en 1826. Los tres obtuvieron, a partir de nuevos axiomas, un sistema lógico de proposiciones sin contradicción. Así, al lado de la geometría euclídea clásica había lugar para las geometrías no euclídeas.

Este hecho era de tal manera inesperado, extraordinario y revolucionario que Gauss nunca lo publicó. En una carta dirigida en 1829 a F. W. Bessel, dijo: Tengo miedo del griterío de los ignorantes.

J. Bolyai publicó sus resultados como apéndice de un libro de su padre, W. Bolyai, que era a su vez un matemático de renombre. J. Bolyai nunca fue ni criticado ni atacado en público. Las únicas afrentas que tuvo que sufrir fueron las de su padre que no aceptaba sus ideas.

A Lobachevski le ocurrió todo lo contrario. Habiendo sometido sus resultados a la Academia de Ciencias de San Petersburgo, M. Ostrogradski declaró que el estudio testimonia el poco cuidado con que se ha realizado, en su mayor parte ininteligible... [este trabajo] no merece la atención de los señores académicos. Ostrogradski hizo publicar incluso, en el periódico El Hijo de la Patria, un artículo anónimo pero redactado por un periodista notoriamente reaccionario en el que escribió: debe preguntarse por qué se escriben y sobre todo por qué se publican tales fantasmagorías.

A pesar de la intervención de colegas, Lobachevski fue cesado en 1846 de su cargo de Rector de la Universidad de Kazan y relevado un año más tarde de su título de Profesor y de todos los restantes puestos universitarios que ocupaba.

Fue preciso esperar a B. Riemann para que las geometrías no euclídeas fueran aceptadas.

FUENTES: A. Soukhotine, Las paradojas de la ciencia, Mir, Moscú, 1983.

I. Toth, "La révolution non euclidienne", en La recherche en histoire des

sciences, Seuil, París, 1983.

H. Poincaré, La science et l'hipothese, Flammarion, París, 1906.

LOS MÉTODOS DE MONTE-CARLO

S. Ulam es un matemático de origen polaco que emigró a los Estados Unidos antes de la Segunda Guerra Mundial y participó en Los Alamos en la construcción de la bomba atómica. Es, además, el inventor de los métodos de Monte-Cario. Concedámosle la palabra:

La idea que más tarde fue llamada método de Monte-Cario se me ocurrió cuando jugaba al solitario durante mi enfermedad. Me di cuenta que podía ser mucho más útil en la práctica para tener una idea de la probabilidad de terminar ganando el juego del solitario, disponer las cartas, o hacer experiencias con el procedimiento y notar simplemente cuál es la proporción de ganancias, antes que intentar calcular todas las posibilidades de combinaciones que son,

en número creciente exponencialmente, tan grandes que, salvo en los casos muy elementales, no hay forma de estimarlos [...] En un problema un poco más complicado, la prueba real es mejor que un estudio de todas las series de posibilidades.

Se me ocurrió la idea de que esto podía ser igualmente cierto en todos los procesos que ponen en juego ramificaciones de sucesos, como en la producción y la multiplicación ulterior de neutrones en ciertas clases de materiales que contienen uranio u otros elementos escindibles. En cada etapa del proceso, hay numerosas posibilidades determinantes para la clase de neutrón. Se pueden escribir las ecuaciones diferenciales o integro-diferenciales para las medias, pero resolverlos u obtener una idea aproximada de las propiedades de la solución, es otro asunto.

La idea era probar millones de tales posibilidades y, en cada etapa, elegir al azar, por medio de un número aleatorio con una probabilidad conveniente, la clase o tipo de suceso que acabará en la cola por así decirlo en lugar de considerar todas las ramas. Tras haber estudiado las historias posibles de sólo algunos millones, se tendrá una buena muestra y una respuesta aproximada al problema. [S. Ulam, Adventures of a mathematician, Scribner, Nueva York, 1976, pp. 196 y siguientes].

EL MÉTODO DEL GRADIENTE CONJUGADO

Aunque la historia que sigue no cuenta de manera precisa cómo se ha efectuado la creación del método del gradiente conjugado, es interesante citarla porque muestra el camino de una idea y su enriquecimiento por contactos entre diferentes personas.

El método del gradiente conjugado, bien conocido por quienes hacen análisis numérico u optimización, es una herramienta importante para resolver un sistema de ecuaciones o minimizar una función de varias variables. Actualmente este método se enseña a los estudiantes independientemente de los restantes métodos a los que se encuentra fuertemente conectado: método de los momentos y método de la tridiagonalización de Lanczos. En mi opinión, de esta forma pierde mucho de su atractivo. El problema de la elección del análisis numérico en la oposición a cátedra de matemáticas de 1983, conducía a los candidatos a restablecer esta filiación vía la teoría de los polinomios ortogonales formales.

En la introducción de su libro Conjúgate direction methods in optimization, Springer-Verlag, Heidelberg, 1980, Magnus Rodolphe Hestenes, uno de los creadores del método del gradiente conjugado, cuenta su historia:

Poco después del final de la Segunda Guerra Mundial, tuvo lugar el desarrollo de las máquinas digitales de cálculo rápido. Estaba claro que los aspectos matemáticos del cálculo deberían ser reexaminados con el fin de hacer un uso eficaz de los ordenadores para los cálculos científicos. Así, bajo la dirección de Mina Rees, John Curtiss y otros, se creó un Instituto de Análisis Numérico en la Universidad de California en Los Angeles bajo la responsabilidad del National Bureau of Standards. Un instituto similar se formó en el National Bureau of Standards en Washington D. C. En 1949, J. Berkley Rosser llegó a ser director del grupo de la UCLA por un periodo de dos años. Durante este periodo, habíamos organizado un seminario sobre el estudio de la resolución de las ecuaciones lineales simultáneas y sobre la determinación de valores propios. G. Firsythe, W. Karush, C. Lanczos, T. Motzkin, L.J. Paige y otros participaron en este seminario. Descubrimos por ejemplo, que ni siquiera el método de eliminación de Gauss era comprendido perfectamente desde el punto de vista de la máquina y que no se había desarrollado ningún algoritmo de eliminación eficaz para ella. Era la época en que Lanczos estudiaba su relación a tres términos y yo tuve la fortuna de sugerir el método de los gradientes conjugados. Descubrimos después que las ideas de base que sostenían los dos procedimientos eran esencialmente las mismas. El concepto de conjugación no era nuevo para mí. En un artículo en común con G. D. Birkhoff en 1936, habíamos introducido la conjugación como útil de base para el estudio de las condiciones de isoperimetría natural en teoría variacional. En esta época yo desarrollaba un procedimiento de Gram-Schmidt conjugado para encontrar los diámetros mutuamente conjugados de un elipsoide, pero estaba desalentado para publicarlo porque no tenía sino poco o ningún interés en este método. Además, desarrollaba una teoría general de las formas cuadráticas en un espacio de Hilbert basado en gran parte en el concepto de conjugación. Esto me condujo al método de los gradientes conjugados. Simultánea e independientemente, E. Stiefel desarrollaba igualmente el método de los gradientes conjugados. Por esta razón le invitamos a nuestro grupo de la UCLA. Con su visita, Stiefel y yo escribimos nuestro artículo sobre el método de los gradientes conjugados y sobre los métodos de direcciones conjugadas en general que incluían los procedimientos de Gram-Schmidt conjugados. En los artículos siguientes desarrollaríamos métodos generalizados del gradiente conjugado y de la dirección conjugada que forman las bases de aplicaciones posteriores. Aun cuando esto no sea dicho explícitamente en nuestro artículo común, yo consideraba los gradientes conjugados como una técnica de optimización para minimizar una función cuadrática y fui responsable de su nombre.

LA LUZ RUSA

La bujía eléctrica, que los periódicos parisinos bautizaron como luz rusa, es un dispositivo luminoso constituido por un arco eléctrico generado entre dos electrodos de carbón. Su inventor, P. Yablotchkov, no llegaba a encontrar un medio sencillo para reducir el costo de fabricación. En efecto, los electrodos estaban inclinados uno hacia el otro y a medida que se consumían se hacía necesario encontrar un dispositivo que los aproximara automáticamente para que el arco no se apagara.

Un día, esperando en el restaurante a que le sirvieran, Yablotchkov se entretenía con su cuchillo y tenedor sin pensar en ello, hasta que en un momento los colocó paralelamente uno al lado de otro. Yablotchkov había encontrado la solución que buscaba. Disponiendo paralelamente los electrodos y separándolos por una substancia que se fundía con el calor se ahorraría todo dispositivo de aproximación.

FUENTE: A. Soukhotine, ob. cit., p. 212.

LA ESTRUCTURA DEL BENCENO

Se sabe que el benceno C6H6 tiene una estructura exagonal. Los seis radicales CH que lo componen no están dispuestos linealmente en el espacio sino según los seis vértices de un exágono.

El descubrimiento de esta estructura se produjo en 1865 por el químico alemán Friedrich August Kekulé von Strakonitz (1829-1896) que era, en esta época, profesor en Gante antes de serlo en Bonn. Previamente a su descubrimiento sólo existían estructuras químicas lineales. Sin embargo, este esquema no permitía explicar las propiedades de un gran número de substancias químicas. Había que imaginar otras estructuras.

El mismo ha relatado su descubrimiento:

Durante mi estancia en Londres viví mucho tiempo en Clapham Road, al lado de Clapham Common. Pero pasaba con frecuencia mis noches con un amigo, Hugo Müller, que vivía en Islington, al otro extremo de la ciudad. Hablábamos de todo, aunque sobre todo de nuestra querida química. Una buena noche de otoño, regresaba a casa en el último bus, sobre el imperial como siempre, atravesando las calles, desiertas a esta hora [...] Caí en un dulce sueño y los átomos comenzaron a bailar bajo mis ojos.

Cada vez que estos seres minúsculos se me aparecían estaban siempre en movimiento, un movimiento del que no había podido nunca reconocer su naturaleza. Esta vez, veía cómo dos pequeños átomos se unían para formar un par. Cómo uno más grande todavía llegaba a tener reunidos tres o cuatro de estos mismos pequeños átomos más gruesos para formar una cadena, arrastrando los más pequeños tras ellos, pero solamente a los extremos de esta cadena [...] El grito del conductor Clapham Road me despertó de mi sueño, pero pasé una parte de la noche dibujando algunas figuras que había soñado. Este fue el origen de la teoría de la estructura.

Me sucedió una cosa parecida con la teoría del benceno. Durante mi estancia en Gante (Bélgica), vivía un un elegante cuarto de soltero en la calle principal. Mi despacho de trabajo daba a una callejuela oscura donde la luz no penetraba. Para un químico que pasa todo el día en el laboratorio, esto no tenía gran importancia. Estaba dispuesto a escribir mi tratado, pero el trabajo no avanzaba, mis pensamientos estaban dispersos. Volví mi asiento hacia el fuego y me adormecí. De nuevo, los átomos se ponían a bailar delante de mí. Esta vez, los más pequeños quedaban modestamente en segundo plano. Mi espíritu, con la vista agudizada por la repetición de este género de visión, podía ahora distinguir estructuras de conformaciones variadas: veía largas hileras de átomos en fila india, enroscándose y retorciéndose como serpientes. Pero mirad qué sucedió. Una de estas serpientes comenzó a morderse la cola y a darse la vuelta delante de mí, como para mofarse. Me desperté como un relámpago y esta vez pasé el resto de la noche sacando consecuencias de esta hipótesis. H. Wolter, "Benzéne et autres composés cycliques de 1825 a 1966". [«Les faits et les théories». Rev. Quest. ScL, 137, (1966), 395-423]. [Jean Jacques, Confession d'un chimiste ordinaire, Seuil, París, 1981. F. Vidal, ob. cit., p. 57]. [A. Soukhotine, ob. cit., pp. 154-155].

EL MICROSCOPIO BINOCULAR

Queriendo transformar un microscopio ordinario en microscopio binocular, S. Wengam intentaba imaginar en vano un prisma que separase en dos el haz luminoso que llegaba al ocular.

Debió interrumpir su trabajo durante dos semanas para entregarse a trabajos de ingeniería civil. Habiendo olvidado el microscopio, se sumergió una tarde en la lectura de una novela policíaca completamente insípida. Súbitamente tuvo la visión de un prisma cuya forma era exacta a la que había buscado inútilmente. Sacando entonces sus instrumentos de dibujo corrigió sus bocetos y sus cálculos y, al día siguiente, había inventado el microscopio binocular.

FUENTE: A. Soukhotine, ob. cit., p. 147.

EL ESTETOSCOPIO

Desde la época de Hipócrates los médicos sabían detectar ciertas manifestaciones del organismo aplicando la oreja sobre el pecho o la espalda del enfermo. Esta práctica era poco cómoda pero no dejaba de ser una fuente de información sobre el estado del paciente.

Un día, Rene Laennec (1781-1826) atravesaba el patio del Louvre. Dos niños jugaban. El primero rascaba un poste con la ayuda de un alfiler mientras que el segundo escuchaba el ruido con la oreja pegada en el otro extremo. Este incidente banal hizo nacer la idea del estetoscopio.

Una historia casi similar sucedió en 1875 a Elisha Gray, director de la Western Union Company. Paseaba en Milwaukee cuando los juegos de dos niños atrajeron su atención. Utilizaban dos latas de conserva cuyos fondos estaban unidos por una cuerda anudada sobre un agujero. Cuando la cuerda estaba tensa y uno de los niños hablaba en su lata de conserva, el otro lo oía perfectamente en la suya. Todos nosotros hemos jugado a esto de chicos. Así es como Gray tuvo la idea del teléfono acústico. Desgraciadamente registró su patente algunas horas después de que lo ■ hiciera con el suyo Graham Bell.

FUENTES: A. Soukhotine, ob. cit., p. 164. F. Vidal, ob. cit., p. 116.

EL FONÓGRAFO

Thomas Alva Edison (1847-1931) trabajaba en su juventud como telegrafista. Su tarea consistía en tomar de oído mensajes emitidos en morse. Si la línea estaba mal, el pulsador funcionaba mal y, además, Edison era parcialmente sordo como consecuencia de un accidente. Había que adivinar los pasajes borrosos. Así inventó Edison un aparato muy simple para registrar los mensajes: hacía girar un disco de papel en el que se imprimían los puntos o las rayas en indentaciones. La compañía que lo empleaba estimó que era una pérdida de tiempo y despidió al joven Edison.

Once años más tarde, en su primer laboratorio en Menlo Park en New Jersey, Edison trabajaba en un telégrafo registrador en el que los puntos y las rayas se grababan por una aguja. Para trasmitir el mensaje se colocaba el disco de papel en un trasmisor provisto de una palanca de contacto que levantaba o bajaba según las indentaciones. La finalidad del aparato era solamente registrar y trasmitir impulsos eléctricos. Sin embargo, según las indentaciones, la palanca vibraba y producía sonidos. Si se hacía girar el disco más rápidamente la vibración se hacía continua y el sonido musical. Bastaba invertir la causa y el efecto para obtener el fonógrafo. Edison reemplazó primeramente el disco de papel por un cilindro recubierto de una hoja de estaño y en lugar de unir la aguja a un telégrafo lo hizo a una membrana que vibraba bajo la acción de la voz. Hizo a uno de sus obreros construir la máquina y se preguntó para qué podía servir. Una vez terminado el aparato tarareó una canción infantil, luego le dio a la manivela del cilindro. ¡La vibración de la palanca se había transformado en canción!

FUENTE: A. Koestler, Le cri d'Archiméde, Calmann-Lévy, París, 1965, pp. 178-179.

LA CRISTALOGRAFÍA

El abad Rene Just Haüy (1743-1822) era un humilde profesor del Collége Lemoine. Su pasatiempo era coleccionar plantas y minerales.

Un día, en casa de un amigo, se le cayó un bello conglomerado de cristales prismáticos de espato. Uno de los prismas se rompió de tal suerte que las caras de fractura eran perfectamente lisas. El nuevo cristal tenía una forma completamente distinta de la del prisma. Haüy examinó sus caras, las inclinaciones y los ángulos y vio que eran iguales en el espato romboidal y en el espato de Islandia. Rehizo, esta vez voluntariamente, la experiencia con los cristales de su colección que hizo pedazos, así como los que le prestaron sus amigos. En todos los trozos encontró una estructura que dependía de las mismas leyes.

El resultado fue un tratado de mineralogía que hizo de él un académico y el pionero de la cristalografía.

FUENTE: A. Koestler, ob. cit., pp. 174-175.

ELECTRICIDAD Y MAGNETISMO

Durante el invierno de 1819, Hans Christian Oersted (1777-1851), profesor de física en la Universidad de Copenhague, mostraba a sus estudiantes la potencia calorífica de la pila llevando hasta la incandescencia a un hilo metálico. Su mesa estaba llena de aparatos, de imanes y de una brújula. Los alumnos, siempre ocupados en mirar cosas ajenas a lo que se les muestra, atrajeron la atención de Oersted

sobre un fenómeno curioso: cada vez que se establecía la corriente, la aguja de la brújula se desviaba.

Unos años más tarde, André-Marie Ampére tuvo la idea de invertir la experiencia: ¿ejercía alguna acción el magnetismo sobre las corrientes eléctricas? Se necesitaba hacer móvil una parte del circuito. Para esto hizo un rectángulo en hilo de cobre con los extremos doblados, sumergidos en mercurio. El rectángulo podía, de esta forma, girar alrededor de un eje vertical; los cangilones de mercurio hacían las veces de goznes. La experiencia se coronó con éxito: cuando se situó un imán debajo del rectángulo móvil, éste pivotó y se puso perpendicular al imán.

FUENTE: Pierre Devaux, Les aventuriers de la science, Magnard, París, 1946.

EL BIG BANG

Desde hace tiempo los astrofísicos saben que el universo está en expansión; las galaxias se apartan unas de otras. Hubo por tanto un momento, hace entre 10 y 18 mil millones de años según las teorías, en el que toda la materia del universo estaba concentrada. Luego explotó como una bomba termonuclear. Es a este instante al que los físicos llaman el big bang. En el curso de los diez últimos años esta teoría ha sido casi universalmente aceptada. Primeramente explica por qué el universo está en expansión y luego por qué contiene una cantidad de helio tan importante (25%).

En 1964 dos investigadores de Bell Telephone Laboratories, Arno Penzias y Robert Wilson, trabajaban en las antenas utilizadas para la comunicación con los satélites. Intentaban eliminar el ruido de fondo que perturbaba la recepción de las ondas de radio. No tenían ningún conocimiento particular de astrofísica. Pensaron primeramente que la fuente del ruido de fondo provenía de la antena que desmontaron y luego volvieron a montar. La limpiaron de las deyecciones de las palomas y cubrieron los remaches con hojas de aluminio. El ruido de fondo subsistía. Ahora no podía provenir de nada próximo a la antena pues permanecía igual de día y de noche y era isótropa. Como ninguno de los dos investigadores conocía la teoría del big bang no sospecharon que el ruido de fondo proviniera de la luz emitida en el big bang y que, en el curso de su viaje a través del tiempo y el espacio, había perdido poco a poco su energía y sufrió un corrimiento tan fuerte hacia el rojo que ni siquiera podía observarse en la región de radiofrecuencias del espectro.

En diciembre de 1964, Penzias tuvo ocasión de relatar el problema a un astrónomo que había oído hablar de la teoría del big bang en una conferencia y así es como Penzias y Wilson supieron que el ruido de fondo que oían era la radiación ultracorta producida en la explosión inicial. Oían la voz del universo y observaban la bola de fuego primitiva que le había dado nacimiento.

FUENTE: Richard Morris, Comment l'univers finirá... et pourquoi, Robert Laffont, París, 1984, pp. 61-80.

EUREKA

La historia de Arquímedes es conocida por todos. Mejor que contarla yo mismo una vez más, pienso que vale más dar la palabra a Marco Vitruvio Pollio, arquitecto e ingeniero romano del siglo primero. En su célebre libro De Architectura escribe:

Entre el gran número de admirables descubrimientos hechos por Arquímedes, hay que destacar aquel del que voy a hablar y en el que él muestra una sutilidad de espíritu casi increíble.

Cuando Herón reinaba en Siracusa, este príncipe, habiendo superado felizmente todas sus empresas, prometió en un cierto templo una corona de oro a los dioses inmortales. Convino con un obrero una gran suma de dinero para hacerla y le dio su peso en oro. Este artesano acabó su obra el día que había prometido al rey, el cual la encontró perfectamente hecha. La corona fue pesada y parecía tener el peso del oro entregado; pero cuando se hizo la prueba se descubrió que el obrero había guardado una parte del oro, que había reemplazado por plata.

El rey quedó muy ofendido con este engaño y, no pudiendo encontrar la manera de convencer al obrero del robo que había hecho, pidió a Arquímedes buscar algo ingenioso. Un día que Arquímedes, muy preocupado con este asunto, se metía en el baño, percibió por azar que salía por los bordes tanta agua como la medida que él se hundía en el baño. Esta observación le hizo descubrir la razón de lo que él buscaba y, sin tardar más tiempo, la alegría le inundó de tal manera que salió del baño y corriendo desnudo hacia su casa, comenzó a gritar que había encontrado lo que buscaba, diciendo en griego: ¡Eureka! ¡Eureka! (¡Lo encontré! ¡Lo encontré!). Se cuenta que tras este primer descubrimiento hizo hacer dos masas del mismo peso que el de la corona, una de oro y otra de plata. Sumergió en un vaso lleno de agua la masa de plata y observó que a medida que se hundía hacía salir una cantidad de agua igual al volumen que tenía; después retirándolo, llenó de nuevo el vaso echando tanta

agua como había salido, y que él había tenido cuidado de medir, lo que le hizo conocer la cantidad de agua que correspondía a la masa de plata que él había colocado en el vaso. Después de esta experiencia, sumergió igualmente la masa de oro en el mismo vaso lleno de agua y, tras haberlo retirado, midió de nuevo el agua que había salido, y encontró que la masa de oro no había hecho salir tanta agua y que la diferencia de menos era igual a la diferencia de volumen de la masa de oro comparada al volumen de la masa de plata que era del mismo peso. Seguidamente llenó de nuevo el vaso y esta vez sumergió la corona que hizo salir más agua de lo que su peso en oro había hecho salir y menos de lo que su peso en plata había desplazado. Calculando tras estas experiencias, cuánto más grande era la cantidad de agua que la corona había hecho salir que la cantidad de agua que había hecho salir la masa de oro, conoció cuánto había de plata mezclada con oro y vio claramente lo que el obrero había robado. [Rene Taton, Causalités et accidents de la découverte scientifique, Masson, París, 1955, pp. 66-67].

EL ERROR DE LEBESGUE

En matemáticas, quizás más que en ninguna otra ciencia, es imposible redactar todo en detalle. ¿Cuántas veces se ha leído: la demostración no ofrece ninguna dificultad o se verá fácilmente que...? En general, al menos en los grandes matemáticos, la intuición es exacta, pero se precisan a veces varias páginas de cálculos para ver que la demostración no presentaba ninguna dificultad. El error es inevitable y los matemáticos que no los cometen nunca son aquellos que no publican. Por otra parte se ha redactado un libro entero sobre este tipo de errores.

Sin embargo, en numerosos casos, los errores pueden ser creadores. Demos la palabra a Lebesgue:

La consideración de las funciones discontinuas había extendido tanto el campo del análisis que se podía percibir alguna inquietud. Por tanto nos halagó la esperanza de que de todas las funciones y de todos los conjuntos imaginados, las funciones de Baire y los conjuntos medibles B que se les asocian, se introducirían solos necesariamente en matemáticas, pues parecía que las operaciones efectuadas sobre estas funciones y conjuntos conducían siempre a funciones y conjuntos de las mismas familias. El análisis llevaba un principio de limitación en sí mismo.

Para comprobar si esto era correcto, había que examinar en particular la resolución de ecuaciones que conducen a las funciones implícitas. A lo largo de este estudio, formulé este enunciado: la proyección de un conjunto medible B es siempre un conjunto medible B. La demostración era simple y corta pero falsa. M. Lusin, entonces profesor novato, y M. Sousbin, uno de sus primeros alumnos, percibieron el error y se propusieron corregirlo. Imagino que al principio pensaron que era una tarea fácil; pero las dificultades aparecieron rápidamente, llegaron a dudar del enunciado mismo, después se equivocaron con un ejemplo convincente.

Así el análisis no lleva en sí un principio de limitación. La extensión de la familia de funciones de Baire era vasta, impresionante; el campo del análisis es más vasto todavía. Y cuánto más vasto. [Préface a: N. Lusin, Leqons sur les ensembles analytiques et leurs applications, Gauthier-Villars, París, 1930]. [Lucienne Félix, Message d'un mathématicien: Henri Lebesgue, Librairie Scientifique et Technique A. Blanchard, París, 1974]. [Maurice Lecat, Erreurs de mathématiciens des origines á nos jours, Castaigne, Bruselas, 1935]. [R. Taton, ob. cit, p. 95].

LA TRANSMISIÓN DEL TIFUS

Fue el bacteriólogo francés Charles Jules Henri Nicolle (1866-1936) quien descubrió el agente de la transmisión del tifus cuando era director del Instituto Pasteur de Túnez. Por ello recibió el premio Nobel de medicina en 1928. Relató ampliamente su descubrimiento en un libro, Biologie de l'invention, que contiene la historia y el análisis de numerosos descubrimentos: en el relato de Nicolle se notará la iluminación y la certidumbre que lo acompaña.

De este choque, esta iluminación súbita, este sobrecogimiento por el hecho nuevo, puedo hablar. Los experimenté, los viví. Es así como me fue revelado el modo de transmisión del tifus exantemático.

Como todos los que, tras largos años, visitaban el hospital musulmán de Túnez, veía cada día en sus salas tíficos acostados cerca de enfermos atacados de las afecciones más diversas. Como mis antecesores, era el testigo cotidiano y despreocupado de la circunstancia extraña de que una promiscuidad tan condenable, en el caso de una enfermedad eminentemente contagiosa, no daba lugar a contaminación alguna. Los vecinos de cama de un enfermo-de tifus no contraían su mal. Y casi diariamente, por otra parte, en el momento de los brotes epidémicos, yo constataba el contagio en los aduares, en los barrios de la ciudad y hasta en los empleados del hospital designados a la recepción de los nuevos enfermos. Los médicos y las enfermeras se contaminaban en los campos, en Túnez y hasta en las salas de medicina.

Un día rutinario, una mañana, penetré sin duda en el enigma del modo de contagio del tifus. No pensando en ello conscientemente todo el tiempo (de esto estoy bien seguro), iba a cruzar la puerta del hospital cuando un cuerpo humano, acostado a ras de los escalones, me detuvo.

Era un espectáculo habitual ver a los pobres nativos aquejados de tifus, delirantes y febriles, ganar, en una marcha demencial, los accesos al refugio y caer, extenuados, en el último paso. Como siempre, yo saltaba sobre el cuerpo extendido. Fue en este preciso instante cuando tuve la idea. Un instante después penetré en el hospital y tenía la solución del problema. Sabía, sin que me fuera posible dudarlo, que no había otra, que era aquélla. Este cuerpo extendido y la puerta, delante de la cual él yacía, me habían mostrado bruscamente la barrera en la que el tifus se detenía. Para que él se detuviera, para que, contagioso en todo lo extenso del país, en Túnez, el tífico llegara a ser inofensivo (pasado el mostrador de recepción) sería necesario que el agente de contagio no atravesara este punto. ¿Qué pasaba en este punto? Al enfermo se le quitaban sus vestidos, su ropa interior, se le afeitaba y se le lavaba. Era pues aquella cosa extraña a él, que él llevaba sobre sí, en su lienzo, sobre su piel, lo que causaba el contagio. No podía ser otra cosa que el piojo. Era el piojo. Lo que yo ignoraba la víspera y que ninguno de aquellos que habían observado el tifus desde el comienzo de la historia (pues se remonta a las edades más antiguas de la humanidad) habían advertido, es que la solución indiscutible, instantáneamente fecunda, del modo de transmisión acababa de serme revelada.

Experimentaba aquella confusión de ponerme de aquel modo en escena. Lo hice porque el suceso que me acaeció está, creo, lleno de enseñanza y porque no encontré los otros ejemplos tan claros. Continúo desarrollando mi observación, con menos timidez. Ella deja presente sus debilidades que también me parecen instructivas.

La solución que una intuición aguda, casi extraña a mí, extraña en todo caso a mi razón, me había aportado, (si bien se imponía a mi entendimiento) tenía sin embargo necesidad de una demostración experimental.

El tifus es una enfermedad demasiado grave para que se pueda experimentar sobre el hombre. Había reconocido ya, felizmente, la sensibilidad del mono. La experiencia era pues posible. Si no lo hubiese sido, yo habría publicado sin tardanza mi descubrimiento, que era muy rico en beneficios inmediatos para todos los hombres. Puesto que podía aportar la demostración con el descubrimiento, guardé por algunas semanas el secreto, hasta en mi entorno, y emprendí los ensayos necesarios para la prueba. Este trabajo no me causó ni emoción ni sorpresa. Fue llevado a cabo en dos meses.

En el transcurso de este breve periodo, sufrí lo que sin duda otros inventores han experimentado como yo, un sentimiento extraño, el de la inutilidad de la demostración, un desapego total del espíritu y un fatigoso aburrimiento. La evidencia era tan fuerte que me era imposible interesarme por la experiencia.

Si hubiera sido añadido de un hecho que me hubiese concernido sólo a mí creo que no habría perseguido nada. Fue por disciplina, por amor propio por lo que continué. Otros pensamientos me preocupaban también. Confieso que este desfallecimiento no detuvo mis investigaciones. Ellas, he dicho, han llevado, sin pena y sin un día de retraso, la confirmación de la verdad que yo portaba tras el hallazgo revelador del que he hablado. [Charles Nicolíe, Biologie de l'invention, Alean, París, 1932, pp. 56-60]. [R. Taton, ob. cit, pp. 67-69].

LOS ERRORES DE KEPLER

Kepler tenía 24 años. Desde hacía un año vivía en Gratz, donde era el matemático oficial de la provincia de Styrie. En sus estudios en Tubinga, su maestro Maestlui le había hablado de Copérnico y de su sistema. El joven Kepler se preguntaba por qué había seis, y solamente seis planetas, (lo que era falso) y buscaba descubrir el misterio de sus distancias al Sol y de sus velocidades.

El 9 de julio de 1595 la luz se hizo en él mientras dibujaba en la mesa un triángulo equilátero acompañado de sus dos círculos inscrito y circunscrito. Advirtió bruscamente que su relación era la misma que la de las órbitas de Saturno y Júpiter que son los planetas más alejados del Sol. Además, el triángulo es la primera figura de la geometría. Enseguida probé a inscribir en el intervalo siguiente entre Júpiter y Marte un cuadrado, entre Marte y la Tierra un pentágono, entre la Tierra y Venus un hexágono [...]

Esto no funcionaba pero se sentía muy cerca de la verdad.

Entonces yo avanzaba sin reparar en obstáculos. ¿Por qué querer que figuras de dos dimensiones se adapten a las órbitas en el espacio? Hay que buscar formas de tres dimensiones, y ves, querido lector, tú tienes ahora mi descubrimiento en la mano.

Mientras que en el plano se pueden construir tantos polígonos regulares como se quiera, en el espacio no se pueden construir más que cinco: el tetraedro, el cubo, el octaedro, el dodecaedro y el icosaedro. Estos cinco sólidos pueden ser inscritos y circunscritos en seis esferas, lo que explica el número de planetas. No quedaba más que encontrar el orden en el que disponer los sólidos para rendir cuenta de las diferentes distancias al Sol.

Yo no veía todavía claramente en qué orden había que colocar los sólidos perfectos, y sin embargo conseguí [...] colocarlos tan acertadamente que más tarde, cuando verifiqué esas disposiciones, no tuve que cambiar nada. No lamentaba entonces el tiempo perdido; no estaba cansado de mi trabajo; ya no retrocedía ante ningún cálculo, por difícil que fuera. Día y noche hice mis cálculos para ver si la proposición que acababa de formular estaba de acuerdo con las órbitas de Copérnico o bien si mi alegría se la llevaría el viento [...] En aquellos días todo se produjo en su lugar. Vi a los sólidos simétricos insertarse uno tras otro con tanta precisión entre las órbitas idóneas [...] que si un campesino hubiera preguntado a qué ganchos están fijados los cielos para no caer, sería fácil responderle.

Kepler había explicado el mundo... pero su explicación era falsa.

En 1600, Tycho Brahe -a la sazón astrónomo del emperador Rodolfo II- le pidió que fuera a reunirse con él a Praga. Tycho se ocupaba entonces de la órbita del planeta Marte. Después de su muerte, sobrevenida un año más tarde, Kepler le sucedió. Los discípulos de Tycho dejaron a su disposición sus manuscritos y sus cuadernos de observación. La primera dificultad se debía a que el observador no está inmóvil en relación a Marte, de manera que Kepler comenzó por mejorar su conocimiento de la órbita terrestre. Había que disponer de una referencia fija. Kepler eligió para esto observaciones hechas en intervalos de 687 días, duración de la revolución de Marte. Pudo así determinar que la órbita terrestre podía ser representada legítimamente por un círculo donde el Sol estaba ligeramente descentrado. Se presenta así Kepler condicionado hasta cierto punto por las ideas de su tiempo, prisionero de las ideas preconcebidas que afirmaban la circularidad de las órbitas planetarias.

Tras haber determinado de manera precisa la órbita terrestre, Kepler se ocupó de la de Marte. Su hipótesis de partida era totalmente falsa: suponía que el movimiento de los planetas era debido a una fuerza, engendrada por la rotación del Sol sobre sí mismo, análoga a las fuerzas magnéticas y que se ejercía tangencialmente a la trayectoria e inversamente proporcional a la distancia. Dedujo de ello que la velocidad era también inversamente proporcional a la distancia. Newton mostraría que esta concepción era falsa pero que el error que engendra era nulo en los dos extremos del eje de la trayectoria. Como las medidas de Kepler se efectuaban únicamente en estos puntos, no podía darse cuenta de ello. Según la teoría de Kepler, el tiempo empleado por un planeta para recorrer un arco elemental era proporcional tanto a la longitud del arco como a la distancia Sol-planeta. Dividiendo el arco en otros más pequeños de la misma longitud se verifica que el tiempo de recorrido es proporcional a la suma de los radios vectores de los arcos pequeños de la división. Para hacer un cálculo riguroso habría sido preciso integrar. Al no poderlo hacer, Kepler decidió reemplazar la suma de los radios vectores por el área del sector barrido por el planeta. Así dos errores sucesivos le condujeron a la ley exacta que establece que el segmento que une el Sol con un planeta describe áreas iguales en tiempos iguales.

Fueron precisos todavía siete años de trabajo para abandonar la órbita circular en beneficio de la órbita elíptica. El dijo en su libro Astronomía nova aparecido en 1609:

Mi primer error ha sido haber admitido que las órbitas de los planetas son círculos perfectos. Este error me ha costado tanto más tiempo cuanto que ha sido sostenido por la autoridad de todos los filósofos y era metafísicamente muy plausible.

Los cálculos de Kepler llenaron miles de páginas conservadas en la biblioteca de Pulkova y en su libro invita al lector a compadecer al autor que debió rehacer setenta veces las quince páginas in-folio de cálculos que siguen.

Serían necesarios varios años más de esfuerzos para estudiar los planetas restantes y expresar la tercera ley.

FUENTES: Rene Leclercq, La création scientifique, Gauthier-Villars, París, 1959, pp. 26-28.

Ivar Ekeland, Le calcul, l'imprévu, Seuil, París, 1984, pp. 13-25. R. Taton, ob. cit., pp. 86-86 .

STIELJES Y LAS FRACCIONES CONTINUAS

Cuando un tema matemático es demasiado difícil de estudiar directamente se puede intentar adivinar su solución por medio de la observación. La demostración general viene luego. Todos los matemáticos han procedido de esta manera experimental en algún momento.

Así se expresa Thomas Jan Stieltjes, en su voluminosa correspondencia con Hermite, el 3 de mayo de 1894:

Con respecto a las fracciones P'/P, P"/P, le confesaré que no tenía la pretensión de esclarecer un asunto tan difícil para la reflexión y la imaginación solas. Procederé como los naturalistas apelando a la ayuda de la observación. Por el momento, pues, hago cálculos numéricos bastante laboriosos, buscando todas las fracciones convergentes para algunos casos particulares hasta P= 200 y P= 500 [...] Podré comenzar a trabajar seriamente en este asunto cuando haya amontonado de esta manera un gran material. No sé del todo si esto me llevará a alguna cosa, pero quiero tener la conciencia tranquila.

El 13 de mayo, Hermite responde:

Me siento muy feliz de saber de su buena disposición que le transforma en naturalista para observar los fenómenos del mundo aritmético. Su doctrina es la mía; creo que los números y las funciones del Análisis no son producto arbitrario de nuestro espíritu; pienso que existen fuera de nosotros con el mismo carácter de necesidad que las cosas de la realidad objetiva, y que nosotros los encontramos, los descubrimos, y estudiamos como los físicos, los químicos y los zoólogos, etc. [...]

Esta correspondencia es una fuente inagotable de información para quienes se interesan en la historia de las ideas. He aquí otro ejemplo tomado de una carta de Stieltjes de 31 de mayo de 1894:

Estoy un poco cansado y poco apto para el trabajo en este momento, lo que me contraría un poco, porque estoy obsesionado con una idea que podría conducir a una aplicación importante de las investigaciones sobre fracciones continuas que yo he terminado. Es un buen recuerdo de M. Poincaré sobre las ecuaciones diferenciales de la Física Matemática (Ultimo boletín de Palermo) lo que me ha colocado sobre esta vía. Hace mucho tiempo que yo tenía un vago sentimiento de que las fracciones continuas tenían (tienen) una relación con este tema y debían (deben) intervenir. Actualmente esto me parece muy probable y al mismo tiempo muy notable.

(...)

Pero, para dejar esto claro se necesitarían todavía muchas reflexiones y estudios de los que yo soy poco capaz. Stieltjes murió el 31 de diciembre de 1894. Tenía 38 años. [C. Brezinski, History of continued fractions and Padé approximants, Springer-Verlag, Heidelberg].

EL CALCULO INFINITESIMAL

El descubrimiento del cálculo infinitesimal debe ser compartido entre Isaac Newton y Gottfried Wilhelm Leibniz. En una carta al Marqués de L'Hospital, este último cuenta cómo se efectuó el descubrimiento:

Me gustaba desde hacía mucho tiempo buscar las sumas de series de números, y me había servido para esto de las diferencias, según un teorema bastante conocido, de que en una serie decreciente al infinito el primer término era igual a la suma de todas sus diferencias. Esto me había dado lo que yo llamaba el triángulo armónico, opuesto al triángulo aritmético de Pascal. Pascal había mostrado cómo se pueden dar las sumas de los números figurados, que provienen buscando las sumas de las sumas de los términos de la progresión armónica natural; y yo encontraba que las fracciones de los números figurados son las diferencias y las diferencias de las diferencias de los términos de la progresión armónica natural, y que así se pueden dar las sumas de las series de las fracciones figuradas, como:

1/1 + 1/3 + 1/6 + 1/10, etc [...], y 1/1 + 1/4 + 1/10 + 1/21, etc [...]

Reconociendo pues esta gran diferencia, y viendo como, por el cálculo de Descartes, puede ser expresada la ordenada de la curva , me di cuenta de que para las cuadraturas o para las sumas de las ordenadas no se trata de otra cosa que de encontrar una ordenada cuya diferencia sea proporcional a la ordenada dada. Reconocí enseguida que encontrar las tangentes no es otra cosa que diferenciar y encontrar las cuadraturas no es otra cosa que sumar, con tal de que se supongan las diferencia incomparablemente pequeñas. Vi también que, necesariamente, las magnitudes diferenciales se encuentran fuera de la fracción y que así se pueden dar las tangentes sin preocuparse de los irracionales y de las fracciones. Y he aquí la historia del origen de mi método, methodus differentialis.

Newton fue guiado por una analogía mecánica:

Llamaré fluentes a esas cantidades que considere como crecientes o decrecientes gradual e indefinidamente; las representaré por u, x, y, z. En cuanto a las velocidades que cada una de las fluentes reciba del movimiento generador (velocidades que llamo fluxiones), las expresaré por las mismas letras con un punto encima u, x, y, z. [Edouard Callandreau, Célebres problémes mathématiques, Albin Michel, París, 1949, pp. 122-123].

UN PROBLEMA DE ANÁLISIS COMBINATORIO

En su libro de recuerdos Paul Lévy (1886-1971) ha contado la historia siguiente:

Hay que remontarse al verano de 1901, en el curso del cual pasé 3 semanas con mi familia en la Selva Negra. Conocí allí a un lugarteniente alemán, que era el personaje más lleno de vida de la pensión familiar donde estábamos. Un día me hizo un juego de cartas. Tomando 8 cartas, volvió del revés la primera, metió la segunda en el resto de las cartas que tenía en la mano, volvió del revés la tercera, metió la cuarta con el resto-de las cartas, y así sucesivamente hasta que se acabó el juego. Había puesto del revés las 8 cartas en un orden que me había anunciado de antemano. Yo quería hacerlo mejor. Al día siguiente, le volví a hacer el juego con trece cartas y me ofrecí a volverlo a hacer con el número de cartas que quisiera, aunque fuera con las 52. Posteriormente no pensé más en esta cuestión salvo alguna vez en que volví a hacer este juego.

En 1948, caí gravemente enfermo de una pleuresía, y permanecí tres semanas en la cama aquejado de una fuerte fiebre. Quizá la afluencia de sangre al cerebro favorecía el despertar de viejos recuerdos. Sea lo que fuese, volví a pensar en el lugarteniente alemán y en su juego de cartas, que me había llevado para cada valor del entero n a considerar una permutación Qn de n cartas. Me proponía caracterizarla desde el punto de vista de la teoría de grupos, es decir, para comenzar, descomponerla en ciclos. No teniendo ni idea del método a seguir, empleé el método experimental y resolví el problema para pequeños valores de n, hasta 45. Era un trabajo fácil de hacer en la cama, con una hoja de papel y una estilográfica. El resultado me pareció en principio engañoso; para el orden N de la permutación encontraba una serie de números fuertemente irregular. Así, a partir de n = 6, los valores de n para los cuales N excede su máximo anterior son:

12, 18, 23, 35, 38, 44

Siendo los valores correspondientes de N

28, 70, 210, 308, 990, 1710

Los ciclos cuyo orden no es pequeño en relación a n son raros. Sin embargo, para los valores 6, 7, 10, 15, 18, 27, 30, 31, 34, 42 de n se encuentra un ciclo de (n-1) elementos, que es el máximo posible; el primer elemento es en efecto un invariante, no hay más que (n-1) elementos que pueden efectivamente permutarse.

La primera observación simple que logré hacer fue la siguiente. Para n= 1P+ 1 (es decir = 3, 5, 9, 17, 33, 65 [...]) se tiene N=p+1 y Pn comprende q permutaciones de p+1 elementos, siendo q el cociente de la división de n por p+\. Los restantes elementos se descomponen en ciclos cuyos órdenes son divisores de/5+1. Naturalmente estos valores de N aparecen como mínimos. Así, 6 está encuadrado por 60 y 33.

Este primer resultado me dio la idea de dedicar mi atención a los valores de n de la forma 2p. Constaté entonces que hay un ciclo de orden p y sólo uno; hay ciclos de todos los órdenes inferiores a p, y no hay ninguno de orden más elevado, de manera que el orden de la permutación Qn es el m.c.m. de los p primeros números enteros.

Probé entonces a demostrar estos resultados de una manera general. Aprecié primero que había curiosas relaciones entre Qn y otra permutación más simple Pn. Así para n = 2p+1, los ciclos de Pn y Qn son los mismos; pero naturalmente en cada ciclo, el orden de los elementos no es el mismo. Familiarizándome poco a poco con el mecanismo de estas permutaciones, llegué a la demostración general de los resultados obtenidos experimentalmente, y posteriormente a un conjunto de resultados demasiado complicados para exponerlos aquí. Recordaré solamente el que se destaca en mi memoria: los números enteros n se reparten en dos conjuntos complementarios Eo y E¡, estando este último caracterizado por la propiedad siguiente: el período de representación del número l/(2n-l) en la numeración diádica comprende un número par de cifras y los dos semi-períodos son complementarios, es decir, que se pasa de uno al otro reemplazando 0 por 1 y 1 por 0. Las propiedades de la permutación Qn con neEo son muy diferentes de las relativas al caso neE¡. Así las permutaciones Pn y Qn tienen los mismos ciclos si neEj , pero no si neE0.

FUENTE: P. Lévy, ob. cit., pp. 151-153.

EL SERODIAGNOSTICO

El biólogo francés Charles Nicolle (1866-1936) cuenta la historia siguiente:

Fernand Widal, de paso por Constantinopla, conversaba con su hermano Maurice de la cuestión de la aglutinación de los microbios, que conocía entonces tras las constataciones de Herbert Durham y de Max Griiber. Ambos habían mostrado que la sangre de los animales, inoculada con ciertas especies microbianas contraía la propiedad de aglomerar en montones, de aglutinar individuos microbianos de la misma especie. Se debía a sus buenos trabajos poder distinguir, por un método específico y cómodo, un microbio de otro microbio próximo a él y por otros caracteres, idéntico. El suero específico servía de reactivo al microbio.

Bruscamente el cerebro de Widal invierte la proporción. Le parecía que, puesto que se puede reconocer un microbio en un medio de suero homólogo, se debe, de la misma forma, con un cultivo microbiano determinado, revelar la presencia en un suero de enfermedad de las propiedades específicas correspondientes. Un cultivo del germen de la fiebre tifoidea sería así aglutinado por la adición de una gota de suero sanguíneo de un individuo aquejado de esta enfermedad y ningún otro suero ejercería una acción semejante.

Widal regresa a París con su secreto y practica los ensayos necesarios. Confirman su hipótesis. Por este hecho se funda el método de serodiagnóstico de las enfermedades que entra rápidamente en práctica y que presta después servicios diarios. [C. Nicolle, Biologie de l'invention, Alean, París, 1932, p. 34].

LA PENICILINA

Así como la iluminación no se produce más que en un cerebro preparado para recibirla, el azar no puede ser explotado más que por un investigador presto a hacerlo. En este aspecto el descubrimiento de la penicilina es ejemplar.

Desde los comienzos de su carrera científica Alexander Fleming (1881-1955) se interesaba en los mecanismos protectores. Así había aislado el lisozima que era un antibiótico terrible para las bacterias cultivadas pero que se revelaba inoperante en el cuerpo humano.

Un día de 1928, al entrar una mañana en su laboratorio, constata que varios de sus cultivos microbianos contienen un moho verde. Evidentemente varios investigadores habían tenido antes que él la misma desventura y su reacción había sido la de tirar el cultivo pues el moho arriesgaba a comprometer la pureza del experimento.

Fleming guardó la preparación estropeada y se preguntó por qué los microbios eran atacados por el moho. Diría más tarde:

Se me atribuye la invención de la penicilina. Pero nadie habría podido inventarla porque ya la naturaleza la había fabricado en una época inmemorial. No, yo no he inventado esta substancia, yo solamente la he señalado a los hombres y le he dado un nombre.

Una historia un poco semejante le ocurrió a Louis Pasteur (1822-1895) con su descubrimiento de las vacunas artificiales. Habiendo dejado en su laboratorio durante las vacaciones cultivos de caldo de pollo infectados por el microbio del cólera, quiso retomar sus experiencias en el mes de septiembre. Sin embargo, cuando inyectó el cultivo a animales sanos, no sucedió nada. Pasteur tenía la costumbre de decir: la suerte sólo favorece a las mentes preparadas.

FUENTES: Rom Harré, Great scientific experiments, Oxford University Press, 1983, pp. 99-100.

F. Vidal, ob. cit., pp. 79-81.

A. Soukhotine, ob. cit., pp. 193-195.

LOS NEUTRONES LENTOS

Todo el mundo conoce a Enrico Fermi (1901-1954) que construyó la primera pila atómica y produjo la primera reacción en cadena controlada el 2 de diciembre de 1942.

Fermi recibió el premio Nobel de física en 1938 por el descubrimiento de nuevos elementos radiactivos producidos por el bombardeo con neutrones y por el descubrimiento de reacciones nucleares inducidas por neutrones lentos.

Una mañana de octubre de 1934 en Roma, los físicos Bruno Pontecorvo y Edoardo Amaldi estudiaban la radioactividad artificial de ciertos metales que acababa de ser descubierta algunos meses antes por Irene y Frédéric Joliot. Los metales habían recibido la forma de cilindros huecos en los que se situaba la fuente de neutrones; luego, todo estaba encerrado en un cofre de plomo. Pontecorvo fue el primero en notar, aquella mañana, que la radioactividad de la plata variaba según que el cilindro estuviera situado en el centro o en un rincón del cofre de plomo.

Desconcertados fueron a hablar de ello con Rasetti y Fermi quien sugirió observar qué sucedería cuando se hiciera la experiencia fuera del cofre de plomo. Los días siguientes aportaron muchas sorpresas. Los objetos que se encontraban sobre la mesa, cerca del cilindro, parecían influenciar su radioactividad. Todos los físicos estaban muy intrigados. Acabaron incluso por sacar la fuente de neutrones del cilindro e interponer diversos objetos. Una lámina de plomo, por ejemplo, hacía aumentar ligeramente la radioactividad. Por el contrario, Fermi tuvo la idea de intentar al contrario con una substancia ligera como la parafina. La experiencia tuvo lugar la mañana del 22 de octubre. Tomaron un gran bloque de parafina y horadaron un hueco, pusieron allí la fuente de neutrones e irradiaron el cilindro de plata. Cuando aproximaron un contador Geiger para medir la radioactividad, el contador hizo oír su crepitación máxima. ¡Increíble! la parafina centuplicaba la radioactividad artificial de la plata.

El grupo se separó con pena a la hora de comer. Por la tarde Fermi volvió con una teoría para explicar el fenómeno. La parafina contiene mucho hidrógeno cuyos núcleos están formados por protones que tienen casi la misma masa que los neutrones. Se producían evidentemente numerosas colisiones entre los neutrones de la fuente y los protones del hidrógeno. Cada choque debilitaba los neutrones que perdían su energía y se ralentizaban. Había entonces una probabilidad mayor de que fueran capturados por un átomo de plata que un neutrón más rápido, igual que una bola de golf cuya velocidad es baja tiene mayor probabilidad de caer en un agujero que una bola rápida que pasara por encima.

FUENTE: Laura Fermi, Atontes enfamilie, Gallimard, París, 1955, pp. 124-126.

LA CLASIFICACIÓN PERIÓDICA

Dimitri Ivanovich Mendeleiev (1834-1907) era profesor de química en la Universidad de San Petersburgo desde hacía dos años. La manera en que se enseñaba entonces la química no le satisfacía. No existía ningún orden, ninguna armonía, no había ningún rasgo común a todos los elementos que hubiera permitido clasificarlos en lugar de presentarlos, en el mejor de los casos, por grupos aislados que poseyeran ciertas analogías. Mendeleiev quería simplificar su tarea de profesor encontrando un procedimiento lógico de clasificación de elementos. Se sabía que los elementos (los átomos) se combinaban para formar moléculas más complejas. Así dos átomos de hidrógeno se unían a un átomo de oxígeno para formar una molécula de agua. Cada átomo, cada elemento tenía un peso característico. Esto no quería decir que se supiera pesar cada átomo individualmente sino que se conocía, gracias a numerosas experiencias, las proporciones en que los elementos se combinaban. Por ejemplo quemando 2 gramos de hidrógeno y 16 gramos de oxígeno se obtenían 18 gramos de agua. Así era posible conocer no el peso real de cada átomo, sino el peso relativo con relación al más ligero de ellos, el hidrógeno, al que se le atribuyó el número 1. El oxígeno tenía el número 16, el cobre 63 y así sucesivamente. Es lo que se llama peso atómico.

Mendeleiev ordenó primeramente todos los elementos conocidos por peso atómico en sentido creciente. Se dio cuenta entonces que el mismo género de comportamiento químico se repetía periódicamente. El hidrógeno se dejaba aparte para formar una clase él sólo. La lista comenzaba con litio cuyo óxido se disuelve en agua y da un álcali. Siete elementos más adelante se encontraba el sodio que poseía la misma propiedad, siete elementos más, el potasio, siempre con la misma propiedad, y así sucesivamente.

Mendeleiev cortó entonces su lista cada siete elementos y los dispuso en líneas los unos debajo de los otros. Así cada columna contenía una familia de elementos con comportamientos químicos análogos. Hubo sin embargo algunos problemas con los elementos más pesados y fue preciso alternar filas de siete y de diez elementos para que las columnas contuvieran elementos de la misma familia. También había que dejar huecos en la tabla. Por ejemplo tras el calcio venía el titanio que se encontraba así en la familia del boro y del aluminio a los que no se parecía. Había que dejar un hueco y situar al titanio bajo el carbono y el silicio que tenían propiedades químicas similares. Mendeleiev rellenó el hueco con un elemento hipotético al que llamó el ekaboro. En otros lugares había igualmente huecos que Mendeleiev llenó con elementos también ficticios. Era 1869. Pasaron los años y poco a poco todos los agujeros se llenaron, todos los elementos ficticios existían realmente. Pero la historia no se detiene aquí.

En 1910, el químico Frederick Soddy (1877-1956) que había colaborado con Rutherford durante mucho tiempo, necesitó mesotorio. Compró torianita, añadió bario y obtuvo mesotorio con un precipitado de sulfato de bario. Intentó separarlos pero en cada precipitación la proporción de los dos cuerpos era siempre la misma. El hecho de que dos cuerpos tuvieran propiedades químicas tan similares que fuera imposible separarlos, impresionó mucho a Soddy. Estaba en contradicción con las leyes de la química: cuerpos diferentes con pesos atómicos distintos eran químicamente semejantes. Esto le sugirió que elementos ordinarios no radioactivos podían formar grupos cuyos miembros tenían pesos atómicos diferentes pero que mantenían siempre sus propiedades químicas. Los situó juntos en la misma casilla de la clasificación periódica. Son los que ahora se llaman isótopos, de dos palabras griegas que significan que ocupan el mismo lugar. Los elementos radioactivos entonces conocidos recibieron su ubicación en la tabla periódica en 1912 gracias a los trabajos de Kasimir Fajans, un químico de origen polaco que trabajaba en Karlsruhe.

Pero la historia no se detiene todavía aquí.

En 1913 Níels Bohr elaboró su teoría planetaria del átomo con su cortejo de electrones gravitando en torno al núcleo. Pero nadie sabía cuántos electrones había alrededor del núcleo de un átomo de carbono o de aluminio. La hipótesis más favorecida era la de J. J. Thomson en la que el número de electrones sería igual a la mitad del peso atómico. Bohr tenía otra hipótesis, y nada estaba regulado.

En aquel tiempo vivía en Holanda Antonius Johannes van den Broek (1870-1926). Estudiaba derecho, pero su violín de Ingres era la clasificación periódica de los elementos. Buscaba una regla sencilla que fuera capaz de explicar todo. Rutherford había sugerido un día, preocupado por la coherencia lógica, que una partícula alfa debía tener la misma relación carga-masa que la mitad del átomo de helio. Van den Broek vio allí la regla que buscaba pues, con una carga unidad y un peso atómico 2, esta partícula suministraba la regla de Thomson sobre el número de electrones de un átomo. No tenía ninguna razón científica para proponer esta regla y estaba guiado como Mendeleiev solamente por una preocupación de sencillez y estética. Pero la idea pareció interesante a Bohr que numeró por orden todos los elementos de la clasificación periódica y admitió que este número era completamente igual al número de electrones. Tenía razón. La clasificación de Mendeleiev tiene, de hecho, una significación mucho más profunda que lo que parecía a primera vista. Las propiedades físicas y químicas de los átomos están determinadas por el número de sus electrones. Estos se distribuyen en diferentes capas, no pudiendo contener cada una más que un número determinado. Los electrones de la capa exterior son los responsables de las propiedades del átomo. Los átomos situados en una misma columna de la clasificación tienen el mismo número de electrones en la capa externa. Al final de cada línea de la clasificación se encuentran los gases nobles cuya capa externa está completamente llena y que tienen muy pocas afinidades químicas.

FUENTES: R. L. Weber, Pionneers of Science. Nobel prize winners in physics, The Institute of Physics, Londres, 1980.

P. Radvanyi, M. Bordry, La radioactivité artificielle, Seuil, París, 1984. A. Romer, La découverte de l'atome, Payot, París, 1960, pp. 11-14; 133-147; 151-152. A. Soukhotine, ob. cit., pp. 132-133.

LA CRISIS DE LA CIENCIA

Algunos descubrimientos científicos se admitieron mal porque atañían a la filosofía, a la idea que el hombre se hacía del universo que le rodeaba o al hombre mismo. Así es como las teorías de Darwin sobre la evolución de las especies chocaron contra muchas mentalidades o las de Galileo, al negar, después de Copérnico, que la Tierra era el centro del mundo le valieron muchos problemas pues se oponían a la religión. Se comprende bien cómo y por qué ciertas teorías físicas pueden tener un impacto filosófico y eventualmente provocar una crisis del pensamiento. Para otros esto es más difícil de comprender y especialmente cuando se trata de teorías matemáticas. Voy a dar algunos ejemplos comenzando por la física.

Al final del siglo pasado la física parecía acabada. Así, Albert Michelson (1852-1931) afirmaba: Entramos en una época en la que no quedará para medir más que la sexta cifra decimal. No pensaba que al medir él mismo este sexto decimal en la célebre experiencia de Michelson-Morley, iba a echar abajo la mecánica newtoniana y dar la base de la teoría de la relatividad. Incluso, cuando después de su tesis en 1879, Planck fue a ver a su maestro Ph. von Jolly para anunciarle su decisión de consagrar su vida a la física, éste le preguntó por qué quería encauzar su futuro en una vía tan privada de perspectivas. Fue, por fin, Kirchhoff quien, tras el anuncio de un descubrimiento reciente en física, se asombró de que quedara todavía alguna cosa por descubrir. Y a pesar de todo, en algunos años, la física iba a estar revolucionada lo mismo que el pensamiento. Se conoció la crisis debida al abandono de la noción de tiempo universal en la teoría de la relatividad restringida. Tras ésta y casi simultáneamente, la debida al abandono de la continuidad en física en la teoría de los quanta. A Max Planck le costó mucho admitir la validez física de sus propias concepciones y, durante mucho tiempo, intentó salvar la dificultad. Einstein no tenía los mismos escrúpulos. En el momento que cuadraba con la experiencia, la novedad no le asombraba.

Hacia 1930 apareció una interpretación probabilística de la mecánica ondulatoria. El cuadrado de la función de onda representaba la probabilidad de que la partícula se encontrase en un lugar dado en un instante preciso. Son las famosas relaciones de incertidumbre de Heisenberg, según las cuales no es posible medir exactamente y simultáneamente la posición y el momento de una partícula. Para realizar tal medida hace falta, en efecto, hacer intervenir un emparejamiento que tiene por efecto perturbar la partícula volviendo así imposible esta doble medida. Hace falta pues abandonar el principio de causalidad, el determinismo, que está en la base de toda la física ya que da la posibilidad de prever la evolución de un sistema a partir de sus condiciones iniciales. Se produjo un debate profundo entre todos los protagonistas (ver, por ejemplo, en el número especial de Science et Avenir, "La grande querelle des physiciens", n° 46, 1984); no está todavía terminado, pero parece que ciertas experiencias en curso van a permitir resolverlo pronto.

Vayamos ahora a las matemáticas. Puede parecer extraño que hayan podido atravesar crisis puesto que no están de ningún modo ligadas, como la física, a la interpretación teórica de una experiencia. Sin embargo, cierto número de paradojas agitaron su historia. Habían surgido de cuestiones donde la intuición inmediata se había puesto en entredicho y era necesario decidirse a introducir algunas nociones nuevas para ir al encuentro de esta intuición inmediata.

La primera crisis que estalló fue la de la inconmensurabilidad (ahora se dice irracionalidad). Se había admitido como un hecho de la experiencia corriente, y en esto se unía con la física, que todas las longitudes eran conmensurables, es decir, que cualesquiera de ellas podían ser medidas con la ayuda de una tercera sirviendo de unidad. El descubrimiento de los irracionales es atribuido a Hipaso de Metaponto en el siglo V antes de J.C. Se conocía la demostración por reducción al absurdo de la irracionalidad de V2 que es, en mi opinión, una de las más bellas que existe. Para sobreponerse a esta crisis fue necesario renunciar a las ideas corrientemente admitidas de la época, es decir, admitir la irracionalidad de ciertos números.

Dejaría a un lado las crisis debidas a la noción de infinito y a la axiomatización de la geometría, para pasar a la crisis mayor concerniente a la lógica y los fundamentos de las matemáticas.

La historia arranca en la teoría de conjuntos construida por G. Cantor al final del siglo pasado. Esta teoría había propuesto a los matemáticos un cierto número de problemas de naturaleza filosófica concernientes a los diferentes tipos de infinito. Era necesario, en particular, admitir que las infinitudes del número de puntos de la recta y del plano eran de la misma naturaleza. Sin embargo, la teoría había acabado por triunfar y era admitida al principio de este siglo. Las nociones fundamentales de la teoría de conjuntos podían estar descritas en el lenguaje de la lógica y un cierto número de investigadores intentaron reducir las matemáticas a la lógica y transcribirlas en el lenguaje de ésta.

El matemático alemán G. Frege acababa un monumental tratado en tres volúmenes, Fundamentos de la aritmética, cuando en 1901 un joven lógico inglés, Bertrand Rusell, estableció que los elementos de partida eran contradictorios. B. Rusell y A. N. Whitehead, por un lado, y D. Hilbert, por otro, intentaron entonces establecer separadamente la consistencia de los axiomas de la teoría de conjuntos, es decir, libres de antinomias.

El asunto se terminó cuando el 17 de noviembre de 1930 la revista Monatschefte für Mathematik recibió un artículo de un matemático austríaco de 25 años, Kurt Gódel. Demostraba que era imposible probar la consistencia o la inconsistencia; el problema era irresoluble. Así se hundía el bello optimismo de los matemáticos que pensaban que todos los problemas de las matemáticas tenían una solución, que no era más que una cuestión de la técnica a encontrar. Ciertos problemas no tendrán pues nunca solución. Tal resultado es evidentemente de una importancia filosófica capital. Muestra las limitaciones intrínsecas de las matemáticas.

Hasta el presente las matemáticas han salido siempre de las crisis que han tenido que atravesar, gracias a una profundización y un enriquecimiento de los conceptos en estudio. La física ha salido siempre igualmente reforzada de las crisis atravesadas, pero de una manera un poco diferente, puesto que ciertas teorías han acabado siendo caducas o han debido ser abandonadas y reemplazadas por otras.

LA MEDIDA DE LOS CONJUNTOS

El matemático francés Emile Borel [Saint-Affrique, 1871- París, 1956] es célebre por varios conceptos. Las investigaciones que aquí nos interesan son las que condujeron a definir la noción de medida de un conjunto. Se sabe que Lebesgue se ha apoyado sobre esta noción para edificar su definición de integral. Borel ha contado la génesis de este descubrimiento:

En la época en que terminé mis estudios en la Escuela Normal de París, en 1892, la teoría de las funciones analíticas era uno de los campos de la ciencia en los que se habían hecho importantes descubrimientos durante las décadas precedentes, pero donde quedaba todavía mucho que hacer. Fui atraído por este campo, y sobre todo por el estudio de la influencia de los puntos singulares sobre las propiedades de las funciones. La representación geométrica de la variable imaginaria por un punto del plano era clásica desde hacía mucho tiempo; los problemas a estudiar se planteaban así bajo una forma a la vez geométrica y algebraica, y esta mezcla, en la investigación, de los métodos : de la geometría y del álgebra me gustaba mucho. Para intentar dar, incluso a los que no le son familiares las especulaciones matemáticas, una idea de la naturaleza de los problemas que me planteaba, voy a simplificarlos, restringiéndome a considerar conjuntos de puntos en un plano.

Imaginemos un metro en madera o metal sobre el que se han efectuado divisiones decimales, tenemos así dibujados los decímetros, los centímetros y los milímetros. Prácticamente no vamos más lejos pues serían necesarios aparatos muy delicados para llegar a trazar líneas suficientemente distintas, espacios de una décima de milímetro. Sin embargo, el matemático no tiene hábito de incomodarse con estas contingencias prácticas y es un procedimiento natural para él generalizar un método donde ha podido hacer las primeras aplicaciones. Se puede así concebir que sin poder trazarlas efectivamente, podemos imaginar, después, las divisiones en centímetros, milímetros, décimas de milímetro, divisiones todavía más finas en centésimas de milímetro, en milésimas de milímetro [...] etc. Si admitimos que pudiéramos tener microscopios de aumento indefinido y si admitimos igualmente que la regla conserva el mismo aspecto bajo aumentos considerables, nada nos impide prolongar indefinidamente con el pensamiento estas divisiones. Hemos marcado así sobre nuestra regla una infinidad de puntos donde cada uno corresponde a una fracción decimal simple; por ejemplo la fracción 03241732 corresponde a uno de los diez millones de puntos que marcan la división del metro en diezmilésimas de milímetro. En el lenguaje de la teoría de conjuntos se dice que todos los puntos así marcados son densos en cualquier parte de la recta. No hay en efecto una porción, por pequeña que sea, de la largura del metro, sobre la que todos estos puntos decimales no se empujen unos contra otros.

Hay otra parte sobre la recta de los puntos que no son puntos decimales; son todos los puntos que son representados por una fracción decimal ilimitada, bien una fracción periódica como 0'333 [...], bien una fracción irregular como la de los decimales del número n= 0'14159265 [...]

Sobre toda porción de la recta, por pequeña que sea, se encuentran a la vez puntos decimales y puntos no decimales. Si, por tanto, se quiere comparar el conjunto de los puntos decimales con el conjunto de puntos no decimales por el método natural y clásico que consiste en dividir la recta en intervalos cada vez más pequeños, no se tendrá ningún resultado; por pequeño que sea el intervalo, se constatará que en él hay a la vez puntos decimales y puntos no decimales. Parece pues que no sea posible descomponer la recta en intervalos que encierren todos los puntos decimales sin encerrar al mismo tiempo todos los puntos no decimales.

Esta imposibilidad no había sido tal vez enunciada explícitamente, pero era implícitamente admitida por todos los matemáticos. Estos, sin embargo, por diversas razones obtenidas de la teoría de la potencia de conjuntos de Cantor, extraídas también de la consideración del cálculo de probabilidades más o menos confusas, que precisaremos rápidamente, sabían que los puntos decimales debían ser mirados como más raros que los puntos no decimales. Si se sortean las cifras de una fracción decimal, para que esta fracción sea un número decimal limitado, hay que suponer que a partir de un cierto puesto todas las cifras sean iguales a cero y ésta es una eventualidad que debe ser mirada como muy poco probable. ¿No había pues un medio de distinguir, por la consideración de intervalos suficientemente pequeños encerrándolos todos, los números decimales de los números no decimales?

Fue reflexionando sobre este problema, e intentando representarme los trazos con los que la infinidad de números decimales se puede marcar sobre una recta, cuando tuve la muy simple idea siguiente: si estos trazos son suficientemente finos, su anchura total podrá considerarse muy pequeña e inferior a la largura total de la recta. En estas condiciones hay muchas posibilidades para que ciertos puntos de la recta no estén recubiertos por estos trazos, pues sería paradójico que se pudiese recubrir la recta entera por trazos cuya anchura total es inferior a su longitud. Esta simple reflexión llevaba por el camino del descubrimiento y sólo era necesario un poco de atención y paciencia para llegar a formularlo.

Si se vuelve a tomar la imagen del metro sobre la que están marcadas las divisiones y si se da a las divisiones centimétricas una anchura de un milímetro el conjunto de estas 100 divisiones centimétricas cubrirá 10 centímetros, si se da después a las divisiones milimétricas una anchura de una centésima de milímetro, el conjunto de estas divisiones milimétricas ocupará menos de un centímetro; se puede continuar así y arreglárselas para que el conjunto de las divisiones marcando décimas de milímetro ocupen menos de un milímetro, y así sucesivamente. En estas condiciones, cuando se haya llegado justo al extremo, es decir cuando se hayan marcado todos los números decimales limitados, así como los que tienen un gran número de decimales, el conjunto de los trazos ocupará solamente una fracción de la longitud total de la recta. Se podrá asimismo arreglárselas para que esta fracción sea inferior a un número muy pequeño dado de antemano.

Se llega así, eligiendo convenientemente los intervalos y definiendo estos intervalos a partir de los puntos decimales que se quieren estudiar, a encerrar todos estos puntos decimales en un conjunto de intervalos cuya longitud será por ejemplo inferior a un milímetro, mientras que estos puntos están infinitamente apretados sobre toda la recta que tiene un metro de longitud. Es un resultado muy simple que habría debido ser conocido desde hace mucho tiempo, pero que sin embargo ha aparecido como muy nuevo y paradójico.

Nuestra imaginación geométrica representa en efecto muy difícilmente estos intervalos que encierran todos los puntos decimales y que, sin embargo, no constituyen más que una muy reducida fracción de la recta entera, dejando fuera de ella muchos puntos que no se encierran en su interior. La aritmética tiene de bueno darnos la seguridad de que siendo la longitud total de estos intervalos extremadamente escasa, no es posible que encierren en su interior todos los puntos de la recta. La intuición geométrica de este resultado no nos es natural.

No es éste el lugar para desarrollar las consecuencias que ha tenido el método así creado, método que consiste esencialmente en construir intervalos a partir de los puntos que se estudian, en lugar de estudiar la repartición de estos puntos en intervalos formados de antemano tras una regla fija. Será suficiente para mí recordar los resultados que ha dado este método para el estudio de las funciones analíticas en ciertos dominios singulares y recordar igualmente que todo el desarrollo de la teoría de la medida de los conjuntos y de la teoría

célebre de integración de Lebesgue se relaciona directamente con este método. [Organon Intern. Rev., I (1936) 33-42 y Entile Borel, philosophe et homme d'action. Textos recogidos y presentados por M. Fréchet, Gauthier-Villars, París, 1967, pp. 325-329],

LAS LEYES DE LA MECÁNICA QUÍMICA

Henry Le Chatelier (1850-1936) era un químico y un metalúrgico francés. En su libro De la méthode dans les sciences experimentales [Dunod, París, 1936] ha contado numerosos descubrimientos y, en particular, el de las leyes de la mecánica química.

En este caso, se dedujeron nuevas leyes de la química, sin la intervención de experiencias nuevas, de leyes anteriormente conocidas. Por una parte, la de la termodinámica, consecuencia de las investigaciones de Sadi Carnot sobre la potencia motriz del fuego, y por otra parte, la del equilibrio químico, desarrollo de las experiencias de Saint-Claire Deville sobre la disociación.

Más tarde, las muy amistosas relaciones de mi padre con Saint-Claire Deville me pusieron al corriente de los descubrimientos relativos a la disociación, que yo había seguido con mucho interés a través de las publicaciones relativas a esta nueva rama de la química. Tras el trabajo de Debray sobre las tensiones fijas de la disociación del carbonato de cal, dos científicos franceses, Peslin y Moutier, publicaron simultáneamente sin haberse consultado, notas en los informes de la Academia, para mostrar que del hecho de las tensiones fijas, la ley Clapeyron-Carnot, relativa a la tensión del vapor de agua, era igualmente aplicable a la tensión de disociación del carbonato de cal.

Me impresionó inmediatamente este razonamiento aunque sin saber, sin embargo, por qué. Me hacía un poco el mismo efecto que el que sirve para calcular la edad del capitán de un navio conociendo la fecha de su nacimiento y la altura del palo mayor. La tensión fija me parecía no tener nada que decir al respecto.

Todos los fenómenos de equilibrio debían estar bajo la dependencia de las leyes de la termodinámica, o ninguno de ellos.

Me enganché a este problema y trabajé durante un año sin llegar a ningún resultado. No era sin duda lo bastante maestro en los métodos de la termodinámica ni estaba lo bastante familiarizado con el cálculo matemático. Un día se me ocurrió la idea cuando leí el opúsculo de Sadi Carnot sobre la potencia motriz del fuego, que no conocía todavía, pues pasamos completamente por alto estos métodos de razonamiento en la enseñanza clásica. Sadi Carnot se contenta con aplicar el principio de la imposibilidad del movimiento perpetuo al trabajo suministrado por el desplazamiento del calor. En el momento en que las reacciones químicas entran en el juego del trabajo, y además pueden ser efectuadas por vía reversible, le son aplicables idénticamente los mismos razonamientos. Conseguí también formular la ley de Clapeyron-Carnot a todos los sistemas invariantes, que presenten o no una tensión fija.

Tras haber acabado este estudio, debo reconocer que un científico americano, J. W. Gibbs, había deducido las mismas leyes de la termodinámica clásica, con anterioridad a mis investigaciones. Pero él estaba contento de dar sus fórmulas algebraicas sin traducirlas al lenguaje corriente y nadie había comprendido el alcance de su trabajo. Son mis investigaciones y las investigaciones paralelas de Vant'Hoff las que han hecho conocer a los químicos las leyes esenciales de la mecánica química, a pesar de que no pudimos reclamar ninguna prioridad por el descubrimiento de estas leyes.

Debemos reconocer, por tanto, que, en las ciencias físico-químicas, el descubrimiento de leyes nuevas por la simple combinación algebraica de leyes anteriormente conocidas es bastante raro. [Pp. 78-79].