Wikipedia

Resultados de la búsqueda

martes, 22 de octubre de 2013

Breve historia de la Historia


CAPITULO 1
NUESTRA IMAGEN DEL UNIVERSO

Un conocido científico (algunos dicen que Bertrand Russell) dio una vez una conferencia sobre astronomía. El describió como la Tierra orbita alrededor del Sol y como el Sol, a su vez, orbita alrededor del centro de una vasta colección de estrellas llamada nuestra galaxia. Al final de la conferencia, una pequeña anciana sentada en el fondo de la sala se paró y dijo: "Lo que usted ha dicho es una mierda. El mundo es en realidad un plato plano sobre el lomo de una tortuga gigante." El científico sonrió despectivamente y replicó: "¿y sobre qué está la tortuga?" "Usted es muy inteligente, jovencito, muy inteligente," dijo la pequeña anciana "¡pero hay infinitas tortugas!"
Mucha gente podría encontrar bastante ridícula la imagen de nuestro universo como una torre de infinitas tortugas, pero ¿por qué pensamos que lo sabemos mejor? ¿qué sabemos acerca del universo y cómo lo sabemos? ¿de dónde vino el universo y hacia dónde va? ¿Tuvo el universo un comienzo, y si es así, que sucedió antes de eso? ¿cuál es la naturaleza del tiempo? ¿tendrá un final? ¿podemos ir atrás en el tiempo? Recientes descubrimientos en física hacen posible, en parte por fantásticas nuevas tecnologías, sugerir respuestas a algunas de estas antiguas preguntas. Algún día estas respuestas nos parecerán tan obvias como la Tierra orbitando al Sol -o tal vez tan ridículas como una torre de tortugas- sólo el tiempo (lo que quiera que sea) lo dirá.
En el año 340 AC el filósofo griego Aristóteles, en su libro Sobre los Cielos, fue capaz de proponer dos buenos argumentos para creer que la Tierra era una esfera redonda en lugar de un plato plano. Primero, él se dio cuenta de que los eclipses de Luna eran causados por la Tierra que se ponía entre el Sol y la Luna. La sombra de la Tierra sobre la Luna era siempre redonda, lo cual podía suceder sólo si la Tierra era esférica. Si la Tierra hubiera sido un disco plano, la sombra hubiera sido elongada y elíptica a menos que el Sol siempre estuviera sobre el eje del disco cuando ocurrían los eclipses. Segundo, los griegos sabían por sus viajes que la Estrella del Norte aparecía más baja en el cielo vista desde el sur que si la miraban en regiones del norte (dado que la Estrella del Norte está sobre el Polo Norte aparece sobre la cabeza de alguien en el Polo Norte y se ve en el horizonte desde el ecuador) De la diferencia entre la posición aparente de la Estrella del Norte en Egipto y Grecia. Aristóteles inclusive calculó estimativamente que la distancia alrededor de la Tierra era de 400.000 estadios. No se sabe exactamente cuánto medía un estadio, pero debe haber tenido alrededor de 200 yardas lo cual hace que Aristóteles estimara el doble de la figura corrientemente aceptada. Los griegos también tenían un tercer argumento de que la Tierra debía ser redonda. ¿Por qué sino, cuando aparece un barco desde detrás del horizonte, vemos primero las velas y sólo más tarde el casco?
Aristóteles pensaba que la Tierra estaba quieta y que el Sol, la Luna, los planetas y las estrellas se movían en órbitas circulares alrededor de la Tierra. El creía esto porque él sentía, por razones místicas, que la Tierra era el centro del universo, y que el movimiento circular era el más perfecto. Esta idea fue elaborada por Tolomeo en el segundo siglo AC en un completo modelo cosmológico. La tierra permanecía en el centro, rodeada por ocho esferas de cristal sobre las que giraban la Luna, el Sol, las estrellas y los cinco planetas que se conocían, Mercurio, Venus, Marte, Júpiter y Saturno.
Los planetas mismos se movían en pequeños círculos dentro de sus respectivas esferas para justificar el complicado camino que describían en el cielo. La esfera más lejana portaba las estrellas fijas que se mantenían a la misma distancia entre sí pero giraban juntas alrededor de la Tierra. Nunca quedó muy claro lo que había después de la última esfera, pero ciertamente no era parte del universo observable por la humanidad.
El modelo de Tolomeo era un sistema razonablemente preciso para predecir la posición de los cuerpos celestes en el cielo. Pero, para calcular estas posiciones con precisión, Tolomeo tuvo que asumir que la Luna se movía en un camino que algunas veces la llevaba dos veces más cerca de la Tierra que en otras veces. ¡Esto significaba que la Luna debía aparecer dos veces más grande algunas veces que otras! Tolomeo reconoció este desperfecto, pero nunca su modelo fue generalmente, ya que no universalmente, aceptado. Este fue aceptado por la iglesia Cristiana como la imagen del universo que estaba en concordancia con las escrituras y que tenía la ventaja de dejar un gran espacio después de la esfera de las estrellas fijas para el cielo y el infierno.
Un modelo más simple, sin embargo, fue propuesto en 1514 por un cura polaco, Nicolás Copérnico, (Al principio, tal vez por miedo de ser marcado como hereje por su iglesia, Copérnico difundió su modelo anónimamente.) Su idea fue que el Sol estaba fijo en el centro y que la Tierra y los planetas se movían en órbitas circulares alrededor del Sol. Pasó cerca de un siglo antes de que esta idea fuera tomada en serio. Entonces dos astrónomos -el alemán Johannes Kepler y el italiano Galileo Galilei- comenzaron a apoyar públicamente la teoría copernicana, a despecho de que las órbitas que predecía no coincidían con las que se observaban. La muerte final de la teoría de Aristóteles y Tolomeo llegó en 1609. En ese año, Galileo comenzó a observar el cielo nocturno con un telescopio, que recién se había inventado. Cuando miró al planeta Júpiter, Galileo observó que estaba acompañado por varios pequeños satélites o lunas que orbitaban alrededor de él. Esto implicaba que no todo tenía que orbitar directamente alrededor de la Tierra, como Aristóteles y Tolomeo pensaban. (Por supuesto, todavía era posible creer que la Tierra estaba estacionaria en el centro del universo y que las lunas de Júpiter se movían en extremadamente complicadas trayectorias alrededor de la Tierra, dando la impresión de que orbitaban Júpiter. Sin embargo, la teoría de Copérnico era mucho más simple) Al mismo tiempo, Johannes Kepler había modificado la teoría de Copérnico, sugiriendo que los planetas no se movían en círculos sino en elipses (una elipse es un círculo alargado). Las predicciones ahora finalmente coincidían con las observaciones.
Por lo que a Kepler le concernía, las órbitas elípticas eran meramente una hipótesis ad hoc, y una que era bastante repugnante, porque las elipses eran claramente menos perfectas que los círculos. Habiendo descubierto casi por accidente que las órbitas elípticas coincidían con las observaciones, él no podía reconciliarlas con su idea de que fuerzas magnéticas hacían orbitar los planetas alrededor del Sol. Una explicación fue dada mucho más tarde, en 1687, cuando Sir Isaac Newton publicó su Philosophiae Naturalis Principia Mathematica probablemente la obra más importante que se haya publicado en las ciencias físicas. En ella Newton no sólo promovió una teoría de como se mueven los cuerpos en el espacio y el tiempo, sino que también desarrolló las complicadas matemáticas necesarias para analizar dichos movimientos. Además Newton postuló una ley de la gravitación universal de acuerdo a la cual cada cuerpo del universo era atraído hacia los demás cuerpos por una fuerza que era más fuerte cuanto más masa tuvieran los cuerpos y cuanto más cerca estuvieran uno del otro. Era esta misma fuerza la que provocaba que los objetos cayeran al suelo. (El cuento de que Newton se inspiró en una manzana que cayó sobre su cabeza es casi con certeza apócrifo. Todo lo que Newton mismo dijo fue que la idea de la gravedad le vino cuando él estaba sentado en "estado de contemplación" y "fue ocasionada por la caída de una manzana.") Newton vino a demostrar que, de acuerdo a su ley, la gravedad causa que la Luna se mueva en una órbita elíptica en torno a la Tierra y causa que la Tierra y los demás planetas se muevan en órbitas elípticas alrededor del Sol.
El modelo Copernicano fue despojado de las esferas celestiales de Tolomeo, y con ello de la idea de que el universo tiene un límite natural. Dado que las "estrellas fijas" no aparentan cambiar sus posiciones fuera de una rotación a través del cielo causada por el giro de la Tierra sobre su eje, se volvió natural suponer que las estrellas fijas eran objetos como nuestro Sol pero mucho más lejanos.
Newton comprendió que, de acuerdo a su teoría de la gravedad, las estrellas deberían atraerse una hacia otra, por lo tanto parecía que no podían permanecer esencialmente sin movimiento. ¿No podrían caer todas juntas hacia algún punto? En una carta de 1691 a Richard Bentley, otro pensador líder de esa época, Newton arguyó que esto podría en verdad ocurrir si hubiera un número finito de estrellas distribuidas en una región finita del espacio. Pero él razonaba que si, por otra parte, hubiera un número infinito de estrellas distribuidas más o menos uniformemente sobre un universo infinito, esto podría no ocurrir, porque no habría un punto central hacia el cual caer.
Este argumento es un ejemplo de las trampas en que se puede caer cuando se habla del infinito. En un universo infinito, cada punto puede ser visto como el centro, porque cada punto tiene un número infinito de estrellas de cada lado. El planteo correcto, que fue realizado mucho más tarde, es considerar la situación finita en la cual todas las estrellas caen una sobre otra, y entonces preguntar cómo cambiarían las cosas si se agregan más estrellas distribuidas de forma casi uniforme fuera de esta región. De acuerdo a las leyes de Newton las estrellas extra no harían ninguna diferencia, así que las estrellas caerían del mismo modo. Podemos agregar tantas estrellas como queramos, pero siempre caerán una sobre otra. Ahora sabemos que es imposible tener un modelo estático infinito del universo en el cual la gravedad sea siempre atractiva.
Una interesante reflexión sobre el clima general de pensamiento antes del siglo XX es que nadie había sugerido que el universo se estuviera expandiendo o contrayendo. Era generalmente aceptado que o bien el universo había existido siempre en un estado inmutable, o bien que había sido creado hace un tiempo finito en el pasado más o menos como lo observamos hoy en día. En parte esto debe haberse debido a la tendencia de la gente a creer en verdades eternas, así como al confort que encontraban al pensar que aunque ellos tuvieran que envejecer y morir, el universo es eterno e inmutable.
Inclusive aquellos que advertían que la teoría de Newton de la gravedad mostraba que el universo no podía ser estático no pensaron en sugerir que podría estarse expandiendo. En su lugar, intentaron modificar la teoría haciendo que la fuerza de gravedad fuera repulsiva a muy largas distancias. Esto no afectaba significativamente sus predicciones del movimiento de los planetas, pero permitía que una distribución de estrellas infinita permaneciera en equilibrio - con las fuerzas atractivas entre estrellas cercanas balanceada por las fuerzas repulsivas de las estrellas más lejanas. Sin embargo, ahora creemos que tal equilibrio podría ser inestable: si las estrellas en alguna región se acercaran sólo un poco una a la otra, las fuerzas atractivas entre ellas podrían volverse más fuertes y dominar sobre las fuerzas repulsivas de modo que las estrellas seguirían cayendo una sobre la otra. Por otra parte, si las estrellas se alejaran un poco una de otra, las fuerzas repulsivas podrían dominar y alejarlas cada vez más.
Otra objeción a un universo infinito estático es normalmente atribuida al filósofo alemán Heinrich Olbers, quien escribió sobre su teoría en 1823. En efecto, varios contemporáneos de Newton habían visto el problema, y el artículo de Olbers no fue el primero en contener argumentos plausibles contra él. Fue, sin embargo, el primero en ser ampliamente notado. La dificultad es que en un universo infinito estático casi cualquier línea de visión terminaría en la superficie de una estrella. Luego uno podría esperar que todo el cielo pudiera ser tan brillante como el Sol, inclusive de noche. El contra argumento de Olbers era que la luz de las estrellas lejanas estaría oscurecida por la absorción debida a la materia intermedia. Sin embargo, si eso sucediera, la materia intermedia se calentaría, con el tiempo, hasta que iluminara de forma tan brillante como las estrellas. La única manera de evitar la conclusión de que todo el cielo nocturno debería de ser tan brillante como la superficie del Sol sería suponer que las estrellas no han estado iluminando desde siempre, sino que se encendieron en un determinado instante pasado finito. En este caso, la materia absorbente podría no estar caliente todavía, o la luz de las estrellas distantes podría no habernos alcanzado aún. Y esto nos conduciría a la cuestión de qué podría haber causado el hecho de que las estrellas se hubieran encendido por primera vez.
El principio del universo había sido discutido, desde luego, mucho antes de esto. De acuerdo con distintas cosmologías primitivas y con la tradición judeo-cristianamusulmana, el universo comenzó en cierto tiempo pasado finito, y no muy distante. Un argumento en favor de un origen tal fue la sensación de que era necesario tener una «Causa Primera» para explicar la existencia del universo. (Dentro del universo, uno siempre explica un acontecimiento como causado por algún otro acontecimiento anterior, pero la existencia del universo en sí, sólo podría ser explicada de esta manera si tuviera un origen.) Otro argumento lo dio san Agustín en su libro La ciudad de Dios. Señalaba que la civilización está progresando y que podemos recordar quién realizó esta hazaña o desarrolló aquella técnica. Así, el hombre, y por lo tanto quizás también el universo, no podía haber existido desde mucho tiempo atrás. San Agustín, de acuerdo con el libro del Génesis, aceptaba una fecha de unos 5.000 años antes de Cristo para la creación del universo. (Es interesante comprobar que esta fecha no está muy lejos del final del último periodo glacial, sobre el 10.000 a.C., que es cuando los arqueólogos suponen que realmente empezó la civilización.)
Aristóteles, y la mayor parte del resto de los filósofos griegos, no era partidario, por el contrario, de la idea de la creación, porque sonaba demasiado a intervención divina. Ellos creían, por consiguiente, que la raza humana y el mundo que la rodea habían existido, y existirían, por siempre. Los antiguos ya habían considerado el argumento descrito arriba acerca del progreso, y lo habían resuelto diciendo que había habido inundaciones periódicas u otros desastres que repetidamente situaban a la raza humana en el principio de la civilización.
Las cuestiones de si el universo tiene un principio en el tiempo y de si está limitado en el espacio fueron posteriormente examinadas de forma extensiva por el filósofo Immanuel Kant en su monumental (y muy oscura) obra, Crítica de la razón pura, publicada en 1781. Él llamó a estas cuestiones antinomias (es decir, contradicciones) de la razón pura, porque le parecía que había argumentos igualmente convincentes para creer tanto en la tesis, que el universo tiene un principio, como en la antítesis, que el universo siempre había existido. Su argumento en favor de la tesis era que si el universo no hubiera tenido un principio, habría habido un período de tiempo infinito anterior a cualquier acontecimiento, lo que él consideraba absurdo. El argumento en pro de la antítesis era que si el universo hubiera tenido un principio, habría habido un período de tiempo infinito anterior a él, y de este modo, ¿por qué habría de empezar el universo en un tiempo particular cualquiera? De hecho, sus razonamientos en favor de la tesis y de la antítesis son realmente el mismo argumento. Ambos están basados en la suposición implícita de que el tiempo continúa hacia atrás indefinidamente, tanto si el universo ha existido desde siempre como si no. Como veremos, el concepto de tiempo no tiene significado antes del comienzo del universo. Esto ya había sido señalado en primer lugar por san Agustín. Cuando se le preguntó: ¿Qué hacía Dios antes de que creara el universo?, Agustín no respondió: estaba preparando el infierno para aquellos que preguntaran tales cuestiones. En su lugar, dijo que el tiempo era una propiedad del universo que Dios había creado, y que el tiempo no existía con anterioridad al principio del universo.
Cuando la mayor parte de la gente creía en un universo esencialmente estático e inmóvil, la pregunta de si éste tenía, o no, un principio era realmente una cuestión de carácter metafísico o teológico. Se podían explicar igualmente bien todas las observaciones tanto con la teoría de que el universo siempre había existido, como con la teoría de que había sido puesto en funcionamiento en un determinado tiempo finito, de tal forma que pareciera como si hubiera existido desde siempre. Pero, en 1929, Edwin Hubble hizo la observación crucial de que, donde quiera que uno mire, las galaxias distantes se están alejando de nosotros. O en otras palabras, el universo se está expandiendo. Esto significa que en épocas anteriores los objetos deberían de haber estado más juntos entre sí. De hecho, parece ser que hubo un tiempo, hace unos diez o veinte mil millones de años, en que todos los objetos estaban en el mismo lugar exactamente, y en el que, por lo tanto, la densidad del universo era infinita. Fue dicho descubrimiento el que finalmente llevó la cuestión del principio del universo a los dominios de la ciencia.
Las observaciones de Hubble sugerían que hubo un tiempo, llamado el big bang [gran explosión o explosión primordial], en que el universo era infinitesimalmente pequeño e infinitamente denso. Bajo tales condiciones, todas las leyes de la ciencia, y, por tanto, toda capacidad de predicción del futuro, se desmoronarían. Si hubiera habido acontecimientos anteriores a este no podrían afectar de ninguna manera a lo que ocurre en el presente. Su existencia podría ser ignorada, ya que ello no extrañaría consecuencias observables. Uno podría decir que el tiempo tiene su origen en el big bang, en el sentido de que los tiempos anteriores simplemente no estarían definidos. Es señalar que este principio del tiempo es radicalmente diferente de aquellos previamente considerados. En un universo inmóvil, un principio del tiempo es algo que ha de ser impuesto por un ser externo al universo; no existe la necesidad de un principio. Uno puede imaginarse que Dios creó el universo en, textualmente, cualquier instante de tiempo. Por el contrario, si el universo se está expandiendo, pueden existir poderosas razones físicas para que tenga que haber un principio. Uno aún se podría imaginar que Dios creó el universo en el instante del big bang, pero no tendría sentido suponer que el universo hubiese sido creado antes del big bang. ¡Universo en expansión no excluye la existencia de un creador, pero sí establece límites sobre cuándo éste pudo haber llevado a cabo su misión!
Para poder analizar la naturaleza del universo, y poder discutir cuestiones tales como si ha habido un principio o si habrá un final, es necesario tener claro lo que es una teoría científica. Consideremos aquí un punto de vista ingenuo, en el que una teoría es simplemente un modelo del universo, o de una parte de él, y un conjunto de reglas que relacionan las magnitudes del modelo con las observaciones que realizamos. Esto sólo existe en nuestras mentes, y no tiene ninguna otra realidad (cualquiera que sea lo que esto pueda significar). Una teoría es una buena teoría siempre que satisfaga dos requisitos: debe describir con precisión un amplio conjunto de observaciones sobre la base de un modelo que contenga sólo unos pocos parámetros arbitrarios, y debe ser capaz de predecir positivamente los resultados de observaciones futuras. Por ejemplo, la teoría de Aristóteles de que todo estaba constituido por cuatro elementos, tierra, aire, fuego y agua, era lo suficientemente simple como para ser cualificada como tal, pero fallaba en que no realizaba ninguna predicción concreta. Por el contrario, la teoría de la gravedad de Newton estaba basada en un modelo incluso más simple, en el que los cuerpos se atraían entre sí con una fuerza proporcional a una cantidad llamada masa e inversamente proporcional al cuadrado de la distancia entre ellos, a pesar de lo cual era capaz de predecir el movimiento del Sol, la Luna y los planetas con un alto grado de precisión.
Cualquier teoría física es siempre provisional, en el sentido de que es sólo una hipótesis: nunca se puede probar. A pesar de que los resultados de los experimentos concuerden muchas veces con la teoría, nunca podremos estar seguros de que la próxima vez el resultado no vaya a contradecirla. Sin embargo, se puede rechazar una teoría en cuanto se encuentre una única observación que contradiga sus predicciones. Como ha subrayado el filósofo de la ciencia Karl Popper, una buena teoría está caracterizada por el hecho de predecir un gran número de resultados que en principio pueden ser refutados o invalidados por la observación. Cada vez que se comprueba que un nuevo experimento está de acuerdo con las predicciones, la teoría sobrevive y nuestra confianza en ella aumenta. Pero si por el contrario se realiza alguna vez una nueva observación que contradiga la teoría, tendremos que abandonarla o modificarla.
O al menos esto es lo que se supone que debe suceder, aunque uno siempre puede cuestionar la competencia de la persona que realizó la observación.
En la práctica, lo que sucede es que se construye una nueva teoría que en realidad es una extensión de la teoría original. Por ejemplo, observaciones tremendamente precisas del planeta Mercurio revelan una pequeña diferencia entre su movimiento y las predicciones de la teoría de la gravedad de Newton. La teoría de la relatividad general de Einstein predecía un movimiento de Mercurio ligeramente distinto del de la teoría de Newton. El hecho de que las predicciones de Einstein se ajustaran a las observaciones, mientras que las de Newton no lo hacían, fue una de las confirmaciones cruciales de la nueva teoría. Sin embargo, seguimos usando la teoría de Newton para todos los propósitos prácticos ya que las diferencias entre sus predicciones y las de la relatividad general son muy pequeñas en las situaciones que normalmente nos incumben. (¡La teoría de Newton también posee la gran ventaja de ser mucho más simple y manejable que la de Einstein!)
El objetivo final de la ciencia es el proporcionar una única que describa correctamente todo el universo. Sin embargo, el método que la mayoría de los científicos siguen en realidad es el de separar el problema en dos partes. Primero, están las leyes que nos dicen cómo cambia el universo con el tiempo. (Si conocemos cómo es el universo en un instante dado, estas leves físicas nos dirán cómo será el universo en cualquier otro posterior.) Segundo, está la cuestión del estado inicial del universo. Algunas personas creen que la ciencia se debería ocupar únicamente de la primera parte: consideran el tema de la situación inicial del universo como objeto de la metafísica o la religión. Ellos argumentarían que Dios, al ser omnipotente, podría haber iniciado el universo de la manera que más le hubiera gustado. Puede ser que sí, pero en ese caso él también haberlo hecho evolucionar de un modo totalmente arbitrario. En cambio, parece ser que eligió hacerlo evolucionar de una manera muy regular siguiendo ciertas leyes. Resulta, así pues, igualmente razonable suponer que también hay leyes que gobiernan el estado inicial.
Es muy difícil construir una única teoría capaz de describir todo el universo. En vez de ello, nos vemos forzados, de momento, a dividir el problema en varias partes, inventando un cierto número de teorías parciales. Cada una de estas teorías parciales describe y predice una cierta clase restringida de observaciones, despreciando los efectos de otras cantidades, o representando éstas por simples conjuntos de números. Puede ocurrir que esta aproximación sea completamente errónea. Si todo en el universo depende de absolutamente todo el resto de él de una manera fundamental, podría resultar imposible acercarse a una solución completa investigando partes aisladas del problema. Sin embargo, este es ciertamente el modo en que hemos progresado en el pasado. El ejemplo clásico es de nuevo la teoría de la gravedad de Newton, la cual nos dice que la fuerza gravitacional entre dos cuerpos depende únicamente de un número asociado a cada cuerpo, su masa, siendo por lo demás independiente del tipo de sustancia que forma el cuerpo. Así, no se necesita tener una teoría de la estructura y constitución del Sol y los planetas para poder determinar sus órbitas.
Los científicos actuales describen el universo a través de dos teorías parciales fundamentales: la teoría de la relatividad general y la mecánica cuántica. Ellas constituyen el gran logro intelectual de la primera mitad de este siglo. La teoría de la relatividad general describe la fuerza de la gravedad y la estructura a gran escala del universo, es decir, la estructura a escalas que van desde sólo unos pocos kilómetros hasta un billón de billones (un 1 con veinticuatro ceros detrás) de kilómetros, el tamaño del universo observable. La mecánica cuántica, por el contrario, se ocupa de los fenómenos a escalas extremadamente pequeñas, tales como una billonésima de centímetro. Desafortunadamente, sin embargo, se sabe que estas dos teorías son inconsistentes entre sí: ambas no pueden ser correctas a la vez. Uno de los mayores esfuerzos de la física actual, y el tema principal de este libro, es la búsqueda de una nueva teoría que incorpore a las dos anteriores: una teoría cuántica de la gravedad. Aún no se dispone de tal teoría, y para ello todavía puede quedar un largo camino por recorrer, pero sí se conocen muchas de las propiedades que debe poseer. En capítulos posteriores veremos que ya se sabe relativamente bastante acerca de las predicciones que debe hacer una teoría cuántica de la gravedad.
Si se admite entonces que el universo no es arbitrario, sino que está gobernado por ciertas leyes bien definidas, habrá que combinar al final las teorías parciales en una teoría unificada completa que describirá todos los fenómenos del universo. Existe, no obstante, una paradoja fundamental en nuestra búsqueda de esta teoría unificada completa. Las ideas anteriormente perfiladas sobre las teorías científicas suponen que somos seres racionales, libres para observar el universo como nos plazca y para extraer deducciones lógicas de lo que veamos.
En tal esquema parece razonable suponer que podríamos continuar progresando indefinidamente, acercándonos cada vez más a las leyes que gobiernan el universo. Pero si realmente existiera una teoría unificada completa, ésta también determinaría presumiblemente nuestras acciones. ¡Así la teoría misma determinaría el resultado de nuestra búsqueda de ella! ¿Y por qué razón debería determinar que llegáramos a las verdaderas conclusiones a partir de la evidencia que nos presenta? ¿Es que no podría determinar igualmente bien que extrajéramos conclusiones erróneas? ¿O incluso que no extrajéramos ninguna conclusión en absoluto?
La única respuesta que puedo dar a este problema se basa en el principio de la selección natural de Darwin. La idea estriba en que en cualquier población de organismos auto reproductores, habrá variaciones tanto en el material genético como en educación de los diferentes individuos. Estas diferencias supondrán que algunos individuos sean más capaces que otros para extraer las conclusiones correctas acerca del mundo que rodea, y para actuar de acuerdo con ellas. Dichos individuos tendrán más posibilidades de sobrevivir y reproducirse, de forma que su esquema mental y de conducta acabará imponiéndose. En el pasado ha sido cierto que lo que llamamos inteligencia y descubrimiento científico han supuesto una ventaja en el aspecto de la supervivencia. No es totalmente evidente que esto tenga que seguir siendo así: nuestros descubrimientos científicos podrían destruirnos a todos perfectamente, e, incluso si no lo hacen, una teoría unificada completa no tiene por qué suponer ningún cambio en lo concerniente a nuestras posibilidades de supervivencia. Sin embargo, dado que el universo ha evolucionado de un modo regular, podríamos esperar que las capacidades de razonamiento que la selección natural nos ha dado sigan siendo válidas en nuestra búsqueda de una teoría unificada completa, y no nos conduzcan a conclusiones erróneas.
Dado que las teorías que ya poseemos son suficientes para realizar predicciones exactas de todos los fenómenos naturales, excepto de los más extremos, nuestra búsqueda de la teoría definitiva del universo parece difícil de justificar desde un punto de vista práctico. (Es interesante señalar, sin embargo, que argumentos similares podrían haberse usado en contra de la teoría de la relatividad y de la mecánica cuántica, las cuales nos han dado la energía nuclear y la revolución de la microelectrónica.) Así pues, el descubrimiento de una teoría unificada completa puede no ayudar a la supervivencia de nuestra especie. Puede incluso no afectar a nuestro modo de vida. Pero siempre, desde el origen de la civilización, la gente no se ha contentado con ver los acontecimientos como desconectados e inexplicables. Ha buscado incesantemente un conocimiento del orden subyacente del mundo. Hoy en día, aún seguimos anhelando saber por qué estamos aquí y de dónde venimos. El profundo deseo de conocimiento de la humanidad es justificación suficiente para continuar nuestra búsqueda. Y ésta no cesará hasta que poseamos una descripción completa del universo en el que vivimos.

CAPITULO 2
ESPACIO Y TIEMPO

Nuestras ideas actuales acerca del movimiento de los cuerpos se remontan a Galileo y Newton. Antes de ellos, se creía en las ideas de Aristóteles, quien decía que el estado natural de un cuerpo era estar en reposo y que éste sólo se movía si era empujado por una fuerza o un impulso. De ello se deducía que un cuerpo pesado debía caer más rápido que uno ligero, porque sufría una atracción mayor hacia la tierra.
La tradición aristotélica también mantenía que se podrían deducir todas las leyes que gobiernan el universo por medio del pensamiento puro: no era necesario comprobarlas por medio de la observación. Así, nadie antes de Galileo se preocupó de ver si los cuerpos con pesos diferentes caían con velocidades diferentes. Se dice que Galileo demostró que las anteriores ideas de Aristóteles eran falsas dejando caer diferentes pesos desde la torre inclinada de Pisa. Es casi seguro que esta historia no es cierta, aunque lo que sí hizo Galileo fue algo equivalente: dejó caer bolas de distintos pesos a lo largo de un plano inclinado. La situación es muy similar a la de los cuerpos pesados que caen verticalmente, pero es más fácil de observar porque las velocidades son menores. Las mediciones de Galileo indicaron que cada cuerpo aumentaba su velocidad al mismo ritmo, independientemente de su peso. Por ejemplo, si se suelta una bola en una pendiente que desciende un metro por cada diez metros de recorrido, la bola caerá por la pendiente con una velocidad de un metro por segundo después de un segundo, de dos metros por segundo después de dos segundos, y así sucesivamente, sin importar lo pesada que sea la bola. Por supuesto que una bola de plomo caerá más rápida que una pluma, pero ello se debe únicamente a que la pluma es frenada por la resistencia del aire. Si uno soltara dos cuerpos que no presentasen demasiada resistencia al aire, tales como dos pesos diferentes de plomo, caerían con la misma rapidez. Sobre la luna, donde no hay aire que frene la caída de las cosas, el astronauta David R. Scott llevó a cabo el experimento de la pluma y el plomo y realmente cayeron al suelo al mismo tiempo.
Las mediciones de Galileo sirvieron de base a Newton para la obtención de sus leyes del movimiento. En los experimentos de Galileo, cuando un cuerpo caía rodando, siempre actuaba sobre él la misma fuerza (su peso) y el efecto que se producía consistía en acelerarlo de forma constante. Esto demostraba que el efecto real de una fuerza era el de cambiar la velocidad del cuerpo, en vez de simplemente ponerlo en movimiento, como se pensaba anteriormente. Ello también significaba que siempre que sobre un cuerpo no actuara ninguna fuerza, éste se mantendría moviéndose en una línea recta con la misma velocidad. Esta idea fue formulada explícitamente por primera vez en los Principia Mathematica de Newton, publicados en 1687, y se conoce como primera ley de Newton. Lo que le sucede a un cuerpo cuando sobre él actúa una fuerza está recogido en la segunda ley de Newton. Ésta afirma que el cuerpo se acelerará, o cambiará sir velocidad, a un ritmo proporcional a la fuerza. (Por ejemplo, la aceleración se duplicará cuando la fuerza aplicada sea doble.) Al mismo tiempo, la aceleración disminuirá cuando aumente la masa (o la cantidad de materia) del cuerpo. (La misma fuerza actuando sobre un cuerpo de doble masa que otro, producirá la mitad de aceleración en el primero que en el segundo.) Un ejemplo familiar lo tenemos en un coche: cuanto más potente sea su motor mayor aceleración poseerá, pero cuanto más pesado sea el coche menor aceleración tendrá con el mismo motor. Además de las leyes del movimiento, Newton descubrió una ley que describía la fuerza de la gravedad, una ley que nos dice que todo cuerpo atrae a todos los demás cuerpos con una fuerza proporcional a la masa de cada uno de ellos. Así, la fuerza entre dos cuerpos se duplicará si uno de ellos (digamos, el cuerpo A) dobla su masa. Esto es lo que razonablemente se podría esperar, ya que uno puede suponer al nuevo cuerpo A formado por dos cuerpos, cada uno de ellos con la masa original. Cada uno de estos cuerpos atraerá al cuerpo B con la fuerza original. Por lo tanto, la fuerza total entre A y B será justo el doble que la fuerza original. Y si, por ejemplo, uno de los cuerpos tuviera una masa doble de la original y el otro cuerpo una masa tres veces mayor que al principio, la fuerza entre ellos sería seis veces más intensa que la original. Se puede ver ahora por qué todos los cuerpos caen con la misma rapidez: un cuerpo que tenga doble peso sufrirá una fuerza gravitatoria doble, pero al mismo tiempo tendrá una masa doble. De acuerdo con la segunda ley de Newton, estos dos efectos se cancelarán exactamente y la aceleración será la misma en ambos casos.
La ley de la gravedad de Newton nos dice también que cuanto más separados estén los cuerpos menor será la fuerza gravitatoria entre ellos. La ley de la gravedad de Newton establece que la atracción gravitatoria producida por una estrella a una cierta distancia es exactamente la cuarta parte de la que produciría una estrella similar a la mitad de distancia. Esta ley predice con gran precisión las órbitas de la Tierra, la Luna y los planetas. Si la ley fuera que la atracción gravitatoria de una estrella decayera más rápidamente con la distancia, las órbitas de los planetas no serían elípticas, sino que éstos irían cayendo en espiral hacia el Sol. Si, por el contrario, la atracción gravitatoria decayera más lentamente, las fuerzas gravitatorias debidas a las estrellas lejanas dominarían frente a la atracción de la Tierra.
La diferencia fundamental entre las ideas de Aristóteles y las de Galileo y Newton estriba en que Aristóteles creía en un estado preferente de reposo, en el que todas las cosas subyacerían, a menos que fueran empujadas por una fuerza o impulso. En particular, él creyó que la Tierra estaba en reposo. Por el contrario, de las leyes de Newton se desprende que no existe un único estándar de reposo. Se puede suponer igualmente o que el cuerpo A está en reposo y el cuerpo B se mueve a velocidad constante con respecto de A, o que el B está en reposo y es el cuerpo A el que se mueve. Por ejemplo, si uno se olvida de momento de la rotación de la Tierra y de su órbita alrededor del Sol, se puede decir que la Tierra está en reposo y que un tren sobre ella está viajando hacia el norte a ciento cuarenta kilómetros por hora, o se puede decir igualmente que el tren está en reposo y que la Tierra se mueve hacia el sur a ciento cuarenta kilómetros por hora. Si se realizaran experimentos en el tren con objetos que se movieran, comprobaríamos que todas las leyes de Newton seguirían siendo válidas. Por ejemplo, al jugar al ping-pong en el tren, uno encontraría que la pelota obedece las leyes de Newton exactamente igual a como lo haría en una mesa situada junto a la vía. Por lo tanto, no hay forma de distinguir si es el tren o es la Tierra lo que se mueve.
La falta de un estándar absoluto de reposo significaba que no se podía determinar si dos acontecimientos que ocurrieran en tiempos diferentes habían tenido lugar en la misma posición espacial. Por ejemplo, supongamos que en el tren nuestra bola de ping-pong está botando, moviéndose verticalmente hacia arriba y hacia abajo y golpeando la mesa dos veces en el mismo lugar con un intervalo de un segundo. Para un observador situado junto a la vía, los dos botes parecerán tener lugar con una separación de unos cuarenta metros, ya que el tren habrá recorrido esa distancia entre los dos botes. Así pues la no existencia de un reposo absoluto significa que no se puede asociar una posición absoluta en el espacio con un suceso, como Aristóteles había creído. Las posiciones de los sucesos y la distancia entre ellos serán diferentes para una persona en el tren y para otra que esté al lado de la vía, y no existe razón para preferir el punto de vista de una de las personas frente al de la otra.
Newton estuvo muy preocupado por esta falta de una posición absoluta, o espacio absoluto, como se le llamaba, porque no concordaba con su idea de un Dios absoluto. De hecho, rehusó aceptar la no existencia de un espacio absoluto, a pesar incluso de que estaba implicada por sus propias leyes. Fue duramente criticado por mucha gente debido a esta creencia irracional, destacando sobre todo la crítica del obispo Berkeley, un filósofo que creía que todos los objetos materiales, junto con el espacio y el tiempo, eran una ilusión. Cuando el famoso Dr. Johnson se enteró de la opinión de Berkeley gritó «¡Lo rebato así!» y golpeó con la punta del pie una gran piedra.
Tanto Aristóteles como Newton creían en el tiempo absoluto. Es decir, ambos pensaban que se podía afirmar inequívocamente la posibilidad de medir el intervalo de tiempo entre dos sucesos sin ambigüedad, y que dicho intervalo sería el mismo para todos los que lo midieran, con tal que usaran un buen reloj. El tiempo estaba totalmente separado y era independiente del espacio. Esto es, de hecho, lo que la mayoría de la gente consideraría como de sentido común. Sin embargo, hemos tenido que cambiar nuestras ideas acerca del espacio y del tiempo. Aunque nuestras nociones de lo que parece ser el sentido común funcionan bien cuando se usan en el estudio del movimiento de las cosas, tales como manzanas o planetas, que viajan relativamente lentas, no funcionan, en absoluto, cuando se aplican a cosas que se mueven con o cerca de la velocidad de la luz.
El hecho de que la luz viaja a una velocidad finita, aunque muy elevada, fue descubierto en 1676 por el astrónomo danés Ole Christensen Roemer. Él observó que los tiempos en los que las lunas de Júpiter parecían pasar por detrás de éste no estaban regularmente espaciados, como sería de esperar si las lunas giraran alrededor de Júpiter con un ritmo constante. Dado que la Tierra y Júpiter giran alrededor del Sol, la distancia entre ambos varía. Roemer notó que los eclipses de las lunas de Júpiter parecen ocurrir tanto más tarde cuanto más distantes de Júpiter estamos. Argumentó que se debía a que la luz proveniente de las lunas tardaba más en llegar a nosotros cuanto más lejos estábamos de ellas. Sus medidas sobre las variaciones de las distancias de la Tierra a Júpiter no eran, sin embargo, demasiado buenas, y así estimó un valor para la velocidad de la luz de 225.000 kilómetros por segundo, comparado con el valor moderno de 300.000 kilómetros por segundo. No obstante, no sólo el logro de Roemer de probar que la luz viaja a una velocidad finita, sino también de medir esa velocidad, fue notable, sobre todo teniendo en cuenta que esto ocurría once años antes de que Newton publicara los Principia Mathematica. Una verdadera teoría de la propagación de la luz no surgió hasta 1865, en que el físico británico James Clerk Maxwell consiguió unificar con éxito las teorías parciales que hasta entonces se habían usado para definir las fuerzas de la electricidad y el magnetismo. Las ecuaciones de Maxwell predecían que podían existir perturbaciones de carácter ondulatorio del campo electromagnético combinado, y que éstas viajarían a velocidad constante, como las olas de una balsa. Si tales ondas poseen una longitud de onda (la distancia entre una cresta de onda y la siguiente) de un metro o más, constituyen lo que hoy en día llamamos ondas de radio. Aquellas con longitudes de onda menores se llaman microondas (unos pocos centímetros) o infrarrojas (más de una diezmilésima de centímetro). La luz visible tiene sólo una longitud de onda de entre cuarenta y ochenta millonésimas de centímetro. Las ondas con todavía menores longitudes se conocen como radiación ultravioleta, rayos X y rayos gamma.
La teoría de Maxwell predecía que tanto las ondas de radio como las luminosas deberían viajar a una velocidad fija determinada. La teoría de Newton se había desprendido, sin embargo, de un sistema de referencia absoluto, de tal forma que si se suponía que la luz viajaba a una cierta velocidad fija, había que especificar con respecto a qué sistema de referencia se medía dicha velocidad.
Para que esto tuviera sentido, se sugirió la existencia de una sustancia llamada «éter» que estaba presente en todas partes, incluso en el espacio «vacío». Las ondas de luz debían viajar a través del éter al igual que las ondas de sonido lo hacen a través del aire, y sus velocidades deberían ser, por lo tanto, relativas al éter. Diferentes observadores, que se movieran con relación al éter, verían acercarse la luz con velocidades distintas, pero la velocidad de la luz con respecto al éter permanecería fija. En particular, dado que la Tierra se movía a través del éter en su órbita alrededor del Sol, la velocidad de la luz medida en la dirección del movimiento de la Tierra a través del éter (cuando nos estuviéramos moviendo hacia la fuente luminosa) debería ser mayor que la velocidad de la luz en la dirección perpendicular a ese movimiento (cuando no nos estuviéramos moviendo hacia la fuente). En 1887, Albert Michelson (quien más tarde fue el primer norteamericano que recibió el premio Nobel de física) y Edward Morley llevaron a cabo un muy esmerado experimento en la Case School of Applied Science, de Cleveland. Ellos compararon la velocidad de la luz en la dirección del movimiento de la Tierra, con la velocidad de la luz en la dirección perpendicular a dicho movimiento. Para su sorpresa ¡encontraron que ambas velocidades eran exactamente iguales!
Entre 1887 y 1905, hubo diversos intentos, los más importantes debidos al físico holandés Hendrik Lorentz, de explicar el resultado del experimento de Michelson- Morley en términos de contracción de los objetos o de retardo de los relojes cuando éstos se mueven a través del éter. Sin embargo, en 1905, en un famoso artículo Albert Einstein, hasta entonces un desconocido empleado de la oficina de patentes de Suiza, señaló que la idea del éter era totalmente innecesaria, con tal que se estuviera dispuesto a abandonar la idea de un tiempo absoluto. Una proposición similar fue realizada unas semanas después por un destacado matemático francés, Henri Poincaré. Los argumentos de Einstein tenían un carácter más físico que los de Poincaré, que había estudiado el problema desde un punto de vista puramente matemático. A Einstein se le reconoce como el creador de la nueva teoría, mientras que a Poincaré se le recuerda por haber dado su nombre a una parte importante de la teoría.
El postulado fundamental de la teoría de la relatividad, nombre de esta nueva teoría, era que las leyes de la ciencia deberían ser las mismas para todos los observadores en movimiento libre, independientemente de cual fuera su velocidad. Esto ya era cierto para las leyes de Newton, pero ahora se extendía la idea para incluir también la teoría de Maxwell y la velocidad de la luz: todos los observadores deberían medir la misma velocidad de la luz sin importar la rapidez con la que se estuvieran moviendo. Esta idea tan simple tiene algunas consecuencias extraordinarias. Quizás las más conocidas sean la equivalencia entre masa y energía, resumida en la famosa ecuación de Einstein E=mc2 (en donde E es la energía, m es la masa, y c es la velocidad de la luz), y la ley de que ningún objeto puede viajar a una velocidad mayor que la de la luz. Debido a la equivalencia entre energía y masa, la energía que un objeto adquiere debido a su movimiento se añadirá a su masa, incrementándola. En otras palabras, cuanto mayor sea la velocidad de un objeto más difícil será aumentar su velocidad. Este efecto sólo es realmente significativo para objetos que se muevan a velocidades cercanas a la de la luz. Por ejemplo, a una velocidad de un 10 por ciento de la de la luz la masa de un objeto es sólo un 0,5 por ciento mayor de la normal, mientras que a un 90 por ciento de la velocidad de la luz la masa sería de más del doble de la normal. Cuando la velocidad de un objeto se aproxima a la velocidad de la luz, su masa aumenta cada vez más rápidamente, de forma que cuesta cada vez más y más energía acelerar el objeto un poco más. De hecho no puede alcanzar nunca la velocidad de la luz, porque entonces su masa habría llegado a ser infinita, y por la equivalencia entre masa y energía, habría costado una cantidad infinita de energía el poner al objeto en ese estado. Por esta razón, cualquier objeto normal está confinado por la relatividad a moverse siempre a velocidades menores que la de la luz. Sólo la luz, u otras ondas que no posean masa intrínseca, pueden moverse a la velocidad de la luz.
Otra consecuencia igualmente notable de la relatividad es el modo en que ha revolucionado nuestras ideas acerca del espacio y del tiempo. En la teoría de Newton, si un pulso de luz es enviado de un lugar a otro, observadores diferentes estarían de acuerdo en el tiempo que duró el viaje (ya que el tiempo es un concepto absoluto), pero no siempre estarían de acuerdo en la distancia recorrida por la luz (ya que el espacio no es un concepto absoluto). Dado que la velocidad de la luz es simplemente la distancia recorrida dividida por el tiempo empleado, observadores diferentes medirán velocidades de la luz diferentes. En relatividad, por el contrario, todos los observadores deben estar de acuerdo en lo rápido que viaja la luz. Ellos continuarán, no obstante, sin estar de acuerdo en la distancia recorrida por la luz, por lo que ahora ellos también deberán discrepar en el tiempo empleado. (El tiempo empleado es, después de todo, igual al espacio recorrido, sobre el que los observadores no están de acuerdo, dividido por la velocidad de la luz, sobre la que los observadores sí están de acuerdo.) En otras palabras, ¡la teoría de la relatividad acabó con la idea de un tiempo absoluto! Cada observador debe tener su propia medida del tiempo, que es la que registraría un reloj que se mueve junto a él, y relojes idénticos moviéndose con observadores diferentes no tendrían por qué coincidir.
Cada observador podría usar un radar para así saber dónde y cuándo ocurrió cualquier suceso, mediante el envío de un pulso de luz o de ondas de radio. Parte del pulso se reflejará de vuelta en el suceso y el observador medirá el tiempo que transcurre hasta recibir el eco. Se dice que el tiempo del suceso es el tiempo medio entre el instante de emisión del pulso y el de recibimiento del eco. La distancia del suceso es igual a la mitad del tiempo transcurrido en el viaje completo de ida y vuelta, multiplicado por la velocidad de la luz. (Un suceso, en este sentido, es algo que tiene lugar en un punto específico del espacio y en un determinado instante de tiempo.) Esta idea se muestra en la figura 2.1, que representa un ejemplo de un diagrama espacio-tiempo.
Figura 2:1: 
El tiempo se mide verticalmente y la distancia desde el observador se mide 
horizontalmente. El camino del observador a través del espacio y del tiempo 
corresponde a la línea vertical de la izquierda. Los caminos de los rayos de luz 
enviados y reflejados son las líneas diagonales
Usando el procedimiento anterior, observadores en movimiento relativo entre sí asignarán tiempos y posiciones diferentes a un mismo suceso. Ninguna medida de cualquier observador particular es más correcta que la de cualquier otro observador, sino que todas son equivalentes y además están relacionadas entre sí. Cualquier observador puede calcular de forma precisa la posición y el tiempo que cualquier otro observador asignará a un determinado proceso, con tal de que sepa la velocidad relativa del otro observador.
Hoy en día, se usa este método para medir distancias con precisión, debido a que podemos medir con más exactitud tiempos que distancias. De hecho, el metro se define como la distancia recorrida por la luz en 0,000000003335640952 segundos, medidos por un reloj de cesio. (La razón por la que se elige este número en particular es porque corresponde a la definición histórica del metro, en términos de dos marcas existentes en una barra de platino concreta que se guarda en París.) Igualmente, podemos usar una nueva y más conveniente unidad de longitud llamada segundo-luz. Esta se define simplemente como la distancia que recorre la luz en un segundo. En la teoría de la relatividad, se definen hoy en día las distancias en función de tiempos y de la velocidad de la luz, de manera que se desprende que cualquier observador medirá la misma velocidad de la luz (por definición, 1 metro por 0,000000003335640952 segundos). No hay necesidad de introducir la idea de un éter, cuya presencia de cualquier manera no puede ser detectada, como mostró el experimento de Michelson-Morley. La teoría de la relatividad nos fuerza, por el contrario, a cambiar nuestros conceptos de espacio y tiempo. Debemos aceptar que el tiempo no está completamente separado e independiente del espacio, sino que por el contrario se combina con él para formar un objeto llamado espacio-tiempo.
Por la experiencia ordinaria sabemos que se puede describir la posición de un punto en el espacio por tres números o coordenadas. Por ejemplo, uno puede decir que un punto dentro de una habitación está a tres metros de una pared, a un metro de la otra y a un metro y medio sobre el suelo, o uno podría especificar que un punto está a una cierta latitud y longitud y a una cierta altura sobre el nivel del mar. Uno tiene libertad para usar cualquier conjunto válido de coordenadas, aunque su utilidad pueda ser muy limitada. Nadie especificaría la posición de la Luna en función de los kilómetros que diste al norte y al oeste de Piccadilly Circus y del número de metros que esté sobre el nivel del mar. En vez de eso, uno podría describir la posición de la Luna en función de su distancia respecto al Sol, respecto al plano que contiene a las órbitas de los planetas y al ángulo formado entre la línea que une a la Luna y al Sol, y la línea que une al Sol y a alguna estrella cercana, tal como Alfa Centauro. Ni siquiera estas coordenadas serían de gran utilidad para describir la posición del Sol en nuestra galaxia, o la de nuestra galaxia en el grupo local de galaxias. De hecho, se puede describir el universo entero en términos de una colección de pedazos solapados. En cada pedazo, se puede usar un conjunto diferente de tres coordenadas para especificar la posición de cualquier punto.
Un suceso es algo que ocurre en un punto particular del espacio y en un instante específico de tiempo. Por ello, se puede describir por medio de cuatro números o coordenadas. La elección del sistema de coordenadas es de nuevo arbitraria; uno puede usar tres coordenadas espaciales cualesquiera bien definidas y una medida del tiempo. En relatividad, no existe una distinción real entre las coordenadas espaciales y la temporal, exactamente igual a como no hay ninguna diferencia real entre dos coordenadas espaciales cualesquiera. Se podría elegir un nuevo conjunto de coordenadas en el que, digamos, la primera coordenada espacial sea una combinación de la primera y la segunda coordenadas antiguas. Por ejemplo, en vez de medir la posición de un punto sobre la Tierra en kilómetros al norte de Piccadilly, y kilómetros al oeste de Piccadilly, se podría usar kilómetros al noreste de Piccadilly y kilómetros al noroeste de Piccadilly. Similarmente, en relatividad, podría emplearse una nueva coordenada temporal que fuera igual a la coordenada temporal antigua (en segundos) más la distancia (en segundos luz) al norte de Piccadilly.
A menudo resulta útil pensar que las cuatro coordenadas de un suceso especifican su posición en un espacio cuatridimensional llamado espacio-tiempo. Es imposible imaginar un espacio cuatridimensional. ¡Personalmente ya encuentro suficientemente difícil visualizar el espacio tridimensional! Sin embargo, resulta fácil dibujar diagramas de espacios bidimensionales, tales como la superficie de la Tierra. (La superficie terrestre es bidimensional porque la posición de un punto en ella puede ser especificada por medio de dos coordenadas, latitud y longitud.) Generalmente usaré diagramas en los que el tiempo aumenta hacia arriba y una de las dimensiones espaciales se muestra horizontalmente. Las otras dos dimensiones espaciales son ignoradas o, algunas veces, una de ellas se indica en perspectiva. (Estos diagramas, como el que aparece en la Figura 2:1, se llaman de espaciotiempo.)
Figura 2:2
Por ejemplo, en la Figura 2:2 el tiempo se mide hacia arriba en años y la distancia (proyectada), a lo largo de la línea que va del Sol a Alfa Centauro, se mide horizontalmente en kilómetros. Los caminos del Sol y de Alfa Centauro, a través del espacio-tiempo, se representan por las líneas verticales a la izquierda y a la derecha del diagrama. Un rayo de luz del Sol sigue la línea diagonal y tarda cuatro años en ir del Sol a Alfa Centauro.
Como hemos visto, las ecuaciones de Maxwell predecían que la velocidad de la luz debería de ser la misma cualquiera que fuera la velocidad de la fuente, lo que ha sido confirmado por medidas muy precisas. De ello se desprende que si un pulso de luz es emitido en un instante concreto, en un punto particular del espacio, entonces, conforme va transcurriendo el tiempo, se irá extendiendo como una esfera de luz cuyo tamaño y posición son independientes de la velocidad de la fuente. Después de una millonésima de segundo la luz se habrá esparcido formando una esfera con un radio de 300 metros; después de dos millonésimas de segundo el radio será de 600 metros, y así sucesivamente. Será como las olas que se extienden sobre la superficie de un estanque cuando se lanza una piedra. Las olas se extienden como círculos que van aumentando de tamaño conforme pasa el tiempo. Si uno imagina un modelo tridimensional consistente en la superficie bidimensional del estanque y la dimensión temporal, las olas circulares que se expanden marcarán un cono cuyo vértice estará en el lugar y tiempo en que la piedra golpeó el agua Figura 2:3.
Figura 2:3
De manera similar, la luz, al expandirse desde un suceso dado, forma un cono tridimensional en el espacio-tiempo cuatridimensional. Dicho cono se conoce como el cono de luz futuro del suceso. De la misma forma, podemos dibujar otro cono, llamado el cono de luz pasado, el cual es el conjunto de sucesos desde los que un pulso de luz es capaz de alcanzar el suceso dado Figura 2:4
Figura 2:4
Los conos de luz futuro y pasado de un suceso P dividen al espacio-tiempo en tres regiones (figura 2.5). El futuro absoluto del suceso es la región interior del cono de luz futuro de P. Es el conjunto de todos los sucesos que pueden en principio ser afectados por lo que sucede en P. Sucesos fuera del cono de luz de P no pueden ser alcanzados por señales provenientes de P, porque ninguna de ellas puede viajar más rápido que la luz.
Estos sucesos no pueden, por tanto, ser influidos por lo que sucede en P. El pasado absoluto de P es la región interna del cono de luz pasado. Es el conjunto de todos los sucesos desde los que las señales que viajan con velocidades iguales o menores que la de la luz, pueden alcanzar P. Es, por consiguiente, el conjunto de todos los sucesos que en un principio pueden afectar a lo que sucede en P. Si se conoce lo que sucede en un instante particular en todos los lugares de la región del espacio que cae dentro del cono de luz pasado de P, se puede predecir lo que sucederá en P. El «resto» es la región del espacio-tiempo que está fuera de los conos de luz futuro y pasado de P. Figura 2:5
Figura 2:5
Sucesos del resto no pueden ni afectar ni ser afectados por sucesos en P. Por ejemplo, si el Sol cesara de alumbrar en este mismo instante, ello no afectaría a las cosas de la Tierra en el tiempo presente porque estaría en la región del resto del suceso correspondiente a apagarse el Sol. Figura 2:6
Figura 2:6
Sólo nos enteraríamos ocho minutos después, que es el tiempo que tarda la luz en alcanzarnos desde el Sol. Únicamente entonces estarían los sucesos de la Tierra en el cono de luz futuro del suceso en el que el Sol se apagó. De modo similar, no sabemos qué está sucediendo lejos de nosotros en el universo, en este instante: la luz que vemos de las galaxias distantes partió de ellas hace millones de años, y en el caso de los objetos más distantes observados, la luz partió hace unos ocho mil millones de años. Así, cuando miramos al universo, lo vemos tal como fue en el pasado.
Si se ignoran los efectos gravitatorios, tal y como Einstein y Poincaré hicieron en 1905, uno tiene lo que se llama la teoría de la relatividad especial. Para cada suceso en el espacio-tiempo se puede construir un cono de luz (el conjunto de todos los posibles caminos luminosos en el espacio-tiempo emitidos en ese suceso) y dado que la velocidad de la luz es la misma para cada suceso y en cada dirección, todos los conos de luz serán idénticos y estarán orientados en 1 a misma dirección. La teoría también nos dice que nada puede viajar más rápido que la velocidad de la luz. Esto significa que el camino de cualquier objeto a través del espacio y del tiempo debe estar representado por una línea que cae dentro del cono de luz de cualquier suceso en ella Figura 2:7.
Figura 2:7
La teoría de la relatividad especial tuvo un gran éxito al explicar por qué la velocidad de la luz era la misma para todos los observadores (tal y como había mostrado el experimento de Michelson-Morley) y al describir adecuadamente lo que sucede cuando los objetos se mueven con velocidades cercanas a la de la luz. Sin embargo, la teoría era inconsistente con la teoría de la gravitación de Newton, que decía que los objetos se atraían mutuamente con una fuerza dependiente de la distancia entre ellos. Esto significaba que si uno movía uno de los objetos, la fuerza sobre el otro cambiaría instantáneamente, o en otras palabras, los efectos gravitatorios deberían viajar con velocidad infinita, en vez de con una velocidad igual o menor que la de la luz, como la teoría de la relatividad especial requería. Einstein realizó entre 1908 y 1914 varios intentos, sin éxito, para encontrar una teoría de la gravedad que fuera consistente con la relatividad especial. Finalmente, en 1915, propuso lo que hoy en día se conoce como teoría de la relatividad general. Einstein hizo la sugerencia revolucionaria de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo no sea plano, como previamente se había supuesto: el espacio-tiempo está curvado, o «deformado», por la distribución de masa y energía en él presente. Los cuerpos como la Tierra no están forzados a moverse en órbitas curvas por una fuerza llamada gravedad; en vez de esto, ellos siguen la trayectoria más parecida a una línea recta en un espacio curvo, es decir, lo que se conoce como una geodésico. Una geodésico es el camino más corto (o más largo) entre dos puntos cercanos. Por ejemplo, la superficie de la Tierra es un espacio curvo bidimensional. Las geodésicas en la Tierra se llaman círculos máximos, y son el camino más corto entre dos puntos Figura 2:8.
Figura 2:8
Como la geodésica es el camino más corto entre dos aeropuertos cualesquiera, el navegante de líneas aéreas le dirá al piloto que vuele a lo largo de ella. En relatividad general, los cuerpos siguen siempre líneas rectas en el espacio-tiempo cuatridimensional; sin embargo, nos parece que se mueven a lo largo de trayectorias curvadas en nuestro espacio tridimensional. (Esto es como ver a un avión volando sobre un terreno montañoso. Aunque sigue una línea recta en el espacio tridimensional, su sombra seguirá un camino curvo en el suelo bidimensional.)
La masa del Sol curva el espacio-tiempo de tal modo que, a pesar de que la Tierra sigue un camino recto en el espacio-tiempo cuatridimensional, nos parece que se mueve en una órbita circular en el espacio tridimensional.
De hecho, las órbitas de los planetas predichas por la relatividad general son casi exactamente las mismas que las predichas por la teoría de la gravedad newtoniana. Sin embargo, en el caso de Mercurio, que al ser el planeta más cercano al Sol sufre los efectos gravitatorios más fuertes y que, además, tiene una órbita bastante alargada, la relatividad general predice que el eje mayor de su elipse debería rotar alrededor del Sol a un ritmo de un grado por cada diez mil años. A pesar de lo pequeño de este efecto, ya había sido observado antes de 1915 y sirvió como una de las primeras confirmaciones de la teoría de Einstein. En los últimos años, incluso las desviaciones menores de las órbitas de los otros planetas respecto de las predicciones newtonianas han sido medidas por medio del radar, encontrándose que concuerdan con las predicciones de la relatividad general.
Los rayos de luz también deben seguir geodésicas en el espacio-tiempo. De nuevo, el hecho de que el espacio-tiempo sea curvo significa que la luz ya no parece viajar en líneas rectas en el espacio. Así, la relatividad general predice que la luz debería ser desviada por los campos gravitatorios. Por ejemplo, la teoría predice que los conos de luz de puntos cercanos al Sol estarán torcidos hacia dentro, debido a la presencia de la masa del Sol. Esto quiere decir que la luz de una estrella distante, que pase cerca del Sol, será desviada un pequeño ángulo, con lo cual la estrella parecerá estar, para un observador en la Tierra, en una posición diferente a aquella en la que de hecho está Figura 2:9.
Figura 2:9
Desde luego, si la luz de la estrella pasara siempre cerca del Sol, no seríamos capaces de distinguir si la luz era desviada sistemáticamente, o si, por el contrario, la estrella estaba realmente en la posición donde la vemos. Sin embargo, dado que la Tierra gira alrededor del Sol, diferentes estrellas parecen pasar por detrás del Sol y su luz es desviada. Cambian, así pues, su posición aparente con respecto a otras estrellas. Normalmente es muy difícil apreciar este efecto, porque la luz del Sol hace imposible observar las estrellas que aparecen en el cielo cercanas a él. Sin embargo, es posible observarlo durante un eclipse solar, en el que la Luna se interpone entre la luz del Sol y la Tierra. Las predicciones de Einstein sobre las desviaciones de la luz no pudieron ser comprobadas inmediatamente, en 1915, a causa de la primera guerra mundial, y no fue posible hacerlo hasta 1919, en que una expedición británica, observando un eclipse desde África oriental, demostró que la luz era verdaderamente desviada por el Sol, justo como la teoría predecía. Esta comprobación de una teoría alemana por científicos británicos fue reconocida como un gran acto de reconciliación entre los dos países después de la guerra. Resulta irónico, que un examen posterior de las fotografías tomadas por aquella expedición mostrara que los errores cometidos eran tan grandes como el efecto que se trataba de medir. Sus medidas habían sido o un caso de suerte, o un caso de conocimiento del resultado que se quería obtener, lo que ocurre con relativa frecuencia en la ciencia. La desviación de la luz ha sido, no obstante, confirmada con precisión por numerosas observaciones posteriores.
Otra predicción de la relatividad general es que el tiempo debería transcurrir más lentamente cerca de un cuerpo de gran masa como la Tierra. Ello se debe a que hay una relación entre la energía de la luz y su frecuencia (es decir, el número de ondas de luz por segundo): cuanto mayor es la energía, mayor es la frecuencia. Cuando la luz viaja hacia arriba en el campo gravitatorio terrestre, pierde energía y, por lo tanto, su frecuencia disminuye. (Esto significa que el período de tiempo entre una cresta de la onda y la siguiente aumenta.) A alguien situado arriba le parecería que todo lo que pasara abajo, en la Tierra, transcurriría más lentamente. Esta predicción fue comprobada en 1962, usándose un par de relojes muy precisos instalados en la parte superior e inferior de un depósito de agua. Se encontró que el de abajo, que estaba más cerca de la Tierra, iba más lento, de acuerdo exactamente con la relatividad general. La diferencia entre relojes a diferentes alturas de la Tierra es, hoy en día, de considerable importancia práctica debido al uso de sistemas de navegación muy precisos, basados en señales provenientes de satélites. Si se ignoraran las predicciones de la relatividad general, ¡la posición que uno calcularía tendría un error de varios kilómetros!
Las leyes de Newton del movimiento acabaron con la idea de una posición absoluta en el espacio. La teoría de la relatividad elimina el concepto de un tiempo absoluto. Consideremos un par de gemelos. Supongamos que uno de ellos se va a vivir a la cima de una montaña, mientras que el otro permanece al nivel del mar. El primer gemelo envejecerá más rápidamente que el segundo. Así, si volvieran a encontrarse, uno sería más viejo que el otro. En este caso, la diferencia de edad seria muy pequeña, pero sería mucho mayor si uno de los gemelos se fuera de viaje en una nave espacial a una velocidad cercana a la de la luz. Cuando volviera, sería mucho más joven que el que se quedó en la Tierra. Esto se conoce como la paradoja de los gemelos, pero es sólo una paradoja si uno tiene siempre metida en la cabeza la idea de un tiempo absoluto. En la teoría de la relatividad no existe un tiempo absoluto único, sino que cada individuo posee su propia medida personal del tiempo, medida que depende de dónde está y de cómo se mueve.
Antes de 1915, se pensaba en el espacio y en el tiempo como si se tratara de un marco fijo en el que los acontecimientos tenían lugar, pero que no estaba afectado por lo que en él sucediera. Esto era cierto incluso en la teoría de la relatividad especial. Los cuerpos se movían, las fuerzas atraían y repelían, pero el tiempo y el espacio simplemente continuaban, sin ser afectados por nada. Era natural pensar que el espacio y el tiempo habían existido desde siempre.
La situación es, sin embargo, totalmente diferente en la teoría de la relatividad general. En ella, el espacio y el tiempo son cantidades dinámicas: cuando un cuerpo se mueve, o una fuerza actúa, afecta a la curvatura del espacio y del tiempo, y, en contrapartida, la estructura del espacio-tiempo afecta al modo en que los cuerpos se mueven y las fuerzas actúan. El espacio y el tiempo no sólo afectan, sino que también son afectados por todo aquello que sucede en el universo. De la misma manera que no se puede hablar acerca de los fenómenos del universo sin las nociones de espacio y tiempo, en relatividad general no tiene sentido hablar del espacio y del tiempo fuera de los límites del universo.
En las décadas siguientes al descubrimiento de la relatividad general, estos nuevos conceptos de espacio y tiempo iban a revolucionar nuestra imagen del universo. La vieja idea de un universo esencialmente inalterable que podría haber existido, y que podría continuar existiendo por siempre, fue reemplazada por el concepto de un universo dinámico, en expansión, que parecía haber comenzado hace cierto tiempo finito, y que podría acabar en un tiempo finito en el futuro. Esa revolución es el objeto del siguiente capítulo. Y años después de haber tenido lugar, sería también el punto de arranque de mi trabajo en física teórica. Roger Penrose y yo mostramos cómo la teoría de la relatividad general de Einstein implicaba que el universo debía tener un principio y, posiblemente, un final.

CAPITULO 3
EL UNIVERSO EXPANSIVO

Si se mira el cielo en una clara noche sin luna, los objetos más brillantes que uno ve son los planetas Venus, Marte, Júpiter y Saturno. También se ve un gran número de estrellas, que son como nuestro Sol, pero situadas a mucha más distancia de nosotros. Algunas de estas estrellas llamadas fijas cambian, de hecho, muy ligeramente sus posiciones con respecto a las otras estrellas, cuando la Tierra gira alrededor del Sol: ¡pero no están fijas en absoluto! Esto se debe a que están relativamente cerca de nosotros. Conforme la Tierra gira alrededor del Sol, las vemos desde diferentes posiciones frente al fondo de las estrellas más distantes. Se trata de un hecho afortunado, pues nos permite medir la distancia entre estas estrellas y nosotros: cuanto más cerca estén, más parecerán moverse. La estrella más cercana, llamada Próxima Centauri, se encuentra a unos cuatro años luz de nosotros (la luz proveniente de ella tarda unos cuatro años en llegar a la Tierra), o a unos treinta y siete billones de kilómetros. La mayor parte del resto de las estrellas observables a simple vista se encuentran a unos pocos cientos de años luz de nosotros. Para captar la magnitud de estas distancias, digamos que ¡nuestro Sol está a sólo ocho minutos-luz de distancia! Las estrellas se nos aparecen esparcidas por todo el cielo nocturno, aunque aparecen particularmente concentradas en una banda, que llamamos la Vía Láctea. Ya en 1750, algunos astrónomos empezaron a sugerir que la aparición de la Vía Láctea podría ser explicada por el hecho de que la mayor parte de las estrellas visibles estuvieran en una única configuración con forma de disco, un ejemplo de lo que hoy en día llamamos una galaxia espiral. Sólo unas décadas después, el astrónomo sir William Herschel confirmó esta idea a través de una ardua catalogación de las posiciones y las distancias de un gran número de estrellas. A pesar de ello, la idea sólo llegó a ganar una aceptación completa a principios de nuestro siglo.
La imagen moderna del universo se remonta tan sólo a 1924, cuando el astrónomo norteamericano Edwin Hubble demostró que nuestra galaxia no era la única. Había de hecho muchas otras, con amplias regiones de espacio vacío entre ellas. Para poder probar esto, necesitaba determinar las distancias que había hasta esas galaxias, tan lejanas que, al contrario de lo que ocurre con las estrellas cercanas, parecían estar verdaderamente fijas. Hubble se vio forzado, por lo tanto, a usar métodos indirectos para medir esas distancias. Resulta que el brillo aparente de una estrella depende de dos factores: la cantidad de luz que irradia (su luminosidad) y lo lejos que está de nosotros. Para las estrellas cercanas, podemos medir sus brillos aparentes y sus distancias, de tal forma que podemos calcular sus luminosidades. Inversamente, si conociéramos la luminosidad de las estrellas de otras galaxias, podríamos calcular sus distancias midiendo sus brillos aparentes. Hubble advirtió que ciertos tipos de estrellas, cuando están lo suficientemente cerca de nosotros como para que se pueda medir su luminosidad, tienen siempre la misma luminosidad. Por consiguiente, él argumentó que si encontráramos tales tipos de estrellas en otra galaxia, podríamos suponer que tendrían la misma luminosidad y calcular, de esta manera, la distancia a esa galaxia. Si pudiéramos hacer esto para diversas estrellas en la misma galaxia, y nuestros cálculos produjeran siempre el mismo resultado, podríamos estar bastante seguros de nuestra estimación.
Edwin Hubble calculó las distancias a nueve galaxias diferentes por medio del método anterior. En la actualidad sabemos que nuestra galaxia es sólo una de entre los varios cientos de miles de millones de galaxias que pueden verse con los modernos telescopios, y que cada una de ellas contiene cientos de miles de millones de estrellas. La Figura 3:1 muestra una fotografía de una galaxia espiral. Creemos que esta imagen es similar a la de nuestra galaxia si fuera vista por alguien que viviera en otra galaxia.
Figura 3:1
Vivimos en una galaxia que tiene un diámetro aproximado de cien mil años luz, y que está girando lentamente. Las estrellas en los brazos de la espiral giran alrededor del centro con un período de varios cientos de millones de años.
Nuestro Sol no es más que una estrella amarilla ordinaria, de tamaño medio, situada cerca del centro de uno de los brazos de la espiral. ¡Ciertamente, hemos recorrido un largo camino desde los tiempos de Aristóteles y Ptolomeo, cuando creíamos que la Tierra era el centro del universo!
Las estrellas están tan lejos de la Tierra que nos parecen simples puntos luminosos. No podemos apreciar ni su tamaño ni su forma. ¿Cómo entonces podemos clasificar a las estrellas en distintos tipos? De la inmensa mayoría de las estrellas, sólo podemos medir una propiedad característica: el color de su luz. Newton descubrió que cuando la luz atraviesa un trozo de vidrio triangular, lo que se conoce como un prisma, la luz se divide en los diversos colores que la componen (su espectro), al igual que ocurre con el arco iris. Al enfocar con un telescopio una estrella o galaxia particular, podemos observar de modo similar el espectro de la luz proveniente de esa estrella o galaxia. Estrellas diferentes poseen espectros diferentes, pero el brillo relativo de los distintos colores es siempre exactamente igual al que se esperaría encontrar en la luz emitida por un objeto en roja incandescencia. (De hecho, la luz emitida por un objeto opaco incandescente tiene un aspecto característico que sólo depende de su temperatura, lo que se conoce como espectro térmico. Esto significa que podemos averiguar la temperatura de una estrella a partir de su espectro luminoso.) Además, se observa que ciertos colores muy específicos están ausentes de los espectros de las estrellas, y que estos colores ausentes pueden variar de una estrella a otra. Dado que sabemos que cada elemento químico absorbe un conjunto característico de colores muy específicos, se puede determinar exactamente qué elementos hay en la atmósfera de una estrella comparando los conjuntos de colores ausentes de cada elemento con el espectro de la estrella.
Cuando los astrónomos empezaron a estudiar, en los años veinte, los espectros de las estrellas de otras galaxias, encontraron un hecho tremendamente peculiar: estas estrellas poseían los mismos conjuntos característicos de colores ausentes que las estrellas de nuestra propia galaxia, pero desplazados todos ellos en la misma cantidad relativa hacia el extremo del espectro correspondiente al color rojo. Para entender las aplicaciones de este descubrimiento, debemos conocer primero el efecto Doppler. Como hemos visto, la luz visible consiste en fluctuaciones u ondas del campo electromagnético. La frecuencia (o número de ondas por segundo) de la luz es extremadamente alta, barriendo desde cuatrocientos hasta setecientos millones de ondas por segundo. Las diferentes frecuencias de la luz son lo que el ojo humano ve como diferentes colores, correspondiendo las frecuencias más bajas al extremo rojo del espectro y las más altas, al extremo azul. Imaginemos entonces una fuente luminosa, tal como una estrella, a una distancia fija de nosotros, que emite ondas de luz con una frecuencia constante. Obviamente la frecuencia de las ondas que recibimos será la misma que la frecuencia con la que son emitidas (el campo gravitatorio de la galaxia no será lo suficientemente grande como para tener un efecto significativo). Supongamos ahora que la fuente empieza a moverse hacia nosotros. Cada vez que la fuente emita la siguiente cresta de onda, estará más cerca de nosotros, por lo que el tiempo que cada nueva cresta tarde en alcanzarnos será menor que cuando la estrella estaba estacionaria. Esto significa que el tiempo entre cada dos crestas que llegan a nosotros es más corto que antes y, por lo tanto, que el número de ondas que recibimos por segundo (es decir, la frecuencia) es mayor que cuando la estrella estaba estacionaria. Igualmente, si la fuente se aleja de nosotros, la frecuencia de las ondas que recibimos será menor que en el supuesto estacionario. Así pues, en el caso de la luz, esto significa que las estrellas que se estén alejando de nosotros tendrán sus espectros desplazados hacia el extremo rojo del espectro (corrimiento hacia el rojo) y las estrellas que se estén acercando tendrán espectros con un corrimiento hacia el azul. Esta relación entre frecuencia y velocidad, que se conoce como efecto Doppler, es una experiencia diaria. Si escuchamos un coche al pasar por la carretera notamos que, cuando se nos aproxima, su motor suena con un tono más agudo de lo normal (lo que corresponde a una frecuencia más alta de las ondas sonoras), mientras que cuando se aleja produce un sonido más grave. El comportamiento de la luz o de las ondas de radio es similar. De hecho, la policía hace uso del efecto Doppler para medir la velocidad de los coches a partir de la frecuencia de los pulsos de ondas de radio reflejados por los vehículos.
En los años que siguieron al descubrimiento de la existencia de otras galaxias, Hubble dedicó su tiempo a catalogar las distancias y a observar los espectros de las galaxias. En aquella época, la mayor parte de la gente pensaba que las galaxias se moverían de forma bastante aleatoria, por lo que se esperaba encontrar tantos espectros con corrimiento hacia el azul como hacia el rojo. Fue una sorpresa absoluta, por lo tanto, encontrar que la mayoría de las galaxias presentaban un corrimiento hacia el rojo: ¡casi todas se estaban alejando de nosotros! Incluso más sorprendente aún fue el hallazgo que Hubble publicó en 1929: ni siquiera el corrimiento de las galaxias hacia el rojo es aleatorio, sino que es directamente proporcional a la distancia que nos separa de ellas. O, dicho con otras palabras, ¡cuanto más lejos está una galaxia, a mayor velocidad se aleja de nosotros! Esto significa que el universo no puede ser estático, como todo el mundo había creído antes, sino que de hecho se está expandiendo. La distancia entre las diferentes galaxias está aumentando continuamente.
El descubrimiento de que el universo se está expandiendo ha sido una de las grandes revoluciones intelectuales del siglo XX. Visto a posteriori, es natural asombrarse de que a nadie se le hubiera ocurrido esto antes. Newton, y algún otro científico, debería haberse dado cuenta que un universo estático empezaría enseguida a contraerse bajo la influencia de la gravedad. Pero supongamos que, por el contrario, el universo se expande. Si se estuviera expandiendo muy lentamente, la fuerza de la gravedad frenaría finalmente la expansión y aquél comenzaría entonces a contraerse. Sin embargo, si se expandiera más deprisa que a un cierto valor crítico, la gravedad no sería nunca lo suficientemente intensa como para detener la expansión, y el universo continuaría expandiéndose por siempre. La situación sería parecida a lo que sucede cuando se lanza un cohete hacia el espacio desde la superficie de la Tierra. Si éste tiene una velocidad relativamente baja, la gravedad acabará deteniendo el cohete, que entonces caerá de nuevo a la Tierra. Por el contrario, si el cohete posee una velocidad mayor que una cierta velocidad crítica (de unos once kilómetros por segundo) la gravedad no será lo suficientemente intensa como para hacerlo regresar de tal forma que se mantendrá alejándose de la Tierra para siempre. Este comportamiento del universo podría haber sido predicho a partir de la teoría de la gravedad de Newton, en el siglo XIX, en el XVIII, o incluso a finales del XVII. La creencia en un universo estático era tan fuerte que persistió hasta principios del siglo XX. Incluso Einstein, cuando en 1915 formuló la teoría de la relatividad general, estaba tan seguro de que el universo tenía que ser estático que modificó la teoría para hacer que ello fuera posible, introduciendo en sus ecuaciones la llamada constante cosmológica. Einstein introdujo una nueva fuerza «antigravitatoria», que, al contrario que las otras fuerzas, no provenía de ninguna fuente en particular, sino que estaba inserta en la estructura misma del espacio-tiempo. Él sostenía que el espacio-tiempo tenía una tendencia intrínseca a expandirse, - y que ésta tendría un valor que equilibraría exactamente la atracción de toda la materia en el universo, de modo que sería posible la existencia de un universo estático. Sólo un hombre estaba dispuesto, según parece, a aceptar la relatividad general al pie de la letra. Así, mientras Einstein y otros físicos buscaban modos de evitar las predicciones de la relatividad general de un universo no estático, el físico y matemático ruso Alexander Friedmann se dispuso, por el contrario, a explicarlas.
Friedmann hizo dos suposiciones muy simples sobre el universo: que el universo parece el mismo desde cualquier dirección desde la que se le observe, y que ello también sería cierto si se le observara desde cualquier otro lugar. A partir de estas dos ideas únicamente, Friedmann demostró que no se debería esperar que el universo fuera estático. De hecho, en 1922, varios años antes del descubrimiento de Edwin Hubble, ¡Friedmann predijo exactamente lo que Hubble encontró!
La suposición de que el universo parece el mismo en todas direcciones, no es cierta en la realidad. Por ejemplo, como hemos visto, las otras estrellas de nuestra galaxia forman una inconfundible banda de luz a lo largo del cielo, llamada Vía Láctea. Pero si nos concentramos en las galaxias lejanas, parece haber más o menos el mismo número de ellas en cada dirección. Así, el universo parece ser aproximadamente el mismo en cualquier dirección, con tal de que se le analice a gran escala, comparada con la distancia entre galaxias, y se ignoren las diferencias a pequeña escala. Durante mucho tiempo, esto fue justificación suficiente para la suposición de Friedmann, tomada como una aproximación grosera del mundo real. Pero recientemente, un afortunado accidente reveló que la suposición de Friedmann es de hecho una descripción extraordinariamente exacta de nuestro universo.
En 1965, dos físicos norteamericanos de los laboratorios de la Bell Telephone en Nueva Jersey, Arno Penzias y Robert Wilson, estaban probando un detector de microondas extremadamente sensible, (Las microondas son iguales a las ondas luminosas, pero con una frecuencia del orden de sólo diez mil millones de ondas por segundo.) Penzias y Wilson se sorprendieron al encontrar que su detector captaba más ruido del que esperaban. El ruido no parecía provenir de ninguna dirección en particular. Al principio descubrieron excrementos de pájaro en su detector, por lo que comprobaron todos los posibles defectos de funcionamiento, pero pronto los desecharon. Ellos sabían que cualquier ruido proveniente de dentro de la atmósfera sería menos intenso cuando el detector estuviera dirigido hacia arriba que cuando no lo estuviera, ya que los rayos luminosos atraerían mucha más atmósfera cuando se recibieran desde cerca del horizonte que cuando se recibieran directamente desde arriba. El ruido extra era el mismo para cualquier dirección desde la que se observara, de forma que debía provenir de fuera de la atmósfera. El ruido era también el mismo durante el día, y durante la noche, y a lo largo de todo el año, a pesar de que la Tierra girara sobre su eje y alrededor del Sol. Esto demostró que la radiación debía provenir de más allá del sistema solar, e incluso desde más allá de nuestra galaxia, pues de lo contrario variaría cuando el movimiento de la Tierra hiciera que el detector apuntara en diferentes direcciones.
De hecho, sabemos que la radiación debe haber viajado hasta nosotros a través de la mayor parte del universo observable, y dado que parece ser la misma en todas las direcciones, el universo debe también ser el mismo en todas las direcciones, por lo menos a gran escala. En la actualidad, sabemos que en cualquier dirección que miremos, el ruido nunca varía más de una pequeña parte. Así, Penzias y Wilson tropezaron inconscientemente con una confirmación extraordinariamente precisa de la primera suposición de Friedmann. Sin embargo, dado que el universo no es exactamente el mismo en todas direcciones, sino sólo un promedio a gran escala, las microondas tampoco pueden ser exactamente las mismas en todas direcciones. Debe haber pequeñas variaciones entre las diferentes direcciones. Esto fue detectado por primera vez en 1992 por el Cosmic Background Explorer Satellite, o COBE, a un nivel de alrededor de una parte en cien mil. Aunque pequeñas, estas variaciones son muy importantes, como será explicado en el capítulo 8.
Aproximadamente al mismo tiempo, dos físicos norteamericanos de la cercana Universidad de Princeton, Bob Dicke y Jim Peebles, también estaban interesados en las microondas. Estudiaban una sugerencia hecha por George Gamow (que había sido alumno de Alexander Friedmann) relativa a que el universo en sus primeros instantes debería haber sido muy caliente y denso, para acabar blanco incandescente. Dicke y Peebles argumentaron que aún deberíamos ser capaces de ver el resplandor de los inicios del universo, porque la luz proveniente de lugares muy distantes estaría alcanzándonos ahora. Sin embargo, la expansión del universo implicaría que esta luz debería estar tan tremendamente desplazada hacia el rojo que nos llegaría hoy en día como radiación de microondas. Cuando Dicke y Peebles estaban estudiando cómo buscar esta radiación, Penzias y Wilson se enteraron del objetivo de ese trabajo y comprendieron que ellos ya habían encontrado dicha radiación. Gracias a este trabajo, Penzias y Wilson fueron galardonados con el premio Nobel en 1978 (¡lo que parece ser bastante injusto con Dicke y Peebles, por no mencionar a Gamow!).
A primera vista, podría parecer que toda esta evidencia de que el universo parece el mismo en cualquier dirección desde la que miremos sugeriría que hay algo especial en cuanto a nuestra posición en el universo. En particular, podría pensarse que, si observamos a todas las otras galaxias alejarse de nosotros, es porque estamos en el centro del universo. Hay, sin embargo, una explicación alternativa: el universo podría ser también igual en todas las direcciones si lo observáramos desde cualquier otra galaxia. Esto, como hemos visto, fue la segunda suposición de Friedmann. No se tiene evidencia científica a favor o en contra de esta suposición. Creemos en ella sólo por razones de modestia: ¡sería extraordinariamente curioso que el universo pareciera idéntico en todas las direcciones a nuestro alrededor, y que no fuera así para otros puntos del universo! En el modelo de Friedmann, todas las galaxias se están alejando entre sí unas de otras. La situación es similar a un globo con cierto número de puntos dibujados en él, y que se va hinchando uniformemente. Conforme el globo se hincha, la distancia entre cada dos puntos aumenta, a pesar de lo cual no se puede decir que exista un punto que sea el centro de la expansión. Además, cuanto más lejos estén los puntos, se separarán con mayor velocidad. Similarmente, en el modelo de Friedmann la velocidad con la que dos galaxias cualesquiera se separan es proporcional a la distancia entre ellas. De esta forma, predecía que el corrimiento hacia el rojo de una galaxia debería ser directamente proporcional a su distancia a nosotros, exactamente lo que Hubble encontró. A pesar del éxito de su modelo y de sus predicciones de las observaciones de Hubble, el trabajo de Friedmann siguió siendo desconocido en el mundo occidental hasta que en 1935 el físico norteamericano Howard Robertson y el matemático británico Arthur Walker crearon modelos similares en respuesta al descubrimiento por Hubble de la expansión uniforme del universo.
Aunque Friedmann encontró sólo uno, existen en realidad tres tipos de modelos que obedecen a las dos suposiciones fundamentales de Friedmann. En el primer tipo (el que encontró Friedmann), el universo se expande lo suficientemente lento como para que la atracción gravitatoria entre las diferentes galaxias sea capaz de frenar y finalmente detener la expansión. Las galaxias entonces se empiezan a acercar las unas a las otras y el universo se contrae.
Figura 3:2
La Figura 3:2 muestra cómo cambia, conforme aumenta el tiempo, la distancia entre dos galaxias vecinas. Ésta empieza siendo igual a cero, aumenta hasta llegar a un máximo y luego disminuye hasta hacerse cero de nuevo. En el segundo tipo de solución, el universo se expande tan rápidamente que la atracción gravitatoria no puede pararlo, aunque sí que lo frena un poco.
Figura 3:3
La Figura 3:3 muestra la separación entre dos galaxias vecinas en este modelo. Empieza en cero y con el tiempo sigue aumentando, pues las galaxias continúan separándose con una velocidad estacionaria. Por último, existe un tercer tipo de solución, en el que el universo se está expandiendo sólo con la velocidad justa para evitar colapsarse.
Figura 3:4
La separación en este caso, mostrada en la Figura 3:4, también empieza en cero y continúa aumentando siempre. Sin embargo, la velocidad con la que las galaxias se están separando se hace cada vez más pequeña, aunque nunca llega a ser nula.
Una característica notable del primer tipo de modelo de Friedmann es que, en él, el universo no es infinito en el espacio, aunque tampoco tiene ningún límite. La gravedad es tan fuerte que el espacio se curva cerrándose sobre sí mismo, resultando parecido a la superficie de la Tierra. Si uno se mantiene viajando sobre la superficie de la Tierra en una cierta dirección, nunca llega frente a una barrera infranqueable o se cae por un precipicio, sino que finalmente regresa al lugar de donde partió.
En el primer modelo de Friedmann, el espacio es justo como esto, pero con tres dimensiones en vez de con dos, como ocurre con la superficie terrestre. La cuarta dimensión, el tiempo, también tiene una extensión finita, pero es como una línea con dos extremos o fronteras, un principio y un final. Se verá más adelante que cuando se combina la relatividad general con el principio de incertidumbre de la mecánica cuántica, es posible que ambos, espacio y tiempo, sean finitos, sin ningún tipo de borde o frontera.
La idea de que se podría ir en línea recta alrededor del universo y acabar donde se empezó es buena para la ciencia-ficción, pero no tiene demasiada relevancia práctica, pues puede verse que el universo se colapsaría de nuevo a tamaño cero antes de que se pudiera completar una vuelta entera. Uno tendría que viajar más rápido que la luz, para poder regresar al punto de partida antes de que el universo tuviera un final -¡y esto no está permitido!
En el primer tipo de modelo de Friedmann, el que se expande primero y luego se colapsa, el espacio está curvado sobre sí mismo, al igual que la superficie de la Tierra. Es, por lo tanto, finito en extensión. En el segundo tipo de modelo, el que se expande por siempre, el espacio está curvado al contrario, es decir, como la superficie de una silla de montar. Así, en este caso el espacio es infinito. Finalmente, en el tercer tipo, el que posee la velocidad crítica de expansión, el espacio no está curvado (y, por lo tanto, también es infinito).
Pero, ¿cuál de los modelos de Friedmann describe a nuestro universo? ¿Cesará alguna vez el universo su expansión y empezará a contraerse, o se expandirá por siempre? Para responder a estas cuestiones, necesitamos conocer el ritmo actual de expansión y la densidad media presente. Si la densidad es menor que un cierto valor crítico, determinado por el ritmo de expansión, la atracción gravitatoria será demasiado débil para poder detener la expansión. Si la densidad es mayor que el valor crítico, la gravedad parará la expansión en algún tiempo futuro y hará que el universo vuelva a colapsarse.
Podemos determinar el ritmo actual de expansión, midiendo a través del efecto Doppler las velocidades a las que las otras galaxias se alejan de nosotros. Esto puede hacerse con mucha precisión. Sin embargo, las distancias a las otras galaxias no se conocen bien porque sólo podemos medirlas indirectamente. Así, todo lo que sabemos es que el universo se expande entre un cinco y un diez por ciento cada mil millones de años. Sin embargo, nuestra incertidumbre con respecto a la densidad media actual del universo es incluso mayor. Si sumamos las masas de todas las estrellas, que podemos ver tanto en nuestra galaxia como en las otras galaxias, el total es menos de la centésima parte de la cantidad necesaria para detener la expansión del universo, incluso considerando la estimación más baja del ritmo de expansión. Nuestra galaxia y las otras galaxias deben contener, no obstante, una gran cantidad de «materia oscura» que no se puede ver directamente, pero que sabemos que debe existir, debido a la influencia de su atracción gravitatoria sobre las órbitas de las estrellas en las galaxias. Además, la mayoría de las galaxias se encuentran agrupadas en racimos, y podemos inferir igualmente la presencia de aún más materia oscura en los espacios intergalácticos de los racimos, debido a su efecto sobre el movimiento de las galaxias. Cuando sumamos toda esta materia oscura, obtenemos tan sólo la décima parte, aproximadamente, de la cantidad requerida para detener la expansión. No obstante, no podemos excluir la posibilidad de que pudiera existir alguna otra forma de materia, distribuida casi uniformemente a lo largo y ancho del universo, que aún no hayamos detectado y que podría elevar la densidad media del universo por encima del valor crítico necesario para detener la expansión. La evidencia presente sugiere, por lo tanto, que el universo se expandirá probablemente por siempre, pero que de lo único que podemos estar verdaderamente seguros es de que si el universo se fuera a colapsar, no lo haría como mínimo en otros diez mil millones de años, ya que se ha estado expandiendo por lo menos esa cantidad de tiempo. Esto no nos debería preocupar indebidamente: para entonces, al menos que hayamos colonizado más allá del sistema solar, ¡la humanidad hará tiempo que habrá desaparecido, extinguida junto con nuestro Sol!
Todas las soluciones de Friedmann comparten el hecho de que en algún tiempo pasado (entre diez y veinte mil millones de años) la distancia entre galaxias vecinas debe haber sido cero. En aquel instante, que llamamos big bang, la densidad del universo y la curvatura del espacio-tiempo habrían sido infinitas. Dado que las matemáticas no pueden manejar realmente números infinitos, esto significa que la teoría de la relatividad general (en la que se basan las soluciones de Friedmann) predice que hay un punto en el universo en donde la teoría en sí colapsa. Tal punto es un ejemplo de lo que los matemáticos llaman una singularidad. En realidad, todas nuestras teorías científicas están formuladas bajo la suposición de que el espacio-tiempo es uniforme y casi plano, de manera que ellas dejan de ser aplicables en la singularidad del big bang, en donde la curvatura del espacio-tiempo es infinita. Ello significa que aunque hubiera acontecimientos anteriores al big bang, no se podrían utilizar para determinar lo que sucedería después, ya que toda capacidad de predicción fallaría en el big bang.
Igualmente, si, como es el caso, sólo sabemos lo que ha sucedido después del big bang, no podremos determinar lo que sucedió antes. Desde nuestro punto de vista, los sucesos anteriores al big bang no pueden tener consecuencias, por lo que no deberían formar parte de los modelos científicos del universo. Así pues, deberíamos extraerlos de cualquier modelo y decir que el tiempo tiene su principio en el big bang.
A mucha gente no le gusta la idea de que el tiempo tenga un principio, probablemente porque suena a intervención divina. (La Iglesia católica, por el contrario, se apropió del modelo del big bang y en 1951 proclamó oficialmente que estaba de acuerdo con la Biblia.) Por ello, hubo un buen número de intentos para evitar la conclusión de que había habido un big bang. La propuesta que consiguió un apoyo más amplio fue la llamada teoría del estado estacionario (steady state). Fue sugerida, en 1948, por dos refugiados de la Austria ocupada por los nazis, Hermann Bond y Thomas Gold, junto con un británico, Fred Hoyle, que había trabajado con ellos durante la guerra en el desarrollo del radar. La idea era que conforme las galaxias se iban alejando unas de otras, nuevas galaxias se formaban continuamente en las regiones intergalácticas, a partir de materia nueva que era creada de forma continua. El universo parecería, así pues, aproximadamente el mismo en todo tiempo y en todo punto del espacio. La teoría del estado estacionario requería una modificación de la relatividad general para permitir la creación continua de materia, pero el ritmo de creación involucrado era tan bajo (aproximadamente una partícula por kilómetro cúbico al año) que no estaba en conflicto con los experimentos. La teoría era una buena teoría científica, en el sentido descrito en el capítulo 1: era simple y realizaba predicciones concretas que podrían ser comprobadas por la observación. Una de estas predicciones era que el número de galaxias, u objetos similares en cualquier volumen dado del espacio, debería ser el mismo en donde quiera y cuando quiera que miráramos en el universo. Al final de los años cincuenta y principio de los sesenta, un grupo de astrónomos dirigido por Martin Ryle (quien también había trabajado con Bond, Gold y Hoyle en el radar durante la guerra) realizó, en Cambridge, un estudio sobre fuentes de ondas de radio en el espacio exterior. El grupo de Cambridge demostró que la mayoría de estas fuentes de radio deben residir fuera de nuestra galaxia (muchas de ellas podían ser identificadas verdaderamente con otras galaxias), y, también, que había muchas más fuentes débiles que intensas. Interpretaron que las fuentes débiles eran las más distantes, mientras que las intensas eran las más cercanas. Entonces resultaba haber menos fuentes comunes por unidad de volumen para las fuentes cercanas que para las lejanas. Esto podría significar que estamos en una región del universo en la que las fuentes son más escasas que en el resto. Alternativamente, podría significar que las fuentes eran más numerosas en el pasado, en la época en que las ondas de radio comenzaron su viaje hacia nosotros, que ahora. Cualquier explicación contradecía las predicciones de la teoría del estado estacionario. Además, el descubrimiento de la radiación de microondas por Penzias y Wilson en 1965 también indicó que el universo debe haber sido mucho más denso en el pasado. La teoría del estado estacionario tenía, por lo tanto, que ser abandonada.
Otro intento de evitar la conclusión de que debe haber habido un big bang y, por lo tanto, un principio del tiempo, fue realizado por dos científicos rusos, Evgenii Lifshitz e Isaac Khalatnikov, en 1963. Ellos sugirieron que el big bang podría ser, únicamente, una peculiaridad de los modelos de Friedmann, que después de todo no eran más que aproximaciones al universo real. Quizás, de todos los modelos que eran aproximadamente como el universo real, sólo los de Friedmann contuvieran una singularidad como la del big bang. En los modelos de Friedmann, todas las galaxias se están alejando directamente unas de otras, de tal modo que no es sorprendente que en algún tiempo pasado estuvieran todas juntas en el mismo lugar. En el universo real, sin embargo, las galaxias no tienen sólo un movimiento de separación de unas con respecto a otras, sino que también tienen pequeñas velocidades laterales. Así, en realidad, nunca tienen por qué haber estado todas en el mismo lugar exactamente, sino simplemente muy cerca unas de otras. Quizás entonces el universo en expansión actual no habría resultado de una singularidad como el big bang, sino de, una fase previa en contracción. Cuando el universo se colapsó, las partículas que lo formaran podrían no haber colisionado todas entre sí, sino que se habrían entrecruzado y separado después, produciendo la expansión actual del universo. ¿Cómo podríamos entonces distinguir si el universo real ha comenzado con un big bang o no? Lo que Lifshitz y Khalatnikov hicieron fue estudiar modelos del universo que eran aproximadamente como los de Friedmann, pero que tenían en cuenta las irregularidades y las velocidades aleatorias de las galaxias en el universo real. Demostraron que tales 'Modelos podrían comenzar con un big bang, incluso a pesar de que las galaxias ya no estuvieran separándose directamente unas de otras, pero sostuvieron que ello sólo seguía siendo posible en ciertos modelos excepcionales en los que las galaxias se movían justamente en la forma adecuada. Argumentaron que, ya que parece haber infinitamente más modelos del tipo Friedmann sin una singularidad como la del big bang que con una, se debería concluir que en realidad no ha existido el big bang. Sin embargo, más tarde se dieron cuenta de que había una clase mucho más general de modelos del tipo Friedmann que sí contenían singularidades, y en los que las galaxias no tenían que estar moviéndose de un modo especial. Así pues, retiraron su afirmación en 1970.
El trabajo de Lifshitz y Khalatnikov fue muy valioso porque demostró que el universo podría haber tenido una singularidad, un big bang, si la teoría de la relatividad general era correcta. Sin embargo, no resolvió la cuestión fundamental: ¿predice la teoría de la relatividad general que nuestro universo debería haber tenido un big bang, un principio del tiempo? La respuesta llegó a través de una aproximación completamente diferente, comenzada por un físico y matemático británico, Roger Penrose, en 1965. Usando el modo en que los conos de luz se comportan en la relatividad general, junto con el hecho de que la gravedad es siempre atractiva, demostró que una estrella que se colapsa bajo su propia gravedad está atrapada en una región cuya superficie se reduce con el tiempo a tamaño cero. Y, si la superficie de la región se reduce a cero, lo mismo debe ocurrir con su volumen. Toda la materia de la estrella estará comprimida en una región de volumen nulo, de tal forma que la densidad de materia y la curvatura del espacio-tiempo se harán infinitas. En otras palabras, se obtiene una singularidad contenida dentro de una región del espacio-tiempo llamada agujero negro.
A primera vista, el resultado de Penrose sólo se aplica a estrellas. No tiene nada que ver con la cuestión de si el universo entero tuvo, en el pasado, una singularidad del tipo del big bang. No obstante, cuando Penrose presentó su teorema, yo era un estudiante de investigación que buscaba desesperadamente un problema con el que completar la tesis doctoral. Dos años antes, se me había diagnosticado la enfermedad ALS, comúnmente conocida como enfermedad de Lou Gehrig o de las neuronas motoras, y se me había dado a entender que sólo me quedaban uno o dos años de vida. En estas circunstancias no parecía tener demasiado sentido trabajar en la tesis doctoral, pues no esperaba sobrevivir tanto tiempo. A pesar de eso, habían transcurrido dos años y no me encontraba mucho peor. De hecho, las cosas me iban bastante bien y me había prometido con una chica encantadora, Jane Wilde. Pero para poderme casar, necesitaba un trabajo, y para poderlo obtener, necesitaba el doctorado.
En 1965, leí acerca del teorema de Penrose según el cual cualquier cuerpo que sufriera un colapso gravitatorio debería finalmente formar una singularidad. Pronto comprendí que si se invirtiera la dirección del tiempo en el teorema de Penrose, de forma que el colapso se convirtiera en una expansión, las condiciones del teorema seguirían verificándose, con tal de que el universo a gran escala fuera, en la actualidad, aproximadamente como un modelo de Friedmann. El teorema de Penrose había demostrado que cualquier estrella que se colapse debe acabar en una singularidad. El mismo argumento con el tiempo invertido demostró que cualquier universo en expansión, del tipo de Friedmann, debe haber comenzado en una singularidad. Por razones técnicas, el teorema de Penrose requería que el universo fuera infinito espacialmente. Consecuentemente, sólo podía utilizarlo para probar que debería haber una singularidad si el universo se estuviera expandiendo lo suficientemente rápido como para evitar colapsarse de nuevo (ya que sólo estos modelos de Friedmann eran infinitos espacialmente).
Durante los años siguientes, me dediqué a desarrollar nuevas técnicas matemáticas para eliminar el anterior y otros diferentes requisitos técnicos de los teoremas, que probaban que las singularidades deben existir. El resultado final fue un artículo conjunto entre Penrose y yo, en 1970, que al final probó que debe haber habido una singularidad como la del big bang, con la única condición de que la relatividad general sea correcta y que el universo contenga tanta materia como observamos. Hubo una fuerte oposición a nuestro trabajo, por parte de los rusos, debido a su creencia marxista en el determinismo científico, y por parte de la gente que creía que la idea en sí de las singularidades era repugnante y estropeaba la belleza de la teoría de Einstein. No obstante, uno no puede discutir en contra de un teorema matemático. Así, al final, nuestro trabajo llegó a ser generalmente aceptado y, hoy en día, casi todo el mundo supone que el universo comenzó con una singularidad como la del big bang. Resulta por eso irónico que, al haber cambiado mis ideas, esté tratando ahora de convencer a los otros físicos de que no hubo en realidad singularidad al principio del universo. Como veremos más adelante, ésta puede desaparecer una vez que los efectos cuánticos se tienen en cuenta.
Hemos visto en este capítulo cómo, en menos de medio siglo, nuestra visión del universo, formada durante milenios, se ha transformado. El descubrimiento de Hubble de que el universo se está expandiendo, y el darnos cuenta de la insignificancia de nuestro planeta en la inmensidad del universo, fueron sólo el punto de partida. Conforme la evidencia experimental y teórica se iba acumulando, se clarificaba cada vez más que el universo debe haber tenido un principio en el tiempo, hasta que en 1970 esto fue finalmente probado por Penrose y por mí, sobre la base de la teoría de la relatividad general de Einstein. Esa prueba demostró que la relatividad general es sólo una teoría incompleta: no puede decirnos cómo empezó el universo, porque predice que todas las teorías físicas, incluida ella misma, fallan al principio del universo. No obstante, la relatividad general sólo pretende ser una teoría parcial, de forma que lo que el teorema de la singularidad realmente muestra es que debió haber habido un tiempo, muy al principio del universo, en que éste era tan pequeño que ya no se pueden ignorar los efectos de pequeña escala de la otra gran teoría parcial del siglo XX, la mecánica cuántica. Al principio de los años setenta, nos vimos forzados a girar nuestra búsqueda de un entendimiento del universo, desde nuestra teoría de lo extraordinariamente inmenso, hasta nuestra teoría de lo extraordinariamente diminuto. Esta teoría, la mecánica cuántica, se describirá a continuación, antes de volver a explicar los esfuerzos realizados para combinar las dos teorías parciales en una única teoría cuántica de la gravedad.

CAPITULO 4
EL PRINCIPIO DE INCERTIDUMBRE

El éxito de las teorías científicas, y en particular el de la teoría de la gravedad de Newton, llevó al científico francés marqués de Laplace a argumentar, a principios del siglo XIX, que el universo era completamente determinista. Laplace sugirió que debía existir un conjunto de leyes científicas que nos permitirían predecir todo lo que sucediera en el universo, con tal de que conociéramos el estado completo del universo en un instante de tiempo. Por ejemplo, si supiéramos las posiciones y velocidades del Sol y de los planetas en un determinado momento, podríamos usar entonces las leyes de Newton para calcular el estado del sistema solar en cualquier otro instante. El determinismo parece bastante obvio en este caso, pero Laplace fue más lejos hasta suponer que había leyes similares gobernando todos los fenómenos, incluido el comportamiento humano.
La doctrina del determinismo científico fue ampliamente criticada por diversos sectores, que pensaban que infringía la libertad divina de intervenir en el mundo, pero, a pesar de ello, constituyó el paradigma de la ciencia hasta los primeros años de nuestro siglo. Una de las primeras indicaciones de que esta creencia habría de ser abandonada llegó cuando los cálculos de los científicos británicos lord Rayleigh y sir James Jeans sugirieron que un objeto o cuerpo caliente, tal como una estrella, debería irradiar energía a un ritmo infinito. De acuerdo con las leyes en las que se creía en aquel tiempo, un cuerpo caliente tendría que emitir ondas electromagnéticas (tales como ondas de radio, luz visible o rayos X) con igual intensidad a todas las frecuencias. Por ejemplo, un cuerpo caliente debería irradiar la misma cantidad de energía, tanto en ondas con frecuencias comprendidas entre uno y dos billones de ciclos por segundo, como en ondas con frecuencias comprendidas entre dos y tres billones de ciclos por segundo. Dado que el número de ciclos por segundo es ilimitado, esto significaría entonces que la energía total irradiada sería infinita.
Para evitar este resultado, obviamente ridículo, el científico alemán Max Planck sugirió en 1900 que la luz, los rayos X y otros tipos de ondas no podían ser emitidos en cantidades arbitrarias, sino sólo en ciertos paquetes que él llamó «cuantos». Además, cada uno de ellos poseía una cierta cantidad de energía que era tanto mayor cuanto más alta fuera la frecuencia de las ondas, de tal forma que para frecuencias suficientemente altas la emisión de un único cuanto requeriría más energía de la que se podía obtener. Así la radiación de altas frecuencias se reduciría, y el ritmo con el que el cuerpo perdía energía sería, por lo tanto, finito.
La hipótesis cuántica explicó muy bien la emisión de radiación por cuerpos calientes, pero sus aplicaciones acerca del determinismo no fueron comprendidas hasta 1926, cuando otro científico alemán, Werner Heisenberg, formuló su famoso principio de incertidumbre. Para poder predecir la posición y la velocidad futuras de una partícula, hay que ser capaz de medir con precisión su posición y velocidad actuales. El modo obvio de hacerlo es iluminando con luz la partícula. Algunas de las ondas luminosas serán dispersadas por la partícula, lo que indicará su posición. Sin embargo, uno no podrá ser capaz de determinar la posición de la partícula con mayor precisión que la distancia entre dos crestas consecutivas de la onda luminosa, por lo que se necesita utilizar luz de muy corta longitud de onda para poder medir la posición de la partícula con precisión. Pero, según la hipótesis de Planck, no se puede usar una cantidad arbitrariamente pequeña de luz; se tiene que usar como mínimo un cuanto de luz. Este cuanto perturbará la partícula, cambiando su velocidad en una cantidad que no puede ser predicha. Además, cuanto con mayor precisión se mida la posición, menor habrá de ser la longitud de onda de la luz que se necesite y, por lo tanto, mayor será la energía del cuanto que se haya de usar. Así la velocidad de la partícula resultará fuertemente perturbada. En otras palabras, cuanto con mayor precisión se trate de medir la posición de la partícula, con menor exactitud se podrá medir su velocidad, y viceversa. Heisenberg demostró que la incertidumbre en la posición de la partícula, multiplicada por la incertidumbre en su velocidad y por la masa de la partícula, nunca puede ser más pequeña que una cierta cantidad, que se conoce como constante de Planck. Además, este límite no depende de la forma en que uno trata de medir la posición o la velocidad de la partícula, o del tipo de partícula: el principio de incertidumbre de Heisenberg es una propiedad fundamental, ineludible, del mundo.
El principio de incertidumbre tiene profundas aplicaciones sobre el modo que tenemos de ver el mundo. Incluso más de cincuenta años después, éstas no han sido totalmente apreciadas por muchos filósofos, y aún son objeto de mucha controversia. El principio de incertidumbre marcó el final del sueño de Laplace de una teoría de la ciencia, un modelo del universo que sería totalmente determinista: ciertamente, ¡no se pueden predecir los acontecimientos futuros con exactitud si ni siquiera se puede medir el estado presente del universo de forma precisa! Aún podríamos suponer que existe un conjunto de leyes que determina completamente los acontecimientos para algún ser sobrenatural, que podría observar el estado presente del universo sin perturbarle. Sin embargo, tales modelos del universo no son de demasiado interés para nosotros, ordinarios mortales. Parece mejor emplear el principio de economía conocido como «cuchilla de Occam» y eliminar todos los elementos de la teoría que no puedan ser observados. Esta aproximación llevó en 1920 a Heisenberg, Erwin Schrijdinger y Paul Dirac a reformular la mecánica con una nueva teoría llamada mecánica cuántica, basada en el principio de incertidumbre. En esta teoría las partículas ya no poseen posiciones y velocidades definidas por separado, pues éstas no podrían ser observadas. En vez de ello, las partículas tienen un estado cuántico, que es una combinación de posición y velocidad.
En general, la mecánica cuántica no predice un único resultado de cada observación. En su lugar, predice un cierto número de resultados posibles y nos da las probabilidades de cada uno de ellos. Es decir, si se realizara la misma medida sobre un gran número de sistemas similares, con las mismas condiciones de partida en cada uno de ellos, se encontraría que el resultado de la medida sería A un cierto número de veces, B otro número diferente de veces, y así sucesivamente. Se podría predecir el número aproximado de veces que se obtendría el resultado A o el B, pero no se podría predecir el resultado específico de una medida concreta. Así pues, la mecánica cuántica introduce un elemento inevitable de incapacidad de predicción, una aleatoriedad en la ciencia. Einstein se opuso fuertemente a ello, a pesar del importante papel que él mismo había jugado en el desarrollo de estas ideas. Einstein recibió el premio Nobel por su contribución a la teoría cuántica. No obstante, Einstein nunca aceptó que el universo estuviera gobernado por el azar. Sus ideas al respecto están resumidas en su famosa frase «Dios no juega a los dados». La mayoría del resto de los científicos, sin embargo, aceptaron sin problemas la mecánica cuántica porque estaba perfectamente de acuerdo con los experimentos. Verdaderamente, ha sido una teoría con un éxito sobresaliente, y en ella se basan casi toda la ciencia y la tecnología modernas. Gobierna el comportamiento de los transistores y de los circuitos integrados, que son los componentes esenciales de los aparatos electrónicos, tales como televisores y ordenadores, y también es la base de la química y de la biología modernas. Las únicas áreas de las ciencias físicas en las que la mecánica cuántica aún no ha sido adecuadamente incorporada son las de la gravedad y la estructura a gran escala del universo.
Aunque la luz está formada por ondas, la hipótesis de los cuantos de Planck nos dice que en algunos aspectos se comporta como si estuviera compuesta por partículas: sólo puede ser emitida o absorbida en paquetes o cuantos. Igualmente, el principio de incertidumbre de Heisenberg implica que las partículas se comportan en algunos aspectos como ondas: no tienen una posición bien definida, sino que están «esparcidas» con una cierta distribución de probabilidad. La teoría de la mecánica cuántica está basada en una descripción matemática completamente nueva, que ya no describe al mundo real en términos de partículas y ondas; sólo las observaciones del mundo pueden ser descritas en esos términos. Existe así, por tanto, una dualidad entre ondas y partículas en la mecánica cuántica: para algunos fines es útil pensar en las partículas como ondas, mientras que para otros es mejor pensar en las ondas como partículas. Una consecuencia importante de lo anterior, es que se puede observar el fenómeno llamado de interferencia entre dos conjuntos de ondas o de partículas. Es decir, las crestas de uno de los conjuntos de ondas pueden coincidir con los valles del otro conjunto. En este caso los dos conjuntos de ondas se cancelan mutuamente, en vez de sumarse formando una onda más intensa, como se podría esperar Figura 4:1.
Figura 4:1
Un ejemplo familiar de interferencia en el caso de la luz lo constituyen los colores que con frecuencia aparecen en las pompas de jabón. Éstos están causados por la reflexión de la luz en las dos caras de la delgada capa de agua que forma la pompa. La luz blanca está compuesta por ondas luminosas de todas las longitudes de ondas o, lo que es lo mismo, de todos los colores. Para ciertas longitudes de onda, las crestas de las ondas reflejadas en una cara de la pompa de jabón coinciden con los valles de la onda reflejada en la otra cara. Los colores correspondientes a dichas longitudes de onda están ausentes en la luz reflejada, que por lo tanto se muestra coloreada. La interferencia también puede producirse con partículas, debido a la dualidad introducida por la mecánica cuántica. Un ejemplo famoso es el experimento llamado de las dos rendijas Figura 4:2.
Figura 4:2
Consideremos una fina pared con dos rendijas paralelas. En un lado de la pared se coloca una fuente luminosa de un determinado color, es decir, de una longitud de onda particular. La mayor parte de la luz chocará contra la pared, pero una pequeña cantidad atravesará las rendijas. Supongamos, entonces, que se sitúa una pantalla en el lado opuesto, respecto de la pared, de la fuente luminosa. Cualquier punto de la pantalla recibirá luz de las dos rendijas. Sin embargo, la distancia que tiene que viajar la luz desde la fuente a la pantalla, atravesando cada una de las rendijas, será, en general, diferente. Esto significará que las ondas provenientes de las dos rendijas no estarán en fase entre sí cuando lleguen a la pantalla: en algunos lugares las ondas se cancelarán entre sí, y en otros se reforzarán mutuamente. El resultado es un característico diagrama de franjas luminosas y oscuras.
Lo más notable es que se obtiene exactamente el mismo tipo de franjas si se reemplaza la fuente luminosa por una fuente de partículas, tales como electrones, con la misma velocidad (lo que significa que las ondas correspondientes poseen una única longitud de onda). Ello resulta muy peculiar porque, si sólo se tiene una rendija, no se obtienen franjas, sino simplemente una distribución uniforme de electrones a lo largo y ancho de la pantalla. Cabría pensar, por lo tanto, que la apertura de la otra rendija simplemente aumentaría el número de electrones que chocan en cada punto de la pantalla, pero, debido a la interferencia, este número realmente disminuye en algunos lugares. Si los electrones se envían a través de las rendijas de uno en uno, se esperaría que cada electrón pasara, o a través de una rendija, o a través de la otra, de forma que se comportaría justo igual a como si la rendija por la que pasó fuera la única que existiese, produciendo una distribución uniforme en la pantalla. En la realidad, sin embargo, aunque los electrones se envíen de uno en uno, las franjas siguen apareciendo. Así pues, ¡cada electrón deber pasar a través de ambas rendijas al mismo tiempo!
El fenómeno de la interferencia entre partículas ha sido crucial para la comprensión de la estructura de los átomos, las unidades básicas de la química y de la biología, y los ladrillos a partir de los cuales nosotros, y todas las cosas a nuestro alrededor, estamos formados. Al principio de este siglo se creyó que los átomos eran bastante parecidos a los planetas girando alrededor del Sol, con los electrones (partículas de electricidad negativa) girando alrededor del núcleo central, que posee electricidad positiva. Se supuso que la atracción entre la electricidad positiva y la negativa mantendría a los electrones en sus órbitas, de la misma manera que la atracción gravitatoria entre el Sol y los planetas mantiene a éstos en sus órbitas. El problema con este modelo residía en que las leyes de la mecánica y la electricidad predecían, antes de que existiera la mecánica cuántica, que los electrones perderían energía y caerían girando en espiral, hasta que colisionaran con el núcleo. Esto implicaría que el átomo, y en realidad toda la materia, debería colapsarse rápidamente a un estado de muy alta densidad. Una solución parcial a este problema la encontró el científico danés Niels Bohr en 1913. Sugirió que quizás los electrones no eran capaces de girar a cualquier distancia del núcleo central, sino sólo a ciertas distancias especificas. Si también se supusiera que sólo uno o dos electrones podían orbitar a cada una de estas distancias, se resolvería el problema del colapso del átomo, porque los electrones no podrían caer en espiral más allá de lo necesario, para llenar las órbitas correspondientes a las menores distancias y energías.
Este modelo explicó bastante bien la estructura del átomo más simple, el hidrógeno, que sólo tiene un electrón girando alrededor del núcleo. Pero no estaba claro cómo se debería extender la teoría a átomos más complicados. Además, la idea de un conjunto limitado de órbitas permitidas parecía muy arbitraria. La nueva teoría de la mecánica cuántica resolvió esta dificultad. Reveló que un electrón girando alrededor del núcleo podría imaginarse como una onda, con una longitud de onda que dependía de su velocidad. Existirían ciertas órbitas cuya longitud correspondería a un número entero (es decir, un número no fraccionario) de longitudes de onda del electrón. Para estas órbitas las crestas de las ondas estarían en la misma posición en cada giro, de manera que las ondas se sumarían: estas órbitas corresponderían a las órbitas permitidas de Bohr. Por el contrario, para órbitas cuyas longitudes no fueran un número entero de longitudes de onda, cada cresta de la onda sería finalmente cancelada por un valle, cuando el electrón pasara de nuevo; estas órbitas no estarían permitidas.
Un modo interesante de visualizar la dualidad onda-partícula es a través del método conocido como suma sobre historias posibles, inventado por el científico norteamericano Richard Feynman. En esta aproximación, la partícula se supone que no sigue una única historia o camino en el espacio-tiempo, como haría en una teoría clásica, en el sentido de no cuántica. En vez de esto, se supone que la partícula va de A a B a través de todos los caminos posibles. A cada camino se le asocia un par de números: uno representa el tamaño de una onda y el otro representa la posición en el ciclo (es decir, si se trata de una cresta o de un valle, por ejemplo). La probabilidad de ir de A a B se encuentra sumando las ondas asociadas a todos los caminos posibles. Si se compara un conjunto de caminos cercanos, en el caso general, las fases o posiciones en el ciclo diferirán enormemente. Esto significa que las ondas asociadas con estos caminos se cancelarán entre sí casi exactamente. Sin embargo, para algunos conjuntos de caminos cercanos, las fases no variarán mucho de uno a otro; las ondas de estos caminos no se cancelarán. Dichos caminos corresponden a las órbitas permitidas de Bohr.
Con estas ideas, puestas en forma matemática concreta, fue relativamente sencillo calcular las órbitas permitidas de átomos complejos e incluso de moléculas, que son conjuntos de átomos unidos por electrones, en órbitas que giran alrededor de más de un núcleo. Ya que la estructura de las moléculas, junto con las reacciones entre ellas, son el fundamento de toda la química y la biología, la mecánica cuántica nos permite, en principio, predecir casi todos los fenómenos a nuestro alrededor, dentro de los límites impuestos por el principio de incertidumbre. (En la práctica, sin embargo, los cálculos que se requieren para sistemas que contengan a más de unos pocos electrones son tan complicados que no pueden realizarse.)
La teoría de la relatividad general de Einstein parece gobernar la estructura a gran escala del universo. Es lo que se llama una teoría clásica, es decir, no tiene en cuenta el principio de incertidumbre de la mecánica cuántica, como debería hacer para ser consistente con otras teorías. La razón por la que esto no conduce a ninguna discrepancia con la observación es que todos los campos gravitatorios, que normalmente experimentamos, son muy débiles. Sin embargo, los teoremas sobre las singularidades, discutidos anteriormente, indican que el campo gravitatorio deberá ser muy intenso en, como mínimo, dos situaciones: los agujeros negros y el big bang. En campos así de intensos, los efectos de la mecánica cuántica tendrán que ser importantes. Así, en cierto sentido, la relatividad general clásica, al predecir puntos de densidad infinita, predice su propia caída, igual que la mecánica clásica (es decir, no cuántica) predijo su caída, al sugerir que los átomos deberían colapsarse hasta alcanzar una densidad infinita. Aún no tenemos una teoría consistente completa que unifique la relatividad general y la mecánica cuántica, pero sí que conocemos algunas de las características que debe poseer. Las consecuencias que éstas tendrían para los agujeros negros y el big bang se describirán en capítulos posteriores. Por el momento, sin embargo, volvamos a los intentos recientes de ensamblar las teorías parciales de las otras fuerzas de la naturaleza en una única teoría cuántica unificada.

No hay comentarios:

Publicar un comentario