Stephen Hawking - Conferencias
Conferencias de Stephen Hawking

¿Juega Dios a los dados?

Este discurso es acerca de si podemos predecir el futuro, o si éste es arbitrario y azaroso. En tiempos antiguos, el mundo debe haber parecido muy arbitrario. Los desastres como inundaciones o muertes debe haber parecido que ocurrían sin aviso, o razón aparente. La gente primitiva atribuía tales fenómenos naturales, a un panteón de dioses y diosas, que se comportaban en una forma caprichosa y voluble. No había forma de predecir lo que ellos podrían hacer, y la única esperanza era ganar sus favores con regalos o rituales. Mucha gente todavía suscribe parcialmente a esta creencia, y tratan de hacer un pacto con la fortuna. Ellos ofrecen hacer ciertas cosas sólo si pueden obtener un 10 en un exámen, o sacar el registro de conducir.

Gradualmente sin embargo, la gente debe haber notado ciertas regularidades en el comportamiento de la naturaleza. Estas regularidades eran muy obvias, en el movimiento de los cuerpos celestiales a través del cielo. Ergo la astronomía fue la primera ciencia a ser desarrollada. Esto fue puesto sobre una firme base matemática por Newton, hace más de 300 años, y todavía usamos su teoría de la gravedad para predecir el movimiento de casi todos los cuerpos celestiales. Siguiendo el ejemplo de la astronomía, se encontró que otros fenómenos naturales también obedecían leyes científicas definidas. Esto llevó a la idea del determinismo científico, que parece haber sido expresado públicamente por primera vez por el científico francés Laplace. Pensé que me gustaría citarles las verdaderas palabras de Laplace, así que le pedí a un amigo que las trajera. Están en francés por supuesto, no es que esperara que pudiera haber algún problema con esta audiencia. Pero el problema es, que Laplace era como Prewst, en que escribía oraciones desmesuradas en longitud y complejidad. Luego he decidido parafrasear la cita. En realidad lo que él dijo fue, que si en un tiempo, conocemos las posiciones y velocidades de todas las partículas del universo, entonces podríamos calcular su comportamiento en cualquier otro tiempo, en el pasado o en el futuro. Hay un cuento probablemente apócrifo, en el que cuando Napoleón le preguntó a Laplace, cómo entra Dios en este sistema, él replicó, 'señor, no he necesitado de esa hipótesis.' No pienso que Laplace haya aseverado que Dios no existía. Es sólo que El no interviene, para quebrar las leyes de la Ciencia. Esta debe ser la posición de todos los científicos. Una ley científica, no es una ley científica, si sólo se sostiene cuando algún ser sobrenatural, decide dejar que las cosas pasen, y no interviene.

La idea de que el estado del universo en un momento determina el estado en todos los otros momentos, ha sido un dogma central de la ciencia, desde el tiempo de Laplace. Ella implica que podemos prececir el futuro, en principio al menos. En la práctica, sin embargo, nuestra capacidad para predecir el futuro está severamente limitada por la complejidad de las ecuaciones, y el hecho de que a menudo tienen una propiedad llamada caos. Como todos los que hayan visto Jurassic Park lo saben, esto significa que un pequeño disturbio en un lugar, puede causar un gran cambio en otro. Una mariposa batiendo sus alas puede causar lluvia en Central Park, New York. El problema es, que no se puede repetir. La próxima vez que la mariposa bata sus alas, una multitud de otras cosas será diferente, lo cual también influenciará el tiempo. Por eso los pronósticos meteorológicos son tan poco confiables.

A pesar de estas dificultades prácticas, el determinismo científico siguió siendo el dogma oficial hasta el siglo XIX. Sin embargo, en el siglo XX, hubo dos descubrimientos que mostraron que la visión de Laplace, de una completa predicción del futuro, es irrealizable. El primero de estos descubrimientos fue la llamada mecánica cuántica. Esta fue promovida por primera vez en 1900, por el físico alemán Max Planck, como una hipótesis ad hoc, para solucionar una prominente paradoja. De acuerdo con las ideas clásicas del siglo XIX, del tiempo de Laplace, un cuerpo caliente, como un pedazo de hierro al rojo, debería emitir radiación. Podría perder energía en ondas de radio, infra rojo, luz visible, ultra violeta, rayos equis y rayos gamma, todo en la misma proporción. Esto no sólo significa que todos podríamos morir de cáncer de piel, sino que todo en el universo debería estar a la misma temperatura, lo cual claramente no sucede. Sin embargo, Planck mostró que se podría evitar este desastre, si se abandona la idea de que la cantidad de radiación puede tener cualquier valor, y se dice en su lugar que la radiación viene sólo en paquetes o cuantos de una cierta medida. Esto es como decir que Ud. no puede comprar azúcar suelta en el supermercado, sino sólo en bolsas de un kilo. La energía en los paquetes o cuantos, es más alta para los rayos equis o ultra violetas, que para el infra rojo o luz visible. Esto significa que a menos que un cuerpo sea muy caliente, como el Sol, no tendrá suficiente energía, para emitir aún un simple cuanto de rayos equis o ultra violetas. Por eso es que no nos bronceamos con una taza de café.

Planck consideraba la idea de los cuantos, como un truco matemático, y no como teniendo alguna realidad física, lo que sea que esto pueda significar. Sin embargo, los físicos comenzaron a encontrar otros comportamientos, que podrían ser explicados sólo en términos de cantidades que tengan valores discretos, o cuantificados, en vez de valores continuamente variables. Por ejemplo, se encontró que las partículas elementales se comportaban casi como pequeños trompos, girando alrededor de un eje. Pero la cantidad de momento angular no podía tener cualquier valor. Tiene que ser un múltiplo de alguna unidad básica. Como esta unidad es muy pequeña, uno no advierte que un trompo normal se frena en una serie de pequeños pasos, en vez de ser un proceso continuo. Pero para trompos tan pequeños como los átomos, la naturaleza discreta del momento angular es muy importante.

Pasó algún tiempo hasta que la gente comprendió las implicaciones de este comportamiento cuántico para el determinismo. No fue hasta 1926, que Werner Heisenberg, otro físico alemán, afirmó que usted no puede medir exactamente la posición y la velocidad de una partícula. Para ver donde está la partícula uno tiene que mandarle luz. Pero según el trabajo de Planck, uno no puede usar una cantidad arbitrariamente pequeña de luz. Se debe usar al menos un cuanto. Esto perturbará a la partícula y cambiará su velocidad en una forma impredecible. Para medir la posición de la partícula con precisión, Ud. deberá usar luz de corta longitud de onda, como rayos equis, gamma o ultra violetas. Pero de nuevo según el trabajo de Planck, los cuantos de estas formas de luz tienen mayor cantidad de energía que los de luz visible. Por lo tanto más van a perturbar la velocidad de la partícula. No hay forma de ganar: cuanto más precisamente trate de medir la posición de la partícula, con menos precisión medirá la velocidad, y vice versa. Esto se resume en el Principio de Incertidumbre que formuló Heisenberg; la incertidumbre en la posición de la partícula por la incertidumbre en su velocidad, es siempre más grande que una cantidad llamada constante de Planck dividida por la masa de la partícula.

La visión de Laplace, del determinismo científico, involucraba conocer las posiciones y velocidades de las partículas del universo, en un momento del tiempo. Por lo tanto fue seriamente menoscabada por el Principio de Incertidumbre de Heisenberg. ¿Cómo puede uno predecir el futuro, cuando uno no puede medir con precisión las posiciones y velocidades de las partículas en el presente? No importa cuan poderosa sea su computadora, si le pone datos malos, Ud. obtendrá malas predicciones.

Einstein estaba muy molesto con esta aparente azarosidad en la naturaleza. Su punto de vista se resume en su famosa frase, 'Dios no juega a los dados'. El parece haber sentido que la incertidumbre era sólo provisional: pero que había una realidad subyacente, en la cual las partículas podrían tener posiciones y velocidades bien definidas, y podrían evolucionar de acuerdo a las leyes determinísticas, en el espíritu de Laplace. Esta realidad podría ser conocida por Dios, pero la naturaleza cuántica de la luz nos impediría verla, excepto a través de un vidrio oscuro.

La visión de Einstein fue lo que podría ahora ser llamado, una teoría de variable oculta. Las teorías de variable oculta pueden parecer el modo más obvio de incorporar el Principio de Incertidumbre en la física. Ellas forman la base de la imágen mental del universo, sostenida por muchos científicos, y por casi todos los filósofos de la ciencia. Pero estas teorías de variable oculta son equivocadas. El físico británico John Bell, muerto recientemente, urdió un test experimental que podría distinguir teorías de variable oculta. Cuando el experimento se llevó a cabo cuidadosamente, los resultados fueron inconsistentes con las variables ocultas. Por lo tanto parece que aún Dios está atado al Principio de Incertidumbre, y no puede saber la velocidad y la posición de una partícula. Así que Dios juega a los dados con el universo. Toda la evidencia indica que es un jugador inveterado, que tira los dados en cada posible ocasión.

Otros científicos fueron más proclives que Einstein a modificar el punto de vista clásico determinista del siglo XIX. Una nueva teoría, llamada mecánica cuántica, fue promovida por Heisenberg, el austríaco, Erwin Schroedinger, y el físico británico Paul Dirac. Dirac fue uno de mis predecesores, como Profesor Lucasiano en Cambridge. Aunque la mecánica cuántica anda dando vueltas hace casi 70 años, todavía no es entendida o apreciada generalmente, inclusive por aquellos que la usan para hacer cálculos. Debería importarnos a todos, porque es una imágen completamente diferente del universo físico, y de la realidad misma. En la mecánica cuántica, las partículas no tienen una posición y velocidad definidas. En su lugar, son representadas por lo que se llama una función de onda. Esto es un número en cada punto del espacio. La magnitud de la función de onda da la probabilidad de que la partícula se encuentre en esa posición. La proporción, en la cual la función de onda varía de punto a punto, da la velocidad de la partícula. Uno puede tener una función de onda que es muy fuerte tomada en una pequeña región. Esto significa que la incertidumbre en la posición es pequeña. Pero la función de onda variará muy rapidamente cerca del pico, arriba en un lado y abajo en el otro. Así que la incertidumbre en la velocidad será grande. Similarmente, uno puede tener funciones de onda donde la incertidumbre en la velocidad es pequeña, pero la incertidumbre en la posición es grande.

La función de onda contiene todo lo que se puede saber de la partícula, su posición y su velocidad. Si usted conoce la función de onda en un tiempo, entonces sus valores en otros tiempos se determinan por lo que se llama la ecuación de Schroedinger. Por lo tanto uno todavía tiene un tipo de determinismo, pero no en la forma concebida por Laplace. En lugar de ser capaces de predecir la posición y velocidades de las partículas, todo lo que podemos predecir es la función de onda. Esto significa que podemos predecir justo la mitad de lo que podríamos, de acuerdo con el punto de vista clásico del siglo XIX.

Aunque la mecánica cuántica lleva a la incertidumbre, cuando tratamos de predecir tanto la posición como la velocidad, todavía nos permite predecir, con certeza, una combinación de posición y velocidad. Sin embargo, incluso este grado de certidumbre, parece ser amenazado por descubrimientos más recientes. El problema se origina porque la gravedad puede distorsionar tanto el espacio-tiempo, que puede haber regiones imposibles de observar.

Sorprendentemente, Laplace mismo escribió un paper en 1799 sobre como algunas estrellas podrían tener un campo gravitatorio tan fuerte que la luz no podría escapar, sino que volvería a caer sobre la estrella. El incluso calculó que una estrella de la misma densidad que el Sol, pero de un tamaño 250 veces mayor, podría tener esta propiedad. Pero aunque Laplace no se haya dado cuenta, la misma idea fue promovida 16 años antes por un hombre de Cambridge, John Mitchell, en un paper en las Transacciones Filosóficas de la Royal Society. Tanto Mitchell como Laplace pensaban en la luz como hecha de partículas, como balas de cañón, que podían ser frenadas por la gravedad, y hacerlas caer de vuelta en la estrella. Pero un famoso experimento, llevado a cabo por dos americanos, Michelson y Morley en 1887, mostró que la luz siempre viaja a la velocidad de 186.000 millas por segundo, no importa de donde venga. ¿Cómo puede entonces la gravedad frenar la luz, y hacerla caer de vuelta?

Esto era imposible, de acuerdo con las ideas aceptadas entonces del espacio y el tiempo. Pero en 1915, Einstein promovió su revolucionaria Teoría General de la Relatividad. En esta, espacio y tiempo ya no eran entidades separadas e independientes. En su lugar, eran sólo diferentes direcciones en un simple objeto llamado espacio-tiempo. Este espacio-tiempo no era chato, sino que era deformado y curvado por la materia y la energía que contenía. Para entender esto, considere una sábana de goma, con un peso encima, para representar una estrella. El peso formará una depresión en la goma, y hará que la sábana cerca de la estrella se curve, en lugar de ser chata. Si ahora tiramos bolitas sobre la sábana de goma, sus trayectorias serán curvadas, en vez de ir en líneas rectas. En 1919, una expedición británica al Africa Occidental, observó la luz de estrellas distantes que pasaba cerca del Sol durante un eclipse. Encontraron que la imágen de las estrellas se movía levemente de su posición normal. Esto indicaba que el camino de la luz de las estrellas había sido arqueado por el espacio-tiempo curvado cerca del Sol. La Relatividad General estaba confirmada.

Imagine ahora que ponemos pesos más y más grandes y más y más concentrados sobre la sábana de goma. Ellos hundirán la sábana más y más. Eventualmente, a un peso y medida críticos, harán un agujero sin fondo en la sábana, en el cual las partículas caerán pero nada volverá a salir.

Lo que ocurre con el espacio-tiempo de acuerdo con la Relatividad General es bastante similar. Una estrella puede curvar y distorsionar el espacio-tiempo cercano a ella, más y más, cuanto más masiva y compacta es la estrella. Cuando una estrella masiva, que ha consumido su combustible nuclear, se enfría y se encoge debajo de una medida crítica, será como hacer un agujero sin fondo en el espacio-tiempo, del que la luz no podrá salir. Tales objetos fueron llamados Agujeros Negros, por el físico americano John Wheeler, que fue uno de los primeros en reconocer su importancia, y los problemas que planteaban. El nombre cautivó rápidamente. Para los americanos, sugería algo oscuro y misterioso, mientras para los británicos era la resonancia añadida del Agujero Negro de Calcuta. Pero los franceses, siendo franceses, le daban un sentido más arriesgado. Por años, se resistieron al nombre, trou noir, diciendo que era obsceno. Pero eso era como ponerse contra le weekend, y otros anglicismos. Al final, tuvieron que entrar. ¿Quien se puede resistir a un nombre tan exitoso?

Ahora tenemos observaciones que sugieren agujeros negros en una cantidad de objetos, desde sistemas de estrellas binarios, hasta el centro de las galaxias. Así que ahora es generalmente aceptado que los agujeros negros existen. Pero, aparte de su potencial para la ficción científica, ¿cual es su significado para el determinismo? La respuesta está en un letrero que puse en la puerta de mi oficina: Black Holes are Out of Sight (los agujeros negros están fuera de nuestra vista). No sólo las partículas y los desafortunados astronautas que caigan en un agujero negro, nunca saldrán, sino también la información que lleven, se pierde para siempre, al menos para nuestra región del universo, Usted puede tirar televisores, anillos de diamante, o aún a sus peores enemigos en un agujero negro, y todo lo que el agujero negro recordará, es la masa total, y el estado de rotación. John Wheeler dijo esto, 'A Black Hole Has No Hair' (un agujero negro no tiene pelo). Para los franceses esto confirmó sus sospechas.

Mientras se pensaba que los agujeros negros podrían continuar existiendo para siempre, esta pérdida de información no importaba demasiado. Uno podría decir que la información todavía sigue existiendo adentro del agujero negro. Es sólo que uno no puede decir lo que hay dentro, desde el exterior. Sin embargo la situación cambió, cuando yo descubrí que los agujeros negros no son completamente negros. La mecánica cuántica hace que emitan partículas y radiacion a una tasa estable. Esto resultó una sorpresa total para mí, y para todos los demás. Pero en retrospectiva, debería haber sido obvio. Lo que pensamos de como el espacio vacío no está realmente vacío, sino lleno de pares de partículas y anti partículas. Estas aparecen juntas en algún punto del espacio y tiempo, se apartan, y luego se juntan y se aniquilan mutuamente. Estas partículas y anti partículas existen porque un campo, tal como los campos que transportan luz o gravedad, no puede ser exactamente cero. Esto podría significar que el valor del campo puede tener una posición exacta (en cero), y una exacta velocidad o tasa de cambio (también cero). Esto podría estar contra el Principio de Incertidumbre, así como una partícula no puede tener una posición exacta y una velocidad exacta. Por lo tanto todos los campos deben tener lo que se llama fluctuaciones de vacío. A causa del comportamiento cuántico de la naturaleza, uno puede interpretar estas fluctuaciones de vacío en términos de partículas y anti partículas, como lo he descripto.

Estos pares de partículas ocurren para todas las variedades de partículas elementales. Son llamadas partículas virtuales, porque aparecen incluso en el vacío, y no pueden ser medidas directamente por los detectores de partículas. Sin embargo, los efectos indirectos de las partículas virtuales, o fluctuaciones de vacío, han sido observados en una cantidad de experimentos, y su existencia está confirmada.

Si hay un agujero negro cerca, un miembro de un par de partícula y anti partícula puede caer en el agujero, dejando al otro miembro sin pareja, con la cual aniquilarse. La partícula abandonada puede caer también en el agujero, pero también puede escapar a una gran distancia del agujero, donde se volverá una partícula real, que puede ser medida con un detector de partículas. Para alguien a gran distancia del agujero negro, parecerá haber sido emitida por el agujero. Esta explicación de como los agujeros negros no son tan negros, hace claro que la emisión dependerá de la magnitud del agujero negro, y de la velocidad de su rotación. Pero como los agujeros negros no tienen pelo, según dijo Wheeler, la radiación por otro lado será independiente de lo que caiga en el agujero. No importa si usted tira televisores, anillos de diamantes, o sus peores enemigos, dentro de un agujero negro. Lo que sale afuera será lo mismo.

Luego ¿qué tiene que ver todo esto con el determinismo? de lo cual se supone que trata este discurso. Lo que esto muestra es que hay muchos estados iniciales, conteniendo televisores, anillos de diamante, e incluso gente, que evolucionan hacia el mismo estado final, al menos afuera del agujero negro. Pero en la imágen del determinismo de Laplace, había una correspondencia uno a uno entre estados iniciales y estados finales. Si usted conoció el estado del universo en algun momento del pasado, usted podría predecir cual sería en el futuro. Similarmente, si Ud. lo conoce en el futuro, podrá calcular como debe haber sido en el pasado. El advenimiento de la teoría de los cuantos en los años 20 redujo la cantidad de lo que uno podía predecir a la mitad, pero todavía quedaba una correspondencia uno a uno entre los estados del universo en diferentes tiempos. Si uno conocía la función de onda en un tiempo, uno podía calcularla en otro tiempo cualquiera.

Con los agujeros negros, sin embargo, la situación es bastante diferente. Uno puede terminar con el mismo estado afuera del agujero, lo que sea que uno tire en él, mientras tenga la misma masa. Así que no hay una correspondencia uno a uno entre el estado inicial y el estado final afuera del agujero negro. Habrá una correspondencia uno a uno entre el estado inicial y el estado final tomando ambos lados del agujero negro. Pero el punto importante es que la emisión de partículas y energía del agujero negro, causará que el agujero pierda masa y se vuelva más pequeño. Eventualmente, parece que el agujero negro llegará a tener masa cero y desaparecerá completamente. ¿Qué pasará entonces con todos los objetos que cayeron en el agujero y con toda la gente que saltó adentro o fue empujada? Ellos no pueden salir de nuevo, porque no queda suficiente masa o energía en el agujero negro para mandarlos de vuelta. Ellos podrían pasar a otro universo, pero eso no es algo que pueda hacer alguna diferencia, para aquellos de nosotros lo bastante prudentes para no saltar a un agujero negro. Inclusive la información, acerca de lo que cayó en el agujero, podría no retornar cuando el agujero finalmente desaparezca. La información no se puede transportar gratis, como todos los que tengan tarjeta telefónica lo saben. La información requiere energía para transportarla, y no habra suficiente energía remanente cuando el agujero negro desaparezca.

Lo que todo esto significa, es que la información se perderá de una región del universo, cuando los agujeros negros se forman y luego se evaporan. Esta pérdida de información significará que podemos predecir aún menos de lo que pensábamos, sobre la base de la teoría cuántica. En la teoría cuántica, uno no puede ser capaz de predecir con certeza tanto la posición como la velocidad de una partícula. Pero todavía hay una combinación de posición y velocidad que puede predecirse. En el caso de un agujero negro, esta predicció definida involucra a ambos miembros de un par de partículas. Pero podemos medir sólo las partículas que salen afuera. No hay ningún modo ni aún en principio de que podamos medir la partícula que cae en el agujero. Así que todo lo que podemos decir es que podría estar en cualquier estado. Esto significa que no podemos hacer ninguna predicción definida, acerca de la partícula que escapa del agujero. Podemos calcular la probabilidad de que la partícula tenga esta o aquella posición, o velocidad, pero no hay una combinación de la posición y velocidad de sólo una partícula que podamos predecir definitivamente, porque la velocidad y la posición dependerán de las otras partículas, que no observamos. O sea que Einstein estaba doblemente equivocado cuando dijo que Dios no juega a los dados. No es sólo que Dios definitivamente juega a los dados, sino que a veces nos confunde tirándolos donde no podemos verlos.

Muchos científicos son como Einstein, en que tienen un profundo apego emocional al determinismo. Al contrario de Einstein, ellos han aceptado la reducción en nuestra habilidad de predecir, que la teoría cuántica produjo. Pero eso fue ir bastante lejos. A ellos no les gusta la siguiente reducción, que los agujeros negros parecen implicar. Ellos por consiguiente han dicho que la información no se pierde realmente debajo de los agujeros negros. Pero no han logrado encontrar ningún mecanismo que pueda devolver la información. Es como una piadosa esperanza de que el universo es determinístico, del modo en que Laplace lo concibió. Me parece que esos científicos no han aprendido las lecciones de la historia. El universo no se comporta según nuestras ideas preconcebidas. El continúa sorprendiéndonos.

Podría pensarse que no importa demasiado si el determinismo se desmorona cerca de los agujeros negros. Ciertamente estamos al menos a unos pocos años luz de un agujero negro de cualquier tamaño. Pero el Principio de Incertidumbre implica que cada región del espacio debería estar llena de pequeños agujeros negros virtuales, los cuales aparecen y desaparecen de nuevo. Uno podría pensar que las partículas y la información podrían caer en esos agujeros negros, y perderse. Como estos agujeros negros virtuales son tan pequeños, unos cien billones de billones de veces más pequeños que el nucleo de un átomo, la tasa a la cual la información podría perderse sería muy baja. Por eso es que las leyes de la ciencia parecen determinísticas, con una muy buena aproximación. Pero en condiciones extremas, como en el orígen del universo, o en colisiones de partículas de alta energía, podría haber una pérdida de información significativa. Esto nos llevaría a la impredecibilidad, en la evolución del universo.

En resúmen, de lo que he estado hablando, es de si el universo evoluciona en una forma arbitraria, o de manera determinística. El punto de vista clásico, promovido por Laplace, era que el movimiento futuro de las partículas estaba completamente determinado, si uno conoce sus posiciones y velocidades en un tiempo. Esto tuvo que ser modificado cuando Heisenberg promovió su Principio de Incertidumbre, que dice que uno no puede conocer precisamente tanto la posición como la velocidad, Sin embargo, todavía era posible predecir una combinación de posición y velocidad. Pero incluso esta limitada predicibilidad desapareció, cuando los efectos de los agujeros negros fueron tomados en cuenta. La pérdida de información y partículas debajo de los agujeros negros significa que las partículas que salen afuera lo hacen al azar. Uno puede calcular probabilidades, pero no puede hacer ninguna predicción definida. Por lo tanto, el futuro del universo no está completamente determinado por las leyes de la ciencia, y su presente estado, como Laplace pensaba. Dios todavía tiene unos pocos trucos bajo su manga.

Esto es todo lo que tengo que decir por el momento. Gracias por escuchar.


Vida en el universo.

En esta charla, me gustaría especular un poco, sobre el desarrollo de la vida en el universo, y en particular, el desarrollo de la vida inteligente. Consideraré que esto incluye a la raza humana, aun pensando que mucho de su comportamiento a través de la historia, ha sido muy estúpido, y no calculado para ayudar a la supervivencia de las especies. Dos cuestiones que discutiré son, '¿Cuál es la probabilidad de que exista vida en otra parte del universo?' y, '¿Cómo puede la vida desarrollarse en el futuro?'

Es algo que se advierte a simple vista, que las cosas se vuelven más desordenadas y caóticas al pasar el tiempo. Esta observación puede ser elevada al status de ley, la así llamada Segunda Ley de la Termodinámica. Esta dice que la cantidad total de desorden, o entropía, en el universo, siempre aumenta con el tiempo. Sin embargo, la Ley se refiere sólo a la cantidad total de desorden. El orden en un cuerpo puede incrementarse, siempre que la cantidad de desorden a su alrededor se incremente en una gran cantidad. Esto es lo que le sucede a un organismo viviente. Se puede definir la vida como un sistema ordenado que puede sustentarse a sí mismo en contra de la tendencia al desorden, y puede reproducirse a sí mismo. Esto es, puede hacer sistemas ordenados similares, pero independientes. Para hacer estas cosas, el sistema debe convertir energía en alguna forma ordenada, como comida, luz del sol, o energía eléctrica, en energía desordenada, en la forma de calor. De este modo, el sistema puede satisfacer el requerimiento de que la cantidad total de desorden se incremente, mientras, al mismo tiempo, incrementa el orden en sí mismo y en sus descendientes. Un organismo viviente usualmente tiene dos elementos: un conjunto de instrucciones que le dice al sistema cómo sustentarse y reproducirse a sí mismo, y un mecanismo que ejecuta las instrucciones. En biología, estas dos partes son llamadas genes y metabolismo. Pero vale la pena enfatizar que no se necesita que haya nada biológico en esto. Por ejemplo, un virus de computadora es un programa que hará copias de sí mismo en la memoria de la computadora, y se transferirá a sí mismo a otras computadoras. Por ende cumple con la definición de un sistema viviente, que les he dado. Como un virus biológico, es una forma bastante degenerada, porque contiene sólo instrucciones o genes, y no tiene ningún metabolismo propio. En su lugar, reprograma el metabolismo de la computadora anfitrión, o célula. Alguna gente ha cuestionado que los virus se consideren vida, porque son parásitos, y no pueden existir en forma independiente de sus anfitriones. Pero entonces muchas formas de vida, nosotros incluidos, son parásitos, ya que se alimentan y dependen para su sobrevivencia de otras formas de vida. Pienso que los virus de computadora se deben considerar seres vivos. Tal vez diga algo de la naturaleza humana, que la única forma de vida que hemos creado hasta ahora es puramente destructiva. Hemos creado vida a nuestra imagen y semejanza. Retornaré a las formas de vida electrónicas más tarde.

Lo que normalmente consideramos 'vida' está basado en cadenas de átomos de carbono, con unos pocos otros átomos, tales como nitrógeno o fósforo. Se puede especular que se puede tener vida con alguna base química diferente, tal como el silicio, pero el carbono parece ser el caso más favorable, porque tiene la química más rica. Que los átomos de carbono puedan siquiera existir, con las propiedades que tienen, requiere un fino ajuste de las constantes físicas, tales como la escala QCD, la carga eléctrica, y aun la dimensión del espacio-tiempo. Si estas constantes tuvieran valores significativamente diferentes, los núcleos de los átomos de carbono podrían no ser estables, o los electrones podrían colapsarse sobre el núcleo. A primera vista, parece notable que el universo esté tan finamente ajustado. Esta podría ser la evidencia, de que el universo fue especialmente diseñado para producir a la raza humana. Sin embargo, se debe ser muy cuidadoso con tales argumentos, a causa de lo que se conoce como el Principio Antrópico. Este está basado en la verdad auto evidente, de que si el universo no hubiera sido apropiado para la vida, no podríamos estar aquí preguntando por qué está tan finamente ajustado. Uno puede aplicar el Principio Antrópico, en su versión fuerte o en la débil. Por el Principio Antrópico Fuerte, se supone que hay muchos universos diferentes, cada uno con diferentes valores de las constantes físicas. En unos pocos, los valores permitirán la existencia de objetos como los átomos de carbono, los cuales pueden actuar como bloques de construcción de los sistemas vivientes. Dado que debemos vivir en uno de estos universos, no nos debería sorprender que las constantes físicas estén finamente ajustadas. Si no fuera así, no podríamos estar aquí. La forma fuerte del Principio Antrópico no es muy satisfactoria. ¿Qué significado funcional puede uno darle a la existencia de todos aquellos otros universos? Y si están separados de nuestro propio universo, ¿cómo puede lo que ocurra en ellos, afectar a nuestro universo? En lugar de eso, yo adoptaré lo que se conoce como el Principio Antrópico Débil. Esto es, tomaré los valores de las constantes físicas, como están dados. Pero veré qué conclusiones pueden derivarse, del hecho de que la vida exista en este planeta, en esta etapa de la historia del universo.

No había carbono, cuando el universo comenzó en el Big Bang, hace alrededor de 15.000 millones de años. Estaba tan caliente, que toda la materia debe haber estado en la forma de partículas, llamadas protones y neutrones. Inicialmente debe haber habido igual número de protones y neutrones. Sin embargo, mientras el universo se expandía, debe haberse enfriado. Alrededor de un minuto después del Big Bang, la temperatura debe haber caído a unos mil millones de grados, unas cien veces la temperatura en el Sol. A esta temperatura, los neutrones comenzarán a devenir en más protones. Si esto fuera todo lo que ocurrió, toda la materia del universo podría haber terminado como el más simple elemento, hidrógeno, cuyo núcleo consiste de un solo protón. Sin embargo, algunos de los neutrones colisionaron con protones, y quedaron pegados para formar el siguiente elemento más simple, el helio, cuyo núcleo consiste de dos protones y dos neutrones. Pero los elementos más pesados, como el carbono o el oxígeno, no podrían haberse formado en el comienzo del universo. Es difícil imaginar que se pueda construir un sistema viviente, hecho sólo de hidrógeno y helio, y de todos modos el universo naciente estaba todavía demasiado caliente para que los átomos se combinaran en moléculas.

El universo puede haber continuado expandiéndose, y enfriándose. Pero algunas regiones pueden haber tenido densidades ligeramente más altas que otras. La atracción gravitatoria de la materia extra en esas regiones, puede haber frenado su expansión, y eventualmente haberla detenido. Más aun, podrían haber colapsado para formar galaxias y estrellas, comenzando hace alrededor de dos mil millones de años después del Big Bang. Algunas de las primeras estrellas podrían haber sido más masivas que nuestro Sol. Ellas podrían haber sido más calientes que el Sol, y podrían haber quemado el hidrógeno y el helio originales, para formar elementos más pesados, tales como carbono, oxígeno, y hierro. Esto puede haber tomado sólo unos pocos cientos de millones de años. Después de eso, algunas de las estrellas podrían haber explotado como supernovas, y esparcido los elementos pesados por el espacio, para formar la materia prima de futuras generaciones de estrellas.

Otras estrellas están demasiado alejadas, para que podamos ver directamente, si tienen planetas girando alrededor de ellas. Pero ciertas estrellas, llamadas pulsares, emiten pulsos regulares de ondas de radio. Observamos una ligera variación en la tasa de algunos pulsares, y esto se interpreta como un indicio de que están siendo perturbados, por planetas del tamaño de la Tierra girando a su alrededor. Planetas que giren alrededor de pulsares es improbable que tengan vida, porque cualquier ser viviente debería haber sido asesinado, en la explosión de la supernova que hizo que la estrella se volviera un pulsar. Pero, el hecho de que varios pulsares tengan planetas que se han observado sugiere que una fracción razonable de los cientos de miles de millones de estrellas en nuestra galaxia pueden también tener planetas. Las condiciones planetarias necesarias para nuestra forma de vida pueden por lo tanto haber existido hace alrededor de cuatro mil millones de años después del Big Bang.

Nuestro sistema solar se formó hace alrededor de cuatro mil quinientos millones de años, o alrededor de diez mil millones de años después del Big Bang, del gas contaminado con los despojos de las primeras estrellas. La Tierra se formó con gran cantidad de elementos pesados, incluyendo carbono y oxígeno. De algún modo, algunos de estos átomos se organizaron para formar moléculas de ADN. Estas tienen la famosa forma de doble hélice, descubierta por Crick y Watson, en una cabaña en el sitio del Nuevo Museo en Cambridge. Conectando las dos cadenas en la hélice, hay pares de ácidos nucleicos. Hay cuatro tipos de ácido nucleico, adenina, citosina, guanina, y tiamina. Me temo que mi sintetizador de voz no es muy bueno, para pronunciar sus nombres. Obviamente, no fue diseñado para biologistas moleculares. Una adenina en una cadena siempre se corresponde con una tiamina en la otra cadena, y lo mismo sucede con la guanina y la citosina. Por lo tanto la secuencia de ácidos nucleicos en una cadena define una única secuencia complementaria, en la otra cadena. Las dos cadenas pueden entonces separarse y cada una actuar como modelo para construir ulteriores cadenas. Luego las moléculas de ADN pueden reproducir la información genética, codificada en sus secuencias de ácidos nucleicos. Secciones de la secuencia pueden también ser usadas para hacer proteínas y otros compuestos químicos, los cuales pueden transportar las instrucciones, codificadas en la secuencia, y ensamblar la materia prima para que el ADN se reproduzca a sí mismo.

No sabemos como fue que aparecieron las moléculas de ADN. Las chances de que una molécula de ADN surja de fluctuaciones al azar son muy pequeñas. Algunas personas han sugerido por lo tanto que la vida vino a la Tierra de alguna otra parte, y que hay semillas de vida flotando por la galaxia. Sin embargo, parece improbable que el ADN pueda sobrevivir mucho tiempo en la radiación del espacio. E incluso si pudiera, no ayudaría realmente a explicar el orígen de la vida, porque el tiempo disponible desde la formación del carbono es sólo un poco más del doble de la edad de la Tierra.

Una posibilidad es que la formación de algo como el ADN, que pueda reproducirse a sí mismo, sea extremadamente improbable. Sin embargo, en un universo con un número muy grande, o infinito, de estrellas, se podría esperar que aparezca en unos pocos sistemas estelares, pero que podrían estar extremadamente alejados. El hecho de que la vida haya aparecido sobre la Tierra, no es sin embargo sorprendente o improbable. Es sólo una aplicación del Principio Antrópico Débil: Si la vida hubiera aparecido en otro planeta, nosotros nos preguntaríamos por qué ha occurrido allí.

Si la aparición de vida en un planeta dado fue muy improbable, se podría esperar que haya tomado un largo tiempo. Más precisamente, se podría esperar que la vida apareciera justo a tiempo para la subsiguiente evolución a seres inteligentes, como nosotros, pero que haya ocurrido antes del corte, provisto por el tiempo de vida del Sol. Esto es alrededor de diez mil millones de años, después de los cuales el Sol se hinchará y engullirá la Tierra. Una forma de vida inteligente, podría haber dominado los viajes espaciales, y ser capaz de escapar a otra estrella. Pero si no, la vida en la Tierra podría ser arruinada.

Hay evidencia en los fósiles, de que hubo alguna forma de vida en la Tierra, hace alrededor de 3.500 millones de años. Esto puede ser sólo 500 millones de años desapués de que la Tierra se volviera lo suficientemente estable y fria, para el desarrollo de la vida. Pero la vida podría haber tomado 7.000 millones de años en desarrollarse, y todavía le faltaría tiempo para evolucionar a seres como nosotros, que puedan preguntar sobre el orígen de la vida. Si la probabilidad de que la vida se desarrolle en un planeta dado, es muy pequeña, ¿por qué ocurrió en la Tierra, en alrededor de un catorceavo del tiempo disponible?

La temprana aparición de la vida en la Tierra sugiere que hay una buena chance para la generación espontánea de la vida, en las condiciones adecuadas. Tal vez hubo alguna forma más simple de organización, la cual construyó el ADN. Una vez que apareció el ADN, podría haber sido tan exitoso, que podría haber remplazado completamente las formas anteriores. No conocemos lo que estas formas tempranas puedan haber sido. Una posibilidad es el ARN. Este es como el ADN, pero bastante más simple, y sin la estructura de doble hélice. Pedazos cortos de ARN, podrían reproducirse a sí mismos como el ADN, y podrían eventualmente evolucionar hacia el ADN. No se pueden hacer ácidos nucleicos en el laboratorio, a partir de material no viviente, salvo el ARN. Pero en 500 millones de años, en océanos que cubran la mayoría de la Tierra, podría haber una probabilidad razonable de que el ARN, apareciera por azar.

A medida que el ADN se reproducía a sí mismo, podría haber habido errores al azar. Muchos de esos errores podrían haber sido perjudiciales, y hubieran causado la muerte. Algunos podrían haber sido neutrales. Esto es que no habrían afectado la función del gen. Tales errores podrían contribuir a una gradual deriva genética, que parece ocurrir en todas las poblaciones. Y unos pocos errores podrían haber sido favorables para la supervivencia de las especies. Estos podrían haber sido elegidos por la selección natural de Darwin.

El proceso de evolución biológica fue muy lento al principio. Tomó 2.500 millones de años, evolucionar de las primeras células a los animales pluricelulares, y otros mil millones de años para evolucionar desde los peces y reptiles, hasta los mamíferos. Pero entonces la evolución parece haberse acelerado. Tomó sólo unos cien millones de años, evolucionar de los primeros mamíferos hasta nosotros. La razón es, que los peces contienen la mayoría de los órganos humanos importantes, y también los mamíferos, esencialmente todos ellos. Todo lo que hacía falta para evolucionar desde los primeros mamíferos, como los lemures, a los humanos, fue un pequeño ajuste.

Pero con la raza humana, la evolución alcanzó una etapa crítica, comparable en importancia con el desarrollo del ADN. Esto fue el desarrollo del lenguaje, y particularmente el lenguaje escrito. Significó que toda la información pudo ser transmitida, de generación en generación, en vez de hacerlo genéticamente, por medio del ADN. No hubo un cambio detectable en el ADN humano, causado por la evolución biológica, en los diez mil años de historia registrada. Pero la cantidad de conocimientos acumulados de generación en generación ha crecido enormemente. El ADN de los seres humanos contiene cerca de tres mil millones de ácidos nucleicos. Sin embargo, mucha de la información codificada en esta secuencia, es redundante, o está inactiva. Por lo tanto la cantidad neta de información útil en nuestros genes, es probablemente algo así como cien millones de bits. Un bit de información es la respuesta a una pregunta por si o no. Por contraste, una novela puede contener dos millones de bits de información. Luego un ser humano es equivalente a 50 novelas. Una gran bibloteca nacional puede contener cerca de cinco millones de libros, o alrededor de diez billones de bits. Luego la cantidad de información almacenada en libros, es cien mil veces la del ADN.

Aun más importante, es el hecho de que la información en libros, puede ser cambiada, y actualizada, mucho más rapidamente. Nos ha tomado varios millones de años evolucionar desde los monos. Durante ese tiempo, la información útil en nuestro ADN, ha cambiado probablemente en sólo unos pocos millones de bits. Por ende la tasa de evolución biológica en humanos, es de alrededor de un bit por año. Por contraste, hay alrededor de 50,000 nuevos libros publicados en lengua inglesa cada año, conteniendo unos cien mil millones de bits de información. Por supuesto, la gran mayoría de esta información es basura, y no es útil para ninguna forma de vida. Pero, aun así, la tasa a la cual se puede agregar información útil es de millones, si no billones, más grande que con el ADN.

Esto significa que hemos entrado en una nueva fase de la evolución. Al principio, la evolución se realizaba por selección natural, por mutaciones al azar. Esta fase Darwiniana, terminó hace unos 3.500 millones de años, y nos produjo a nosotros, seres que desarrollamos el lenguaje, para intercambiar información. Pero en los últimos diez mil años más o menos, hemos estado en lo que podría llamarse, una fase de transmisión externa. En esta, los registros internos de información, que descendieron a las generaciones sucesivas en ADN, no han cambiado significativamente. Pero los registros externos, en libros, y otras formas de almacenamiento de larga duración, han crecido enormemente. Alguna gente podría usar el término evolución, sólo para el material genético transmitido internamente, y podría objetar que sea aplicado a la información transmitida externamente. Pero yo pienso que ese es un criterio muy estrecho. Nosotros somos algo más que nuestros genes. Podemos no ser más fuertes, o inherentemente más inteligentes, que nuestros ancestros cavernícolas. Pero lo que nos diferencia de ellos, es el conocimiento que hemos acumulado en los últimos diez mil años, y particularmente, en los últimos trescientos. Pienso que es legítimo tener un criterio más amplio, e incluir la información externamente transmitida, tanto como el ADN, en la evolución de la raza humana.

La escala de tiempo de la evolución, en el período de transmisión externa, es la escala de tiempo para acumular información. Esta solía ser de cientos, o incluso miles, de años. Pero ahora esta escala de tiempo se ha reducido a unos 50 años, o menos. Por otra parte, los cerebros con los cuales procesamos esta información han evolucionado sólo en la escala de tiempo Darwiniana, de cientos de miles de años. Esto está comenzando a crear problemas. En el siglo XVIII, se decía que un hombre podía leer todos los libros escritos. Pero hoy en día, si usted lee un libro por día, podría tomarle alrededor de 15.000 años leer los libros de una biblioteca nacional. Para entonces, muchos libros más podrían haberse escrito.

Esto ha significado que ninguna persona puede dominar más que un pequeño rincón del conocimiento humano. La gente tiene que especializarse, en campos cada vez más estrechos. Esta parece que va a ser una gran limitación en el futuro. Ciertamente no podemos continuar, por mucho tiempo, con la tasa exponencial de crecimiento del conocimiento que hemos tenido en los últimos trescientos años. Una limitación aun más grande y un peligro para las futuras generaciones, es que todavía tenemos los instintos, y en particular, los impulsos agresivos, que teníamos en los días del hombre de las cavernas. La agresión, en la forma de esclavizar o matar a otros hombres, y tomar sus mujeres y su comida, ha tenido una ventaja definida para la supervivencia, hasta el tiempo presente. Pero ahora podría destruir a toda la raza humana, y al resto de la vida en la Tierra. Una guerra nuclear, es todavía el más inmediato peligro, pero hay otros, tales como el lanzamiento de un virus genéticamente modificado. O que el efecto invernadero se vuelva inestable.

No hay tiempo, para esperar a la evolución Darwiniana, que nos haga más inteligentes, y de mejor carácter. Pero ahora estamos entrando a una nueva fase, de lo que podría llamarse, evolución auto diseñada, en la cual seremos capaces de cambiar y mejorar nuestro ADN. Hay un proyecto en ejecución, para mapear toda la secuencia del ADN humano. Costará unos pocos miles de millones de dólares, pero eso es comida para pollos, para un proyecto de esta importancia. Una vez que hayamos leído el libro de la vida, comenzaremos a hacerle correcciones. Al principio, esos cambios estarán confinados a reparar los defectos genéticos, como fibrosis cística, y distrofia muscular. Estas están controladas por un solo gen, y por lo tanto son muy fáciles de identificar, y corregir. Otras cualidades, tales como la inteligencia, están probablemente controladas por un gran número de genes. Será mucho mas dificultoso encontrarlos, y solucionar las relaciones entre ellos. A pesar de todo, estoy seguro de que durante el próximo siglo, la gente descubrirá como modificar la inteligencia, y los instintos como la agresión.

Se dictarán leyes, en contra de la ingeniería genética con humanos. Pero alguna gente no será capaz de resistir la tentación, de mejorar las características humanas, tales como la cantidad de memoria, resistencia a la enfermedad, y longitud de vida. Una vez que aparezcan tales super humanos, van a crear grandes problemas políticos, con los humanos no mejorados, quienes no serán capaces de competir con ellos. Presumiblemente, ellos morirán, o se volverán poco importantes. En su lugar, habrá una raza de seres auto diseñados, que se mejorarán a sí mismos a una tasa cada vez más alta.

Si esta raza propende a rediseñarse a sí misma, para reducir o eliminar el riesgo de auto destrucción, probablemente se va a diseminar, y colonizará otros planetas y estrellas. Sin embargo, los viajes espaciales de larga distancia, serán dificultosos para formas de vida basadas en la química, como el ADN. El tiempo de vida natural de tales seres es corto, comparado con el tiempo del viaje. De acuerdo a la teoría de la relatividad, nada puede viajar más rápido que la luz. Por lo tanto el viaje de ida y vuelta a la estrella más cercana podría tomar al menos 8 años, y hasta el centro de la galaxia, alrededor de cien mil años. En la ciencia ficción, se evita esta dificultad, con curvaturas del espacio, o viajes a través de dimensiones extra. Pero no creo que esto sea posible nunca, no importa cuan inteligente se vuelva la vida. En la teoría de la relatividad, si uno puede viajar más rápido que la luz, uno también puede viajar hacia atrás en el tiempo. Esto podría producir problemas con gente que vaya hacia atrás, y cambie el pasado. Uno también podría esperar haber visto un gran número de turistas del futuro, curiosos por ver pintorescas y arcaicas formas de vida.

Podría ser posible usar la ingeniería genética, para hacer que la vida basada en el ADN sobreviva indefinidamente, o al menos por cien mil años. Pero un modo más fácil, que ya casi está dentro de nuestras posibilidades, podría ser enviar máquinas. Estas podrían ser diseñadas para durar lo suficiente para el viaje interestelar. Cuando lleguen a una nueva estrella, podrían aterrizar sobre un planeta apropiado, y extraer material para producir más máquinas, las cuales podrían enviarse a explorar más estrellas. Estas máquinas podrían ser una nueva forma de vida, basada en componentes mecánicos y electrónicos, en lugar de macromoléculas. Ella podría eventualmente remplazar a la vida basada en el ADN, tal como el ADN puede haber remplazado a las formas de vida más antiguas.

Esta vida mecánica podría ser también auto diseñada. Por lo tanto parece que el período de evolución de transmisión externa, sería sólo un muy corto interludio, entre la fase Darwiniana, y una biológica, o mecánica, fase de auto diseño. Esto se muestra en el próximo diagrama, que no está en escala, porque no hay modo en que se pueda mostrar un período de diez mil años, a la misma escala de los miles de millones de años. Cuan larga será la fase de auto diseño está abierto al debate. Puede ser inestable, y la vida puede destruirse a sí misma, o caer en un callejón sin salida. Si no es así, podría ser capaz de sobrevivir a la muerte del Sol, dentro de unos 5.000 millones de años, mudándose a planetas que giren alrededor de otras estrellas. Muchas estrellas se habrán agotado en otros 15.000 millones de años más o menos, y el universo se aproximará a un estado de completo desorden, de acuerdo con la Segunda Ley de la Termodinámica. Pero Freeman Dyson ha demostrado que, a pesar de esto, la vida podría adaptarse al siempre decreciente suministro de energía ordenada, y por lo tanto podría, en principio, continuar por siempre.

Cuales son las chances de que encontremos alguna forma de vida alienígena, al explorar la galaxia. Si el argumento sobre la escala de tiempo para la aparición de la vida sobre la Tierra es correcta, debe haber muchas otras estrellas, cuyos planetas tengan vida en ellos. Algunos de estos sistemas estelares podrían haberse formado 5.000 millones de años antes que la Tierra. Entonces ¿por qué no está la galaxia llena de formas de vida mecánicas o biológicas auto diseñadas? ¿por qué no ha sido visitada la Tierra, e incluso colonizada? Yo desestimo las sugerencias de que los OVNIs contienen seres del espacio exterior. Pienso que cualquier visita de los alienígenas, podría ser mucho más obvia, y probablemente también, mucho más incordiosa.

¿Cuál es la explicación de que no hayamos sido visitados? Una posibilidad es que el argumento, sobre la aparición de la vida en la Tierra, es erróneo. Tal vez la probabilidad de que la vida aparezca espontáneamente es tan baja, que la Tierra es el único planeta en la galaxia, o en el universo observable, el el cual haya ocurrido eso. Otra posibilidad es que hubo una probabilidad razonable de que se formaran sistemas auto reproductivos, como las células, pero que muchas de estas formas de vida no evolucionaron hacia la inteligencia. Solíamos pensar que la vida inteligente, era una consecuencia inevitable de la evolución. Pero el Principio Antrópico debería prevenirnos de ser cautelosos con tales argumentos. Es más plausible que la evolución sea un proceso azaroso, y que la inteligencia es sólo uno de un gran número de posibles resultados. No está claro que la inteligencia tenga algún valor a largo plazo para la supervivencia. Bacterias, y otros organismos unicelulares, seguirán viviendo, si toda otra forma de vida en la Tierra es eliminada por nuestras acciones. Hay sustento para el punto de vista de que la inteligencia, fue un improbable desarrollo para la vida en la Tierra, según la cronología de la evolución. Tomó un tiempo muy largo, 2.500 millones de años, para ir de los seres unicelulares a los multicelulares, los cuales son un necesario precursor de la inteligencia. Esta es una buena parte del tiempo total disponible, antes de que el Sol estalle. Luego eso podría ser consistente con la hipótesis, de que la probabilidad de que la vida desarrolle inteligencia, es baja. En este caso, podríamos esperar encontrar muchas otras formas de vida en la galaxia, pero es improbable que encontremos vida inteligente. Otro modo, en el cual la vida podría fallar en desarrollarse a una etapa inteligente, podría ser si un asteroide o cometa fuera a estrellarse con el planeta. Acabamos de observar la colisión de el cometa, Schumacher-Levi, con Jupiter. Eso produjo una serie de enormes bolas de fuego. Se piensa que la colisión de un cuerpo bastante más pequeño con la Tierra, hace alrededor de 70 millones de años, fue responsable de la extinción de los dinosaurios. Unos pocos mamíferos primitivos sobrevivieron, pero cualquier cosa tan grande como un ser humano, casi con certeza hubiera sido eliminada. Es difícil decir con qué frecuencia ocurren tales colisiones, pero una conjetura razonable podría ser cada veinte millones de años, en promedio. Si esta figura es la correcta, significaría que la vida inteligente en la Tierra se ha desarrollado sólo a causa del suceso afortunado de que no haya habido grandes colisiones en los últimos 70 millones de años. Otros planetas en la galaxia, en los cuales la vida se ha desarrollado, podrían no haber tenido un período libre de colisiones suficientemente largo para que evolucionen seres inteligentes.

Una tercera posibilidad es que hay una probabilidad razonable para que se forme la vida, y evolucione hacia seres inteligentes, en la fase de transmisión externa. Pero en ese punto, el sistema se vuelve inestable, y la vida inteligente se destruye a sí misma. Esta podría ser una conclusión muy pesimista. Deseo fervientemente que no sea cierto. Yo prefiero una cuarta posibilidad: hay otras formas de vida inteligente allí afuera, pero aun no las hemos descubierto. Solía haber un proyecto llamado SETI, por búsqueda de inteligencia extra terrestre. Consistía en escanear las frecuencias de radio, para ver si se podían encontrar señales de civilizaciones alienígenas. Pienso que este proyecto era digno de ser subvencionado, pienso que fue cancelado debido a la falta de fondos. Pero debemos ser cautelosos al responder los mensajes, hasta que nos hayamos desarrollado un poco más. Conocer a una civilización más avanzada, en nuestra presente etapa, sería parecido al encuentro de los primeros habitantes de América con Cristóbal Colón. No pienso que ellos estuvieran mejor preparados para eso.

Esto es todo lo que tengo que decir. Les agradezco por escucharme.


Entropía gravitatoria (Junio de 1998)

Las diapositivas para esta charla constituyen una presentación de Power Point. Pueden ser descargadas como un archivo ZIP.

The first indication of a connection between black holes and entropy, came en 1970, with my discovery that the area of the horizon of a black hole, always increased. There was an obvious analogy with the Second Law of Thermodynamics, which states that entropy always increases. But it was Jacob Bekenstein, who took the bold step, of suggesting the area actually was the physical entropy, and that it counted the internal states of the black hole. I was very much against this idea at first, because I felt it was a misuse of my horizon area result. If a black hole had a physical entropy, it would also have a physical temperature. If a black hole was en contact with thermal radiation, it would absorb some of the radiation, but it would not give off any radiation, since by definition, a black hole was a region from which nothing could escape. If the thermal radiation was at a lower temperature than the black hole, the loss of entropy down the black hole, would be greater than the increase of horizon area.

This would be a violation of the generalized Second Law, that Bekenstein proposed. With hind sight, this should have suggested that black holes radiate. But no one, including Bekenstein and myself, thought anything could get out of a non rotating black hole. On the other hand, Penrose had shown that energy could be extracted from a rotating black hole, by a classical process. This indicated that there should be a spontaneous emission en the super radiant modes, that would be the quantum counter part of the Penrose process. en trying to understand this emission en the super radiant modes, en terms of quantum field theory en curved spacetime, I stumbled across the fact that even non rotating black holes, would radiate. Moreover, the radiation would be exactly what was required, to prevent a violation of the generalized second law. Bekenstein was right after all, but en a way he hadn't anticipated. en this talk, I want to discuss the deep reason, for the existence of such gravitational entropy. en my opinion, it is that general relativity, and extensions like supergravity, allow spacetime to have more than one topology. By topology, I mean topology en the Euclidean regime. The topology of a Lorentzian spacetime can change with time, only if there is some pathology, such as a singularity, or closed time like curves. en either of these cases, one would expect the theory to break down.

It was Paul Dirac, my predecessor at Cambridge, who first realized that time evolution en quantum theory, could be formulated as a unitary transformation, generated by the Hamiltonian. This worked well en non relativistic quantum theory, en which the Hamiltonian was just the total energy. It also worked en special relativity, where the Hamiltonian, could be taken to be the time component of the four momentum. But there were problems en general relativity, where neither energy, nor linear momentum, are local quantities. Energy and momentum can only be defined globally, and only for suitable asymptotic behavior.

Dirac himself, developed the Hamiltonian treatment for general relativity. en d dimensions, one can write the metric en the ADM form. That is, one introduces a time coordinate, tau, which I take to be Euclidean, and shift and lapse functions. The Hamiltonian, can then be expressed as an integral, over a surface of constant time. Sin embargo, the difference from special relativity, was that all the terms en this volume integral, vanished for configurations that satisfied the field equations. I must admit that when I came across the Hamiltonian formulation as a student, I thought, why should one bother working out the volume terms, since they are zero. The answer is, of course, that although the volume terms are zero on solutions, they have non zero Dirac brackets, which become commutators en the quantum theory. Because the volume contributions to the Hamiltonian are zero, its numerical value has to come from surface integrals, at the boundaries of the volume. Such surface terms arise en any gauge theory, including Maxwell theory, when one integrates the constraint equations by parts. en the gravitational case, the Hamiltonian also gets a contribution to the surface term, from the trace K surface term en the action, that is required to cancel the variation in the Einstein Hilbert action, capital R. The surface term en general, makes both the action, and the Hamiltonian, infinite. It is therefore sensible to consider only the difference between the action or Hamiltonian, and those of some reference background solution, that the solutions approach at infinity. This reference background acts as the vacuum, for that sector of the quantum theory. It is normally taken to be flat space, or anti de Sitter space, but I will consider other possibilities.

In asymptotically flat space, if the surfaces of constant tau at infinity, are related by just a time translation, the shift is zero, and the lapse is one. The Hamiltonian surface term at infinity, is then just the mass, plus the electric charge, Q, times the electro static potential, Phi. en a topologically trivial spacetime, one could make the electro static potential zero, by a gauge transformation. Sin embargo, this will not be possible en non trivial topologies. As I will explain later, magnetic charges do not contribute to the surface term en the Hamiltonian. If the surface of constant tau at infinity, are related by a time translation, plus a rotation through phi, of omega, the surface term at infinity picks up an extra omega J term.

Normally, one considers solutions, which can be foliated by surfaces of constant time, that have boundaries only at infinity, en asymptotically flat space. en such situations, the total Hamiltonian, that is the volume integral, plus the surface terms, will generate unitary transformations, that map the Hilbert space of initial states, into the final ones.

All the quantum states concerned, can be taken to be pure states. There are no mixed states, or gravitational entropy.

Sin embargo, solutions like black holes, have a Euclidean geometry with non trivial topology. This means that they can't be foliated by a family of time surfaces, that agree with the usual notion of time. If you try, the family of surfaces will necessarily have intersections, or other singularities, on surfaces of codimension two or more. en fact Euclidean black holes, are the simplest examples. So I will show how the break down of unitary Hamiltonian evolution, gives rise to black hole entropy. I will then go on to more exotic possibilities, like Taub Nut, and Taub bolt. en these cases, the entropy is not necessarily a quarter the area, of a codimension two surface.

As Jim Hartle and I first discovered en 1975, black holes, have a regular Euclidean analytical continuation, if and only if the Euclidean time, tau, is treated like an angular coordinate. It has to be identified with a period, beta, =2 pi over kappa, where kappa is the surface gravity of the horizon. This means that the surfaces of constant tau, all intersect on the horizon, and the concept of a unitary Hamiltonian evolution, will break down there. The surfaces of constant tau, will therefore have an inner boundary at the horizon, and the Hamiltonian will also have contributions from surface terms, at this boundary. If one takes the Hamiltonian vector, to be the combination of the tau and phi Killing vectors that vanishes on the horizon, then the lapse and shift vanish on the horizon. This means that the gravitational part of the surface term, is zero. If the vector potential is also regular on the horizon, the gauge field surface term is also zero.

The thermodynamic partition function, Z, for a system at temperature, beta to the minus one, is the expectation value of e to the minus beta, times the Hamiltonian, summed over all states. As is now well known, this can be represented by a Euclidean path integral, over all fields that are periodic en Euclidean time, with period beta at infinity. Similarly, the partition function for a system with angular velocity, omega, will be given by a path integral over all fields, that are periodic under the combination of a Euclidean time translation, beta, and a rotation, omega beta. One can also specify the gauge potential at infinity. This gives the partition function for a thermodynamic ensemble, with electric and magnetic type charges. The mass, angular momentum, and electric charges of the configurations en the path integral, are not determined by the boundary conditions at infinity. They can be different for different configurations. Each configuration, will therefore be weighted en the partition function, by an e to the minus the charge, times the corresponding potential. On the other hand, the magnetic type charges, are uniquely determined by the boundary conditions at infinity, and are the same for all field configurations en the path integral. The path integral therefore gives the partition function, for a given magnetic charge sector.

The lowest order contribution to the partition function, will be e to the minus I, where I, is the action of the Euclidean black hole solution. The action can be related to the Hamiltonian, as integral H, minus pq dot. en a stationary black hole metric, all the q dots will be zero. Thus the action, I, will be the time period beta, time the value of the Hamiltonian. As I said earlier, the Hamiltonian surface term at infinity, is mass, plus omega J, plus Phi Q, and the Hamiltonian surface term on the horizon, is zero. If one uses the contribution from this action to the partition function, and uses the standard formula, one finds the entropy is zero.

Sin embargo, because the surfaces of constant Euclidean time, all intersected at the horizon, one had to introduce an inner boundary there. The action, I, = beta times Hamiltonian, is the action for region between the boundary at infinity infinity, and a small tubular neighbourhood of the horizon. But the partition function, is given by a path integral over all metrics with the required behavior at infinity, and no internal boundaries or infinities. One therefore has to add the action of the tubular neighbourhood of the horizon. What ever supergravity theory one is using, and what ever dimension one is in, one can make a conformal transformation of the metric to the Einstein frame, en which the coefficient of the Einstein Hilbert action, capital R, is on over 16 pi G, where G is Newton's constant en the dimension of the theory. The surface term associate with the Einstein Hilbert action, is one over 8 pi G, times the trace of the second fundamental form. This gives the tubular neighbourhood of the horizon, an action of minus one over 4 G, times the codimension two area of the horizon. If one adds this action to the beta times Hamiltonian, one gets a contribution to the entropy, of area over 4 G, independent of dimension, or of the particular supergravity theory. Higher order curvature terms en the action, would give the tubular neighbourhood an action, that was small compared to area over 4 G, for large black holes. Thus the quarter area law, is universal for black holes. It can be traced to the non trivial topology of Euclidean black holes, which provides an obstruction to foliating them by a family of time surfaces, and using the Hamiltonian to generate a unitary evolution of quantum states. Because the entropy is given by the horizon area in Planck units, one might think that it corresponded to microstates, that are localized near the horizon. Sin embargo, gravitational entropy, like gravitational energy, can not be localized, but can only be defined globally. This can be seen most clearly en the case of the three dimensional BTZ black hole, to which all four or five dimensional black holes, can be related by a series of U dualities, which preserve the horizon area. The BTZ black hole, is a solution of the 2+1 Einstein equations, with a negative cosmological constant.

Locally, the only solution of these equations, is anti de Sitter space, but the global structure can be different. To see this, one can picture anti de Sitter space, as conformal to the interior of a cylinder en 2+1 Minkowski space. The surface of the cylinder, represents the time like infinity of anti de Sitter space. Similarly, Euclidean anti de Sitter space, is conformal to the interior of a cylinder en three dimensional Euclidean anti de Sitter space. If one now identify this cylinder periodically along its axis, one occasions the background geometry for quantum fields in anti de Sitter space, at a finite temperature. One could identify under the combination of a rotation along the axis and a rotation, but I shall consider only a translation, for simplicity.

The surface of the identified cylinder, representing the boundary at infinity, will be a two torus, with periodically identified tau and phi, as the two coordinates.

Sin embargo, given a two torus at infinity, there are two topologically distinct ways, that one can fill it en with a two disk, cross a circle. These two ways, are shown as the two anchor rings, or solid tori, on the screen. The circle can be en either the tau or phi directions. The first corresponds to anti de Sitter at a finite temperature, and the second to the BTZ black hole. en the BTZ black, the orbits of the phi Killing vector, do not shrink to zero, because the black hole has no center en the Euclidean region. On the other hand, the orbits of the tau killing vector, shrink to zero at the horizon, which is the center of the disk, cross the circle. One gets a a non zero action and Hamiltonian for the BTZ black hole, by taking the reference background, to be anti de Sitter space at a finite temperature. As before, this leads to an entropy of a quarter the area of the horizon, which en this case, is the length of the phi orbit at the center of the disk. But the BTZ black hole, is completely homogeneous. Thus one can not localize the entropy on the horizon, which is just like the axis en ordinary three dimensional space. It arises from the global mismatch of Euclidean BTZ, with the reference background, which is Euclidean anti de Sitter, periodically identified en the tau direction.

This analysis of the mismatch between the topology of a reference background, and other Euclidean solutions with the same asymptotic behavior, can be extended to other situations. The intersection of surfaces of constant time on the horizon, is only simplest way en which unitary Hamiltonian evolution can break down. Chris Hunter and I, have been investigating more complicated topologies, en which there are other possible singularities en the foliation of spacetime. One might expect that these singularities, would also have entropy associated with them. Since thermal ensembles are periodic en the Euclidean time direction, we considered reference backgrounds, and other Euclidean solutions, which have a U1 isometry group, with Killing vector, K. The isometry group, will have fixed points where K vanishes. Gary Gibbons and I, classified the possible fixed point sets en four dimensions, into two dimensional surfaces we called bolts, and isolated points that we called nuts. Sin embargo, one can extend this classification scheme, to Euclidean metrics of any dimension. The fixed point sets will then lie on totally geodesic sub manifolds, of even codimension.

Let tau be the parameter of the U1 isometry group. Then the metric can be written in the Kaluza Klein form, with tau as the coordinate on the internal U1. Here V, omega i, and gamma i j, are fields on the d minus one dimensional space, B, of orbits of the isometry group. B would be singular at the fixed points, so one has to leave them out of B, and introduce d minus two dimensional boundaries to B. The coordinate tau can be changed by a Kaluza Klein gauge transformation, that is, by the addition of a function, lambda on B. This changes the one form, omega, by d lambda, but leaves the field strength, F = d omega, unchanged. If the orbit space, B has non trivial homology en dimension two, the two form, F, can have non zero integrals over two cycles en B. en this case the potential one form, omega, will have Dirac like string singularities, on surfaces of dimension d minus three en B. The foliattion of the spacetime by surfaces of constant tau, will break down both at the fixed points of the isometry, and on the Kaluza Klein string singularities of omega, which I will call Misner strings, after Charles Misner who first realized their nature en the Taub nut solution. Misner strings are surfaces of dimension d minus two en the spacetime.

In order to do a Hamiltonian treatment using surfaces of constant tau, one has to cut out small neighbourhoods of the fixed point sets, and of any Misner strings. The action given by beta times the value of the Hamiltonian, will then be the action of the spacetime, with the neighbourhoods removed. Putting back the neighbourhoods, the Einstein Hilbert term will give a contribution of minus a quarter area, for the Misner strings and the d minus two dimensional fixed point sets. But the contribution to the action from lower dimensional fixed points, will be zero. As before, the Hamiltonian surface terms at the fixed points, will be zero, because the lapse and shift vanish there. But the shift won't vanish on the Misner string, so there will be a Hamiltonian surface term on a Misner string, given by the shift, times a component of the second fundamental form, of the constant tau surfaces. Thus the action will be made up of several contributions. First, there will be beta times the Hamiltonian surface terms at infinity, and on the Misner strings. Then one has to subtract one over 4 G, times the sum of the areas of the bolts, plus the Misner strings. Finally, one has to subtract the same quantities for the reference background. Some or all of these quantities may diverge, but the differences from the reference background will have finite limits, as the boundary is taken to infinity. From now on, I shall mean these finite differences, when I refer to any of these contributions to the action. The partition function, Z, can be related by thermodynamics, to the entropy, and the conserved quantities like energy, angular momentum, and electric charge, whose values are not fixed by the boundary conditions. One has log Z, = the entropy, minus the sum of the conserved quantities, each weighted by its thermodynamic potential. But the Hamiltonian surface term at infinity, multiplied by beta, is by definition, the sum of the conserved quantities, weighted by their thermodynamic potentials. Thus taking the action to be minus log Z, one gets that the entropy is a quarter the area of the bolts, and Misner strings, minus beta times the Hamiltonian surface term on the Misner strings. One can make a Kaluza Klein gauge transformation, by changing tau by a function, lambda, on the orbit space. This will change the position and area of the Misner strings, but the combination, a quarter string area, minus beta the Hamiltonian surface term on the string, will be gauge invariant. Again, this shows that entropy is a global property. It can not be localized en microstates on the Misner string.

The discussion I have given, applies to any gravitational theory en any dimension, which has the Einstein Hilbert action, as the leading term. I shall illustrate it, Sin embargo, with some examples en four dimensions, that have been worked out by Chris Hunter. Four dimensional metrics, can have several different asymptotic behaviors. en this talk, I shall concentrate on the asymptotically locally flat, and asymptotically locally Euclidean cases, because entropy has not been defined for these spaces previously.

Asymptotically local flat solutions, have a Nut charge, or magnetic type mass, N, as well as the ordinary electric type mass, M. The Nut charge is beta over 8 pi, times the first Chern number of the U1 bundle, over the sphere at infinity, en the orbit space, B. The natural reference backgrounds for solutions with Nut charge, are the self dual multi Taub Nut solutions, which have M=N. When written en Kaluza Klein form, the multi Taub Nut solutions what no bolts, or fixed point sets of dimension two. They do Sin embargo, have a number of Nuts, or fixed point sets of dimension zero. From each Nut, there is a Misner string, leading to either another Nut, or infinity. The positions and areas of the Misner strings, are gauge dependent. Sin embargo, a quarter the area of the Misner strings, minus beta times the Hamiltonian surface term on the strings, is gauge invariant, and is independent of the position of the Nuts en the three dimensional flat orbit space. Thus the entropy of the multi Taub Nuts, is zero, as one would expect, since they define the vacuum for that sector of the theory.

There are, Sin embargo, asymptotically locally flat solutions, that are not multi Taub Nut. The prime example, is the so called Taub bolt solution, discovered by Don page. As its name suggests, this solution has a bolt, with area 12 pi N squared. It also has a Misner string, stretching from the bolt to infinity. The Chern number at infinity, is one. Thus the appropriate reference background, is the single self dual Taub Nut. When one calculates the entropy according to the prescription I have given, the result is, pi N squared. Note that this is not a quarter the area of the bolt, which would have given 3 pi N squared. The difference comes from the different Misner string area and Hamiltonian contributions, en Taub Nut and Taub bolt.

In the asymptotically locally Euclidean case, the appropriate reference backgrounds, are the orbifolds obtained by identifying Euclidean flat space, under a discrete sub group, Gamma, of SU2, that acts freely on the three sphere. The ALE self dual instantons, have these boundary conditions. They can be written en Kaluza Klein form, with bolts, nuts, and Misner strings. The reference backgrounds, can also be written en Kaluza Klein form, with a nut at the orbifold point, and a Misner string from the orbifold point, to infinity. Sin embargo, the entropy, calculated according to the prescription I have given, turns out to be zero. This is what one would expect, because the ALE instantons, have the same super symmetry as the reference backgrounds. It is only when one has solutions with less super symmetry than the background, that one gets entropy. Examples are non extreme black holes, which have no super symmetry, or extreme black holes with central charges, which have reduced super symmetry.

One can show that there are no vacuum ALE metrics, with less super symmetry than the reference background. The Israel Wilson family of Einstein Maxwell solutions, Sin embargo, contains non self dual ALE, and even asymptotically Euclidean solutions, with an asymptotically constant self dual Maxwell field at infinity. Since these solutions are not super symmetric, and have different topology to the reference background, one would expect them to have entropy, and this is confirmed by calculation of examples.

One might think instantons with a self dual Maxwell field at infinity, were not physically relevant. Sin embargo, one can promote them to being Einstein Yang Mills solutions, with a constant self dual Yang Mills field at infinity. One could then match them to Yang Mills instantons en flat space, with large winding numbers, which can have regions where the Yang Mills field, is almost constant.

Finally, to show that the expression we propose for the entropy, can be applied en more than four dimensions, consider the five sphere, of radius, R. This can be regarded as a solution of a five dimensional theory, with cosmological constant. One can take the U1 isometry group, to have a fixed point set on a three sphere of radius R. en this case there are no Misner strings. So the formula gives an entropy of, pi squared, R cubed, over 2G. Sin embargo, one can choose a different U1 isometry, whose orbits are the Hopf fibration of the five sphere. This isometry group, has no fixed points. So the usual connection between entropy, and the fixed points, does not apply. But the orbit space of the Hopf fibration, is CP2. The Kaluza Klein two form, F, is the harmonic two form on CP2. The one form potential, omega, for this has a Dirac string on a two surface en the orbit space. When promoted to the full spacetime, this becomes a three dimensional Misner string. The area of the Misner string divided by 4G, minus beta times the Hamiltonian surface term on the Misner string, is again the entropy, pi squared R cubed, over 2G. This example is fairly trivial, but it shows that the method can be extended to higher dimensions.

I think there are three morals can be drawn from this work.

The first is that gravitational entropy just depends on the Einstein Hilbert action. It doesn't require super symmetry, string theory, or p-branes.

The second is that entropy is a global quantity, like energy or angular momentum, and shouldn't be localized on the horizon. The various attempts to identify the microstates responsible for black hole entropy, are en fact constructions of dual theories, that live en separate spacetimes.

The third moral, is that entropy arises from a failure to foliate the Euclidean regime, with a family of time surfaces. This would suggest that there would not be a unitary S matrix, for particle scattering described by a Euclidean section, with non trivial topology. No particle scattering situation, with non trivial Euclidean topology, has definitely been shown to exist, but the asymptotically Euclidean solutions with a constant Maxwell field at infinity, are very suggestive. They would seem to point to loss of quantum coherence and information, en black holes. This is the major unresolved question, en the quantum theory of black holes. Let's hope this meeting, gives us new insights into the problems.


El espacio y el tiempo se curvan.

En la ciencia ficción, las curvaturas del espacio y el tiempo son un lugar común. Son usadas para rápidos paseos por la galaxia, o para viajar a través del tiempo. Pero la ciencia ficción de hoy, con frecuencia es un hecho científico del mañana. Entonces cuáles son las chances de que el espacio y el tiempo se curven.

La idea de que el espacio y el tiempo pueden ser curvados, o flexionados, es bien reciente. Por más de dos mil años, los axiomas de la geometría Euclideana, fueron considerados como auto evidentes. Como aquellos de ustedes que fueron forzados a aprender geometría Euclideana en la escuela puede que recuerden, una de las consecuencias de esos axiomas es, que los ángulos de un triángulo, suman 180 grados.

Sin embargo, en el último siglo, la gente comenzó a darse cuenta que otras formas de geometría eran posibles, en las cuales los ángulos de un triángulo, no necesitan sumar 180 grados. Consideren, por ejemplo, la superficie de la Tierra. Lo más parecido a una línea recta sobre la superficie de la Tierra, es lo que se llama, un gran círculo. Esos son los caminos más cortos entre dos puntos, por tanto son las rutas que usan las líneas aéreas. Consideren ahora el triángulo sobre la superficie de la tierra, constituido por el ecuador, la línea de 0 grados de longitud que cruza Londres, y la línea de 90 grados de longitud este, que cruza Bangladesh. Las dos líneas de longitud, forman con el ecuador un ángulo recto, de 90 grados. Las dos líneas de longitud también forman un ángulo en el polo norte, un ángulo recto, de 90 grados. Así que tenemos un trángulo con tres ángulos rectos. Los ángulos de este triángulo suman 270 grados. Esto es más de los 180 grados, para un triángulo sobre una superficie plana. Si se dibuja un triángulo sobre una superficie con forma de una silla de montar, se encontraría que los ángulos suman menos de 180 grados.

La superficie de la Tierra, es lo que se llama un espacio bidimensional. Esto es, usted se puede mover sobre la superficie de la Tierra, en dos direcciones en ángulo recto una de la otra: usted se puede mover entre el norte y el sur, o entre el este y el oeste. Pero por supuesto, hay una tercera dirección en ángulo recto con esas dos, y que es arriba o abajo. Esto es decir, que la superficie de la Tierra existe en un espacio tridimensional. El espacio tridimensional es plano. Esto es decir, que obedece a la geometría Euclideana. Los ángulos de un triángulo, suman 180 grados. Sin embargo, se puede imaginar una raza de criaturas bidimensionales, que podrían moverse sobre la superficie de la Tierra, pero que no podrían experimentar la tercera dirección, de arriba o abajo. Ellos no podrían conocer el espacio plano de tres dimensiones, en el cual vive la superficie de la Tierra. Para ellos, el espacio podría ser curvado, y la geometría podría ser no Euclideana.

Podría ser muy dificultoso diseñar un ser viviente que pueda existir en sólo dos dimensiones. La comida que las criaturas no puedan digerir deberá salir por el mismo sitio por el que entró. Si hubiera un pasaje a través de la criatura, como el que tenemos nosotros, el pobre animal quedaría en dos pedazos.

Por lo tanto las tres dimensiones, parecen ser el mínimo para la vida. Pero tal como se puede pensar en seres de dos dimensiones viviendo sobre la superficie de la Tierra, se puede imaginar que el espacio tridimensional en el que vivimos, sea la superficie de una esfera, en otra dimension que no podemos ver. Si la esfera fuera muy grande, el espacio podría ser casi plano, y la geometría Euclideana podría ser una muy buena aproximación en distancias cortas. Pero podríamos advertir que la geometría Euclideana se vuelve errónea, en las largas distancias. Como una ilustración de esto, imaginen un equipo de pintores, añadiendo pintura a la superficie de una gran pelota.

A medida que se incrementa el grosor de la capa de pintura, el área de la superficie se incrementaría. Si la pelota estuviera en un espacio plano tridimensional, se podría seguir añadiendo pintura indefinidamente, y la pelota se haría más y más grande. Sin embargo, si el espacio tridimensional, fuera realmente la superficie de una esfera en otra dimension, su volúmen podría ser grande pero finito. Al agregar más capas de pintura, la pelota podría eventualmente llenar la mitad del espacio. Después de eso, los pintores podrían hallar que estarían atrapados en una región de medida siempre decreciente, y casi todo el espacio, estaría ocupado por la pelota, y sus capas de pintura. Entonces se darían cuenta de que estaban viviendo en un espacio curvado, y no en uno plano.

Este ejemplo muestra que no se puede deducir la geometría del mundo de primeros principios, como pensaban los antiguos griegos. En lugar de eso, uno tiene que medir el espacio en que vivimos, y encontrar su geometría en forma experimental. Sin embargo, aunque una forma de describir espacios curvados, fue desarrollada por el alemán, George Friedrich Riemann, en 1854, permaneció como una abstracción matemática por sesenta años. Se podían describir espacios curvados de existencia abstracta, pero no parecía haber razón para que el espacio físico en que vivimos, debiera ser curvado. Esto vino sólo en 1915, cuando Einstein promovió la Teoría General de la Relatividad.

La Relatividad General fue una gran revolución intelectual que ha transformado el modo en que pensamos sobre el universo. No es sólo una teoría de un espacio curvado, sino también de un tiempo curvado o flexionado. Einstein se dió cuenta en 1905, de que el espacio y el tiempo, están íntimamente conectados uno con otro. Se puede describir la localización de un evento con cuatro números. Tres números describen la posición del evento. Ellos pueden ser millas al norte y al este del circo de Oxford, y la altura sobre el nivel del mar. En una gran escala, podrían ser la latitud y longitud galácticas, y la distancia desde el centro de la galaxia.

El cuarto número, es el tiempo del evento. Por ende uno puede pensar al espacio y al tiempo juntos, como una entidad de cuatro dimensiones, llamada espacio-tiempo. Cada punto del espacio-tiempo es etiquetado con cuatro números, que especifican su posición en el espacio, y en el tiempo. Combinar espacio y tiempo en espacio-tiempo de este modo podría ser bastante trivial, si se pudiera desenmarañarlos de un único modo. Esto es decir, si hubiera un único modo de definir el tiempo y la posición de cada evento. Sin embargo, en un remarkable paper escrito en 1905, cuando él era un clerk en la oficina de patentes de Suiza, Einstein demostró que el tiempo y la posición a los cuales se piensa que ocurre un evento, dependen de cómo se esté moviendo uno. Esto significó que el tiempo y el espacio, estaban inextricablemente bound up uno con el otro.

Los tiempos que diferentes observadores podrían asignar a los eventos podrían coincidir si los observadores no se estuvieran moviendo uno respecto de otro. Pero podrían diferir más, cuanto mayor sea su velocidad relativa. Luego uno puede preguntar, cuan rápido se necesita ir, para que el tiempo para un observador, deba ir en sentido contrario en relación al tiempo de otro observador. La respuesta se da en la siguiente rima.


    There was a young lady of Wight
    Who traveled much faster than light.
    She departed one day,
    In a relative way,
    And arrived on the previous night

    Hubo una jóven dama de Wight
    que viajó mucho más rápido que la luz.
    Ella partió un día,
    de un modo relativo,
    y llegó la noche anterior.

Luego todo lo que necesitamos para viajar en el tiempo, es una nave espacial que vaya más rápido que la luz. Desafortunadamente, en el mismo paper, Einstein demostró que la potencia del cohete necesaria para acelerar una nave espacial, se vuelve más y más grande, cuanto más cerca vaya de la velocidad de la luz. Por lo tanto se necesitaría una potencia infinita, para acelerar pasando la velocidad de la luz.

El paper de Einstein de 1905 parecía descartar el viaje en el tiempo hacia el pasado. También indicaba que el viaje espacial a otras estrellas, iba a ser un asunto muy lento y tedioso. Si no se pudiera ir más rápido que la luz, el viaje de ida y vuelta a la estrella más cercana, tomaría al menos ocho años, y hasta el centro de la galaxia, al menos ochenta mil años. Si la nave espacial llegara muy cerca de la velocidad de la luz, les parecería a sus tripulantes, que el viaje al centro de la galaxia sólo tomó unos pocos años. Pero eso no sería mucho consuelo, si cualquier persona que usted haya conocido estuviera muerta y olvidada hace miles de años, cuando usted vuelva. Eso no sería muy bueno para los Westerns espaciales. Así que los escritores de ciencia ficción, tienen que buscar maneras de obviar esta dificultad.

En su paper de 1915, Einstein mostró que los efectos de la gravedad pueden describirse, mediante la suposición de que el espacio-tiempo fue curvado o distorsionado, por la materia y energía que contiene. Actualmente podemos observar esta curvatura del espacio-tiempo, producida por la masa del Sol, en el ligero desvío de la luz o las ondas de radio, pasando cerca del Sol.

Esto causa que la posición aparente de la estrella o la fuente de radio, cambie ligeramente, cuando el Sol está entre la Tierra y la fuente. El cambio es muy pequeño, alrededor de una milésima de grado, equivalente al movimiento de una pulgada, a una distancia de una milla. A pesar de todo, puede ser medido con gran precisión, y concuerda con las predicciones de la Relatividad General. Tenemos evidencia experimental, de que el espacio y el tiempo se curvan.

La cantidad de curvatura en nuestro vecindario, es muy pequeña, porque todos los campos gravitatorios en el sistema solar, son débiles. Sin embargo, sabemos que pueden aparecer campos muy fuertes, por ejemplo en el Big Bang, o en los agujeros negros. Luego, pueden el espacio y el tiempo curvarse lo suficiente, para cumplir las demandas de la ciencia ficción, de cosas como manejar el hiperespacio, wormholes, o viajes en el tiempo. A primera vista, todo eso parece posible. Por ejemplo, en 1948, Kurt Goedel encontró una solución a las ecuaciones de campo de la Relatividad General, las cuales representan un universo en el cual toda la materia estuviera rotando. En este universo, sería posible salir en una nave espacial, y volver antes de haber salido. Goedel estaba en el Instituto de Estudios Avanzados, en Princeton, donde Einstein también pasó sus últimos años. Su obra más famosa fue probar que usted no puede probar todo lo que es verdad, inclusive en una cosa aparentemente tan simple como la aritmética. Pero lo que él probó acerca de la Relatividad General permitiendo el viaje en el tiempo realmente sorprendió a Einstein, que pensaba que eso no sería posible.

Ahora sabemos que la solución de Goedel no podría representar el universo en el cual vivimos, porque su universo no se estaba expandiendo. También tenía un valor muy grande de una cantidad llamada la constante cosmológica, el cual generalmente se considera que es cero. Sin embargo, otras soluciones aparentemente más razonables que permiten el viaje en el tiempo, se han encontrado luego. Una que es particularmmente interesante contiene dos cuerdas cósmicas, moviendose al pasado cada una a una velocidad muy cercana, pero ligeramente menor que, la velocidad de la luz. Las cuerdas cósmicas son una destacable idea de la física teórica, con la cual los escritores de ciencia ficción no parecen estar cautivados. Como su nombre sugiere, son como cuerdas, en que tienen longitud, pero su grosor es muy pequeño. En realidad, son más parecidas a las banditas de goma, porque están bajo una enorme tensión, algo así como cien mil cuatrillones de toneladas. Una cuerda cósmica atada al Sol podría acelerarlo naught to sixty, en un treintavo de segundo.

Las cuerdas cósmicas pueden sonar far-fetched, y pura ciencia ficción, pero hay buenas razones científicas para creer que podrían haberse formado en el universo primitivo, muy poco después del Big Bang. Dado que están bajo una tensión tan grande, se podría esperar que hayan acelerado a casi la velocidad de la luz.

Lo que tienen en común el universo de Goedel, y las cuerdas cósmicas moviéndose rápidamente en el espacio-tiempo, es que comenzaron tan distorsionadas y curvadas, que el viaje hacia el pasado, fue siempre posible. Dios podría haber creado un universo tan curvado, pero no tenemos razones para pensar que El lo hizo. Toda la evidencia es, que el universo comenzó en el Big Bang, sin el tipo de curvatura necesario, para permitir el viaje hacia el pasado. Dado que no podemos cambiar el modo en que el universo comenzó, la cuestión de si es posible el viaje en el tiempo, se reduce a saber si subsecuentemente podemos hacer que el espacio-tiempo se curve lo suficiente, para que volvamos al pasado. Pienso que esto es un importante sujeto de investigación, pero uno tiene que ser cuidadoso de no ser rotulado como un crank. Si uno pide fondos para investigación sobre viajes en el tiempo, sería rechazado inmediatamente. Ninguna agencia del gobierno podría afrontar ser vista despilfarrando el dinero de los contribuyentes, en algo tan fuera de lugar como los viajes en el tiempo. En lugar de eso, uno tiene que usar términos técnicos, como tiempo cerrado o curvas, que son un código del viaje en el tiempo. Aunque esta conferencia es en parte sobre el viaje en el tiempo, sentí que tenía que darle un título científicamente más respetable, como El espacio y el tiempo se curvan. Aun así, es una cuestión muy seria. Dado que la Relatividad General puede permitir el viaje en el tiempo, ¿lo permite en nuestro universo? Y si no es así, ¿por qué no?

Cercanamente relacionada con el viaje en el tiempo, está la capacidad de viajar con rapidez de una posición en el espacio, a otra. Como dije antes, Einstein mostró que sería necesaria una potencia de cohete infinita, para acelerar una nave espacial a una velocidad superior a la de la luz. Luego el único modo de ir de un lado al otro de la galaxia, en un tiempo razonable, parecería ser si pudiéramos curvar (warp) el espacio-tiempo lo suficiente, para crear un pequeño tubo o agujero de gusano (wormhole).

Esto podría conectar los dos lados de la galaxia, y funcionar como un atajo, para ir de un lado al otro y volver mientras sus amigos aun esten con vida. Tales wormholes han sido seriamente sugeridos, como formando parte de las capacidades de una civilización futura. Pero si usted puede viajar de un lado al otro de la galaxia, en una semana o dos, usted podría volver a través de otro wormhole, y arribar antes de haber salido. Usted inclusive podría arreglárselas para regresar en el tiempo con un solo wormhole, si sus dos extremos se estuvieran moviendo uno respecto al otro. Se puede demostrar que para crear un wormhole, uno necesita curvar el espacio-tiempo en el modo opuesto, a aquel en el cual la materia normal lo hace. La materia ordinaria curva el espacio-tiempo sobre sí mismo, como la superficie de la Tierra.

Sin embargo, para crear un wormhole, se necesita materia que curve al espacio-tiempo en el modo opuesto, como la superficie de una silla de montar. Lo mismo es verdad de cualquier otro modo de curvar el espacio-tiempo para permitir el viaje al pasado, si el universo no comenzó tan curvado, que permitiera el viaje en el tiempo. Lo que se podría necesitar, sería materia con masa negativa, y densidad de energía negativa, para hacer que el espacio-tiempo se curve del modo requerido.

La energía es bastante parecida a la moneda. Si usted tiene un saldo positivo en el banco, usted puede distribuirlo de varias maneras. Pero de acuerdo a las leyes clásicas en las que se creía hasta hace poco, no se permite que haya un saldo en descubierto de la energía. Por lo tanto las leyes clásicas podrían impedirnos ser capaces de curvar el universo, en el modo requerido para permitir el viaje en el tiempo. Sin embargo, las leyes clásicas fueron overthrown por la Teoría de los Cuantos, que es la otra gran revolución en nuestra imágen del universo, aparte de la Relatividad General. La Teoría de los Cuantos es más relajada, y le permite tener un descubierto en una o dos cuentas. Ojalá los bancos fueran tan liberales. En otras palabras, La Teoría de los Cuantos permite que la densidad de energía sea negativa en algunos lugares, siempre que sea positiva en otros. La razón por la cual la Teoría de los Cuantos puede permitir que la densidad de energía sea negativa, es que está basada en el Principio de Incertidumbre.

Este dice que ciertas cantidades, como la posición y la velocidad de una partícula, no pueden ambas tener valores bien definidos. Cuanto más precisamente se defina la posición de una partícula, más grande es la incertidumbre en su velocidad, y vice versa. El principio de incertidumbre también se aplica a los campos, como el campo electromagnético, o el campo gravitatorio. Esto implica que esos campos nunca pueden ser exactamente nulos, ni siquiera en lo que pensamos que es un espacio vacío. Porque si fuesen exactamente cero, sus valores podrían tener tanto una posición bien definida en cero, como una bien definida velocidad, que también sería cero. Esto sería una violación del principio de incertidumbre. En vez de eso, los campos tendrían que tener una cierta cantidad mínima de fluctuaciones. Se pueden interpretar esas así llamadas fluctuaciones de vacío, como pares de partículas y anti partículas, que de repente aparecen juntas, se separan, y entonces se juntan de nuevo, y se aniquilan una a la otra.

Estos pares de partícula y anti partícula, se dice que son virtuales, porque uno no puede medirlos directamente con un detector de partículas. Sin embargo, uno puede observar sus efectos indirectamente. Un modo de hacerlo, es mediante lo que se llama el efecto Casimir. Se tienen dos platinos de metal, a muy corta distancia. Los platinos actúan como espejos para las partículas y anti partículas virtuales. Esto significa que la región entre los platinos, es un poco como un tubo de órgano, y sólo admitira ondas de luz de ciertas frecuencias resonantes. El resultado es que hay ligeramente menos fluctuaciones de vacío, o partículas virtuales, entre los platinos, que del lado de afuera, donde las fluctuaciones de vacío pueden tener cualquier longitud de onda. La reducción en el número de partículas virtuales entre los platinos significa que ellas no golpean los platinos con tanta frecuencia, y por lo tanto no ejercen tanta presión en los platinos, como las partículas virtuales de afuera. Hay entonces una leve fuerza empujando los platinos para juntarlos. Esta fuerza ha sido medida experimentalmente. Por lo tanto las partículas virtuales realmente existen, y producen efectos reales.

Dado que hay menos partículas virtuales, o fluctuaciones de vacío, entre los platinos, ellas tienen una densidad de energía más baja, que en la región exterior. Pero la densidad de energía del espacio vacío lejos de los platinos, debe ser cero. De otro modo podría curvar el espacio-tiempo, y el universo no sería casi plano. Así que la densidad de energía en la región entre los platinos, debe ser negativa.

Por lo tanto tenemos evidencia experimental por el desviamiento de la luz, de que el espacio-tiempo es curvo, y confirmación por medio del efecto Casimir, de que podemos curvarlo en la dirección negativa. Así que parece ser posible, que a medida que avancemos en ciencia y tecnología, podríamos ser capaces de construir un wormhole, o espacio y tiempo curvos en alguna otra manera, y así ser capaces de viajar hacia nuestro pasado. Si este fuera el caso, podrían aparecer un montón de cuestiones y problemas. Uno de estos es, si alguna vez en el futuro, aprendemos a viajar en el tiempo, por qué no ha vuelto alguien del futuro, para decirnos como hacerlo.

Inclusive si hubiera sonoras razones para mantenernos en la ignorancia, la cual forma parte de la naturaleza humana, es difícil de creer que nadie querrá lucirse, y decirnos a estos pobres benighted peasants, the secret of time travel. Of course, some people would claim that we have been visited from the future. They would say that UFO's come from the future, and that governments are engaged en a gigantic conspiracy to cover them up, and keep for themselves, the scientific knowledge that these visitors bring. All I can say is, that if governments were hiding something, they are doing a pretty poor job, of extracting useful information from the aliens. I'm pretty skeptical of conspiracy theories, believing the cock up theory is more likely. The reports of sightings of UFO's can't all be caused by extra terrestrials, because they are mutually contradictory. But once you admit that some are mistakes, or hallucinations, isn't it more probable that they all are, than that we are being visited by people from the future, or the other side of the galaxy? If they really want to colonize the Earth, or warn us of some danger, they are being pretty ineffective.

A possible way to reconcile time travel, with the fact that we don't seem to have had any visitors from the future, would be to say that it can occur only en the future. en this view, one would say espacio-tiempo en our past was fixed, because we have observed it, and seen that it is not warped enough, to allow travel into the past. On the other hand, the future is open. So we might be able to warp it enough, to allow time travel. But because we can warp espacio-tiempo only en the future, we wouldn't be able to travel back to the present time, or earlier. But it would still leave plenty of paradoxes. Suppose it were possible to go off en a rocket ship, and come back before you set off.

What would stop you blowing up the rocket on its launch pad, or otherwise preventing you from setting out en the first place. There are other versions of this paradox, like going back, and killing your parents before you were born, but they are essentially equivalent. There seem to be two possible resolutions.

One is what I shall call, the consistent histories approach. It says that one has to find a consistent solution of the equations of physics, even if espacio-tiempo is so warped, that it is possible to travel into the past. On this view, you couldn't set out on the rocket ship to travel into the past, unless you had already come back, and failed to blow up the launch pad. It is a consistent picture, but it would imply that we were completely determined: we couldn't change our minds. So much for free will.

The other possibility is what I call, the alternative histories approach. It has been championed by the physicist David Deutsch, and it seems to have been what Steven Spielberg had en mind when he filmed, Back to the Future.

In this view, en one alternative history, there would not have been any return from the future, before the rocket set off, and so no possibility of it being blown up. But when the traveler returns from the future, he enters another alternative history. en this, the human race makes a tremendous effort to build a space ship, but just before it is due to be launched, a similar space ship appears from the other side of the galaxy, and destroys it.

David Deutsch claims support for the alternative histories approach, from the sum over histories concept, introduced by the physicist, Richard Feinman, who died a few years ago. The idea is that according to Quantum Theory, the universe doesn't have just a unique single history.

Instead, the universe has every single possible history, each with its own probability. There must be a possible history en which there is a lasting peace en the Middle East, though maybe the probability is low.

In some histories espacio-tiempo will be so warped, that objects like rockets will be able to travel into their pasts. But each history is complete and self contained, describing not only the curved espacio-tiempo, but also the objects en it. So a rocket can not transfer to another alternative history, when it comes round again. It is still in the same history, which has to be self consistent. Thus, despite what Deutsch claims, I think the sum over histories idea, supports the consistent histories hypothesis, rather than the alternative histories idea.

It thus seems that we are stuck with the consistent histories picture. Sin embargo, this need not involve problems with determinism or free will, if the probabilities are very small, for histories en which espacio-tiempo is so warped, that time travel is possible over a macroscopic region. This is what I call, the Chronology Protection Conjecture: the laws of physics conspire to prevent time travel, on a macroscopic scale.

It seems that what happens, is that when espacio-tiempo gets warped almost enough to allow travel into the past, virtual particles can almost become real particles, following closed trajectories. The density of the virtual particles, and their energy, become very large. This means that the probability of these histories is very low. Thus it seems there may be a Chronology Protection Agency at work, making the world safe for historians. But this subject of space and time warps is still en its infancy. According to string theory, which is our best hope of uniting General Relativity and Quantum Theory, into a Theory of Everything, espacio-tiempo ought to have ten dimensions, not just the four that we experience. The idea is that six of these ten dimensions are curled up into a space so small, that we don't notice them. On the other hand, the remaining four directions are fairly flat, and are what we call espacio-tiempo. If this picture is correct, it might be possible to arrange that the four flat directions got mixed up with the six highly curved or warped directions. What this would give rise to, we don't yet know. But it opens exciting possibilities.

The conclusion of this lecture is that rapid space-travel, or travel back en time, can't be ruled out, according to our present understanding. They would cause great logical problems, so let's hope there's a Chronology Protection Law, to prevent people going back, and killing our parents. But science fiction fans need not lose heart. There's hope en string theory.

Since we haven't cracked time travel yet, I have run out of time. Thank you for listening.


El comienzo del tiempo.

En esta conferencia, me gustaría discutir si es que el tiempo mismo tiene un comienzo y si es que tendrá un final. Toda la evidencia parece indicar, que el universo no ha existido desde siempre, sino que tuvo un comienzo, hace alrededor de 15.000 millones de años. Este es probablemente el más destacado descubrimiento de la cosmología moderna. Ahora es algo dado por seguro. Todavía no estamos seguros de si el universo tendrá un final. Cuando dí una conferencia en Japón, me pidieron que no mencionara el posible re-colapso del universo porque podría afectar el mercado de acciones. Sin embargo, puedo asegurarle a cualquiera que esté nervioso por el resultado de sus inversiones que es todavía muy temprano para vender sus acciones: inclusive si el universo tuviera un final, faltan todavía 20.000 millones de años. Para ese momento, tal vez el tratado de comercio del GATT se haya puesto en práctica.

La escala de tiempo del universo es muy grande comparada con la de la vida humana. Por lo tanto no es sorprendente que hasta hace poco tiempo se considerara que el universo es esencialmente estático, e invariable en el tiempo. Por otra parte, debe haber sido obvio, que la sociedad está evolucionando en cultura y tecnología. Esto indica que la presente fase de la historia humana no puede haber durado más de unos pocos miles de años. De otro modo, podríamos ser más avanzados de lo que somos. Fue entonces natural creer que la raza humana, y tal vez el universo entero, tuvo un comienzo en un pasado bien reciente. Sin embargo, many people were unhappy with the idea that the universe had a beginning, because it seemed to imply the existence of a supernatural being who created the universe. They preferred to believe that the universe, and the human race, had existed forever. Their explanation for human progress was that there had been periodic floods, or other natural disasters, which repeatedly set back the human race to a primitive state.

This argument about whether or not the universe had a beginning, persisted into the 19th and 20th centuries. It was conducted mainly on the basis of theology and philosophy, with little consideration of observational evidence. This may have been reasonable, given the notoriously unreliable character of cosmological observations, until fairly recently. The cosmologist, Sir Arthur Eddington, once said, 'Don't worry if your theory doesn't agree with the observations, because they are probably wrong.' But if your theory disagrees with the Second Law of Thermodynamics, it is en bad trouble. en fact, the theory that the universe has existed forever is en serious difficulty with the Second Law of Thermodynamics. The Second Law, states that disorder always increases with time. Like the argument about human progress, it indicates that there must have been a beginning. Otherwise, the universe would be en a state of complete disorder by now, and everything would be at the same temperature. En un infinito y everlasting universe, every line of sight would end on the surface of a star. This would mean that the night sky would have been as bright as the surface of the Sun. The only way of avoiding this problem would be if, for some reason, the stars did not shine before a certain time.

In a universe that was essentially static, there would not have been any dynamical reason, why the stars should have suddenly turned on, at some time. Any such "lighting up time" would have to be imposed by an intervention from outside the universe. The situation was different, Sin embargo, when it was realised that the universe is not static, but expanding. Galaxies are moving steadily apart from each other. This means that they were closer together en the past. One can plot the separation of two galaxies, as a function of time. If there were no acceleration due to gravity, the graph would be a straight line. It would go down to zero separation, about twenty billion years ago. One would expect gravity, to cause the galaxies to accelerate towards each other. This will mean that the graph of the separation of two galaxies will bend downwards, below the straight line. So the time of zero separation, would have been less than twenty billion years ago.

At this time, the Big Bang, all the matter en the universe, would have been on top of itself. The density would have been infinite. It would have been what is called, a singularity. At a singularity, all the laws of physics would have broken down. This means that the state of the universe, after the Big Bang, will not depend on anything that may have happened before, because the deterministic laws that govern the universe will break down en the Big Bang. The universe will evolve from the Big Bang, completely independently of what it was like before. Even the amount of matter en the universe, can be different to what it was before the Big Bang, as the Law of Conservation of Matter, will break down at the Big Bang.

Since events before the Big Bang have no observational consequences, one may as well cut them out of the theory, and say that time began at the Big Bang. Events before the Big Bang, are simply not defined, because there's no way one could measure what happened at them. This kind of beginning to the universe, and of time itself, is very different to the beginnings that had been considered earlier. These had to be imposed on the universe by some external agency. There is no dynamical reason why the motion of bodies en the solar system can not be extrapolated back en time, far beyond four thousand and four BC, the date for the creation of the universe, according to the book of Genesis. Thus it would require the direct intervention of God, if the universe began at that date. By contrast, the Big Bang is a beginning that is required by the dynamical laws that govern the universe. It is therefore intrinsic to the universe, and is not imposed on it from outside.

Although the laws of science seemed to predict the universe had a beginning, they also seemed to predict that they could not determine how the universe would have begun. This was obviously very unsatisfactory. So there were a number of attempts to get round the conclusion, that there was a singularity of infinite density en the past. One suggestion was to modify the law of gravity, so that it became repulsive. This could lead to the graph of the separation between two galaxies, being a curve that approached zero, but didn't actually pass through it, at any finite time en the past. Instead, the idea was that, as the galaxies moved apart, new galaxies were formed en between, from matter that was supposed to be continually created. This was the Steady State theory, proposed by Bondi, Gold, and Hoyle.

The Steady State theory, was what Karl Popper would call, a good scientific theory: it made definite predictions, which could be tested by observation, and possibly falsified. Unfortunately for the theory, they were falsified. The first trouble came with the Cambridge observations, of the number of radio sources of different strengths. On average, one would expect that the fainter sources would also be the more distant. One would therefore expect them to be more numerous than bright sources, which would tend to be near to us. Sin embargo, the graph of the number of radio sources, against there strength, went up much more sharply at low source strengths, than the Steady State theory predicted.

There were attempts to explain away this number count graph, by claiming that some of the faint radio sources, were within our own galaxy, and so did not tell us anything about cosmology. This argument didn't really stand up to further observations. But the final nail en the coffin of the Steady State theory came with the discovery of the microwave background radiation, en 1965. This radiation is the same en all directions. It has the spectrum of radiation en thermal equilibrium at a temperature of 2 point 7 degrees above the Absolute Zero of temperature. There doesn't seem any way to explain this radiation en the Steady State theory.

Another attempt to avoid a beginning to time, was the suggestion, that maybe all the galaxies didn't meet up at a single point en the past. Although on average, the galaxies are moving apart from each other at a steady rate, they also have small additional velocities, relative to the uniform expansion. These so-called "peculiar velocities" of the galaxies, may be directed sideways to the main expansion. It was argued, that as you plotted the position of the galaxies back en time, the sideways peculiar velocities, would have meant that the galaxies wouldn't have all met up. Instead, there could have been a previous contracting phase of the universe, en which galaxies were moving towards each other. The sideways velocities could have meant that the galaxies didn't collide, but rushed past each other, and then started to move apart. There wouldn't have been any singularity of infinite density, or any breakdown of the laws of physics. Thus there would be no necessity for the universe, and time itself, to have a beginning. Indeed, one might suppose that the universe had oscillated, though that still wouldn't solve the problem with the Second Law of Thermodynamics: one would expect that the universe would become more disordered each oscillation. It is therefore difficult to see how the universe could have been oscillating for an infinite time.

This possibility, that the galaxies would have missed each other, was supported by a paper by two Russians. They claimed that there would be no singularities en a solution of the field equations of general relativity, which was fully general, en the sense that it didn't have any exact symmetry. Sin embargo, their claim was proved wrong, by a number of theorems by Roger Penrose and myself. These showed that general relativity predicted singularities, whenever more than a certain amount of mass was present en a region. The first theorems were designed to show that time came to an end, inside a black hole, formed by the collapse of a star. Sin embargo, the expansion of the universe, is like the time reverse of the collapse of a star. I therefore want to show you, that observational evidence indicates the universe contains sufficient matter, that it is like the time reverse of a black hole, and so contains a singularity.

In order to discuss observations en cosmology, it is helpful to draw a diagram of events en space and time, with time going upward, and the space directions horizontal. To show this diagram properly, I would really need a four dimensional screen. Sin embargo, because of government cuts, we could manage to provide only a two dimensional screen. I shall therefore be able to show only one of the space directions.

As we look out at the universe, we are looking back en time, because light had to leave distant objects a long time ago, to reach us at the present time. This means that the events we observe lie on what is called our past light cone. The point of the cone is at our position, at the present time. As one goes back en time on the diagram, the light cone spreads out to greater distances, and its area increases. Sin embargo, if there is sufficient matter on our past light cone, it will bend the rays of light towards each other. This will mean that, as one goes back into the past, the area of our past light cone will reach a maximum, and then start to decrease. It is this focussing of our past light cone, by the gravitational effect of the matter en the universe, that is the signal that the universe is within its horizon, like the time reverse of a black hole. If one can determine that there is enough matter en the universe, to focus our past light cone, one can then apply the singularity theorems, to show that time must have a beginning.

How can we tell from the observations, whether there is enough matter on our past light cone, to focus it? We observe a number of galaxies, but we can not measure directly how much matter they contain. Nor can we be sure that every line of sight from us will pass through a galaxy. So I will give a different argument, to show that the universe contains enough matter, to focus our past light cone. The argument is based on the spectrum of the microwave background radiation. This is characteristic of radiation that has been en thermal equilibrium, with matter at the same temperature. To achieve such an equilibrium, it is necessary for the radiation to be scattered by matter, many times. por ejemplo, the light that we receive from the Sun has a characteristically thermal spectrum. This is not because the nuclear reactions, which go on en the centre of the Sun, produce radiation with a thermal spectrum. Rather, it is because the radiation has been scattered, by the matter en the Sun, many times on its way from the centre.

In the case of the universe, the fact that the microwave background has such an exactly thermal spectrum indicates that it must have been scattered many times. The universe must therefore contain enough matter, to make it opaque en every direction we look, because the microwave background is the same, en every direction we look. Moreover, this opacity must occur a long way away from us, because we can see galaxies and quasars, at great distances. Thus there must be a lot of matter at a great distance from us. The greatest opacity over a broad wave band, for a given density, comes from ionised hydrogen. It then follows that if there is enough matter to make the universe opaque, there is also enough matter to focus our past light cone. One can then apply the theorem of Penrose and myself, to show that time must have a beginning.

The focussing of our past light cone implied that time must have a beginning, if the General Theory of relativity is correct. But one might raise the question, of whether General Relativity really is correct. It certainly agrees with all the observational tests that have been carried out. However these test General Relativity, only over fairly large distances. We know that General Relativity can not be quite correct on very small distances, because it is a classical theory. This means, it doesn't take into account, the Uncertainty Principle of Quantum Mechanics, which says that an object can not have both a well defined position, and a well defined speed: the more accurately one measures the position, the less accurately one can measure the speed, and vice versa. Therefore, to understand the very high-density stage, when the universe was very small, one needs a quantum theory of gravity, which will combine General Relativity with the Uncertainty Principle.

Many people hoped that quantum effects, would somehow smooth out the singularity of infinite density, and allow the universe to bounce, and continue back to a previous contracting phase. This would be rather like the earlier idea of galaxies missing each other, but the bounce would occur at a much higher density. Sin embargo, I think that this is not what happens: quantum effects do not remove the singularity, and allow time to be continued back indefinitely. But it seems that quantum effects can remove the most objectionable feature, of singularities en classical General Relativity. This is that the classical theory, does not enable one to calculate what would come out of a singularity, because all the Laws of Physics would break down there. This would mean that science could not predict how the universe would have begun. Instead, one would have to appeal to an agency outside the universe. This may be why many religious leaders, were ready to accept the Big Bang, and the singularity theorems.

It seems that Quantum theory, on the other hand, can predict how the universe will begin. Quantum theory introduces a new idea, that of imaginary time. Imaginary time may sound like science fiction, and it has been brought into Doctor Who. But nevertheless, it is a genuine scientific concept. One can picture it en the following way. One can think of ordinary, real, time as a horizontal line. On the left, one has the past, and on the right, the future. But there's another kind of time en the vertical direction. This is called imaginary time, because it is not the kind of time we normally experience. But en a sense, it is just as real, as what we call real time.

The three directions en space, and the one direction of imaginary time, make up what is called a Euclidean espacio-tiempo. I don't think anyone can picture a four dimensional curve space. But it is not too difficult to visualise a two dimensional surface, like a saddle, or the surface of a football.

In fact, James Hartle of the University of California Santa Barbara, and I have proposed that space and imaginary time together, are indeed finite en extent, but without boundary. They would be like the surface of the Earth, but with two more dimensions. The surface of the Earth is finite en extent, but it doesn't have any boundaries or edges. I have been round the world, and I didn't fall off.

If space and imaginary time are indeed like the surface of the Earth, there wouldn't be any singularities en the imaginary time direction, at which the laws of physics would break down. And there wouldn't be any boundaries, to the imaginary time espacio-tiempo, just as there aren't any boundaries to the surface of the Earth. This absence of boundaries means that the laws of physics would determine the state of the universe uniquely, en imaginary time. But if one knows the state of the universe en imaginary time, one can calculate the state of the universe en real time. One would still expect some sort of Big Bang singularity en real time. So real time would still have a beginning. But one wouldn't have to appeal to something outside the universe, to determine how the universe began. Instead, the way the universe started out at the Big Bang would be determined by the state of the universe en imaginary time. Thus, the universe would be a completely self-contained system. It would not be determined by anything outside the physical universe, that we observe.

The no boundary condition, is the statement that the laws of physics hold everywhere. Clearly, this is something that one would like to believe, but it is a hypothesis. One has to test it, by comparing the state of the universe that it would predict, with observations of what the universe is actually like. If the observations disagreed with the predictions of the no boundary hypothesis, we would have to conclude the hypothesis was false. There would have to be something outside the universe, to wind up the clockwork, and set the universe going. Of course, even if the observations do agree with the predictions, that does not prove that the no boundary proposal is correct. But one's confidence en it would be increased, particularly because there doesn't seem to be any other natural proposal, for the quantum state of the universe.

The no boundary proposal, predicts that the universe would start at a single point, like the North Pole of the Earth. But this point wouldn't be a singularity, like the Big Bang. Instead, it would be an ordinary point of space and time, like the North Pole is an ordinary point on the Earth, or so I'm told. I have not been there myself.

According to the no boundary proposal, the universe would have expanded en a smooth way from a single point. As it expanded, it would have borrowed energy from the gravitational field, to create matter. As any economist could have predicted, the result of all that borrowing, was inflation. The universe expanded and borrowed at an ever-increasing rate. Fortunately, the debt of gravitational energy will not have to be repaid until the end of the universe.

Eventually, the period of inflation would have ended, and the universe would have settled down to a stage of more moderate growth or expansion. Sin embargo, inflation would have left its mark on the universe. The universe would have been almost completely smooth, but with very slight irregularities. These irregularities are so little, only one part en a hundred thousand, that for years people looked for them en vain. But en 1992, the Cosmic Background Explorer satellite, COBE, found these irregularities en the microwave background radiation. It was an historic moment. We saw back to the origin of the universe. The form of the fluctuations en the microwave background agree closely with the predictions of the no boundary proposal.

These very slight irregularities en the universe would have caused some regions to have expanded less fast than others. Eventually, they would have stopped expanding, and would have collapsed en on themselves, to form stars and galaxies. Thus the no boundary proposal can explain all the rich and varied structure, of the world we live in.

What does the no boundary proposal predict for the future of the universe? Because it requires that the universe is finite en space, as well as en imaginary time, it implies that the universe will re-collapse eventually. Sin embargo, it will not re-collapse for a very long time, much longer than the 15 billion years it has already been expanding. So, you will have time to sell your government bonds, before the end of the universe is nigh. Quite what you invest en then, I don't know.

Originally, I thought that the collapse, would be the time reverse of the expansion. This would have meant that the arrow of time would have pointed the other way en the contracting phase. People would have gotten younger, as the universe got smaller. Eventually, they would have disappeared back into the womb.

Sin embargo, I now realise I was wrong, as these solutions show. The collapse is not the time reverse of the expansion. The expansion will start with an inflationary phase, but the collapse will not en general end with an anti inflationary phase. Moreover, the small departures from uniform density will continue to grow en the contracting phase. The universe will get more and more lumpy and irregular, as it gets smaller, and disorder will increase. This means that the arrow of time will not reverse. People will continue to get older, even after the universe has begun to contract. So it is no good waiting until the universe re-collapses, to return to your youth. You would be a bit past it, anyway, by then.

The conclusion of this lecture is that the universe has not existed forever. Rather, the universe, and time itself, had a beginning en the Big Bang, about 15 billion years ago. The beginning of real time, would have been a singularity, at which the laws of physics would have broken down. Nevertheless, the way the universe began would have been determined by the laws of physics, if the universe satisfied the no boundary condition. This says that en the imaginary time direction, espacio-tiempo is finite en extent, but doesn't have any boundary or edge. The predictions of the no boundary proposal seem to agree with observation. The no boundary hypothesis also predicts that the universe will eventually collapse again. Sin embargo, the contracting phase, will not have the opposite arrow of time, to the expanding phase. So we will keep on getting older, and we won't return to our youth. Because time is not going to go backwards, I think I better stop now.


Inflación: Un caso abierto y cerrado (Abril de 1998)

Diapositivas y audio para esta charla pueden descargarse del ITP en la UCSB.

This talk will be based on joint work with Neil Turok, at Cambridge. Neil has always been interested en what might be called, alternative cosmology. He pushed the idea that topological defects like cosmic strings or textures, were the origin of the large scale structure of the universe. And he was a proponent of what is called, open inflation. This is the idea that the universe is infinitely large, and of low density, despite having been through a period of exponential expansion, en the very early stages. My opinion was, that these were all nice ideas, but that nature probably hadn't chosen the use any of them. I included open inflation en that list, because I believed strongly that the universe came into being, at a finite size, and I felt that implied that the universe now, was still of finite size, or closed. Sin embargo, after Neil gave a seminar on open inflation en Cambridge, we got talking. We realized it was possible for the universe to come into existence, at a finite size, but nevertheless, be either a finite, or an infinitely large universe now. My talk will be about this idea, and new developments that have occur since then. One of these, which is so recent that it is not yet fully worked out, is that it seems there is an observational signature, of the kind of inflation Neil and I are proposing. The present measurements are not sensitive enough to see this effect, but it should be possible to test for it, en the observations the Planck satellite will make.

Another recent development, is that observations of supernovas, have suggested that the universe may have a small cosmological constant, at the present time. Even before these observations, Neil and I had realized that if there was a four form gauge field, one could invoke anthropic arguments to make it cancel the cosmological constant, that one would expect from symmetry breaking. But the anthropic argument would not require it to cancel exactly. So there could be a small residual cosmological constant. This is exciting. I shall describe the observational evidence later.

As you probably know, the universe is remarkably isotropic on a large scale. That is to say, it looks the same en all directions, if one goes beyond such local irregularities as the Milky Way, and the Local Group of galaxies. By far the most accurate measurement of the isotropy of the universe, is the faint background of microwave radiation, first discovered en 1965. At the present time at least, the universe is transparant to microwaves, en directions out of the plane of our galaxy. Thus the microwave background, must have propagated to us, from distances of the order of the Hubble radius, or greater. It should therefore give a sensitive measurement, of any anisotropy en the universe.

The remarkable fact is, that the microwave background is the same en every direction, to a high degree of accuracy. It wasn't until 1982, that differences between different directions were detected, at the level of one part en a thousand, with a dipole pattern on the sky. Sin embargo, this could be interpreted as a consequence of our galaxy's motion through the universe, which blue shifted the microwave radiation en one direction, and red shifted it en the opposite direction. It need not represent any intrinsic anisotropy en the universe.

It was not until 1992, that tiny fluctuations on angular scales of 10 degrees, were detected by the Cosmic Background Explorer satellite, COBE. Since then, similar fluctuations have been found on smaller angular scales. The shape of the spectrum of fluctuations against angular scale, is still rather uncertain, but it is clear that the general size of the departures from uniformity, is only one part en ten to the five.

This uniformity of the microwave background en different directions, was very difficult to understand. It seems the microwave background, is the last remnant of the radiation, that filled the hot early universe. What we observe, would have propagated freely to us, from a time of last scattering, when the universe was a thousandth of the size now. But according to the accepted hot big bang theory, the radiation coming from directions on the sky more than a degree apart, would be coming from regions of the early universe, that hadn't been en communication since the big bang. It was therefore truely remarkable, that the microwaves we observe en different directions, are the same to one part en ten to the five. How did different regions en the early universe, know to be at almost exactly the same temperature. It is a bit like handing en home work. If the whole class produce exactly the same, you can be sure they have communicated with each other. But according to the hot big bang model, there wasn't time since the big bang, for signals to get from one region to another. So how did all the regions, come up with the same temperature for the microwaves.

If we assume that the universe is roughly homogeneous and isotropic, it can be described by one of the Friedmann Robertson Walker models. These are characterized by a scale factor S, which gives the distance between two neighbouring points, en the expanding universe. There are three kinds of Friedmann model, according to the sign of k, the curvature of the surfaces of constant time. If k =+1, the surfaces of constant time, are three spheres, and the universe is closed and finite en space. If k = minus 1, the surfaces have negative curvature, like a saddle, and the universe is infinite en spatial extent. The third possibility, k=0, a spatially flat universe, is of measure zero, but it is an important limiting case.

Because the universe is expanding, the scale factor, S, is increasing with time.

The second derivative of S, is given by the Einstein equation, en terms of the energy density and pressure, of matter en the universe, and the cosmological constant, lambda. For the moment, I will take lambda to be zero. For normal matter, both the energy density and pressure, will be positive. Thus the expansion of the universe, will be slowing down. In particular, for a universe dominated by radiation, like the early stages of the hot big bang model, the scale factor will go like t to the half.

In such a model, one can ask how far one can see, before one sees right back to the big bang. It is easy to work out, that this is just the integral of one over the scale factor. For the hot big bang model, this integral converges. This means that a point en an early hot big bang universe, could have communicated only with a small region round it. Why then did it have almost exactly the same temperature, as regions far away.

A possible explanation, was provided by the theory of inflation, which was put forward independently en the Soviet union, and the west, around 1980. The idea was to make regions able to communicate, by changing the expansion of the early universe, so that S double dot was positive, rather than negative. en other words, so that the expansion of the universe was being accelerated, rather than slowed down by gravity.

As you can see from the Einstein equations, such accelerating expansion, or inflation, as it was called, required either negative energy, or negative pressure. One gets en a lot of trouble, if one allows negative energy. One would get runaway creation of particle pairs, one with positive energy, and the other with negative. But there is no reason to rule out negative pressure. That is just tension, which is a very common condition en the modern world.

The original idea for inflation, was that en some way, the universe got trapped en what was called, a false vacuum state. A false vacuum state, is a Lorentz invariant meta-stable state, that has more energy than the true vacuum, which is taken to have zero energy density. Because a false vacuum is Lorentz invariant, its energy momentum tensor must be proportional to the metric. Since the false vacuum has positive energy density, the coefficient of proportionality must be negative. This means that the pressure en the false vacuum, is minus the energy density. The Einstein equations, then imply that the scale factor, increases exponentially with time. en such a universe, the integral of one over the scale factor, diverges as one goes back en time. This means that different regions en the early universe, could have communicated with each other, and come to equilibrium at a common state, explaining why the microwaves, look the same en different directions.

The original model of inflation, which came to be known as old inflation, had various problems. How did the universe get into a false vacuum state en the first place, and how did it get out again. Various modifications were proposed, that went under the names of new inflation, or extended inflation. I won't describe them, because I have got into trouble en the past, about who should have credit for what, and because I now consider them irrelevant. As Lindeh first pointed out, it is not necessary for the universe to be in a false vacuum, to get inflation.

A scalar field with a potential V, will have the energy momentum tensor shown on the screen. If the field is nearly constant en a region, the gradient terms will be small, and the energy momentum tensor, will be minus half V, times the metric. This is just what one needs for inflation.

In the false vacuum case, the scalar field sits en a local minimum of the potential, V. en that case, the field equation allows the scalar field, to remain constant en space and time. If the scalar field is not at a local minimum, it can not remain constant en time, even if it is initially constant en space. Sin embargo, Lindeh pointed out that if the potential is not too steep, the expansion of the universe, will slow down the rate at which the field rolls down the potential, to the minimum. The gradient terms en the energy momentum tensor, will remain small, and the scale factor will increase almost exponentially. One can get inflation with any reasonable potential V, even if it didn't have local minima, corresponding to false vacua. The work that Neil and I have done, is a logical extension of Andrei's idea. But I'm not sure if Andrei agrees with it, though I think he's coming round.

Andrei's idea removed the need to believe that the universe began en a false vacuum. Sin embargo, one still needed to explain, why the field should have been nearly constant over a region, with a value that was not at the minimum of the potential.

To do this, one has to have a theory of the initial conditions of the universe. There are three main candidates. They are, the so called pre-big bang scenario, the tunneling hypothesis, and the no boundary proposal. en my opinion, the pre-big bang scenario is misguided, and without predictive power. And I feel the tunneling hypothesis, is either not well defined, or gives the wrong answers. But then I'm biased, for it was Jim Hartle and I, that were responsible for the no boundary proposal.

This says that the quantum state of the universe, is defined by a Euclidean path integral over compact metrics, without boundary.. One can picture these metrics, as being like the surface of the Earth, with degrees of latitude, playing the role of imaginary time. One starts at the north pole, with the universe as a single point. As one goes south, the spatial size of the universe, increases like the lengths of the circles of latitude. The spatial size of the universe, reaches a maximum size at the equator, and then shrinks again to a point at the south pole.

Of course, spacetime is four dimensional, not two dimensional, like the surface of the Earth, but the idea is much the same. I shall go through it en detail, because it is basic to the work I'm going to describe. The simplest compact four dimensional metric that might represent the universe, is the four sphere.

One can give its metric en terms of coordinates, sigma, chi, theta and phi. One can think of sigma, as an imaginary time coordinate, and chi, theta and phi, as coordinates on a three sphere, that represents the spatial size of the universe. Again, one starts at the north pole, sigma =0, with a universe of zero spatial size, and expands up to a maximum size at the equator, sigma = pi, over 2H. But we live en a universe with a Lorentzian metric, like Minkowski space, not a Euclidean, positive definite metric.

One therefore has to analytically continue, the Euclidean metrics used en the path integral, for the no boundary proposal. There are several ways one can analytically continue, the metric of the four sphere, to a Lorentzian spacetime metric. The most obvious is to follow the Euclidean time variable, sigma, from the north pole to the equator, and then go en the imaginary sigma direction, and call that real Lorentzian time, t. Instead of the size of the three spheres going as the sine of H sigma, they now go as the cosh of H t. This gives a closed universe, that expands exponentially with real time. At late times, the expansion will change from being exponential, to being slowed down by matter en the normal way. This departure of the scale factor from a cosh behavior, will occur because the original Euclidean four sphere, was not perfectly round. But the universe would still be closed, however deformed the four sphere.

For nearly 15 years, I believed that the no boundary proposal, predicted that the universe was spatially closed. I also believed that the cosmological constant was zero, because it seemed unreasonable to suppose that it was less than the observational limit of 10 to the minus 120 Planck units, unless it were exactly zero. But the Einstein equations, relate the energy density en the universe, plus lambda, to the rate of expansion, and the curvature, k, of the surfaces of constant time.

Define omega matter and omega lambda, to be the density and lambda, divided by the critical value. If the universe is closed, that is, k=+1, omega matter plus omega lambda, must be greater than one.

Observations of luminous matter, like stars and gas clouds give an omega matter of about 0 point 0 2. We know that galaxies and clusters of galaxies, must contain non luminous, or dark matter, but the best estimate of this, is that it contributes at most 0 point 2 of the critical density. Still, Eddington once said, if your theory doesn't agree with the observations, don't worry. The observations are probably wrong. But if your theory doesn't agree with the second law of thermodynamics, forget it. I firmly believed in the no boundary proposal, and I thought it implied that the universe had to be closed. Since a closed universe, is not incompatible with the second law of thermodynamics, I was sure the observers had missed something, and there really was enough matter to close the universe. At that time, I didn't take the seriously the possibility of a small cosmological constant.

The observations do not yet indicate that the universe is definitely open, or that lambda is non zero, but it is begining to look like one or the other, if not both. I won't go through all the observations, but shall just show what I consider to be the most significant pieces of evidence.

The first is the distribution of large scale inhomogeneities en the universe. On the very largest scales, this can be measured by fluctuations en the microwave background, and on smaller scales by the galaxy galaxy correlation function. One can then try and fit these observations, with the predictions of inflationary theory. If one assumes the universe is filled with cold dark matter, the predicted spectrum of irregularities, depends on a quantity gamma. This is the product of omega matter, with the Hubble constant, or rate of expansion, en units of a hundred kilometers per second, per Megaparsec. (Astronomers use funny units). It is generally believed that the Hubble constant, is somewhere between 50 and 100 of those funny units. Thus if omega matter is one, gamma must be at least 0 point 5. As you can see, a gamma of 0 point 5, would predict much less irregularity on large angles, than is observed. One can get a reasonable fit to the observations, with a gamma of 0 point 2. If omega matter were one, this would imply a Hubble constant of only 20. As a theorist, I would be happy with such a figure, because it would make the universe older, and remove a possible conflict with the ages of some stars. But the observers claim the Hubble constant, has to be en the range, 50 to 100. This would imply that omega matter is at most 0 point 4.

Thus dynamical measurements, give us a vertical strip en the omega matter, omega lambda plane.

One can obtain further limits en this plane, from observations of supernova. Type 1 supernova, are standard candles. That is, the total energy en the explosion, is always the same, within a factor close to one. One can thus use their observed brightness, as a distance measurement, and compare it with their red shifts. This gives the limits shown on the diagram, for which I'm grateful to Ned Wright and Shawn Carol. The yellow, red and green areas represent the formal errors, and the large pink area, other possible errors. Also shown en blue, are the limits set by the position of a peak en the angular spectrum, of the variations of the microwave background. As you can see, the observations suggest that the universe is close to the open closed divide, but with a non zero lambda.

Despite these indications of a low density lambda universe, I continued to believe that the cosmological constant was zero, and the no boundary proposal, implied that the universe must be closed. Then en conversations with Neil Turok, I realized there was another way of looking at the no boundary universe, that made it appear open. One starts with the point that Andrei Lindeh made, that inflation doesn't need a false vacuum, a local minimum of the potential. But if the scalar field is not at a stationary point of the potential, then it can not be constant on an instanton, a Euclidean solution of the field equations. en turn, this implies that the instanton can't be a perfectly round four sphere. A perfectly round four sphere, would have the symmetry group, O5.

But with a non constant scalar field, the largest symmetry group that an instanton can have, is O4. en other words, the instanton is a deformed four sphere.

One can write the metric of an O4 instanton, en terms of a function, b of sigma. Here b is the radius of a three sphere of constant distance, sigma, from the north pole of the instanton. If the instanton were a perfectly round four sphere, b would be a sine function of sigma. It would have one zero at the north pole, and a second at the south pole, which would also be a regular point of the geometry. Sin embargo, if the scalar field at the north pole, is not at a stationary point of the potential, it will be almost constant over most of the four sphere, but will diverge near the south pole. This behavior is independent of the precise shape of the potential. The non constant scalar field, will cause the instanton not to be a perfectly round four sphere, and en fact there will be a singularity at the south pole. But it will be a very mild singularity, and the Euclidean action of the instanton will be finite.

This Euclidean instanton, has been described as the universe begining as a pea. en fact, a pea is quite a good image for a deformed sphere. Its size of a few thousand Planck lengths, makes it a very petty pea. But the mass of the matter it contains, is about half a gram, which is about right for a pea.

I actually discovered this pea instanton en 1983, but I thought it could describe the birth of close universes only.

To get a closed universe, one starts with sigma =0 at the north pole, and proceeds to the equator, or rather the value of sigma at which the radius, b, of the three sphere is maximum. One then analytically continues sigma en the imaginary direction, as Lorentzian time. As I described earlier, this gives a closed universe with a scale factor that initially goes like cosh t. The scalar field, will have a small imaginary part, but that can be corrected by giving the initial value of the scalar field at the north pole, a small imaginary part.

According to the no boundary proposal, the relative probability of such a closed universe, is e to minus twice the action of the part of the pea instanton, between the north pole, and the equator. Notice that as this part, doesn't contain the singularity at the south pole, there is no ambiguity about the action of a singular metric. The action of this part of the instanton, is negative, and is more negative, the bigger the pea. Thus the probability of the pea, is bigger, the bigger the pea. The negative sign of the action, may look counter intuitive, but it leads to physically reasonable consequences.

As I said, I thought the no boundary proposal, implied that the universe had to be spatially closed, and finite en size. But Neil Turok and I, realized his ideas on open inflation, could be fitted en with the no boundary proposal. The universe would still be closed and finite, en one way of looking at it. But en another, it would appear open and infinite.

Let's go back to the metric for the pea instanton, and analytically continue it en a different way. As before, one analytically continues the Euclidean latitude coordinate, en the imaginary direction, to become a Lorentzian time, t. The difference is that one goes en the imaginary sigma direction at the north pole, rather than the equator. One also continues the coordinate, chi, en the imaginary direction, as a coordinate, psi. This changes the three sphere, into a hyperbolic space. One therefore gets an exponentially expanding open universe.

One can think of this open universe, as a bubble en a closed, de Sitter like universe. en this way, it is similar to the single bubble inflationary universes, that have been proposed by a number of authors. The difference is, the previous models all required carefully adjusted potentials, with false vacuum local minima. But the pea instanton, will work for any reasonable potential. The price one pays for a general potential, is a singularity at the south pole. en the analytically continued Lorentzian spacetime, this singularity would be time like, and naked. One might think that this naked singularity, would mean one couldn't evaluate the action of the instanton, or of perturbations about it. This would mean that one couldn't predict the quantum fluctuations, or what would happen en the universe. Sin embargo, the singularity at the south pole, the stalk of the pea, is so mild, that the actions of the instanton, and of perturbations around it, are well defined. This means one can determine the relative probabilities of the instanton, and of perturbations around it. The action of the instanton itself, is negative, but the effect of perturbations around the instanton, is to increase the action, that is, to make the action less negative. According to the no boundary proposal, the probability of a field configuration, is e to minus its action. Thus perturbations around the instanton, have a lower probability, than the unperturbed background. This means that quantum fluctuation are suppressed, the bigger the fluctuation, as one would hope. On the other hand, according to the tunneling hypothesis, favored by Vilenkin and Lindeh, probabilities are proportional to e to the ~plus action. This would mean that quantum fluctuation would be ~enhanced, the bigger the fluctuation. There is no way this could lead to a sensible description of the universe. Lindeh therefore proposes to take e to the ~plus action, for the probability of the background universe, but e to the ~minus action, for the perturbations. Sin embargo, there is no invariant way, en which one can divide the action, into a background part, and a part due to fluctuations. So Lindeh's proposal, does not seem well defined en general. By contrast, the no boundary proposal, is well defined. Its predictions may be surprising, but they are not obviously wrong.

To recapitulate. A general potential, without false vacuums, or local minimums, leads to the pea instanton. This can be analytically continued, to either an open, or a closed universe. The no boundary proposal, then allows one to calculate the relative probabilities of different backgrounds, and the quantum fluctuations about them.

There isn't just a single pea instanton, but a whole family of them, labeled by different values of the scalar field at the north pole. The higher the value of the potential at the north pole, the smaller the instanton, and the less negative the value of the action. Thus the no boundary proposal, predicts that large instantons, are more probable than small ones. This is a problem, because large instantons, will lead to a shorter period of exponential expansion or inflation, than small ones. en the closed universe case, a short period of inflation, would mean the universe would recollapse before it reached the present size and density. On the other hand, an open universe with a short period of inflation, would become almost empty early on.

Clearly, the universe we live in, didn't collapse early on, or become almost empty. So we have to take account of the anthropic principle, that if the universe hadn't been suitable for our existence, we wouldn't be asking why it is, the way it is. Many physicists don't like the anthropic principle, but I think some version of it is essential, en quantum cosmology. M theory, or whatever the ultimate theory is, seems to allow a very large number of possible solutions, and compactifications. One has to have some criterion, for discarding most of them. Otherwise, why isn't the universe, eleven dimensional Minkowski space.

The approach Neil Turok and I took, was to invoke the weakest version of the anthropic principle. We adopted Bayes statistics. en this, one starts with an a-priori probability distribution, and then modifies it en light of ones knowledge of the system. en this case, we took the a-priori distribution, to be the e to the minus action, predicted by the no boundary proposal. We then modified it, by the probability that the model contained galaxies, which are presumably a necessary condition, for the existence of intelligent observers. An open universe, has an infinite spatial volume. Thus the total number of galaxies en an open universe, would always be infinite, no matter how low the probability of finding a galaxy, en a given comoving volume. One therefore can not weight the a-priori probability, given by the no boundary proposal, by the total number of galaxies en the universe. Instead, we weighted by the comoving density of galaxies, predicted from the growth of quantum fluctuations, about the pea instanton. This gives a modified probability distribution for omega, the present density, divided by the critical density. For the open models, this probability distribution, is sharply peaked at an omega of about zero point zero one. This is lower than is compatible with the observations, but it is not such a bad miss. As far as I'm aware, this is the first attempt to ~predict a value of omega for an open universe, rather than fine tune a false vacuum potential, to obtain a value en the range indicated by observation.

The anthropic arguments we have used, are fairly crude, and could be refined. But the best hope of getting a more realistic omega, seems to be to include other fields. Eleven dimensional super gravity, which is the best candidate we have for a theory of everything, has a three form potential, with a four form field strength. When dimensionally reduced to four dimensions, this can act as a cosmological constant. For a real four form en dimensions, the contribution to the cosmological constant is negative. It can therefore cancel the positive contribution to the cosmological constant, that must arise because super symmetry is broken, en the universe we live in. Indeed, super symmetry breaking, is a necessary condition for life. But galaxies will not form, unless the total cosmological constant, is almost zero. Thus the anthropic principle fixes the value of the four form field strength, which is a free parameter of the theory, so it almost cancels the positive contribution from symmetry breaking. But it need not cancel it exactly. The anthropic requirement, can probably be satisfied by any omega lambda between about minus one point five, and plus one point five, with a fairly flat probability distribution.

This is consistent with the observations. My student, Harvey Reall and I, are now working on an eleven dimensional supergravity version of the pea instanton. One gets a reduced action en four dimensions with a four form, and two scalar fields, which describe the size, and the squashing of a seven sphere.

The squashing scalar field, phi, has a potential with a minimum at the round metric, and a maximum at the squashed sphere with an Einstein metric. One can get a pea instanton, by starting phi on the exponential wall on the right. This would produce an inflationary universe, en which the squashing ran down to the round seven sphere. The scalar field that represents the size of the seven sphere, has a potential that looks unstable. Sin embargo, if one takes into account the back reaction of the scalar field on the four form, the effective potential becomes stable. This looks good, but the potentials are too steep to give enough inflation. Maybe if we can include the dynamical effects of symmetry breaking, we can get something more reasonable. The aim is to find a description of the origin of the universe, on the basis of fundamental theory.

Assuming that one can find a model that predicts a reasonable omega, how can we test it by observation. The best way is by observing the spectrum of fluctuations, en the microwave background. This is a very clean measurement of the quantum fluctuations, about the initial instanton. Sin embargo, there is an important difference between our instanton, and previous proposals for open inflation. They have all assumed false vacuum potentials, and have used the Coleman De Lucia instanton, which is non singular. Sin embargo, our instanton has a singularity at the south pole. There has been a lot of discussion of this singularity. en the Lorentzian analytically continued spacetime, the singularity is time like and naked. People have worried about this singularity, because it seemed to make the spacetime non predictable. Anything could come out of the singularity. Sin embargo, perturbations of the Euclidean instanton, have finite action if and only, they obey a Dirichelet boundary condition at the singularity. Perturbation modes that don't obey this boundary condition, will have infinite action, and will be suppressed. Support for this boundary condition, has come from the work of Garriga, who has shown that en some cases at least, the singularity en the instanton, is just an artefact of Kaluza Klein reduction from higher dimensional spacetimes. en these situations, perturbations would obey this Dirichelet boundary condition.

When one analytically continues to Lorentzian spacetime, the Dirichelet boundary condition, implies that perturbations reflect at the time like singularity. This has a significant effect on the two point correlation function of the perturbations. I show preliminary calculations that Neil and a student have made, for the case of omega equals zero point three.

The first shows the two point correlation function of the microwave background, as a function of angle, for our instanton, and for false vacuum open inflation. The difference, which is plotted on a magnified scale, is like a step function at 30 degrees, the angle subtended by the curvature radius, on the surface of last scattering. The next graph, shows the power spectrum of this correlation function. You see it has small oscillations, that come from the Fourier transform, of the step function.

The present observations of the microwave fluctuations, are not sensitive enough to detect this effect. But it may be possible with the new observations that will be coming in, from the map satellite en two thousand and one, and the Planck satellite en two thousand and six. Thus the no boundary proposal, and the pea instanton, are real science. They can be falsified by observation.

I will finish on that note.