Lo más incomprensible del universo es que sea comprensible.
Albert Einstein
El universo ES COMPRENSIBLE porque está regido por leyes científicas, es decir, su comportamiento puede ser modelizado. Pero ¿qué son esas leyes o modelos? La primera fuerza que fue descrita en lenguaje matemático fue la gravedad. La ley de Newton de la gravedad, publicada en 1687, dice que todo objeto en el universo atrae cualquier otro objeto con una fuerza proporcional a su masa e inversamente proporcional al cuadrado de su distancia. Produjo una gran impresión en la vida intelectual de su época porque demostró por vez primera que al menos un aspecto del universo podía ser modelizado con precisión, y estableció la maquinaria matemática para hacerlo. La idea de que había leyes de la naturaleza suscite) cuestiones semejantes a aquellas por las cuales Galileo había sido condenado por herejía medio siglo antes. Por ejemplo, la Biblia cuenta que Josué rezó para que el Sol y la Luna se detuvieran en sus trayectorias de modo que hubiera luz suficiente para terminar la batalla contra los amoritas en Canaán. Según el libro de Josué, el Sol se detuvo durante casi un día entero. Actualmente sabemos que ello habría significado que la Tierra dejó de girar, pero si la Tierra se detuviera, según las leyes de Newton, todo lo que no estuviera fijado a ella se seguiría moviendo a la velocidad original de la Tierra (unos dos mil kilómetros por hora en el ecuador) -un precio muy elevado para retrasar una puesta del Sol-. Nada de eso preocupó en lo más mínimo a Newton ya que, como hemos dicho, creía que Dios podía intervenir e intervenía en el funcionamiento del universo.
Los ulteriores aspectos del universo para los cuales fue descubierta una ley o modelo fueron las fuerzas eléctricas y magnéticas. Esas fuerzas se comportan como la gravedad, pero con la importante diferencia de que dos cargas eléctricas o dos imanes del mismo tipo se repelen mientras que cargas diferentes o imanes de tipos diferentes se atraen. Las fuerzas eléctricas y magnéticas son mucho más intensas que la gravedad, pero habitualmente no las notamos en la vida cotidiana porque los cuerpos macroscópicos contienen casi el mismo número de cargas eléctricas positivas y negativas. Ello significa que las fuerzas eléctricas y magnéticas entre dos cuerpos macroscópicos prácticamente se anulan entre sí, a diferencia de las fuerzas gravitatorias, que siempre se suman.
Nuestras ideas actuales sobre la electricidad y el magnetismo fueron desarrolladas durante un intervalo de un siglo, desde mediados del siglo xviii hasta mediados del siglo xix, cuando físicos de diversos países llevaron a cabo estudios experimentales detallados de las fuerzas eléctricas y magnéticas. Uno de los descubrimientos más importantes fue que las fuerzas eléctricas y las magnéticas están relacionadas entre sí: una carga eléctrica en movimiento produce una fuerza sobre los imanes y un imán en movimiento produce una fuerza sobre las cargas eléctricas. El primero en advertir que había una conexión entre ambas fue el físico danés Hans Christian Oersted. Mientras estaba preparando una clase en la universidad, en 1820, Oersted observó que la corriente eléctrica de la batería que estaba utilizando desviaba la aguja de una brújula vecina. No tardó en darse cuenta de que la electricidad en movimiento producía una fuerza magnética, y acuñó el término «electromagnetismo». Pocos años después, el científico británico Michael Faraday razonó que -expresado en términos modernos- si una corriente eléctrica puede producir un campo magnético, un campo magnético debería poder producir una corriente eléctrica, y demostró este efecto en 1831. Catorce años después, Faraday también descubrió una conexión entre el electromagnetismo y la luz cuando demostró que un magnetismo intenso puede afectar la luz polarizada.
Faraday tenía una educación formal muy limitada. I labia nacido en la familia de un pobre herrero cerca de Londres y tuvo que dejar la escuela a los trece años, para trabajar como chico de recados y encuadernador en una librería. Allí, a lo largo de unos años, aprendió ciencia leyendo los libros que tenía para encuadernar y llevando a cabo experimentos simples y baratos en sus ratos de ocio. Al fin, obtuvo trabajo como ayudante en el laboratorio del gran químico sir Humphrey Davy. Faraday permanecería con él los cuarenta y cinco años restantes de su vida y, a la muerte de Davy, fue su sucesor. Faraday tenía dificultades con las matemáticas y nunca supo muchas, de manera que para él resultaba una auténtica lucha concebir una imagen teórica de los extraños fenómenos electromagnéticos que observaba en su laboratorio. Sin embargo, lo consiguió.
Una de las mayores innovaciones intelectuales de Faraday fue la idea de los campos de fuerza. En nuestros días, gracias a los libros y las películas sobre alienígenas con ojos saltones y naves estelares, la mayoría del público se ha familiarizado con dicho término, de manera que quizá le deberíamos pagar derechos de autor. Pero en los siglos transcurridos entre Newton y Faraday uno de los grandes misterios de la física era que sus leyes parecían indicar que las fuerzas actúan a través del espacio vacío que separa los objetos que interaccionan. A Faraday, eso no le gustaba. Creía que para mover un objeto, algo había de ponerse en contacto con él, de manera que imaginó que el espacio entre cargas eléctricas o imanes se comportaba como si estuviera lleno de tubos invisibles que llevaran físicamente a cabo la tarea de arrastrar o impulsar. Faraday llamó a esos tubos un campo de fuerza. Una buena manera de visualizar un campo de fuerza es llevar a cabo la conocida demostración escolar en que una lámina de vidrio con pec]ueñas limaduras de hierro esparcidas sobre su superficie se coloca encima de la barra de un imán. Con unos leves golpearos para vencer la fricción, las limaduras se mueven como empujadas por una potencia invisible y se disponen en una forma de arcos que se estiran desde un polo del imán al otro. Dicha forma es una representación de la fuerza magnética invisible que invade todo el espacio. En la actualidad creemos que todas las fuerzas son transmitidas por campos, de manera que es un concepto importante en la física moderna, y no sólo en la ciencia ficción.
Durante varias décadas nuestra comprensión del electromagnetismo permaneció detenida, limitada al conocimiento de unas pocas leyes empíricas, a la indicación de que electricidad y magnetismo estaban últimamente, aunque misteriosamente, relacionados, a la sospecha de que tenían algo que ver con la luz, y al concepto todavía embrionario de campos. Había al menos once teorías del electromagnetismo, todas ellas equivocadas, menos una. Entonces, en un intervalo de unos pocos años en la década de 186o, el físico escocés James Clerk Maxwell desarrolló las ideas de Faraday en un formalismo matemático que explicó la relación íntima y misteriosa entre la electricidad, el magnetismo y la luz. El resultado fue un sistema de ecuaciones que describen las fuerzas eléctricas y magnéticas como manifestaciones de una misma entidad física, el campo electromagnético. Maxwell había unificado la electricidad y el magnetismo en una sola fuerza. Además, demostró que los campos electromagnéticos podían propagarse por el espacio como ondas. La velocidad de dichas ondas quedaba determinada por un número que aparecía en sus ecuaciones y que calculó a partir de datos experimentales obtenidos unos pocos años antes. Constató con estupefacción que la velocidad calculada era igual a la velocidad de la luz, que entonces ya era conocida experimentalmente con un margen de error de un 1 por 100. ¡Había descubierto que la luz es una onda electromagnética!
En la actualidad, las ecuaciones que describen los campos eléctricos y magnéticos son denominadas ecuaciones de Maxwell. Aunque poca gente ha oído hablar de ellas, son probablemente las ecuaciones comercialmente más importantes que conocemos. No sólo rigen el funcionamiento de todo, desde las instalaciones domesticas hasta los ordenadores, sino también describen ondas diferentes las de la luz, como por ejemplo microondas, radioondas, luz infrarroja y rayos X, todas las cuales difieren de la luz visible en tan sólo un aspecto: su longitud de onda (la distancia entre dos crestas consecutivas de la onda). Las radioondas tienen longitudes de onda de un metro o más, en tanto que la luz visible tiene una longitud de onda de unas pocas diezmillonésimas de metro, y los rayos X una longitud de onda más corta que una centésima de millonésima de metro. El Sol emite todas las longitudes de onda, pero su radiación es más intensa en las longitudes de onda que nos resultan visibles. Probablemente no es casualidad que las longitudes de onda que podemos ver a simple vista sean precisamente las que el Sol emite con mayor intensidad: es probable que nuestros ojos evolucionaran con la capacidad de detectar radiación electromagnética en dicho intervalo de radiación, precisamente porque es el intervalo que les resulta más disponible. Si alguna vez, nos encontramos con seres de otros planetas, tendrán probablemente la capacidad de «ver» radiación a las longitudes de onda emitidas con máxima intensidad por su sol correspondiente, modulada por algunos factores secundarios como, por ejemplo, la capacidad del polvo y de los gases de la atmósfera de su planeta de absorber, reflejar o filtrar la luz de diferentes frecuencias. Los alienígenas que hubieran evolucionado en presencia de rayos X tendrían, pues, un magnífico porvenir en la seguridad de los aeropuertos.
Las ecuaciones de Maxwell establecen que las ondas electromagnéticas se propagan con una velocidad de unos trescientos mil kilómetros por segundo, o unos mil ochenta millones de kilómetros por hora. Pero dar una velocidad no dice nada si no se especifica el sistema de referencia con respecto al cual está medida. En la vida corriente, no acostumbramos a tener necesidad de este detalle. Cuando una señal de tráfico indica 120 kilómetros por hora se sobreentiende que dicha velocidad se mide con respecto a la carretera y no con respecto al agujero negro del centro de la galaxia. Pero incluso en la vida corriente hay ocasiones en que debemos tener en cuenta los sistemas de referencia. Por ejemplo, si andamos a lo largo del pasillo de un avión en vuelo podemos decir que nuestra velocidad es de unos cuatro kilómetros por hora. Para los que estén en el suelo, sin embargo, nuestra velocidad será de unos novecientos cuatro kilómetros por hora. A menos que creamos que uno u otro de los observadores tiene mejores motivos para sostener que está en lo cierto, conviene tener presente esta idea porque, como la Tierra gira alrededor del Sol, alguien que nos estuviera observando desde la superficie de dicho cuerpo celeste discreparía de ambos y diría que nos estamos desplazando a unos treinta y cinco kilómetros por segundo, por no decir cuánto envidia nuestro aire acondicionado. A la luz de tales discrepancias, cuando Maxwell dijo que había descubierto que la «velocidad de la luz» surgía de sus ecuaciones, la pregunta natural era con respecto a que sistema de referencia viene indicada la velocidad de la luz en las ecuaciones de Maxwell.
No hay razón para creer que el parámetro de la velocidad en las ecuaciones de Maxwell sea una velocidad referida a la de la Tierra ya que, al fin y al cabo, esas ecuaciones son aplicables a todo el universo. Una respuesta alternativa que fue tomada en consideración durante algún tiempo fue que esas ecuaciones especificaban la velocidad de la luz con respecto a un medio hasta entonces no detectado que llenaba todo el espacio, denominado el éter luminífero o, en forma abreviada, simplemente el éter, que era el término utilizado por Aristóteles para la sustancia que, según creía, llenaba todo el universo más allá de la esfera terrestre. Ese éter hipotético sería el medio por el cual se propagarían las ondas electromagnéticas tal como el sonido se propaga por el aire. Si el éter existiera, habría un estándar absoluto de reposo, el reposo con respecto al éter, y por lo tanto también una manera absoluta de definir el movimiento. El éter proporcionaría un sistema de referencia preferido a través de todo el universo, con respecto al cual se podría medir la velocidad de cualquier objeto. Así, a partir de bases teóricas se postuló que el éter existía, cosa que hizo que varios científicos se dispusieran a hallar una manera de estudiarlo o, al menos, de confirmar su existencia. Uno de esos científicos fue el propio Maxwell.
Si corremos con respecto al aire hacia una onda sonora, la onda se nos acerca a mayor velocidad, y si nos alejamos de ella nos alcanza más lentamente. Análogamente, si existiera un éter, la velocidad de la luz variaría según nuestra velocidad con respecto al éter. De hecho, si la luz se comportara como lo hace el sonido ocurriría que, así como los que viajan en avión supersónico nunca oirán ningún sonido emitido desde la zona posterior del avión, los viajeros que corrieran con suficiente velocidad con respecto al éter dejarían atrás una onda luminosa. Basándose en esas consideraciones, Maxwell sugirió un experimento. Sí existe un éter, la Tierra debería estar moviéndose respecto a él a medida que gira alrededor del Sol. Y como la Tierra avanza en una dirección diferente en enero que, digamos, en abril o en julio, deberíamos ser capaces de observar una minúscula diferencia en la velocidad de la luz en diferentes épocas del año -véase la figura-.
Maxwell fue disuadido de publicar esta idea en los Proceedings of the Royal Society por su editor, que no creía que el experimento pudiera funcionar. Pero en 1879, poco antes de morir a los cuarenta y ocho años de un doloroso cáncer de estómago, Maxwell envió una carta sobre ese tema a un amigo. La carta fue publicada postumamente en la revista Nature donde fue leída, entre otros, por un físico norteamericano llamado Albert Michelson. Inspirado por la especulación de Maxwell, en 1887 Michelson y Edward Morley llevaron a cabo un experimento muy sensible diseñado para medir la velocidad con que la Tierra viaja con respecto al éter. Su idea era comparar la velocidad de la Luz en dos direcciones diferentes, perpendiculares entre sí. Si la velocidad de la luz con respecto al éter tuviera un valor fijo, esas medidas deberían revelar velocidades de la luz que diferirían según la dirección del haz. Pero Michelson y Morley no observaron ninguna diferencia.
El resultado del experimento de Michelson y Morley está claramente en contradicción con el modelo de ondas electromagnéticas que viajan a través de un éter, y debería haber hecho que el modelo del éter fuera abandonado. Pero el objetivo de Michelson había sido medir la velocidad de la luz con respecto al éter, pero no demostrar o refutar la hipótesis del éter, y lo que halló no le condujo a concluir que el éter no existiera. Ningún otro investigador llegó, tampoco, a dicha conclusión. De hecho, el célebre físico sir William Thomson (lord Kelvin) afirmó, en 1884, que «el éter luminífero es la única sustancia de la cual estamos seguros en dinámica. Una sola cosa tenemos por cierta: la realidad y la sustancialidad del éter luminífero».
¿Cómo se podía creer en el éter a pesar de los resultados adversos del experimento de Michelson y Morley? Tal como hemos dicho que a menudo ocurre, la gente intentó salvar el modelo mediante adiciones artificiosas y ad hoc. Algunos postularon que la Tierra arrastraba consigo el éter, de manera que en realidad no nos movemos con respecto a él. El físico holandés Hendrick Antoon Lorentz y el físico irlandés Francis FitzGerald sugirieron que en un sistema de referencia que se moviera con respecto al éter, y probablemente por algún efecto mecánico aún desconocido, los relojes retrasarían y las distancias se encogerían, de modo que siempre se mediría que la luz tiene la misma velocidad. Los esfuerzos para salvaguardar el concepto del éter continuaron durante casi treinta años, hasta un notable artículo de un joven y desconocido empleado de la oficina de patentes de Berna, Albert Einstein.
Einstein tenía veintiséis años en 1905, cuando publicó su artículo «Zur Electrodynamik bewegter Korper» («Sobre la electrodinámica de los cuerpos en movimiento»), En él hizo la sencilla hipótesis de que las leyes de la física, y en particular la velocidad de la luz en el vacío, deberían parecer las mismas a todos los observadores que se movieran con movimiento uniforme. Pero esta idea exige una revolución en nuestros conceptos de espacio y tiempo. Para ver por qué es así, imaginemos que dos sucesos ocurren en el mismo lugar pero en instantes diferentes, en un avión de reacción. Para un observador en el avión, habrá una distancia nula entre esos sucesos, pero para un observador en el suelo los dos sucesos estarán separados por la distancia que el avión ha recorrido durante el intervalo entre ambos. Ello demuestra que dos observadores que se están desplazando uno respecto al otro discreparán en la distancia entre dos sucesos.
Supongamos ahora que los dos advierten un pulso de luz que viaja desde la cola hasta el morro del avión. Tal como en el ejemplo anterior, no estarán de acuerdo en la distancia que la luz ha recorrido desde su emisión en la cola del avión hasta su recepción en el morro. Como la velocidad es la distancia recorrida dividida por el intervalo de tiempo empleado, ello significa que si están de acuerdo en la velocidad con que el pulso viaja -la velocidad de la luz en el vacío- no la estarán acerca del intervalo temporal entre la emisión y la recepción.
Lo que resulta extraño es que aunque los dos observadores miden tiempos diferentes están observando el mismo proceso físico. Einstein no intentó construir una explicación artificial de esto. Llegó a la conclusión lógica, aunque sorprendente, de que las medidas del tiempo transcurrido así como las de la distancia recorrida dependen del observador que efectúa la medición. Dicho efecto es una de las claves de la teoría en el artículo de Einstein de 1905, que se ha venido a conocer como relatividad especial.
Para ver cómo este análisis se aplica a los aparatos que llevan la cuenta del tiempo, consideremos dos observadores que están mirando un reloj. Según la relatividad especial, el reloj va más rápido para un observador que está en reposo con respecto al reloj. Para los observadores que no están en reposo respecto del reloj, éste va más lentamente. Si el observador en el avión sincroniza un pulso de luz que va y viene entre la cola y el morro del avión con el tictac de su reloj, vemos que para un observador en tierra el reloj va más lento, porque en el sistema de referencia del suelo el pulso de luz debe recorrer una distancia mayor. Pero el efecto no depende del mecanismo concreto del reloj; se aplica a todos los relojes, incluso a nuestros relojes biológicos.
El trabajo de Einstein demostró que, tal como ocurre con el concepto de reposo, el tiempo no puede ser absoluto, a diferencia de lo que había creído Newton. En otras palabras, no es posible, para cada suceso, asignar un tiempo para el cual todos los observadores estén de acuerdo. Al contrario, cada observador tiene su propia medida del tiempo, y los tiempos medidos por dos observadores que se están moviendo el uno con respecto al otro no coinciden. Las ideas de Einstein van contra nuestra intuición porque sus implicaciones no son observables a las velocidades que encontramos en la vida corriente, pero han sido repetidamente confirmadas por experimentos. Por ejemplo, imaginemos un reloj de referencia en el centro de la Tierra, otro en la superficie de la Tierra, y otro a bordo de un avión que vuela o bien en el sentido de la rotación de la Tierra o bien en el sentido opuesto. Con respecto al reloj situado en el centro de la Tierra, el reloj a bordo del avión que vuela hacia el este -es decir, en el sentido de la rotación de la Tierra- se desplaza más rápido que el reloj situado en la superficie de la Tierra, y por lo tanto debe retrasar. Análogamente, respecto al reloj situado en el centro de la Tierra, el reloj a bordo del avión que vuela hacia el oeste -en sentido opuesto a la rotación de la Tierra- se desplaza más lentamente que el reloj en la superficie, lo cual significa que el reloj en el avión debería avanzar respecto del reloj en la superficie. Y eso es exactamente lo que se observó cuando, en un experimento realizado en octubre de 1971, un reloj atómico muy preciso voló alrededor del mundo. Así pues, podríamos alargar nuestra vida si voláramos constantemente hacia el este alrededor del mundo, aunque acabaríamos aburridos de ver todas las películas de las aerolíneas. Sin embargo, el efecto es muy pequeño, de unas ciento ochenta milmillonésimas de segundo por vuelta (y queda también algo reducido por los efectos de la diferencia en la gravedad, pero no necesitamos bajar a tantos detalles).
Gracias al trabajo de Einstein, los físicos se dieron cuenta de que postulando que la velocidad de la luz es la misma en todos los sistemas de referencia, la teoría de la electricidad y el magnetismo de Maxwell implica que el tiempo no puede ser tratado separadamente de las tres dimensiones del espacio, sino que tiempo y espacio están profundamente imbricados entre sí. Es como si añadiéramos una cuarta dimensión futuro/pasado a las tres usuales derecha/izquierda, adelante/atrás y arriba/abajo. Los físicos llaman «espacio-tiempo» a ese matrimonio de espacio y tiempo, y como el tiempo constituye una cuarta dimensión le llaman la cuarta dimensión. En el espacio-tiempo el tiempo ya no está separado de las tres dimensiones del espacio y, hablando impropiamente, así como la definición de derecha/izquierda, adelante/atrás o arriba/ abajo depende de la orientación del observador, así también la dirección del tiempo depende de la velocidad del observador. Observadores que se mueven a diferentes velocidades escogerían diferentes direcciones para el tiempo en el espacio-tiempo. Por lo tanto, la teoría de la relatividad especial de Einstein constituyó un nuevo modelo que eliminó los conceptos de tiempo absoluto y reposo absoluto (es decir, reposo con respecto a un éter fijo).
Einstein no tardó en darse cuenta de que para hacer que la gravedad sea compatible con la relatividad era necesario otro cambio. Según la teoría de la gravitación de Newton, en cada instante los objetos son atraídos entre sí por una fuerza que depende de la distancia entre ellos en dicho instante. Pero la teoría de la relatividad había abolido el concepto de tiempo absoluto, de forma que no había manera de definir en qué instante se debían medir las distancias entre las masas. En consecuencia, la teoría de la gravitación de Newton no era consistente con la relatividad especial y tenía que ser modificada. Este conflicto puede parecer a primera vista una mera dificultad técnica, quizá incluso un detalle nimio que podía ser superado sin demasiados cambios en la teoría. Pero que nada estaba tan lejos de la realidad.
En los once años siguientes, Einstein desarrolló una nueva teoría de la gravedad, que denominó relatividad general. El concepto de la gravedad en la relatividad general no es en absoluto como el de Newton, sino que está basado en la propuesta revolucionaria de que el espacio-tiempo no es plano como había sido supuesto anteriormente, sino que está curvado y distorsionado por la masa y energía que contiene.
Una buena manera de representar la curvatura es imaginar la superficie de la Tierra. Aunque la superficie de la Tierra sólo es bidimensional (porque sólo hay en ella dos direcciones, digamos norte/sur y este/oeste), la vamos a utilizar como ejemplo porque es más fácil representar un espacio curvado bidimensional que cuatridimensional. La geometría de los espacios curvados como la superficie de la Tierra no es la geometría euclidiana a que estamos acostumbrados. Por ejemplo, sobre la superficie de la Tierra, la distancia más corta entre dos puntos -que sabemos que es un segmento rectilíneo en la geometría euclidiana- es el camino que conecta los dos puntos a lo largo de lo que se denomina un círculo máximo. (Un círculo máximo es una línea en la superficie de la Tierra cuyo centro coincide con el centro de la Tierra. El ecuador es un ejemplo de círculo máximo, y también lo es cualquier círculo obtenido inclinando el ecuador por uno cualquiera de sus infinitos diámetros.)
Imaginemos, por ejemplo, que queremos ir de Nueva York a Madrid, dos ciudades que se hallan a la misma latitud. Si la Tierra fuera plana, el camino más corto sería ir directamente hacia el este en línea recta. Si lo hiciéramos, llegaríamos a Madrid tras recorrer 3.707 millas. Pero debido a la curvatura de la Tierra, hay un camino que parece curvado y por lo tanto más largo sobre un mapa plano, pero que en realidad es mas corto. Se puede llegar a Madrid en 3.605 millas si seguimos la ruta del círculo máximo, que va primero hacia el noreste, y después gira gradualmente hacia el este y después hacia el sureste. La diferencia de distancias entre ambas rutas es debida a la curvatura de la Tierra y constituye una señal de que su geometría no es euclidiana. Las líneas aéreas lo saben perfectamente y adiestran a sus pilotos para seguir las rutas de los círculos máximos, siempre que resulte practicable.
Según las leyes de Newton del movimiento, los objetos, como por ejemplo obuses, croissants o planetas, se desplazan en línea recta salvo que actúe sobre ellos una fuerza, por ejemplo la gravedad. Pero la gravedad, en la teoría de Einstein, no es una fuerza como las demás fuerzas sino una consecuencia de que la masa deforma el espacio-tiempo y le confiere una cierta curvatura. En la teoría de Einstein, los objetos se desplazan a lo largo de lo más parecido a las líneas rectas en un espacio curvado, llamadas geodésicas. Las rectas son geodésicas en el espacio plano y los círculos máximos son geodésicos en la superficie de la Tierra. En ausencia de materia, las geodésicas en el espacio-tiempo cuatridimensional corresponden a rectas en el espacio tridimensional, pero en presencia de materia que deforme el espacio-tiempo, las trayectorias de los cuerpos en el espacio tridimensional correspondiente se curvan de una manera que en la teoría newtoniana era explicada por la atracción de la gravedad. Cuando el espacio-tiempo no es plano, las trayectorias de los objetos parecen estar curvadas, y producen la impresión de que sobre ellos está actuando una fuerza.
La teoría de la relatividad general de Einstein se reduce a la relatividad especial en ausencia de la gravedad y hace casi las mismas predicciones -pero no idénticas- que la teoría de la gravitación de Newton en el ambiente de gravitación débil de nuestro sistema solar. De hecho, si no se tuviera en cuenta la relatividad general en el sistema GPS de navegación por satélite, los errores en la posición global se acumularían a un ritmo de unos ¡diez kilómetros por día! Sin embargo, la auténtica importancia de la relatividad general no es su aplicación a dispositivos que nos guíen hacia nuevos restaurantes sino que constituye un modelo del universo muy diferente, que predice nuevos efectos como ondas gravitatorias y agujeros negros. Y así, la relatividad general ha transformado la física en geometría. La tecnología moderna es suficientemente sensible para permitirnos llevar a cabo muchas pruebas detalladas de la relatividad general, y las ha superado todas con éxito.
Aunque ambas revolucionaron la física, la teoría de Maxwell del electromagnetismo y la teoría de Einstein de la gravitación – la relatividad general- son, como la física de Newton, teorías clásicas, es decir, son modelos en que el universo tiene una sola historia. Tal como vimos en el capítulo anterior, a nivel atómico y subatómico esos modelos no concuerdan con las observaciones, sino que debemos utilizar teorías cuánticas en que el universo puede tener cualquier historia posible, cada una de ellas con su propia amplitud de probabilidad. Para los cálculos prácticos para el mundo cotidiano podemos continuar utilizando las teorías clásicas, pero si queremos comprender el comportamiento de los átomos y las moléculas necesitamos una versión cuántica de la teoría de Maxwell del electromagnetismo, y si queremos comprender el universo primitivo, cuando toda la materia y toda la energía del universo estaban comprimidas en un volumen diminuto, necesitamos una versión cuántica de la teoría de la relatividad general. También necesitamos dichas teorías si queremos llegar a una comprensión fundamental de la naturaleza, porque no sería consistente que algunas de las leyes fueran clásicas y otras cuánticas. Por lo tanto, tenemos que hallar versiones cuánticas de todas las leyes de la naturaleza. Tales teorías se denominan teorías cuánticas de campos.
Las fuerzas conocidas de la naturaleza pueden ser divididas en cuatro clases:
1) Gravedad. Es la fuerza más débil de las cuatro, pero es una fuerza de largo alcance y actúa de forma atractiva sobre todos los objetos del universo. Ello implica que para cuerpos grandes las fuerzas gravitatorias se suman y pueden dominar sobre todas las demás fuerzas.
2) Electromagnetismo. También es una fuerza de largo alcance y es mucho más intensa que la gravedad, pero sólo actúa sobre partículas con carga eléctrica y es repulsiva entre cargas del mismo signo y atractiva entre cargas de signo opuesto. Ello significa que las fuerzas eléctricas entre cuerpos grandes se anulan entre sí, pero a escala de átomos y moléculas son dominantes. Las fuerzas electromagnéticas son las responsables de toda la química y la biología.
3) Fuerza nuclear débil. Produce la radiactividad y desempeña un papel decisivo en la formación de los elementos en las estrellas y en el universo primitivo. Sin embargo, en la vida corriente no entramos en contacto con esa fuerza.
4) Fuerza nuclear fuerte. Mantiene unidos los protones y los neutrones dentro de los núcleos atómicos. También mantiene la integridad de los protones y neutrones, lo cual es necesario porque están formados por partículas todavía más diminutas, los quarks, mencionadas en el capítulo 3. La fuerza nuclear fuerte es la fuente de energía del Sol y de las centrales nucleares pero, tal como ocurre con la fuerza nuclear débil, no tenemos un contacto directo con ella.
La primera fuerza para la cual se propuso una versión cuántica fue el electromagnetismo. La teoría cuántica del campo electromagnético, denominada electrodinámica cuántica o simplemente QED (siglas en inglés de quantum electrodynamics), fue desarrollada en la década de 1940 por Richard Feynman y otros, y se ha convertido en un modelo para todas las teorías cuánticas de campos. Tal como hemos dicho, según las teorías clásicas las fuerzas son transmitidas por campos. Pero en las teorías cuánticas de campos, los campos de fuerzas son representados como constituidos por partículas elementales denominadas bosones, que son las partículas transmisoras de fuerzas que se intercambian entre las partículas de materia, transmitiendo las fuerzas. Los electrones y los quarks son ejemplos de fermiones. El fotón, o partícula de luz, es un ejemplo de un bosón; es el bosón el que transmite la fuerza electromagnética. Lo que ocurre es que una partícula de materia, como por ejemplo un electrón, emite un bosón o partícula de fuerza, y recula al hacerlo, como un cañón recula al disparar un obús. La partícula transmisora de la fuerza choca después con otra partícula de materia y es absorbida por ella, con lo cual modifica el movimiento de dicha partícula. Según la QED, todas las interacciones entre partículas cargadas eléctricamente -partículas sensibles a la fuerza electromagnética- son descritas en términos del intercambio de fotones.
Las predicciones de la QED han sido sometidas a prueba y se ha verificado que concuerdan con los resultados experimentales con gran precisión. Pero realizar los cálculos matemáticos requeridos por la QED puede ser difícil. El problema, como veremos después, es que cuando añadimos a este marco de intercambio de partículas el requisito cuántico de incluir todas las historias en que una interacción puede producirse -por ejemplo, rodas las maneras en que pueden ser intercambiadas las partículas de fuerzas-las matemáticas se hacen muy complicadas. Afortunadamente, además de inventar la interpretación de las «historias alternativas» de la teoría cuántica descrita en el último capítulo, Feynman también desarrolló un método gráfico muy nítido para expresar las diferentes historias, un método que es aplicado actualmente no tan sólo a la QED, sino a todas las teorías cuánticas de campos.
El método gráfico de Feynman proporciona una manera de representar cada término de la suma sobre historias. Esas figuras, denominadas diagramas de Feynman, son uno de los instrumentos más importantes de la física moderna. En la QED, la suma sobre todas las posibles historias puede ser visualizada como una suma sobre diagramas de Feynman como los reproducidos a continuación, que describen algunas de las maneras en que dos electrones se puedan desviar uno al otro mediante la fuerza electromagnética. En esos diagramas, las líneas continuas representan los electrones y las líneas onduladas representan fotones. Se supone que el tiempo aumenta desde abajo arriba, y los lugares en que las líneas se unen corresponden a la emisión o absorción de fotones por parte de un electrón. El diagrama (a) representa que los dos electrones se aproximan entre sí, intercambian un fotón y siguen su nuevo camino. Ésa es la manera más simple en que dos electrones pueden interaccionar electromagnéticamente, pero debemos considerar todas las historias posibles. Por lo tanto, también debemos incluir diagramas como (b). Ese diagrama también tiene dos segmentos que entran, los electrones que se aproximan, y dos segmentos que salen, los electrones tras su interacción, pero en ese diagrama los electrones intercambian dos fotones antes de alejarse el uno del otro. Los diagramas representados aquí son tan sólo unas pocas de las posibilidades; de hecho, hay un número infinito de diagramas que deben ser tenidos en cuenta matemáticamente.
Los diagramas de Feynman no son sólo una manera nítida de representar y clasifícar cómo pueden ocurrir las interacciones. También vienen acompañados por reglas que nos permiten leer, a partir de las líneas y vértices de cada diagrama, una expresión matemática. La probabilidad, por ejemplo, de que los electrones incidentes, con una cierta cantidad de movimiento inicial, salgan con una cierta cantidad de movimiento final, es obtenida sumando las contribuciones de cada diagrama de Feynman. Eso puede requerir mucho trabajo porque, como hemos dicho, hay un número infinito de diagramas. Además, aunque los electrones incidentes y salientes tienen una energía y una cantidad de movimiento definidas, las partículas en los bucles cerrados del interior del diagrama pueden tener cualquier energía y cantidad de movimiento. Eso es importante porque al efectuar la suma de Feynman debemos sumar no sólo sobre todos los diagramas, sino también sobre todos los valores de esas energías y cantidades de movimiento.
Los diagramas de Feynman proporcionaron a los físicos una enorme ayuda al visualizar y calcular las probabilidades de los procesos descritos por la QED, pero no solucionaron un grave inconveniente que sufría la teoría: cuando se suman las contribuciones del número infinito de diferentes historias se llega a un resultado infinito. (Si los términos sucesivos de una suma infinita decrecen lo suficientemente rápido es posible que la suma sea finita pero ello, desgraciadamente, no ocurre aquí.) En particular, cuando se suma los diagramas de Feynman la solución parece implicar que el electrón tiene carga y masa infinitas. Ello es absurdo, porque podemos medir la carga y la masa y son finitas. Para tratar con esos infinitos, se desarrolló un procedimiento denominado renormalización.
El proceso de renormalización hace intervenir magnitudes infinitas positivas y negativas, que se restan mutuamente, de manera que tras una contabilidad matemática muy cuidadosa, los valores infinitos positivos y negativos que surgen en la teoría casi se anulan entre sí, dejando un pequeño residuo correspondiente a los valores finitos observados de la masa y la carga. Esas manipulaciones pueden parecer el tipo de cosas que nos hacen obtener mala nota en los exámenes de matemáticas en la escuela, y la renormalización es, en efecto, matemáticamente discutible. Una consecuencia es que los valores para la masa y la carga del electrón obtenidos mediante ese método pueden ser cualquier número finito. Eso tiene la ventaja de que los físicos pueden escoger los infinitos negativos de tal manera que den la solución correcta, pero presenta el inconveniente de que la masa y la carga del electrón no pueden ser predichas por la teoría. Pero una vez se ha fijado la masa y la carga del electrón de tal manera, se puede utilizar la QED para efectuar muchas otras predicciones muy precisas, todas las cuales concuerdan con gran exactitud con las observaciones, de manera que la renormalización es uno de los ingredientes esenciales de la QED. Uno de los triunfos iniciales de la QED, por ejemplo, fue la predicción correcta del llamado desplazamiento de Lamb, una minúscula variación en la energía de uno de los estados del átomo de hidrógeno, descubierta en 1947.
El éxito de la renormalización en la QED impulse') varios intentos de buscar teorías cuánticas de campos que describieran las otras tres fuerzas de la naturaleza. Pero la división de las fuerzas naturales en cuatro clases es probablemente artificial, una mera consecuencia de nuestra falta de comprensión. Por lo tanto, la gente empezó a buscar una Teoría de Todo que unificara los cuatro tipos de fuerza en una sola ley que fuera compatible con la teoría cuántica. Ello sería el Santo Grial de la física.
Un indicio de que la unificación es el camino correcto vino de la teoría de las interacciones débiles. La teoría cuántica de campos que describe la interacción débil por sí sola no puede ser renormalizada, es decir, sus infinitos no pueden ser anulados restándoles otros infinitos para dar un número finito para magnitudes como la masa y la carga. Sin embargo, en 1967, Abdus Salam y Steven Weinberg, independientemente el uno del otro, propusieron una teoría en que el electromagnetismo quedaba unificado con las interacciones débiles y hallaron que esa unificación evitaba la plaga de los infinitos. La fuerza unificada se denomina fuerza electrodébil. Su teoría pudo ser renormalizada y predijo tres nuevas partículas, denominadas W+, W- y Z°. En 1973, fueron descubiertas en el CERN de Ginebra evidencias de la partícula Z°. Salam y Weinberg recibieron el premio Nobel de física en 1979 aunque las partículas W y Z no fueron observadas directamente hasta 1983.
La fuerza nuclear fuerte puede ser renormalizada por su cuenta en una teoría denominada cromodinámica cuántica o QCD (por sus siglas en ingles de quantum chromodynamics). Según la QCD, el protón, el neutrón, y muchas otras partículas elementales de la materia están formadas por quarks, que tienen la notable propiedad que los físicos han denominado color, de donde viene el término cromodinámica, aunque los colores de los quarks son tan sólo etiquetas útiles que nada tienen que ver con los colores visibles. Hay quarks de tres colores: rojo, verde y azul. Además, cada quark tiene una antipartícula correspondiente, y los colores de dichas antipartículas son denominados antirrojo, antiverde y antiazul. La idea es que sólo las combinaciones sin color neto pueden existir como partículas libres. Hay dos maneras de conseguir esas combinaciones neutras de quarks. Un color y su anticolor se anulan mutuamente, de manera que un quark y un antiquark forman un par sin color, partículas inestables denominadas mesones. Además, cuando los tres colores (o anticolores) se mezclan, el conjunto no tiene color neto. Tres quarks, uno de cada color, forman partículas estables denominadas bariones, de las cuales los protones y los neutrones son ejemplos (y tres antiquarks forman las antipartículas de los bariones). Los protones y los neutrones son los bariones que forman los núcleos de los átomos y constituyen la base de toda la materia normal del universo.
La QCD también tiene una propiedad denominada libertad asintótica, a la cual también nos referimos, sin llamarla por su nombre, en el capítulo 3. La libertad asintótica significa que las fuerzas fuertes entre quarks son pequeñas cuando los quarks están muy próximos entre sí, pero aumentan si se separan, como si estuvieran unidos con una goma elástica. La libertad asintótica explica por qué en la naturaleza no vemos quarks aislados y hemos sido incapaces de producirlos en el laboratorio. Pese a ello, aunque no podamos observar los quarks individuales aceptamos el modelo porque explica muy bien el comportamiento de los protones, neutrones y otras partículas de materia.
Tras unir las fuerzas electromagnética y débil, los físicos, en la década de 1970, buscaron una manera de incorporar la fuerza fuerte a dicha teoría. Hay un cierto número de teorías de gran unificación (GUT, siglas de Grand Unified Theories) que atinan la fuerza fuerte con la fuerza débil y el electromagnetismo, pero la mayoría de ellas predicen que los protones, que constituyen el material de que estamos formados, deberían decaer en promedio tras unos 1032 años. Esa vida media es muy larga, dado que el universo tan sólo tiene unos 1010 años. Pero en física cuántica, cuando decimos que la vida media de una partícula es de unos 1032 años, no queremos decir que la mayoría de las partículas duren aproximadamente 1032 años, algunas un poco más, algunas un poco menos, sino que queremos decir que cada año una partícula tiene una probabilidad de 1 sobre 1032 de desintegrarse. En consecuencia, si observamos durante unos pocos años un tanque que contenga 1032 protones, deberíamos ver desintegrarse algunos de ellos. No es demasiado difícil construir un tanque así, ya que 1032 protones están contenidos en unas mil toneladas de agua. Los científicos han llevado a cabo tales experimentos, pero resulta que detectar esas desintegraciones y distinguirlas de otros sucesos provocados por los rayos cósmicos que continuamente llueven sobre nosotros no es tarea fácil. Para minimizar el ruido, los experimentos se realizan a grandes profundidades, en lugares como la mina de la Compañía de Kamioka de Minería y Fundición a unos mil metros bajo una montaña en Japón, que queda bastante protegida de los rayos cósmicos. Como resultado de las observaciones en 2009, los investigadores han concluido que si los protones realmente se desintegran, su vida media es mayor que unos 1034 años, lo cual son malas noticias para las teorías de gran unificación.
Como las teorías de gran unificación (GUT) no son corroboradas por evidencias observacionales la mayoría de físicos adoptó una teoría ad hoc denominada el modelo estándar, que consiste en la teoría unificada de las fuerzas electrodébiles y en la cromodinámica cuántica como teoría de las fuerzas fuertes. Pero en el modelo estándar las fuerzas electrodébiles y fuertes actúan por separado y no están unificadas. El modelo estándar ha acumulado muchos éxitos y concuerda con todas las evidencias observacionales hasta la fecha pero es en último término insatisfactorio porque, además de no unificar las fuerzas electrodébiles y fuertes, no incluye la gravedad.
Aunque se han revelado las dificultades de fundir las fuerzas fuertes con las electrodébiles, dichos problemas no son nada en comparación con la dificultad de unificar la gravitación con las otras tres fuerzas, o incluso de formular una teoría cuántica auto-consistente de la gravedad. La razón por la cual crear una teoría cuántica de la gravedad resulta tan difícil está relacionada con el principio de incertidumbre de Heisenberg que hemos explicado en el capítulo 3. Aunque no sea obvio verlo, resulta que con respecto a dicho principio el valor de un campo y de su tasa de cambio temporal desempeñan el mismo papel que la posición y la velocidad de una partícula. Es decir, cuanto mayor es la precisión con que se consigue determinar el uno menor es la precisión con que se puede determinar el otro. Una consecuencia importante de ello es que no existe el espacio vacío. Ello es así porque espacio vacío significa que el valor de un campo es exactamente cero y que la tasa de cambio del campo es también exactamente cero (si no fuera así, el espacio no permanecería vacío). Como el principio de incertidumbre no permite que los valores del campo y de su tasa temporal de cambio tengan valores exactos simultáneamente, el espacio nunca está vacío. Puede tener un estado de mínima energía, denominado el «vacío», pero dicho estado está sujeto a lo que llamamos fluctuaciones del vacío cuántico, que consisten en partículas y campos que aparecen y desaparecen de la existencia.
Podemos interpretar las fluctuaciones del vacío cuántico como pares de partículas que aparecen conjuntamente en un cierto instante, se separan, vuelven a unirse y se aniquilan entre sí. En términos de los diagramas de Feynman, corresponden a bucles cerrados. Dichas partículas se denominan partículas virtuales ya que, a diferencia de las partículas reales, las partículas virtuales no pueden ser observadas directamente mediante detectores de partículas. Sin embargo, sus efectos indirectos, como por ejemplo pequeños cambios en la energía de las órbitas electrónicas, pueden ser medidos y concuerdan con las predicciones teóricas con un notable grado de exactitud. El problema consiste en que las partículas virtuales tienen energía y, como hay un número infinito de pares virtuales, su cantidad de energía sería infinita. Según la relatividad general, ello comportaría que curvarían el universo a un tamaño infinitesimalmente pequeño, ¡lo cual obviamente no ocurre!
Esa plaga de infinitos es análoga al problema que se presenta en las teorías de las fuerzas electromagnéticas, débiles y fuertes, salvo que en esos casos la renormalización consigue eliminar los infinitos. Pero los bucles cerrados de los diagramas de Feynman para la gravedad producen infinitos que no pueden ser absorbidos por renormalización, ya que en la relatividad general no hay suficientes parámetros renormalizables para eliminar todos los infinitos cuánticos de la teoría. Nos quedamos, pues, con una teoría de la gravedad que predice que algunas magnitudes, como la curvatura del espacio-tiempo, son infinitas, lo cual no es manera de tener un universo habitable. Ello significa que la única posibilidad de obtener una teoría razonable sería que todos los infinitos se anularan sin tener que acudir a renormalización.
En 1976 se halló una posible solución a este problema, la llamada supergravedad. El calificativo súper en supergravedad no se añade porque los físicos creyeran que era «súper» que esa teoría de la gravitación cuántica pudiera realmente funcionar, sino que se refiere a un tipo de simetría que la teoría posee, la llamada supersimetría.
En física se dice que un sistema tiene una simetría si sus propiedades no quedan afectadas por una cierta transformación, como por ejemplo una rotación espacial o hacer su imagen especular. Por ejemplo, si damos la vuelta a un donut sobre sí mismo parece exactamente el mismo (a no ser que tenga un recubrimiento de chocolate en su parte superior, en cuyo caso lo mejor es comérselo). La supersimetría es un tipo más sutil de simetría que no puede ser asociado con una transformación en el espacio ordinario. Una de las implicaciones de la supersimetría es que las partículas de fuerza y las partículas de materia, y por lo tanto la fuerza y la materia, son en realidad dos facetas de una misma cosa. En términos prácticos ello significa que cada partícula de materia, como por ejemplo un quark, debería tener una partícula compañera que fuera una partícula de fuerza, y que cada partícula de fuerza, como por ejemplo el fotón, debería tener una partícula compañera que fuera una partícula de materia. Eso tiene el potencial de resolver el problema de los infinitos porque los infinitos que proceden de los bucles cerrados de las partículas de fuerza son positivos, en tanto que los infinitos procedentes de los bucles cerrados de las partículas de materia son negativos. Así, los infinitos que surgen en la teoría a partir de las partículas de fuerza y los de sus compañeras las partículas de materia tenderían a anularse entre sí. Desgraciadamente, los cálculos necesarios para comprobar si quedarían o no infinitos sin anular en la supergravedad eran tan largos y difíciles y presentaban tantas posibilidades de cometerse errores que nadie se veía con fuerzas para abordarlos. Sin embargo, la mayoría de los físicos creían que la supergravedad era probablemente la respuesta correcta al problema de unificar la gravedad con las otras fuerzas.
Podría creerse que la validez de la supersimetría sería algo fácil de comprobar -tan sólo examinar las propiedades de las partículas existentes y ver si están apareadas entre ellas, pero no se han observado esas partículas compañeras -. Pero varios cálculos realizados por los físicos indican que las partículas compañeras correspondientes a las partículas que observamos deberían ser miles de veces, o más, más pesadas que un protón. Ello es demasiado pesado para haber sido visto en los experimentos realizados hasta la fecha, pero hay esperanzas de que tales partículas puedan ser producidas por fin en el gran colisionador de hadrones (LHC, siglas de Large Hadron Collider) en Ginebra, Suiza.
La idea de la supersimetría fue un punto clave en la formulación de la supergravedad, pero en realidad el concepto se había originado años antes, en los teóricos que estudiaban una teoría denominada teoría de cuerdas. Según la teoría de cuerdas, las partículas no son puntos sino modos de vibración que tienen longitud, pero no altura ni anchura -como fragmentos de cuerda infinitamente finos-. Las teorías de cuerdas también conducen a infinitos, pero se cree que en la versión adecuada todos ellos se anularán. Además, tienen otra característica poco usual: tan sólo son consistentes si el espacio-tiempo tiene diez dimensiones en lugar de las cuatro usuales. Diez dimensiones pueden parecer excitantes a los científicos, pero causarían auténticos problemas si olvidáramos dónde hemos dejado aparcado el automóvil. Si están presentes, ¿por qué no advertimos esas dimensiones adicionales? Según la teoría de cuerdas, están enrolladas en un espacio de un tamaño minúsculo. Para representárnoslo, imaginemos un plano bidimensional. Decimos que el plano es bidimensional porque necesitamos dos números, por ejemplo una coordenada horizontal y otra vertical, para localizar en él un punto cualquiera. Otro espacio bidimensional es la superficie de una pajilla de beber. Para localizar un punto en ella necesitamos saber en qué longitud de la pajilla se halla el punto y, además, dónde está en su dimensión circular transversal. Pero si la pajilla es muy fina, podemos tener una idea satisfactoriamente aproximada de la posición empleando tan sólo la coordenada a lo largo de la pajilla, de manera que podemos ignorar la dimensión circular. Y si la pajilla fuera una millonésima de billonésima de billonésima de centímetro de diámetro, no percibiríamos en absoluto su dimensión circular. Esta es la imagen que tienen los teóricos de las dimensiones adicionales -están muy curvadas, en una escala tan ínfima que no podemos verlas-. En la teoría de cuerdas, las dimensiones adicionales están enrolladas en lo que se llama un «espacio interno», en oposición al espacio tridimensional que experimentamos en la vida corriente. Como veremos, esos estados internos no son sólo dimensiones ocultas que podamos barrer debajo de la alfombra, sino que tienen una importante significación física.
Además de la cuestión de las dimensiones, la teoría de cuerdas adolecía de otra característica incómoda: parecía que había al menos cinco teorías diferentes y millones de maneras en que las dimensiones adicionales podían curvarse, lo cual conduce a una multitud embarazosa de posibilidades para los que abogaban que la teoría de cuerdas era la teoría única de todo. Entonces, hacia 1994, se empezó a descubrir dualidades -que diferentes teorías de cuerdas, y diferentes maneras de curvar las dimensiones adicionales, son simplemente maneras diferentes de describir los mismos fenómenos en cuatro dimensiones-. Además, se descubrió que la supergravedad también está relacionada con las otras teorías de esa manera. Los teóricos de cuerdas están convencidos ahora de que las cinco diferentes teorías de cuerdas y la supergravedad son simplemente diferentes aproximaciones a una teoría más fundamental, cada una de las cuales es válida en situaciones diferentes.
La teoría más fundamental es la denominada teoría M, como dijimos antes. Nadie parece saber qué significa la M, pero puede ser Maestra, Milagro o Misterio. Parece participar de las tres posibilidades. Aún estamos intentando descifrar la naturaleza de la teoría M, pero puede que no sea posible conseguirlo. Podría ser que la tradicional expectativa de los físicos de una sola teoría de la naturaleza sea inalcanzable y que no exista una formulación única.
Podría ser que para describir el universo tengamos que emplear teorías diferentes en situaciones diferentes. Cada teoría puede tener su propia versión de la realidad, pero según el realismo dependiente del modelo, ello sólo es aceptable si las predicciones de las teorías concuerdan en los dominios en que éstas se solapan, es decir, en que ambas pueden ser aplicadas.
Tanto si la teoría M existe como una formulación única o como una red de teorías, conocemos algunas de sus propiedades. En primer lugar, el espacio-tiempo de la teoría M tiene once dimensiones en lugar de diez. Los teóricos de cuerdas habían sospechado desde hacía tiempo que la predicción de diez dimensiones debería ser corregida, y trabajos recientes demostraron que efectivamente una dimensión había sido dejada de lado. Ademas, la teoría M puede contener no sólo cuerdas vibrantes, sino también partículas puntuales, membranas bidimensionales, burbujas tridimensionales y otros objetos que resultan más difíciles de representar y que ocupan todavía más dimensiones espaciales, hasta nueve. Son llamados p-branas (donde p va desde 0 a 9).
¿ Y qué podemos decir sobre el enorme número de maneras de curvar las dimensiones pequeñas? En la teoría M las dimensiones espaciales adicionales que forman el espacio interno no pueden ser curvadas de manera arbitraria, ya que las matemáticas de la teoría restringen las maneras posibles de hacerlo. La forma exacta del espacio interno determina los valores de las constantes físicas, como la carga del electrón, y la naturaleza de las interacciones entre las partículas elementales; en otras palabras, determina las leyes aparentes de la naturaleza. Decimos «aparentes» porque nos referimos a las leyes que observamos en nuestro universo -las leyes de las cuatro fuerzas y los parámetros como las masas y las cargas que caracterizan las partículas elementales -, pero las leyes más fundamentales son las de la teoría M.
Por lo tanto, las leyes de la teoría M permiten diferentes universos con leyes aparentes diferentes, según como esté curvado el espacio interno. La teoría M tiene soluciones que permiten muchos tipos de espacios internos, quizá hasta unos 105°°, lo cual significa que permitiría unos 10500 universos, cada uno con sus propias leyes. Para hacernos una idea de qué representa ese número pensemos lo siguiente: si alguien pudiera analizar las leyes predichas para tales universos en tan sólo un milisegundo por universo y hubiera empezado a trabajar en el instante del Big Bang, en el momento presente sólo habría podido analizar las leyes de 1020 de ellos, y eso sin pausas para el café.
Hace siglos, Newton demostró qué ecuaciones matemáticas podían proporcionar una descripción asombrosamente precisa de la manera como interaccionan los objetos tanto en la tierra como en los cielos. Los científicos pasaron a creer que el futuro de todo el universo podría ser contemplado con tan sólo que conociéramos la teoría adecuada y tuviéramos suficiente poder de cálculo. Después llegaron la incertidumbre cuántica, el espacio curvado, los quarks, las dimensiones adicionales, y el resultado de sus diversas contribuciones es 10500 universos, cada uno con leyes diferentes y sólo uno de los cuales corresponde al universo tal como lo conocemos. Puede que debamos abandonar la esperanza original de los físicos de descubrir una sola teoría que explique las leyes aparentes de nuestro universo como única consecuencia posible de unas pocas hipótesis sencillas. ¿A dónde nos conduce eso? Si la teoría M permite 10500 conjuntos de leyes aparentes, ¿cómo es que nos hallamos en ese universo, con las leyes aparentes que conocemos? Y ¿qué pasa con los otros posibles universos?