La inteligencia artificial ha convertido la energía en el nuevo cuello de botella tecnológico. Y ante ese límite, algunas de las empresas más grandes del mundo han empezado a mirar hacia arriba. Por poner algunos ejemplos, Jeff Bezos ha hablado de «cúmulos gigantes de IA que orbitarán el planeta» dentro de una o dos décadas. Google ha experimentado con la ejecución de cálculos de inteligencia artificial en satélites alimentados por energía solar. Nvidia respalda a las startups que quieren lanzar GPU al espacio. Incluso OpenAI ha considerado comprar una empresa de cohetes para asegurar su propio camino fuera de la Tierra.
La promesa es seductora: centros de datos solares funcionando las 24 horas del día, sin redes eléctricas ni torres de refrigeración. El problema es que, cuando pasas de la historia a la física, la ingeniería y los números, la idea empieza a desmoronarse.
Centros de datos en el espacio. Hay una pregunta que rodea este tema: ¿por qué las empresas tecnológicas quieren enviar centros de datos al espacio? La motivación a primera vista es clara. Según datos de la Agencia Internacional de la EnergíaEl consumo de electricidad de los centros de datos podría duplicarse para 2030, impulsado por la explosión de la IA generativa. Entrenar y ejecutar modelos como ChatGPT, Gemini o Claude requiere enormes cantidades de electricidad y enormes volúmenes de agua para enfriar. En muchos lugares, estos proyectos ya se topan con oposición local o límites de la red física.
En este contexto, el espacio aparece como una solución tentadora. En determinadas órbitas, los paneles solares pueden recibir luz casi constante, sin nubes ni ciclos nocturnos. Además, como explican Bezos y otros defensores, el vacío del espacio parece ofrecer un entorno ideal para disipar el calor sin recurrir a torres de refrigeración o millones de litros de agua dulce. Según este argumento, los centros de datos espaciales serían más eficientes, más sostenibles y, con el tiempo, incluso más baratos que los terrestres. Para algunos directivos, no se trataría de una excentricidad, sino de la «evolución natural» de una infraestructura que ya empezó con los satélites de comunicaciones.
Cuando los ingenieros levantan la mano. Ante el entusiasmo de las declaraciones corporativas, varios expertos en ingeniería espacial se han mostrado mucho más contundentes. En uno de los textos más citados sobre el temaun ex ingeniero de la NASA con un doctorado en electrónica espacial y experiencia directa en infraestructura de IA en Google resume su posición sin rodeos: «Es una idea terrible y no tiene ningún sentido».
Su crítica no es ideológica, sino técnica. Y empieza con el primer gran mito, la supuesta abundancia de energía en el espacio.
La energía solar no es mágica. El sistema solar más grande jamás desplegado fuera de la Tierra es la Estación Espacial Internacional. Según datos de la NASAsus paneles cubren unos 2.500 metros cuadrados y, en condiciones ideales, generan entre 84 y 120 kilovatios de energía, una parte de los cuales se utiliza para cargar baterías durante los períodos a la sombra. para ponerlo en contextouna sola GPU moderna para IA consume del orden de 700 vatios y, en la práctica, alrededor de 1 kilovatio si se tienen en cuenta las pérdidas y los sistemas auxiliares. Con esas cifras, una infraestructura del tamaño de la ISS apenas podría alimentar unos cientos de GPU.
Como explica este ingenieroun centro de datos moderno puede albergar decenas o cientos de miles de GPU. Para igualar esa capacidad sería necesario lanzar cientos de estructuras del tamaño (y complejidad) de la Estación Espacial Internacional. E incluso entonces, cada uno equivaldría a unos pocos bastidores de servidores terrestres. Además, la alternativa nuclear tampoco soluciona el problema ya que los generadores nucleares utilizados en el espacio, los RTG, producen entre 50 y 150 vatios. En otras palabras, ni siquiera lo suficiente para alimentar una sola GPU.
El espacio no es un refrigerador. El segundo gran argumento en contra de los centros de datos orbitales es el enfriamiento. Se repite frecuentemente que el espacio está frío, y que esto facilitaría la disipación del calor de los servidores. Según los ingenieros, esta es una de las ideas más engañosas de todo el debate.
En la Tierra, el enfriamiento se basa en la convección: el aire o el agua se llevan el calor. En el vacío del espacio la convección no existe. Todo el calor debe eliminarse mediante radiación, un proceso mucho menos eficiente que requiere superficies enormes. La propia NASA ofrece un ejemplo convincenteel sistema de control térmico activo de la Estación Espacial Internacional. Se trata de una red extremadamente compleja de circuitos de amoníaco, bombas, intercambiadores y radiadores gigantes. Y aun así, su capacidad de disipación es del orden de decenas de kilovatios. Según los cálculos del citado ingenieroEnfriar el calor generado por las GPU de alto rendimiento en el espacio requeriría radiadores incluso más grandes que los paneles solares que los alimentan. El resultado sería un satélite colosal, más grande y complejo que la ISS, para llevar a cabo una tarea que se resuelve de forma mucho más sencilla en la Tierra.
Y hay un tercer factor: la radiación. En órbita, los componentes electrónicos están expuestos a partículas cargadas que pueden provocar errores de bits, reinicios inesperados o daños permanentes a los chips. Aunque algunas pruebas, como las realizadas por Google con sus TPU, demuestran que determinados componentes pueden soportar dosis elevadas, los fallos no desaparecen, sólo se multiplican.
Los sistemas de blindaje reducen el riesgo, pero añaden masa. Y cada kilo extra aumenta el coste del lanzamiento. Además, el hardware de IA tiene una vida útil muy corta, ya que queda obsoleto en unos pocos años. En la Tierra es reemplazado; En el espacio, no. Como señalan los críticosun centro de datos orbital tendría que funcionar durante muchos años para amortizar su coste, pero lo haría con hardware que se deja atrás mucho antes.
Entonces ¿por qué siguen insistiendo? La respuesta parece residir menos en la ingeniería actual y más en la estrategia a largo plazo. Todos estos proyectos dependen de la condición de que los costos de lanzamiento bajen drásticamente. Algunas estimaciones hablan de umbrales de unos 200 dólares el kilo para que los centros de datos espaciales puedan competir económicamente con los terrestres. Ese escenario depende de cohetes totalmente reutilizables como Starship, que aún no han demostrado esa capacidad a escala operativa. Mientras tanto, la energía renovable terrestre sigue abaratándose y los sistemas de almacenamiento Mejoran año tras año.
Además, el relato del espacio cumple otra función porque posiciona a estas empresas como visionarias, atrae inversiones y refuerza la idea de que el futuro pasa inevitablemente por ellas. Al igual que ocurre con la energía solar espacial, una promesa que reaparece de vez en cuando desde hace décadas, la viabilidad siempre está «a 20 años de distancia».
Una muy buena idea sobre el papel. Nada de esto significa que no pueda haber usos específicos de la informática en órbita: experimentos, aplicaciones militares o tareas muy concretas. Pero, como coinciden las fuentes técnicas y las propias cifras de la NASA, pensar que la mayor parte de la infraestructura de IA del mundo terminará flotando alrededor de la Tierra es, hoy en día, más un ejercicio de imaginación que una solución realista.
Quizás la pregunta más importante no sea si podemos llevar centros de datos al espacio, sino por qué es más atractivo fantasear con ello que enfrentar los límites energéticos aquí abajo. Porque, al final, la inteligencia artificial puede mirar al cielo todo lo que quiera, pero sigue dependiendo de leyes físicas que no entienden de historias inspiradoras.
Imagen | freepik y desempaquetar
| Llevamos meses hablando teóricamente de centros de datos en el espacio. Una empresa ya tiene plan para montarla en 2027