SpaceX, Starlink y la tesis del “data center orbital”: la IA ya no compite por modelos, compite por infraestructura
La historia que circula estos días es tentadora: SpaceX, la joya de la corona de Elon Musk estaría preparando su salida a bolsa en 2026; Starlink evolucionando de conectividad a computación; y Elon Musk insinuando que el futuro de la IA pasa por “ponerla en el espacio” para escapar del límite energético de la Tierra.
Lo primero, higiene informativa… A día de hoy, lo único que hay no es ni siquiera un folleto ni un rango de valoración, tan solo señales. Reuters ha informado de que SpaceX estaría preparando una IPO (salida a bolsa) en 2026 para levantar más de 25.000 millones de dólares, con una valoración potencial por encima de 1 billón. En ese mismo informe, Reuters también recoge un elemento que suele pesar más que cualquier rumor: una carta del CFO de SpaceX (Bret Johnsen) a accionistas en el contexto de una venta secundaria, donde afirma que están preparando la compañía para una “possible IPO” en 2026, pero subraya que si ocurre, cuándo ocurre y a qué valoración sigue siendo “altamente improbable”. Este matiz importa, porque buena parte del discurso que está circulando online presenta la operación como “confirmada” y con cifra cerrada. Esto, a día de hoy no es un hecho verificable. Lo único verificable es que el debate ha saltado del “si” a un “podría” razonablemente avanzado, con bancos ya en conversaciones según Reuters.
La IA se ha vuelto un problema de kilovatios
La obsesión de los últimos años fue chip más datos y talento. En 2025-2026, la conversación real en los comités de dirección (y en los comités de inversión) se ha desplazado a energía, red eléctrica, plazos de construcción, agua, y aceptación regulatoria/social de los centros de datos. Deloitte estima que la demanda eléctrica de data centers de IA en EEUU podría subir desde 4 GW en 2024 hasta 123 GW en 2035. Goldman Sachs Research, por su parte, proyecta que la demanda global de electricidad de data centers podría aumentar hasta +165% para 2030 frente a 2023. Y el Departamento de Energía (DOE) de EEUU sitúa el consumo de data centers en un 4,4% de la electricidad total del país en 2023, con proyecciones del 6,7% al 12% para 2028. Cuando juntas estas curvas, ocurre lo inevitable: el cuello de botella deja de ser “el modelo” y pasa a ser la infraestructura que alimenta al modelo. Ahí es donde aparece la idea del “compute fuera de la Tierra”: no como un capricho futurista de Elon Musk (que también), sino como reacción a límites que, en tierra, se resuelven con tiempo, permisos, deuda… y problema político. La comparación más útil no es con Marte, es con el real estate: un data center hoy es un activo industrial regulado, intensivo en CAPEX y dependiente de acuerdos de conexión a red, y cuando esa lógica aprieta, alguien siempre intenta “cambiar el tablero”.
El caso Oracle es un buen ejemplo de una industria que quema caja para construir capacidad: Según Yahoo Finanzas se ha reportado que Oracle tuvo un trimestre con un CAPEX alrededor de 12.000 millones y free cash flow de alrededor de 10.000 millones. Reuters también ha descrito el contexto de “cash burn” asociado a la carrera por infraestructura de IA y el impacto en valoración cuando el guidance no acompaña. Y esto no es un juicio moral, es contabilidad. El problema para muchos players es que el retorno tarda, el riesgo de ejecución es alto y el coste del dinero no siempre perdona. Si alguien consigue una narrativa creíble de “CAPEX con ventaja estructural”, el mercado lo escucha y SpaceX, por construcción, sabe vender “ventaja estructural”.
La tesis orbital: existe interés industrial, pero el salto a gran escala está lleno de física y de costes
Aquí conviene separar dos conceptos. Por un lado, el compute en órbita como edge para casos espaciales (observación, defensa, comunicaciones). Esto ya existe como dirección de mercado y ya hay proyectos y pilotos anunciados por la industria. Por otro, el compute en órbita como sustituto masivo de data centers terrestres (entrenamiento e inferencia a escala “de civilización”)… esto ya es otra liga. Sobre el segundo punto, según un reportaje de The Wall Street Journal, Blue Origin estaría ya trabajando en tecnologías de data centers orbitales, y SpaceX estaría actualizando Starlink para acomodar “AI computing payloads”. Pero es que hay una segunda señal más contundente: la carta del CFO de SpaceX mencionada antes incluye explícitamente “deploy artificial intelligence (AI) data centers in space” como uno de los usos previstos del capital. Eso no prueba ninguna viabilidad técnica o económica a gran escala, pero sí eleva el tema del terreno “hilo viral” al terreno “intención corporativa”. Ahora bien: intención no es ingeniería, y aquí es donde el discurso de redes suele simplificarse.
Una parte de la narrativa se apoya en la idea de “solar 24/7, sin baterías, sin nubes”. Eso puede sonar intuitivo, pero en satélites tipo LEO (*) o de órbita baja, hay eclipses de forma regular: según el Servidor de Informes Técnicos de NASA sobre perfiles LEO describe fases de eclipse del orden de ~35 minutos por órbita en escenarios típicos. Y el otro punto crítico es térmico: en el espacio no hay convección, el calor se evacua mayormente por radiación, lo que obliga a diseñar superficies radiantes y control térmico muy específico. La NASA lo explica de forma directa en su material de referencia sobre thermal control para smallsats. En otras palabras: “en el espacio hace frío” no significa que “el data center se refrigera solo”, sino que “la disipación es un problema de diseño” y a gran escala un problema de masa, área y fiabilidad. Si a esto le sumas radiación, tolerancia a fallos y logística de mantenimiento, el concepto “data center orbital” se convierte en un programa industrial que compite en complejidad con cualquier infraestructura crítica terrestre.
Starlink ya es una infraestructura global, y su roadmap de capacidad está publicado y aunque el salto a “malla de computación IA” esté lleno de incógnitas, Starlink sí tiene una realidad verificable: es una red con escala y con un roadmap agresivo de capacidad. Según Space (citando a Jonathan McDowell, que rastrea la constelación), a 30 de octubre de 2025 había 8.811 satélites Starlink en órbita y 8.795 “working”. Reuters, en su cobertura financiera, habla de alrededor de 10.000 satélites lanzados y de un negocio Starlink que empuja el crecimiento de ingresos de SpaceX en 2025. Lo más importante para entender el “por qué ahora” es que SpaceX publica que cada lanzamiento de satélites de tercera generación en Starship podría añadir 60 Tbps de capacidad a la red; esto no es “compute IA”, pero sí es el tipo de cifra que convierte una constelación en rail de infraestructura: capacidad más despliegue repetible. En paralelo, Starlink opera en más de 150 mercados y ronda los 8 millones de usuarios. Cuando una red tiene base instalada, cobertura y roadmap de throughput, el resto del ecosistema empieza a mirarla no como “conectividad exótica”, sino como capa estratégica.
La publicidad también es un negocio de infraestructura
Aquí viene la parte que afecta a nuestro sector: la publicidad digital lleva años viviendo como si la computación fuese infinita y la conectividad una commodity. Eso era cierto cuando el problema era optimizar CPMs y atribución, pero con la IA (y especialmente con automatización agentic, medición más pesada y creatividades generativas), el stack publicitario empieza a parecerse más a un stack industrial: intensivo en cómputo, dependiente de energía y con latencias que importan. Si el mundo entra en un escenario de compute caro o limitado por energía, el poder se desplaza al que controle tres cosas: generación (o acceso privilegiado a energía), capacidad de despliegue de infraestructura, y rail de conectividad. A partir de ahí, el riesgo no es “que falte la IA”, sino el riesgo es que el acceso a la IA y a las capas necesarias para operarla se convierta en negociación oligopolística y, cuando una industria se construye sobre un pequeño número de infraestructuras críticas, pasan dos cosas que en publicidad conocemos de memoria: aparecen peajes y se reduce la transparencia real, aunque el discurso hable de eficiencia. No creo que sea bueno que gran parte de la IA dependa de una única infraestructura y ojo que esto no es alarmismo, es un análisis de dependencias y el sector publicitario por historial, no es precisamente bueno gestionando dependencias: normalmente las descubre cuando ya no puede cambiar de proveedor sin romper el negocio.
El factor riesgo: congestión orbital y “operar” miles de activos en un entorno cada vez más hostil. A la discusión de energía y compute hay que añadir una más: sostenibilidad operacional del propio entorno orbital. Estos días, The Verge y Space.com han cubierto un “near-miss” reportado entre un satélite chino y uno de Starlink a unos 200 metros, y citan cifras de maniobras de evitación en 2025 del orden de 145.000 en el primer semestre. Más allá del detalle puntual, el mensaje es estructural: operar constelaciones masivas en LEO no es “lanzar y olvidarse”; es gestión de tráfico en un espacio cada vez más congestionado. Si alguien pretende que esa misma capa sea, además, capa crítica de computación, el problema deja de ser tecnológico y pasa a ser de resiliencia sistémica. Por esto, para separar visión de ingeniería, yo vigilaría cinco tipos de señales: acuerdos comerciales explícitos (no declaraciones), demostraciones técnicas repetibles, especificaciones públicas de payloads y arquitectura térmica/energética, evidencia de cadena de suministro para hardware tolerante a radiación, y, muy especialmente, señales regulatorias sobre soberanía de datos, seguridad y gestión de tráfico orbital. La tesis orbital solo “existe” cuando estas piezas aparecen fuera del storytelling.
Conclusión: puede que la IA “mire al espacio”, pero el verdadero cambio es que el poder vuelve a la infraestructura. Lo más revelador de este debate no es si en 5 años habrá data centers masivos en órbita. Esto, ahora mismo solo podemos imaginarlo, pero lo relevante es que la industria ya asume que el límite de la IA no es el modelo sino la infraestructura física que lo sostiene. Si SpaceX consigue posicionar Starlink (y su capacidad de despliegue) como un rail híbrido de conectividad más capacidad computacional, el impacto no será “tecnológico” será de mercado: concentración de poder, nuevas dependencias, y una renegociación silenciosa de quién pone las reglas del juego y en publicidad, cuando cambian las reglas del juego, rara vez te avisan con antelación.
(*) LEO (Low Earth Orbit o Órbita Terrestre Baja) se refiere a una región orbital cercana a la Tierra, entre 180 y 2,000 km de altitud, donde orbitan satélites que proporcionan servicios de internet de alta velocidad y observación terrestre con baja latencia (retraso mínimo) gracias a su proximidad, a diferencia de los satélites geoestacionarios (GEO) más lejanos. Estos satélites, como los de las constelaciones de Starlink o OneWeb, orbitan muy rápido (90-120 min por órbita) y requieren grandes grupos (constelaciones) para una cobertura global constante.
Puntos clave:
Reuters y una carta del CFO sitúan una posible salida a bolsa de SpaceX en 2026, con términos y valoración aún “highly uncertain”.
El motor de la narrativa es real: la IA está chocando con el límite energético e infraestructural (Deloitte: hasta 123 GW en 2035 en EE. UU.; Goldman: hasta +165% de demanda global de data centers hacia 2030).
La idea de “data center orbital” tiene intención y ruido a la vez: SpaceX menciona “AI data centers in space”, pero la escala masiva tropieza con eclipses en LEO y con la complejidad de disipar calor por radiación.
Este resumen lo ha creado una herramienta de IA basándose en el texto del artículo, y ha sido chequeado por un editor de PROGRAMMATIC SPAIN.
