Más allá de los modelos y las features, esta semana lo que más se ha movido en IA es el dinero: nueva empresa de OpenAI con $4B iniciales, ampliación de Meta de $1,5B a $10B en un data center, CapEx de Microsoft revisado a $190B anuales, y un giro grande del gobierno US sobre regulación. Repaso de quién está apostando cuánto y por qué.

OpenAI Deployment Company: $4B para meterse dentro de las empresas
OpenAI está creando una nueva compañía separada llamada OpenAI Deployment Company. La misión: acelerar la adopción de IA en empresas grandes mediante equipos de ingenieros embedded y servicios de consultoría. Backing inicial: más de $4.000 millones.
- Modelo de negocio: similar a McKinsey/Accenture pero específico para integraciones AI. Cobran por ingeniero/hora más fees fijos por proyecto.
- Equipos in-house: ingenieros de OpenAI trabajando dentro del cliente, no entregando demos remotas.
- Por qué ahora: las empresas tienen presupuesto AI pero no equipos para implementar. Es la mayor barrera para que ChatGPT Enterprise crezca más rápido.
- Competencia directa: Anthropic Solutions (su consultoría), Microsoft Consulting, las grandes 4 (Deloitte, EY, PwC, KPMG) que también construyen prácticas AI.
Lectura estratégica: OpenAI no quiere depender solo de la auto-suscripción al ChatGPT Enterprise. Quiere capturar el valor de integración que normalmente se llevan los consultores. Es la jugada inversa a «vender APIs y ya».
Meta: de $1,5B a $10B en un solo data center
Meta anunció que multiplica por casi 7 su inversión planeada en el data center de El Paso, Texas. Pasa de $1.500 millones a más de $10.000 millones, con expansión a 1 gigavatio de capacidad para el lanzamiento de 2028.
- 1 GW es comparable a lo que tiene xAI con Colossus 1 (300 MW) multiplicado por 3. Está en la liga de los hyperscalers serios.
- Por qué El Paso: clima seco (mejor cooling), conexión a la red eléctrica de Texas (ERCOT, independiente), incentivos fiscales estatales.
- El uso real: entrenamiento de Llama 5 y los siguientes modelos de Meta AI, además de la flota de agentes para Instagram/WhatsApp/FB.
- Empleo local: estimado de 200-300 empleos permanentes (poco para esa inversión, mucho para una ciudad fronteriza).
Microsoft: $190.000 millones de CapEx en 2026
Microsoft revisó al alza su guidance de inversión total de capital para 2026: ahora espera $190B en CapEx, con $25B adicionales directamente atribuibles al aumento de precios de memoria y almacenamiento por la demanda de infraestructura AI.
Algunos números para contexto:
- El CapEx anual de Microsoft pre-AI (2021) era de $24B. Hoy es ~8x eso.
- El gasto de Microsoft en 2026 supera el PIB anual completo de países como Eslovaquia o Croacia.
- Los chips H200 y GB200 de Nvidia + memoria HBM3e tienen quintuplicada su demanda en 18 meses, presionando los precios al alza.
- Microsoft, Google, Meta y Amazon juntos van a gastar ~$700B en CapEx en 2026, dos veces más que en 2024.
Esta carrera de infraestructura tiene un costo escondido: energía. Los data centers AI están comprando energía nuclear (Microsoft con Three Mile Island, Amazon con Talen Energy) porque el grid público no aguanta.
Anthropic: nuevos límites para Claude vía agentes terceros
Por el otro lado del balance: Anthropic está introduciendo restricciones y límites de crédito para suscriptores de Claude que usan herramientas agénticas de terceros. La razón explícita: los costos computacionales de los workflows autónomos están explotando.
Es un tira-y-afloja clásico: los users power-users del Claude Max usan tools como agent frameworks (LangChain, AutoGen, etc.) que multiplican las llamadas API por orden de magnitud. Anthropic ofrece esos planes a precio fijo, pero la realidad es que un 10% de users consume el 80% del cómputo. Los nuevos límites son la respuesta.
Regulación: el gobierno US dará «luz roja preventiva»
El cambio regulatorio más grande de la semana: el gobierno US dijo que evaluará los modelos frontier antes de que sean liberados al público. Es un giro radical de la política anterior (la administración Trump 2 dejó claro en su Executive Order de enero que el gobierno iba a estar hands-off con la IA).
- Microsoft, Google y xAI ya firmaron acuerdos voluntarios para someter sus modelos a pre-release safety evaluations.
- OpenAI y Anthropic todavía no han firmado pero se esperan en las próximas semanas.
- Modelo de UK AISI: el National Institute of Standards and Technology (NIST) hará las evaluaciones, similar al AI Safety Institute británico.
- Sin poder de veto formal — pero retrasos voluntarios si hay capabilities concerning.
Lectura: la administración cambió de «regular ralentiza, los chinos nos ganan» a «evaluar es responsable, los chinos también deberían evaluar». El detonante probable: algún incidente interno que aún no es público, dado el cambio rotundo de tono.
Lo que esto significa
Tres patrones convergen esta semana:
- El dinero ya no se gasta en research, se gasta en hierro. La carrera es de gigavatios, no de papers.
- El modelo de negocio AI se está bifurcando: API + consultoría (OpenAI/Anthropic), agentes verticales (Claude Security, Gemini para Android), e infraestructura (Microsoft + Meta + Amazon).
- La regulación vuelve sin volverse política partidaria: incluso una administración pro-mercado decidió que cierta supervisión vale la pena.
Si tienes un proyecto que depende de un modelo de IA, esta semana es buen momento para preguntarse: ¿tengo plan B si mi proveedor sube precios un 50% por costos de cómputo? ¿Tengo redundancia entre proveedores? La consolidación viene, y el precio de la dependencia única va a subir.
