OpenAI tiró la bomba: su primer modelo open source en 7 años llegó y está con madre
OpenAI lanzó gpt-oss con 120B parámetros bajo licencia Apache 2.0. Google y China no se quedaron atrás. Así fue la semana más intensa de la IA en 2026.
Al Chile Team
Al Chile Tech
Siete años. Eso tardó OpenAI en soltar un modelo open source de verdad. Y cuando finalmente lo hizo, no fue con algo mediocre para quedar bien con la comunidad, sino con un modelo que le pone competencia directa a sus propias herramientas de paga. Esta semana fue, sin exagerar, una de las más densas que ha vivido el mundo de la IA. Agárrate.
OpenAI lanzó gpt-oss y ya era hora
El 3 de marzo de 2026, OpenAI publicó en Hugging Face dos modelos open weight bajo licencia Apache 2.0: gpt-oss-120b y gpt-oss-20b. Sin restricciones raras, sin licencias corporativas, sin el “puedes usarlo pero no para negocio”. Apache 2.0 es tan libre como puede ser.
Los números del gpt-oss-120b son para no creerse:
- 117 mil millones de parámetros totales con arquitectura Mixture of Experts (MoE) — activa solo 5.1B por token, por eso no explota tu hardware
- Corre en una sola GPU de 80 GB (sí, un H100 o similar)
- Supera a o3-mini de OpenAI en razonamiento, coding y matemáticas
- Iguala o le gana a o4-mini en Codeforces, AIME 2024/2025 y HealthBench
- Lo entrenaron con una mezcla de reinforcement learning y técnicas de sus modelos frontier (o3, o4)
El gpt-oss-20b es la versión más ligera (21B parámetros totales, activa 3.6B por token), pensada para quienes no tienen un servidor con GPU de 80 GB durmiendo en su clóset.
¿Por qué lo soltaron ahora? La neta, la presión de Meta con Llama, de Mistral, de los chinos con DeepSeek y ahora Kimi, se fue haciendo insostenible. Si OpenAI no entraba al juego open source, el ecosistema se iba a ir construyendo sin ellos. Ya lo puedes descargar desde Hugging Face o correrlo directo en LM Studio si tienes el hardware.
Google no se quedó sentado
Mientras todos volteaban a ver a OpenAI, Google le jaló la manga con Gemini 3.1 Pro. El dato más impresionante: 2 millones de tokens de contexto. Para que te dé una idea de la escala, eso es aproximadamente 1,500 páginas de texto que el modelo puede leer y procesar de una sola sentada.
En benchmarks de razonamiento ARC-AGI-2 sacó 77.1%, lo que lo pone en territorio serio para tareas complejas. No es el mismo Gemini mediocre de hace dos años. Según reportó Javadex en su resumen semanal de IA, este fue uno de los lanzamientos más comentados de la primera semana de marzo, junto con gpt-oss.
China con todo: Kimi K2.5 y sus 1,000 millones de millones de parámetros
No mames, un billón de parámetros. Moonshot AI de China soltó Kimi K2.5, que en pruebas SWE-bench —donde los modelos resuelven bugs reales de software— igualó a Claude Sonnet. Para ser un modelo que la mayoría de la gente fuera de China ni conoce, ese resultado es una advertencia seria.
La guerra de modelos ya no es solo entre OpenAI, Google y Anthropic. China está en serio, con DeepSeek, con Kimi, con Qwen. Y no están pidiendo permiso.
El contexto que nadie te está contando
Mientras se pelean por quién tiene el modelo más chingón, el dinero está fluyendo a niveles que dan vértigo. Según lo reportado esta semana:
- OpenAI cerró una ronda de $110 mil millones, con valuación de $840 mil millones. Para contexto: eso es más del doble del PIB de Ecuador.
- Google comprometió $185 mil millones en infraestructura de IA para el período 2026-2028.
- El protocolo MCP (Model Context Protocol) ya superó los 3,000 servidores publicados y fue adoptado oficialmente por OpenAI, Google, Microsoft y Amazon. Básicamente se está convirtiendo en el estándar para conectar agentes de IA con herramientas externas.
¿Y México en todo esto?
La neta, bien atrás en términos de producción de modelos, pero no está dormido. La supercomputadora Coatlicue, que arrancó construcción en enero de 2026, va a tener 14,480 GPUs y alcanzará 314 mil billones de operaciones por segundo — siete veces más poderosa que cualquier supercomputadora en América Latina. La inversión es de 6,000 millones de pesos y se espera que esté lista hacia finales de 2027. Cuando esté operando, México va a poder correr modelos como gpt-oss sin depender de servidores de otro país. Soberanía digital, le llaman.
Mientras tanto, si quieres experimentar con gpt-oss-120b sin tener hardware propio, ya está disponible a través de la API de OpenAI (consulta precios en developers.openai.com) y en Google Cloud Vertex AI, por si tu empresa ya tiene infraestructura ahí.
¿Vale la pena bajarte gpt-oss?
Si tienes acceso a una GPU de 80 GB o rentas cómputo en la nube: a huevo que sí. La licencia Apache 2.0 significa que puedes usarlo en productos comerciales sin pedirle permiso a nadie. Para startups mexicanas y latinoamericanas que no quieren pagar licencias de API mes a mes, esto es un cambiazo.
Si solo tienes una GPU de gama media en tu PC gamer: espérate al gpt-oss-20b con cuantización. La comunidad ya está trabajando en versiones GGUF para correrlo en hardware más modesto.
¿Tú ya lo bajaste o vas a esperar a que alguien haga un Colab? Cuéntanos en los comentarios.