:format(jpg)/f.elconfidencial.com%2Foriginal%2F282%2F210%2F5d9%2F2822105d9fdcca1e0017a9593b9be2e8.jpg)
Imagen promocional de GPT-5. (OpenAI)
OpenAI ha presentado GPT-5, su modelo de IA más avanzado hasta la fecha. A grandes rasgos, es más inteligente, rápido y razona mejor que sus antecesores. Sin embargo, aún está muy lejos de la idea que su CEO nos vendió
OpenAI ha presentado este jueves GPT-5, su nuevo modelo de inteligencia artificial, y aunque sobre el papel representa una evolución clara (es más rápido, más inteligente y más razonador), lo que más llama la atención no es el modelo en sí, sino la promesa que lo precedía. Durante meses, Sam Altman, CEO de la compañía, alimentó las expectativas comparando esta tecnología con el "Proyecto Manhattan", habló de una supuesta "proto-AGI" (una inteligencia artificial general mucho más similar a la humana) en estado embrionario y llegó a confesar que, al probarlo, se había sentido "inútil". Pero, ¿es esto realmente el salto cualitativo que nos vendieron?
GPT-5 es, según la compañía, un modelo más robusto y fiable que sus predecesores. Produce menos alucinaciones, responde con mayor precisión y adapta su lenguaje al contexto del usuario. Lo hace, además, con una nueva arquitectura que unifica toda la experiencia ChatGPT en un solo sistema, sin que el usuario tenga que elegir entre versiones o modelos. Otra de las grandes bazas es su comportamiento más proactivo en salud y asistencia. GPT-5 no reemplaza a un médico, pero interpreta resultados e identifica dudas relevantes. Además, mejora la escritura creativa, trabaja con una nueva ventana de contexto de 256.000 tokens y responde con más naturalidad emocional, lo que mejora considerablemente el modo de voz.
En cuanto a la programación, uno de los terrenos donde OpenAI había quedado rezagado respecto a sus rivales, el nuevo modelo pisa fuerte. GPT-5 es su mejor sistema para generar código hasta la fecha. Y lo demuestran sus resultados en benchmarks como SWE-Bench o Aider Polyglot. Puede crear sitios web desde cero con apenas unas indicaciones, diseñar aplicaciones, juegos interactivos o depurar código en grandes repositorios sin perder precisión. No sólo ejecuta, también explica qué hace y por qué lo hace. A ojos de un desarrollador, esto lo convierte en algo más parecido a un asistente real que a una simple herramienta.
La apuesta en este frente no es casual. OpenAI quiere cerrar la brecha con Anthropic, una startup que nació precisamente de una escisión dentro de OpenAI en 2021, cuando varios investigadores (incluidos los hermanos Dario y Daniela Amodei) abandonaron la empresa por diferencias en torno a la dirección y la seguridad de la IA. Desde entonces, la tensión entre ambas ha ido in crescendo. Durante más de un año, OpenAI ha estado mirando cómo Anthropic le adelantaba por la derecha con su modelo Claude, que se ha convertido en el preferido de los desarrolladores, y ya domina herramientas como Cursor, GitHub Copilot, Augment y otras que ya utilizan miles de empresas en todo el mundo. Ilustra bien esta tendencia el intento fallido de OpenAI de comprar Windsurf, una startup que ofrece un asistente de IA centrado en la programación, por 3.000 millones de dólares. En un giro sorprendente de los acontecimientos, Google DeepMind acabó fichando al CEO de Windsurf, Varun Mohan, y a algunos de los principales investigadores de la empresa.
El contexto tampoco jugaba a favor de la empresa californiana. Anthropic acaba de cortar esta semana el acceso a sus APIs tras descubrir que OpenAI usaba Claude para testear sus propios modelos. Básicamente, Anthropic consideró que esa práctica violaba sus términos de servicio y cortó el grifo. "Claude Code se ha convertido en la opción preferida de los programadores en todas partes, por lo que no nos sorprendió saber que el personal de OpenAI también estaba usando nuestras herramientas antes del lanzamiento de GPT-5", declaró Christopher Nulty, portavoz de Anthropic.
Pero aunque hay razones para emocionarse con GPT-5 (el modelo promete en muchos frentes), el salto no es el que Altman nos vendió. Dos de los primeros testers del nuevo modelo declararon a Reuters que quedaron impresionados con su capacidad para programar y resolver problemas de ciencias y matemáticas, pero creen que el salto de GPT-4 a GPT-5 no es tan grande como el de GPT-3 a GPT-4. Que está lejos de esa idea de inteligencia casi humana que algunos dentro y fuera de OpenAI llevan años insinuando.
El desarrollo de GPT-5 tampoco ha sido sencillo. Altman reconoció públicamente que el lanzamiento tuvo que retrasarse varios meses porque no lograban integrar todos los componentes del modelo. También dijo que querían asegurarse de tener capacidad suficiente para lo que preveían sería una demanda "sin precedentes". Pero detrás de esos retrasos había más. Por un lado, OpenAI se encontró con el problema de los datos: ya no hay tantas fuentes nuevas, grandes y limpias para entrenar modelos de este tipo. Ilya Sutskever, el exdirector científico de la compañía, lo explicó así: "Podemos escalar en potencia, pero no en datos". Otro problema era que las "ejecuciones de entrenamiento" para modelos grandes son más propensas a presentar fallos inducidos por el hardware dada la complejidad del sistema, y los investigadores podrían no conocer el rendimiento final de los modelos hasta el final de la ejecución, lo que puede llevar meses.
El lanzamiento llega además en un momento en el que OpenAI está muy cerca de convertirse en la empresa no cotizada más valiosa del mundo, con una posible venta de acciones con una valoración de 500.000 millones de dólares, superando por primera vez a SpaceX. La cifra no es solo simbólica por lo que representa frente a otros gigantes 'tech'. También refleja el apetito de los inversores por entrar en una compañía que ya cuenta con 700 millones de usuarios activos semanales, más de 3.000 millones de mensajes generados cada día y previsiones de cerrar 2025 con 20.000 millones de dólares en ingresos anuales. Además, se encuentran en medio de una importante negociación con el Gobierno de Estados Unidos sobre la mesa para que las agencias federales usen sus modelos.
En definitiva, OpenAI ha hecho lo que tenía que hacer. Ha afinado su producto, ha reforzado su propuesta para empresas, y ha trabajado en ofrecer un modelo más potente y fiable. Siguen dando pasos, pero la inteligencia artificial general (la que piensa, decide y aprende como un humano) aún está lejos. GPT-5, a pesar del bombo, no es una AGI. No razona con intención, y sigue dependiendo de inputs concretos para operar. El hype, por ahora, sigue siendo eso: hype. Altman lo dejó caer hace unos días, aunque tal vez sin quererlo: "Creo que hay una carrera para llegar a algún lugar, pero la gente no se pone de acuerdo sobre adónde".