- El modelo chino de DeepSeek es más barato y cuestiona el monopolio de OpenAI...
- ...pero la china está muy lejos de competir cara a cara con la americana
- La ventaja competitiva no está en el modelo, sino en la capacidad de computación
La startup china DeepSeek ha desatado dudas en las bolsas, especialmente en Wall Street. La empresa ha sacado recientemente un modelo de lenguaje que no solo rivaliza con el de OpenAI, sino que es mucho más barato y en algunos aspectos más eficiente. Pese a ello, la asiática está muy lejos de competir cara a cara con la de Sam Altman o las grandes tecnológicas. Pero eso no ha impedido que los inversores hayan comenzado a recalibrar las valoraciones y a cuestionar el rally de la inteligencia artificial (IA). De hecho, Nvidia vive su peor sesión en cinco años, a falta del cierre.
Para empezar, hay que poner en contexto la dimensión de DeepSeek. Esta empresa china fue fundada en 2023 y OpenAI nació en 2015, por lo que ambas cuentan con un recorrido dispar. Pero mayor aún es la brecha económica entre ambas empresas. La dueña del modelo R1 ha recibido dos rondas de financiación. La primera, en junio de 2024 en fase semilla (seed, en jerga del capital riesgo) y, la segunda, este mismo mes, en fase temprana (early stage). Solo se conoce el importe de esta última, de 4,1 millones de dólares, según datos de la firma especializada en capital privado PitchBook. Solo la última ronda de la de ChatGPT fue de 6.500 millones de dólares. Es decir, si solo se tuviera en cuenta la última operación de financiación de cada una, la de OpenAI ha sido más de 1.500 veces más cuantiosa.
Hay otra diferencia evidente más y es que la firma de Sam Altman cuenta con el respaldo de las grandes tecnológicas, desde Microsoft a Nvidia, que están entre sus inversoras. Además, los grandes fondos y gestoras también están en el capital de la compañía. Mientras, la valoración total de DeepSeek es desconocida, pero lo que es seguro es que está muy lejos de los 157.000 millones de OpenAI, que solo rivaliza con SpaceX de Elon Musk o la dueña de TikTok, ByteDance. A eso se suma que la estadounidense cuenta con 3.000 empleados y sus ingresos han crecido un 212% en 2024 hasta los cinco millones de dólares, según PitchBook.
Aunque el modelo de lenguaje de DeepSeek planta cara al de OpenAI, los recursos que tienen una y otra son radicalmente distintos, como lo es el punto de maduración, la trayectoria o el posicionamiento de ambas compañías. Es cierto que eso es un arma de doble filo y por eso los inversores se están preguntando cómo es posible que David sea capaz de enfrentarse a Goliat. Sin embargo, la pregunta no es tan sencilla y hay muchos más aspectos que hay que tener en cuenta.
Uno de ellos es que R1 es un modelo de lenguaje de código abierto y o1 (la versión de OpenAI con la que se está comparando a la R1 de DeepSeek) es privado. Es decir, del funcionamiento de la primera, de cómo trabaja y de sus entrañas se pueden sacar conclusiones, de la segunda, no.
Es cierto que DeepSeek ha publicado sus resultados y en algunos aspectos R1 supera ligeramente a o1, pero no en todos. Es sorprendente que una empresa tan insignificante en comparación con OpenAI haya logrado esto, pero eso no significa que ambas compitan en la misma liga. La ventaja clara de la asiática es que su modelo es 27 veces más barato que el de la americana.
Además, el modelo chino también destaca en su estrategia. En términos técnicos, los dos modelos son razonadores, lo que quiere decir que simulan el razonamiento humano, especialmente cuando tienen que enfrentarse a problemas complejos. Son los modelos más avanzados respecto a sus anteriores versiones. Lo que hace bien DeepSeek es que extrae unos datos sintéticos de su modelo y con ello refina otros de sus modelos, más pequeños, algo que obtiene muy buenos resultados. Esta estrategia es eficiente y es una de las bazas de DeepSeek.
Sin embargo, la información es desigual, ya que se desconoce cómo trabajan las grandes tecnológicas en sus modelos de lenguaje y qué hacen específicamente. Pasa lo mismo con OpenAI: la trastienda está cerrada al público, lo que impide sacar algunas conclusiones y hacer ciertas comparaciones.
El divulgador especializado en IA, Carlos Santana, también conocido como DotCSV, explica que la firma china tiene un modelo razonador competente que permite plantear el escenario de que OpenAI no tiene un monopolio. Es decir, demuestra que es posible competir con la reina del mercado, aunque destaca que ni esta ni el resto de grandes tecnológicas enseñan sus cartas. Por tanto, puede que hagan cosas parecidas y que el público simplemente no lo sepa.
En todo caso, el hecho de que el modelo chino sea de código abierto despeja el camino para que cualquiera pueda recurrir a él, probar, copiar o mejorar su estrategia. Y en la posición de ventaja que están OpenAI y las grandes tecnológicas, la posibilidad de beneficiarse de los resultados de DeepSeek está al alcance de la mano. De nuevo, el hecho de que sea de código abierto es un arma de doble filo.
"[Las tecnológicas] aprovecharán estos avances compartidos en abierto para entrenar modelos aún más potentes llevando al máximo sus capacidades de computación", resume Santana en X. "Y eso hablando de entrenar, pero si hablamos de inferencia, ellos encantados de contar con mejores modelos que poder ejecutar en sus enormes centros de computación. Da igual si es made in China o made in California", matiza.
"Lo que pone DeepSeek sobre la mesa es que el entrenar modelos no es algo exclusivo de unas pocas empresas. Eso sí, el ejecutarlo aún dependerá de quien tenga la computación. Y ese es el moat del futuro", añade el divulgador. Con moat hace referencia a ventaja competitiva. La traducción al español es foso y es la forma que tiene Warren Bufett para referirse a las barreras que tienen algunas empresas, que dificultan o evitan que sus competidoras u otras firmas entren al mercado.
Lo que deja claro es que esa diferencia clave reside en la capacidad de computación y, difícilmente, DeepSeek puede competir en estos momentos con las grandes tecnológicas estadounidenses. Es más, que la china ponga sus cartas sobre la mesa beneficia especialmente a estas empresas, que tienen todos los recursos para seguir perfeccionando sus modelos. Y DeepSeek les ha dado material.
Por eso, el modelo de lenguaje R1 no cierra la brecha con las 'magníficas' de Wall Street ni con OpenAI. Por poner algunas cifras, Microsoft va a invertir 80.000 millones de dólares en inteligencia artificial e infraestructura este año y Meta desembolsará entre 60.000 y 65.000 millones de dólares, como anunció la semana pasada. OpenAI, Oracle y SoftBankvan a invertir 500.000 millones de dólares vía Stargate.
Reacción del mercado
Aunque la amenaza de DeepSeek sea muy relativa, los inversores han reaccionado de forma agresiva. Lo primero que se han cuestionado es si las cantidades ingentes de dinero que las grandes tecnológicas están destinando a IA son excesivas. La duda es si las perspectivas han sido demasiado optimistas y se ha generado una burbuja en el sector. También hay que tener en cuenta que las valoraciones de por sí ya eran elevadas y que hay más margen de corrección en esta industria.
Las firmas europeas, menos expuestas a la IA, han sorteado el golpe en bolsa y han moderado sus pérdidas al final de la negociación. El Nasdaq 100 sí está cayendo por encima del 3% y la reina del mercado, Nvidia, se desploma un 16%. Si confirma esa caída a cierre, será su peor sesión en cinco años, justo cuando el coronavirus se esparcía por el mundo.
"Aunque hoy están sonando las alarmas sobre las Siete Magníficas, esto podría volver a darse la vuelta. Todavía hay incertidumbre sobre DeepSeek, cuán segura o robusta es", apuntan los analistas de ING. Los mismos expertos apuntan que, pese a la envergadura del movimiento de hoy -se podrían borrar 1,2 billones de dólares de las bolsas mundiales, según Bloomberg-, "es un movimiento todavía algo modesto". Puede que estas acciones hayan aprovechado para corregir ciertos excesos, pero para que el daño se materialice, este todavía tiene que filtrarse a la economía real.