viernes, 19 de septiembre de 2025

China crea un nuevo modelo de IA que es 100 veces más rápido que los de EEUU




(Kohji Asakawa - Pixabay)



Investigadores chinos afirman haber desarrollado el primer modelo de IA inspirado en el cerebro humano que procesa datos 100 veces más rápido que los sistemas convencionales y funciona exclusivamente con chips locales



Un equipo del Instituto de Automatización de la Academia China de Ciencias en Pekín ha desarrollado SpikingBrain 1.0, un modelo de lenguaje de inteligencia artificial que imita el funcionamiento del cerebro humano al activar únicamente las neuronas necesarias para cada tarea. Esto significa que, en vez de movilizar toda su red neuronal como hace ChatGPT y otras IAs tradicionales, responde de forma selectiva al estímulo recibido, lo que reduce el consumo de energía y agiliza notablemente los tiempos de respuesta.

Gracias a ese diseño inspirado en la biología, SpikingBrain puede aprender a partir de apenas una porción diminuta de datos de entrenamiento —menos del 2% de lo que requieren los sistemas habituales— y sigue operando de manera rápida y eficiente aun cuando se enfrenta a textos muy extensos. En pruebas, llegó a funcionar hasta cien veces más rápido que modelos tradicionales, según un estudio técnico todavía no revisado por pares, publicado en arXiv del que se ha hecho eco el South China Morning Post.


Independiente de EEUU

Otro de los avances claves del SpikingBrain 1.0 radica en su independencia tecnológica de EEUU. Funciona íntegramente sobre el ecosistema de chips chinos, específicamente en la plataforma MetaX, lo que lo libera del yugo de Nvidia. Esto otorga al desarrollo un valor estratégico añadido en momentos en los que Estados Unidos endurece el control sobre las exportaciones de chips avanzados para IA.

Li Guoqi, investigador principal del instituto, asegura que el modelo “abre un nuevo camino para el desarrollo de la inteligencia artificial” y proporciona un marco optimizado para los chips chinos. Según Li, esta IA puede ser útil para procesar largas secuencias de información como documentos legales, historiales médicos o simulaciones científicas. Para democratizar el acceso, el equipo ha hecho pública una versión reducida y mantiene un modelo de mayor tamaño disponible para pruebas públicas.

“¡Hola! Soy SpikingBrain 1.0, o ‘Shunxi’, un modelo de IA inspirado en el cerebro humano”, dice el sistema en su página de demostración. “Combino la forma de procesar información del cerebro humano con un método de computación de impulsos, con el objetivo de ofrecer servicios de IA potentes, fiables y eficientes en el consumo de energía, construidos completamente con tecnología china”.


Requiere menos energía

Los modelos de lenguaje como ChatGPT requieren una enorme capacidad de computación, centros de datos repletos de chips de gama alta y grandes necesidades de refrigeración, lo que supone un consumo energético altísimo. Aun después del entrenamiento, estos sistemas siguen consumiendo muchos recursos, por lo que enfrentarse a textos largos o generar respuestas complejas puede ralentizarlos y forzar aún más la memoria, elevando los costes y la huella ambiental.

SpikingBrain es radicalmente diferente. Los investigadores aseguran que en vez de procesar toda la información de una vez, el sistema actúa solo cuando recibe un estímulo, lo que le permite ser más ligero y consumir mucha menos energía.

Dos versiones del SpikingBrain —una de 7.000 millones de parámetros y otra de 76.000 millones— demostraron, usando apenas una pequeña parte de los datos tradicionales (unos 150.000 millones de tokens), unos rendimientos comparables a los mejores modelos de código abierto. En una prueba, el modelo más pequeño fue capaz de responder a una entrada de 4 millones de tokens más de cien veces más rápido que los modelos de lenguaje estándar, funcionando de manera estable durante semanas con cientos de chips MetaX y consumiendo bastante menos energía.

“El resultado no solo demuestra la viabilidad de entrenar modelos grandes de manera eficiente sobre plataformas ajenas a Nvidia, sino que apunta a nuevas posibilidades para el despliegue y aplicación de sistemas inspirados en el cerebro en la computación del futuro”, concluyen los investigadores.