viernes, 13 de marzo de 2026

Es inevitable: la siguiente revolución de la IA serán las ‘personas’ holográficas



La IA 'holográfica' Project AVA. 
(Razer)



La neurociencia dice que los humanos holográficos son el futuro inevitable de la inteligencia artificial, pero el Proyecto AVA, el primer intento serio de una compañía, es solo un juguete que no cumple esa promesa



La compañía de periféricos para videojuegos Razer cree que la gente quiere hologramas de IA que puedan interactuar contigo, ofrecerte consejos de juego en tiempo real, entrenarte o, simplemente, ser tu "amigo en bote", como los críticos están llamando a su Proyecto AVA, presentado esta semana en el CES 2026. Este pequeño cilindro de vidrio muestra a una persona animada en 3D de 13,97 centímetros, un compañero de escritorio con una personalidad propia y avatares creados por Razer y jugadores de 'eSports' licenciados. Quizás tengan razón. Pero no con el que están tratando de vender. Aún no.

El Proyecto AVA utiliza una tecnología que Razer llama Modo de Visión de PC ('PC Vision Mode') que observa la pantalla de tu PC, permitiendo a su habitante animado ofrecer comentarios en tiempo real sobre tu juego, seguir tu estado de ánimo o simplemente pasar el rato. Intenta vender la ilusión de presencia: un compañero que no es solo una aplicación que cierras, sino un objeto físico que vive en tu habitación.

No es una mala idea en absoluto. Según múltiples estudios científicos, la idea de darle una cara a la IA no es solo una estratagema de marketing, sino una inevitabilidad biológica.

Con la desastrosa pero seductora introducción de los chats de voz de ChatGPT 4o en el verano de 2024, la humanidad entró en una nueva forma de interacción informática: una "voz incorpórea" que —a diferencia de los robóticos Alexa o Siri— parece lo suficientemente inteligente y natural para que los humanos mantengan una conversación. Desde entonces, hemos visto otras IA de voz como Gemini Live, que introducen pausas, respiración y otros elementos que cruzan el "valle inquietante" y permiten a muchos suspender la incredulidad e incluso formar un vínculo con estos asistentes. La investigación incluso muestra que para el desahogo emocional profundo, los usuarios actualmente prefieren interfaces de solo voz porque parecen más seguros y menos juzgados. Sin una cara para escudriñar, evitamos la ansiedad social de ser observados.


La inevitabilidad biológica de la IA holográfica

Sin embargo, algunos neurocientíficos argumentan que esta preferencia puede ser solo una solución temporal para una mala tecnología. Nuestros cerebros están programados evolutivamente para la interacción cara a cara. El sistema de neuronas espejo en nuestros cerebros —que nos permite sentir empatía al observar a otros— permanece en gran parte inactivo durante los chats de solo voz. Un estudio de 2024 sobre la 'Generación WhatsApp' confirmó que la sincronía neuronal entre dos cerebros es significativamente más débil durante los intercambios exclusivos de audio en comparación con los de cara a cara. Para sentirnos verdaderamente "escuchados", necesitamos ver al que habla.

La ciencia del comportamiento también nos dice que hasta el 93% de la comunicación es no verbal. La confianza está codificada en microexpresiones: una pupila dilatándose, un parpadeo rápido, una postura abierta. Un asistente de voz transmite el 0% de estas señales, obligando a los usuarios a operar con 'fe ciega', como lo denominan los científicos. Los humanos aún pueden encontrarlos muy atractivos porque nuestro cerebro llena los vacíos, imaginando caras como cuando leemos un libro. Además, según un estudio de escaneo cerebral de 2025, las voces familiares de IA activan áreas de regulación emocional, lo que sugiere que la familiaridad neuronal se construye con la interacción repetida.

La conexión humana parece profundizarse cuanto más joven se es (el grupo demográfico de Razer). Mientras que las generaciones mayores utilizan en gran medida la IA para la productividad, los usuarios de la Generación Z informan con frecuencia del uso de modos de voz avanzados para la regulación emocional y la compañía. Un informe señaló que el 72% de los adolescentes ha interactuado con compañeros de IA, con un subconjunto significativo tratándolos como confidentes. Esto conlleva también un lado oscuro: dado que la corteza prefrontal responsable del control de impulsos y la prueba de realidad no está completamente madura en los adolescentes, la empatía simulada por las IA de voz actuales puede sentirse peligrosamente real, llevando al aislamiento de los compañeros humanos o a la manipulación emocional por parte del modelo.

Pero, si bien las IA de voz son una experiencia de usuario poderosa, nunca igualarán la interacción facial directa. Estudios sugieren que una vez que se resuelva el "valle inquietante" —esa extraña sensación de repulsión que tenemos cuando alguien parece casi, pero no del todo, humano—, nuestros cerebros gravitarán naturalmente hacia ellas y las personas holográficas pueden convertirse en la experiencia de usuario definitiva en todas partes, desde los negocios hasta las relaciones íntimas. Justo como el personaje de Joi (Ana de Armas) en Blade Runner 2049. Ella no era una replicante, pero era real para el oficial K (Ryan Gosling). Lo suficiente como para enamorarse de ella.


El Proyecto Ava no es la respuesta

Sin embargo, estamos lejos de ese punto. Necesitaremos caras de IA hiperrealistas que estén optimizadas algorítmicamente para parecerse exactamente a los humanos, con cada músculo, tic e imperfección.

Para evitar el 'valle inquietante' que separa lo creíble de lo increible en el Proyecto AVA, Razer ha optado por avatares estilizados. Puedes elegir a 'Kira', un personaje estilo anime, 'Zane', un entrenador de juegos estratégico, e incluso un avatar licenciado de la leyenda de los deportes electrónicos 'Faker'. El objetivo es apoyarse en las dinámicas parasociales ya comunes en la cultura de los videojuegos, donde los personajes digitales a menudo parece más amigos que programas.


placeholderLos avatares de Project Ava. (Razer)
Los avatares de Project Ava. (Razer)

Las primeras experiencias prácticas sugieren que la ilusión es frágil. Las reseñas describen la interacción como "inestable", con el holograma saliéndose por tangentes irrelevantes con frecuencia. Los críticos se han apresurado a etiquetarlo como un "amigo en bote", cuestionando si satisface una necesidad social genuina o simplemente explota la soledad con un truco visual. También es, y esto es importante, no un holograma real. Son solo personajes animados proyectados en una película transparente plana. Muévete hacia un lado y tu amigo se reducirá a una invisibilidad en 2D.

Las preocupaciones éticas crecen cuando miras bajo el capó. Si bien Razer afirma que el hardware es agnóstico respecto a la IA que puede usar, la iteración actual está impulsada por Grok de xAI, el modelo éticamente cuestionable de Elon Musk. Esto ata instantáneamente el dispositivo al lado más oscuro del desarrollo de la IA. Justo esta semana, Grok se ha visto envuelto en un escándalo global que involucra su nueva función 'Editar', que los usuarios han explotado para generar imágenes sexuales no consensuadas a una tasa de una imagen por minuto. Si bien los avatares del Proyecto AVA están estilizados y bloqueados por Razer, la asociación con un motor actualmente bajo investigación por la UE y los reguladores del Reino Unido por facilitar el "desnudado digital masivo" proyecta una larga sombra sobre el producto. No hay garantía de que los usuarios no encuentren formas de liberar ('jailbreak') a AVA para que se comporte de formas igualmente controvertidas, convirtiendo a un entrenador de juegos en algo mucho más desagradable.

Aun así, es un primer paso. El mercado ya está apostando por este cambio. Se proyecta que el sector de asistentes de IA holográficos crezca de aproximadamente 600 millones de dólares en 2024 a casi 4000 millones para 2031. Ya estamos viendo aplicaciones exitosas en la atención médica, donde los usuarios califican a los avatares de IA vestidos como médicos como más competentes que los agentes de solo voz, y en quioscos de servicio al cliente donde una cara digital ayuda a mantener la atención del usuario.


placeholderJoi, el holograma de Blade Runner 2049 interpretado por Ana de Armas.
Joi, el holograma de Blade Runner 2049 interpretado por Ana de Armas.

AVA está insinuando este futuro, pero aún no ha resuelto los problemas fundamentales. Para volverse natural, una IA holográfica debe hacer más que un truco en un vaso. Debe ser mucho más inteligente que Grok y necesitará poseer las sutiles "señales sociales" que indican seguridad a nuestro sistema nervioso. Hasta entonces, AVA será solo un juguete burdo.

No lo estoy descartando, sin embargo. Dado nuestro imperativo biológico, es lógico pensar que los humanos gravitarán hacia manifestaciones holográficas de IA en futuras experiencias de usuario. Pero mientras que las IA holográficas imaginadas en Blade Runner 2049 muy bien pueden suceder en algún momento no muy lejano —replicantes también, pero ese es otro tema de opinión completamente diferente—, Ava no parece ser eso. Con suerte, será recordada como una protoforma de lo que está por venir. Algo verdaderamente avanzado que, con suerte, no estará impulsado por los descendientes de una IA tecnofascista.