domingo, 11 de agosto de 2024

OpenAI advierte de que podrías enamorarte del nuevo modo de voz de ChatGPT



Un usuario interactúa con la 'app' Replika (Reuters)



Tras analizar los riesgos potenciales de su modelo ChatGPT-4o, la compañía ha concluido que los seres humanos se enfrentan a muchos peligros, desde la persuasión hasta las armas químicas




No, no es broma: podrías ser emocionalmente dependiente de una voz "coqueta" generada por inteligencia artificial. Así lo ha revelado el documento técnico de GPT-4o, System Card, en referencia a los riesgos asociados con el nuevo modo de voz de su inteligencia artificial. Una de las principales preocupaciones de la compañía es la tendencia de los usuarios a antropomorfizar el chatbot, es decir, a atribuirle características humanas. No es nada extraño, dado que son muchas las empresas y desarrolladores que ofrecen servicios de IA que imitan la realidad, como ocurre con Replika.

Tras jugar al despiste e intentar clonar presuntamente la voz de Scarlett Johansson, ahora OpenAI ha dado un giro de 180 grados, reconociendo un riesgo en esta asimilación. Pero, ¿cómo han llegado a esta conclusión? Durante las pruebas iniciales, se observó que algunos usuarios comenzaban a formar conexiones emocionales con su modelo de IA. Un caso destacado fue el de un usuario que, al finalizar su interacción, expresó una despedida emocional diciendo: “Este es nuestro último día juntos”, una afirmación cargada de sentimentalismo. OpenAI teme que este tipo de vínculos puedan intensificarse con el tiempo.

La posibilidad de que el modo de voz capaz de modular el habla y expresar emociones de manera similar a un ser humano pueda fomentar un apego emocional, ha generado preocupación sobre su impacto en las relaciones humanas. Si no, que se lo digan a Scarlett Johansson, quien se planteaba tomar acciones legales contra ellos por supuestamente haber clonado su voz para la versión parlante de ChatGPT. OpenAI señaló que, aunque esto podría ofrecer compañía a personas solitarias, también podría perjudicar las relaciones saludables al interferir con las interacciones sociales tradicionales.

Otro aspecto que la empresa que dirige Sam Altman destacó es cómo las interacciones prolongadas con la IA podrían alterar las normas sociales. Por ejemplo, los usuarios de ChatGPT pueden interrumpir al chatbot en cualquier momento, lo que, si se trasladara a las interacciones humanas, sería considerado un comportamiento inadecuado. ¿Empezarán a interrumpirnos también ellos?

Además, OpenAI mencionó que los vínculos emocionales con la IA podrían aumentar la capacidad persuasiva del modelo, es decir, que si un chatbot incitara a realizar una acción, el usuario lo hiciera siguiendo más su corazón que su cabeza. Aunque actualmente no se considere que el nivel de persuasión de la IA sea alarmante, existe la preocupación de que esto pueda cambiar si los usuarios comienzan a depositar demasiada confianza en ella.


placeholderPantallazo de la app de Replika
Pantallazo de la app de Replika

Yendo aún más lejos, en la nueva ficha del sistema también se designan los prejuicios sociales, la desinformación y la contribución al desarrollo de armas químicas o biológicas como riesgos de ChatGPT-4o, aunque en menor medida. Al final, si una IA puede 'alucinar' y proporcionar información falsa, o confusa, e interpretar las emociones de un usuario, o incluso imitar su voz, los efectos emocionales en una persona que emplee el sistema pueden distar enormemente de lo que se espera.

Son muchos los que advierten de los peligros de la IA. De hecho, el anuncio llega en un momento en el que Sam Altman ha sido denunciado por Elon Musk por lucrarse con una inteligencia artificial que fue concebida "para el beneficio de la humanidad". Asimismo, su empresa ya fue acusada por varias personas, trabajadores incluidos, por tomar riesgos innecesarios en su intento de hacer de la IA una herramienta comercial.

Por ahora, OpenAI no ha encontrado una solución definitiva para estos riesgos, pero la compañía planea investigar más a fondo el potencial de dependencia emocional y cómo la integración de las funciones de audio en su modelo podría influir en el comportamiento de los usuarios.