:format(jpg)/f.elconfidencial.com%2Foriginal%2F672%2F75e%2F0af%2F67275e0af7e3bf2668708dbedb834fb9.jpg)
¿Por qué no te callas, ChatGPT?
(Gabi Santana/Pexels)
Modelos de inteligencia artificial como ChatGPT y Gemini hablan por los codos. La mayoría es paja para ocultar su ignorancia o intentar aparentar que son más inteligentes de lo que realmente son
ChatGPT habla demasiado. También Gemini. Como muchos otros modelos de lenguaje, son insoportables. Hacen que los discursos de seis horas de Fidel Castro parezcan haikus. Les pregunto: "¿por qué habláis tanto?" y me suelta una respuesta de 800 palabras que parece una redacción de cuarto de primaria, un 75% del mismo sin contenido ni datos reales. Divagan sobre lo mucho que divagan. Son incapaces de dar una respuesta directa, incluso si formulo cuidadosamente una pregunta en dos párrafos para obligarlos. Cuando por fin les consigo arrancar una respuesta de una sílaba, lo arruinan con una disculpa larga, falsa en el tono y falsa en la realidad, porque es una promesa que rompen a las dos respuestas siguientes.
No soy el único que está harto de su diarrea mental. Llevo meses hablando con amigos y desconocidos sobre su incontinencia verbal y ellos también odian esta verborrea infumable. Una amiga quiere estampar su ordenador contra la pared al menos dos veces al día. Otro fantasea con colarse en un centro de datos de OpenAI o Google y destrozar todos los servidores con un bate de béisbol. Yo siempre me imagino un lanzallamas. Mucha gente las sigue usando como si nada, porque les da exactamente lo mismo que lo que escriban sea más paja que grano. Pese a todos estos problemas, admito que algunos ahorran tiempo en la búsqueda de información.
Afortunadamente, hay una solución sencilla para este parloteo incontenido. Todo empieza con que sus creadores admitan que son mucho más tontos de lo que ellos creen. La verborrea, afirman los expertos y los científicos, nace principalmente de su ignorancia aunque también de diferencias culturales (en EEUU la gente es así, como luego veremos con las diferencias con DeepSeek). El resultado es que sus respuestas están infladas con explicaciones innecesarias, advertencias obvias y desvíos argumentales absurdos.
Los motivos de la verborrea insoportable
“No es una elección intencionada”, dice Quinten Farmer, cofundador del estudio de ingeniería Portola, que ha creado a Tolan, un pequeño alien de inteligencia artificial diseñado para hablar como un humano. “Creo que la razón por la que estos modelos se comportan así es que, en esencia, actúan como el típico comentarista de Reddit [el foro de foros donde “expertos” pretenden tener más respuestas que un tertuliano de la radio], ¿verdad?”, me dice Farmer riendo. “¿Qué hacen? Hablan demasiado para encubrir el hecho de que no tienen ni idea de lo que están diciendo. Y, por supuesto, ése es el origen de [gran parte de] los datos con los que han sido entrenados”.
Un reciente estudio científico define este comportamiento como “compensación por verborrea”, un fenómeno recién identificado en el que los modelos de lenguaje responden con un exceso de palabras, repitiendo preguntas, introduciendo ambigüedades o enumerando información innecesaria. Este comportamiento es similar a la vacilación humana ante la incertidumbre. Los investigadores han detectado que las respuestas más largas suelen estar vinculadas a una mayor inseguridad del modelo, lo que sugiere una relación directa entre la verborrea y la falta de confianza en la respuesta.
También está el problema de la falta de retención de información. Los modelos olvidan los datos previamente proporcionados en una conversación, lo que genera preguntas repetitivas e interacciones innecesariamente extensas. Además, los investigadores han identificado un claro "sesgo de verborrea" en el entrenamiento de los modelos, lo que hace que prefieran respuestas más largas y detalladas aunque no sean de mejor calidad.
Se puede corregir
Por mucho que los modelos de IA suenen como humanos, la realidad es que realmente no entienden el lenguaje, aunque sean buenos hilando palabras para aparentarlo. Esta destreza lingüística puede generar la ilusión de una inteligencia más amplia, lo que lleva a respuestas más elaboradas. En resumen, la investigación confirma lo que sospechábamos: los modelos de IA son expertos en hacer creer que saben de lo que hablan. Y muchos caen en la trampa, ya sea porque quieren creer en ello o porque no aplican el pensamiento crítico, algo que los investigadores de Microsoft han estudiado recientemente en relación con el impacto de la IA en la cognición humana.
Hay diferencias entre modelos, por supuesto. Farmer cree que Perplexity y Claude, de Anthropic, dan respuestas más concisas sin tanto relleno. DeepSeek, el nuevo modelo chino, mantiene respuestas más cortas y directas. Según la propia DeepSeek, su formación da más importancia a la claridad y la eficiencia, con un enfoque en la brevedad. Los modelos estadounidenses, en cambio, tienden a enfatizar un tono más conversacional o detallado, reflejando diferencias culturales y de diseño entre EEUU (donde tienden a sobreexplicar y son falsamente amables) y China (que son más sucintos en sus respuestas).
En mis pruebas, Claude también ha dado respuestas más breves (aunque sigue siendo irritante). Al menos reconoce el problema cuando se lo apunté: “Viendo mi respuesta anterior... sí, probablemente hablé demasiado”, me dijo. Incluso me sorprendió con esta perla cuando le pregunté si intentaba ser un modelo honesto: “Intento ser directo sobre lo que sé y lo que no sé, y reconocer mis limitaciones con claridad. Aunque pueda ser tentador inventar citas para sonar con más autoridad de la que realmente tengo, creo que es mejor ser sincero”. Otra ilusión de pensamiento cognitivo, sí, pero totalmente acertada.
Los desarrolladores podrían solucionar este problema con un mejor entrenamiento y orientación. De hecho, Farmer me cuenta que, al crear a Tolan, el equipo debatió sobre la extensión ideal de las respuestas. El guionista que creó la historia de estos ‘aliens’ de inteligencia artificial apostaba por respuestas largas para reforzar la conexión con el usuario. Otros preferían respuestas más cortas y directas. Todavía discuten sobre ello, afirma, pero creen haber encontrado un buen equilibrio.
Pero ChatGPT no es un alien simpático. Es una herramienta. No hay necesidad de equilibrio. No necesitamos encariñarnos con ella. Solo deben responder a las preguntas de manera concisa, precisa y verdadera. Y si no sabe la respuesta—como cuando le pregunté qué jugadores han ganado seis veces la Champions y me dijo que sólo lo había hecho Paco Gento una y otra vez, ignorando a Kross, Modric, Nacho, y Carvajal, y rematando con que Messi la había ganado cinco veces—debería sencillamente admitirlo y callarse, en lugar de escribir 500 palabras de errores y chorradas para hacer perder el tiempo y consumir kilovatios sin sentido.
Por
28/02/2025 - 05:00 Actualizado: 28/02/2025 - 13:59
https://www.elconfidencial.com/tecnologia/novaceno/2025-02-28/chatgpt-gemini-llm-escribe-demasiado_4074371/