viernes, 12 de septiembre de 2025

Más de 1.500 personas hablaron con ChatGPT antes de suicidarse: su CEO confiesa que es su mayor preocupación

 

The Tucker Carslon Podcast

  • Nunca debemos fiarnos por completo de la IA, ni utilizarla para todo, aunque nos parezca más cómodo


La Inteligencia Artificial está a unos niveles tan altos y avanzados, que a veces hasta nos olvidamos de que estamos interactuando con una máquina en vez de con una persona. E incluso la gente que es consciente de ello, mantiene profundas y privadas conversaciones con ella porque les es mucho más fácil expresar sus sentimientos a una pantalla, que sabe que no les va a juzgar.

Nos sorprendería la cantidad de personas que hablan a diario con las IA, ya que es como hablar solo, pero con "algo" contestándote y en la mayoría de casos diciéndote las cosas que quieres escuchar.

Esto ha hecho que cientos de personas acudan a plataformas como ChatGPT a contarle sus problemas. Si bien esto está genial para las personas que están solas o tienen sus momentos en los que no hay nadie cerca para contarles sus problemas o preocupaciones, es importante recordar que las máquinas están lejos de ser perfectas, y que siempre es mejor acudir a un profesional o incluso un conocido cuando tienes los días más bajos.

En su aparición para el podcast The Tucker Carslon, Sam Altman (CEO de OpenAI) reconoció que desde lanzaron ChatGPT no ha dormido bien, y esto no solo tiene que ver con estar pensando constantemente en como mejorar o asegurarse que su IA funcione bien, sino también con el impacto que ChatGPT tiene sobre las personas.

Durante su intervención, Altman hace referencia a una importante problemática que vive nuestra sociedad, "Alrededor de 15.000 personas se suicidan cada semana en todo el mundo, y se estima que el 10 % de ellas, unas 1.500, habían hablado con ChatGPT antes de hacerlo".

Con esto, el CEO no quiere decir que ChatGPT incita al suicidio ni nada por el estilo, sino que confiesa que se siente parte responsable de no poder evitarlos porque no detectan estas conversaciones o patrones que pueden indicar que una persona esta pensando en cometer este acto.

Recordemos, que las IA como ChatGPT están entrenadas y educadas para no tratar ciertos temas o no compartir información sobre determinados aspectos de la vida. Por ejemplo, ChatGPT en principio no te puede incitar a la violencia o enseñarte a cómo hacer algo ilegal, y en los casos que lo intentes, a los supervisores de esta IA les saltará una alarma o aviso indicando que estás intentando usar su servicio para alguno de estos usos vetados.

Con esta confesión, Altman ha señalado que van a implicarse todavía más en este tema y reforzar los métodos de detección de casos de personas que acuden a ChatGPT para hablar y que podrían tener pensamientos suicidas.

Esto suena como algo necesario, ya que el dato que da Altman es altamente preocupante, además de otros casos de suicidios relacionados con la IA, pero también existe una parte crítica que señala que OpenAI dice esto porque quiere tener un mayor acceso a tus conversaciones con la IA para poder controlarte mejor.

Las IA no dejan de ser máquinas programadas y entrenadas, y uno de los principales fallos que estamos teniendo los usuarios en esta primera etapa de la "Era de la IA" es delegar y confiar plenamente en ella en todo lo que puede hacer, ya que si bien para usos sencillos es una gran herramienta, la IA falla mucho más de lo que puedes llegar a creer y está lejísimos de poder igualar a los humanos en una infinidad de aspectos.