viernes, 1 de agosto de 2025

Sam Altman avisa del peligro de contarle tu vida a ChatGPT: puede ser una prueba contra ti


Sam Altman, co-fundador de OpenAI



El CEO de OpenAI ha alertado de que las conversaciones y datos de los usuarios no están protegidos ante las exigencias judiciales y pueden utilizarse como pruebas en investigaciones criminales.




Preguntarle a ChatGPT cómo enterrar un cadáver quizás no sea buena idea. Los asistentes de inteligencia artificial se han convertido en consejeros virtuales para muchos usuarios, hasta el punto de guardar secretos que podrían llevarlos a la cárcel. Pero cuidado: ChatGPT no tiene secreto de confesión. Un mensaje del propio Sam Altman, director ejecutivo de OpenAI, quien ha alertado de que los usuarios no son conscientes de que todo lo que digan puede convertirse en una prueba contra ellos si un juez lo considera necesario. El directivo compartió su preocupación en el pódcast This Past Weekend, de Theo Von, donde insistió en que si hablas sobre “tus cosas más sensibles” con el chat y luego hay una demanda, “podríamos estar obligados a entregar eso”. Y, desde luego, lo están.

La compañía, que atiende más de 2.500 millones de consultas diarias, explica en su política de privacidad que uno de los motivos por los que acumula todo tipo de información de los usuarios —como las conversaciones o los datos de registro— es “cumplir con nuestras obligaciones legales”. Estas responsabilidades son comunes a todas las empresas de telecomunicaciones, y no sería extraño que la información que guardan fuera útil para resolver un crimen.


Otros casos de testigos virtuales

Aunque todavía no ha ocurrido con ningún invento del estilo de ChatGPT, en Estados Unidos ya existen casos en los que un asistente virutal se convirtió en testigo de un crimen. El primero fue en 2015. Victor Collins, un vecino de Arkansas, fue encontrado muerto en la bañera de hidromasaje de su amigo James Bates. La policía lo encontró flotando boca abajo tras ser estrangulado. En el registro de la casa encontraron varios asistentes de voz inteligentes, entre ellos un Amazon Echo.

Este dispositivo cuenta con siete micrófonos y necesita una palabra clave para activarse. Una vez que su dueño lo llama, la conversación queda grabada. Los fiscales solicitaron a Amazon acceder a los registros de audio para comprobar si se había captado el sonido de la escena del crimen, argumentando que el dispositivo podría haberse activado por error y haber grabado información relevante para la investigación.

La compañía inicialmente se negó a entregar los datos, citando preocupaciones de privacidad y argumentando que los registros estaban protegidos por la Primera Enmienda. Finalmente, James Bates, dueño del dispositivo, consintió en compartir las grabaciones, y Amazon accedió a entregarlas. Tras examinar los registros del Echo, el caso fue desestimado en 2017 por falta de pruebas, pero sentó un precedente sobre el papel de los dispositivos inteligentes en las investigaciones policiales.

Este no ha sido el único caso en el que la multinacional estadounidense se ha enfrentado a un dilema similar. Cuando el caso Collins estaba a punto de concluir, un nuevo asesinato en New Hampshire volvió a señalar a la compañía. En esta ocasión, las víctimas fueron dos jóvenes que murieron apuñaladas. De nuevo, un asistente Amazon Echo estaba presente en el lugar del homicidio.

El juez instructor del caso determinó que existía causa probable para pensar que había grabaciones pertinentes en los servidores de Amazon que pudieran ayudar a resolver el crimen. Como en el primer caso, la posición inicial de Amazon fue resistirse en defensa del derecho a la privacidad de sus usuarios. Finalmente, tuvo que ceder ante la orden judicial.
El deber de colaborar

Ante una orden de un juez, ya sea Amazon, OpenAI o cualquier otra compañía, no tienen nada que hacer. Samuel Parra, abogado experto en derecho tecnológico, afirma que el deber de colaboración con la administración está por encima de la política de privacidad de las empresas: “Una conversación con ChatGPT puede ser objeto de solicitud por parte de la autoridad judicial, al igual que puede serlo una conversación en Instagram o un correo electrónico”, añade.

Estos casos parecen chocar con el derecho a la protección de datos, pero cuando hay una orden judicial, el conflicto se resuelve rápidamente. “No hay ningún derecho en nuestro ordenamiento que esté por encima de los demás. Si la autoridad judicial requiere información, aunque contenga datos sensibles y personales, ese ciudadano tiene que transigir, porque hay otro bien jurídico protegido, como puede ser la persecución de un delincuente”, explica Parra.

El contexto es determinante para establecer el procedimiento para solicitar la información. En el caso de España, la protección de datos se regula conforme a las directrices comunes de la Unión Europea, y es más estricta que en Estados Unidos.

Mientras que en España una orden para confiscar información de los usuarios solo puede venir de un juez, en Estados Unidos los propios funcionarios pueden realizar las solicitudes. En el caso de empresas extranjeras como OpenAI, si tienen sede en un país de la UE o tratan datos de ciudadanos europeos, también deben someterse a la normativa comunitaria.

Pero no solo los asesinos deberían estar preocupados: hay otros delitos menos graves que podrían ser investigados navegando por las confesiones hechas a ChatGPT. “No hay ninguna ley que establezca para qué delitos se puede o no pedir información. Depende de la convicción del juez, del contexto y de los indicios que existan”, dice Parra. Por ejemplo, si le has pedido a ChatGPT que te ayude a defraudar a Hacienda y un juez considera que revisar tu historial con el chat puede ser útil para la investigación, la compañía no podrá negarse a entregar esa información.

Sam Altman ha mostrado su preocupación ante el exceso de confianza de los usuarios, aunque parece tener esperanza en que la confidencialidad de estas conversaciones pueda reforzarse: “Ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe una especie de privilegio legal... Y aún no hemos resuelto eso para las conversaciones con ChatGPT”, afirmaba en el pódcast de Theo Von.

Ese “privilegio legal” del que habla se regula en España bajo la figura del secreto profesional. Samuel Parra aclara que, al menos en nuestro país, hasta que ChatGPT no lleve sotana o estetoscopio, es un beneficio que en ningún caso podría alcanzar: “Es un derecho que tienen algunos profesionales, como los curas o los terapeutas, por el que no se les puede obligar a revelar la información que conocen. Una empresa, aunque tenga algún deber de confidencialidad, siempre podrá ser obligada a facilitar información a un juez”.

Las preocupaciones del directivo con respecto a las relaciones de confianza de los usuarios con ChatGPT no se limitan a las cuestiones relativas a la protección de datos. En una entrevista en la Conferencia de la Reserva Federal advertía de la peligrosa dependencia que los jóvenes están desarrollando para tomar decisiones:"Hay gente joven que reconoce que no es capaz de tomar decisiones por sí mismo sin contarle a ChatGPT, me conoce a mí, a mis amigos, hago lo que me diga, eso me hace sentir mal.".