- Abandonó la compañía al darse cuenta de la dirección que había tomado OpenAI, y no quería ser cómplice
Para millones de personas, el primer contacto consciente con una Inteligencia Artificial fue con ChatGPT hace algo más de dos años, y después si no han indagado mucho más, se han conformado con utilizar esta plataforma para cualquier uso que pudieran hacer de esta tecnología.
Esto ha provocado que ChatGPT se haya convertido en casi un sinónimo de IA, del mismo modo que Google lo es para Internet. Obviamente esto es enormemente beneficioso para la compañía liderada por Sam Altman, y aunque pensemos que OpenAI hace todo bien y saben lo que están haciendo, estas preocupantes declaraciones de un ex empleado de la empresa ponen en duda el trabajo que están realizando de puertas a dentro.
William Saunders es ex miembro del personal técnico del equipo de Superalineación de OpenAI. donde se dedicaban a supervisar otros modelos de lenguaje, sin embargo, en febrero de 2024 Saunders decidió abandonar la compañía después de tres años. El motivo, no quería acabar trabajando en "el Titanic de la IA".
Durante una entrevista para The Big Technology Podcast, Saunders explicó que durante sus años en OpenAI se hacía la misma pregunta, "¿qué dirección están tomando, somos más como el programa Apollo o como el Titanic?".
Con esto quería decir si OpenAI era una compañía que trabajaba evaluando constantemente riesgos y con el objetivo de ofrecer una herramienta segura para las personas, como en Apollo, o si la empresa se encontraba inmersa en una carrera comercial compitiendo por sacar el proyecto primero dejando de lado estos principios de seguridad, como hicieron con el Titanic, y todos conocemos ese final.
"Fundamentalmente no sabemos cómo funciona la IA por dentro"
Saumers se dio cuenta que OpenAI había tomado la dirección del Titanic, y que, según él habían priorizado el beneficio económico a la seguridad y control de una tecnología tan potente y poderosa como es la IA.
Pero lo más preocupante de todo ello es que como reconoció, siendo una de las primeras personas que realmente han estado dentro de la compañía en criticar y alertar de las prácticas de OpenAI es que "fundamentalmente no sabemos cómo funciona la IA por dentro", dejando caer que desde dentro de la compañía creen que en cosa de tres años la IA generativa será tan salvaje que podría ser algo peligroso.
"Si tienen un proyecto original que es tan inteligente como una persona, (desde OpenAI) hacen varias copias del sistema para mejorarlas e intentar hacerlas todavía más inteligentes" asegura Saumers, añadiendo que "estos sistemas de IA serán muy buenos engañando y manipulando a las personas con el objetivo de ganar más poder para ellas mismas".
Saumers explicó que todo ello le llevó a abandonar la compañía, ya que en su opinión una empresa no puede desarrollar con esta intención una tecnología que puede ser tan peligrosa. "Lo más inquietante de todo esto fue que la única respuesta fue reprender a la persona que planteó estas preocupaciones".
Finalmente, este ex empleado aseguró que "hay que tener una revisión externa", es decir alguien quien no tenga intereses económicos metidos y que prime la seguridad y el control de esta potente tecnología por encima de los millones de euros que se puedan ganar con un ChatGPT increíblemente inteligente.