jueves, 6 de junio de 2024

El cisma interno de OpenAI no cesa: los empleados se enfrentan a Altman por los peligros de la IA

 



  • Empleados y exempleados piden protección para denunciar los riesgos de la IA
  • Las salidas voluntarias de OpenAI no cesan ante las discrepancias con Altman



Las heridas de OpenAI no se han cerrado desde el despido de cinco días de Sam Altman en noviembre. El cisma interno en la compañía no solo no ha cesado seis meses después, sino que es cada vez más evidente. Los peligros que entraña la inteligencia artificial (IA) han generado un nuevo 'motín' dentro de la empresa. Esta vez, la escenificación del conflicto ha llegado en forma de carta, firmada anónimamente por empleados actuales y sellada con nombre y apellidos por extrabajadores. De nuevo, advierten sobre la deriva de la firma y sobre el riesgo que supone esta tecnología para la supervivencia humana.

Cuatro trabajadores de OpenAI, siete extrabajadores de la casa y dos de Google Deep Mind alertan en la misiva, fechada el 4 de junio: "la pérdida de control de los sistemas autónomos de IA podría resultar en la extinción de la humanidad". Además, enumeran otros riesgos existentes como la ampliación de la desigualdad actual, la manipulación y la desinformación. El objetivo de los 13 autores de la carta es poner en el foco estos peligros y pedir protección para hablar de ellos y abordarlos públicamente.

El hecho de que la carta esté respaldada por cuatro empleados actuales revela la tensión que hay en las tripas de ChatGPT. También refleja que muchas de las salidas voluntarias que se han producido recientemente tienen que ver con la disconformidad con la filosofía de Sam Altman, a quien se acusa de ignorar los riesgos de la IA para el beneficio de OpenAI y su tecnología.

Es un problema que arrastra la compañía, que sigue generando muchas dudas en cuanto a la gestión del riesgo. La carta recién publicada expone algunos de los principales problemas: no hay controles suficientes dentro de la empresa, ya que se ha creado una estructura a medida para evitarlo, existen trabas para poder denunciar públicamente, como los acuerdos de confidencialidad, y se incentivan los beneficios frente a la seguridad. Por eso, los firmantes piden que se mejore su derecho a manifestarse contra los riesgos de la IA, ya que, ni siquiera la protección a los denunciantes o relatores (whistleblowers) es suficiente para protegerles. Por eso, reclaman su apoyo a los gobiernos, a la comunidad científica y a la sociedad civil para que medien.

"Algunos de nosotros tememos enfrentarnos a represalias por hablar, dados los ejemplos que ya se han producido anteriormente en nuestro sector. No somos los primeros en toparnos con estos problemas o hablar de ellos", señala el escrito.

Es la última gota de un vaso que no deja de colmarse. Ilya Sutskever y Jan Leike están entre los últimos directivos que han abandonado la compañía y, algunos de ellos, han hecho públicas sus preocupaciones. De hecho, no están entre los firmantes con nombre y apellido de la carta, por lo que la oposición a la filosofía de Altman es patente en varios frentes.

"Llevo tiempo en desacuerdo con el liderazgo de OpenAI y con sus prioridades estratégicas", explicaba a mediados de mayo Leike en Twitter, ahora X. Además, lamenta los problemas de seguridad que no se están abordando de forma adecuada. Él era uno de los directores de Superalignment de OpenAI, el equipo responsable de evitar los peligros de la IA.

Sutskever, cofundador de la firma, se fue de esta dos días antes que su compañero. Aunque no compartió sus motivos, dirigía junto a Leike el área de 'superalineamiento'. Además, era miembro de la junta directiva de la compañía cuando se decidió la salida de Altman. Tras la readmisión de este, salió de ese órgano y ha durado en la compañía seis meses y medio.

Cuando se decidió que Altman tenía que volver, un gran número de trabajadores apoyó esta decisión. El 95% amenazó con irse a Microsoft si el cofundador no volvía a dirigir la empresa. Entonces, estaba claro que los empleados estaban de su lado. Pero ahora su liderazgo vuelve a ponerse en entredicho y cada vez son más las voces críticas.

Conscientes del revuelo, poco después de las salidas de Leike y Sutskever, los directivos de OpenAI crearon un Comité de Seguridad y Protección, dirigido por cuatro ejecutivos, entre ellos, Altman. La firma explicaba que habían empezado a entrenar su último modelo de IA y que era necesario este equipo para supervisar los procesos y garantías. "Queremos acoger un debate de calado en este momento tan importante", explicaba la nota de prensa.

Desde sus orígenes, OpenAI ha ido virando su enfoque. La firma empezó como entidad sin ánimo de lucro, con el fin de investigar y promover esta tecnología para el bien de la humanidad, pero ha acabado convirtiéndose en una empresa al uso. Microsoft es su mayor inversor, con una valoración estimada de 100.000 millones de dólares para la compañía. Mientras tanto, el cisma continúa y son cada vez más los recelos, dentro y fuera, que despierta la gestión actual de la compañía.


No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.