jueves, 16 de mayo de 2024

OpenAI se queda sin los dos responsables de garantizar que su IA no pierda el control



Ilya Sutskever, cofundador de OpenAI, junto a Altman.



24 horas de la presentación de GPT-4o, el cofundador Ilya Sutskever y su mano derecha Jan Leike renuncian al puesto. Dirigían un equipo que buscaba avances para mantener controlada y alineada una futura súperinteligencia artificial




Igual recuerdan la guerra civil que vivió OpenAI hace unos meses que se desató con el despido de Sam Altman y terminó supuestamente su regreso a su puesto cinco días después de que toda la plantilla amagase con marcharse a Microsoft y vaciar la compañía de moda. En este episodio hubo muchos personajes relevantes, pero hubo uno especialmente relevante: Ilya Sutskever, cofundador y científico jefe de la compañía.

Aunque recogió cable ante la presión de sus compañeros y también suscribió la petición de que el jefe volviese, Sutskever fue una pieza clave para articular la mayoría que consiguió durante unos días mantener a Altman fuera de la dirección de la empresa. El motivo para que diera ese paso y respaldase el motín era aparentemente, según filtraron varios medios, la inquietud por si se estaba avanzando demasiado rápido en el desarrollo de los sistemas de inteligencia artificial, sin asegurar su seguridad al cien por cien.

En el momento en que se firmó la paz y Altman regresó, se creó un equipo dirigido por Sutskever que se encargaría de que la inteligencia artificial que desarrollase OpenAI siguiera cumpliendo con los propósitos para los que fue creada y no diera resultados inesperados. El equipo de superalineación, que es como se bautizó, se encargaba básicamente de que la IA no se descontrolara.

Pues bien, apenas unas horas después de que OpenAI sorprendiese a propios y extraños con el lanzamiento de GPT-4o, su IA más moderna y potente, Sutskever anunció en la red social antes conocida como Twitter que se marcha de OpenAI. El cofundador, que publicó una foto con Altman y otros de los peces gordos de la firma, aseguró que se marcha con la seguridad de que construirán una inteligencia artificial general “segura y beneficiosa”.


La cuestión es que esta salida no ha sido la única. El equipo de superalineación ha quedado descabezado después de perder a Sutskever pero también a Jan Leike, directivo de OpenAI. Leike, otro reconocido investigador, trabajaba mano a mano con el que hasta ahora era científico de datos en ese equipo encargado de que las IA siguieran bajo el control humano. “He renunciado”, publicó este trabajador en X en plena madrugada. Estas salidas se unen a las de Chris Clark, director de iniciativas estratégicas y 'nonprofit'; así como la de Sherry Lachman, directora de impacto social.



Las salidas de Sutskever y Leike, a las que todavía no se les conoce reemplazo, vuelven a agitar un debate que lleva en la palestra desde el despido de ida y vuelta de OpenAI. Un debate que no es otro que si los avances que se están produciendo en torno a la IA se están haciendo con los debidos controles de seguridad. Cuando creó el equipo dirigido por Sutskever, OpenAI afirmó que pretendía resolver en un plazo de cuatro años el reto de tener “avances técnicos” para dirigir y controlar sistemas “mucho más inteligentes que nosotros”.

En esa misma publicación, tal y como recoge Bussiness Insider, reconocía que este trabajo todavía dependía de la supervisión humana y que no tenían ninguna tecnología desarrollada capaz de embridar una IA “potencialmente superinteligente” que se saliera de madre. El debate sobre la velocidad de desarrollo también es algo que ha planeado sobre el Google I/O que empezó este martes. Sin embargo, al buscador se le cuestiona la razón por la que tarda tanto en poner desarrollos en circulación. Ellos aseguran que la razón es primar un desarrollo seguro, pero las voces más críticas hablan de los problemas que está teniendo la compañía para introducir una tecnología tan disruptiva en un negocio tan consolidado como el suyo.