sábado, 1 de junio de 2024

LA CARA B DE OPEN AI: Sam Altman es el último gran villano de Silicon Valley y la culpa no es de Scarlett Johansson



El CEO de Open AI, Sam Altman.
 (Reuters/Carlos Barria)



La supuesta copia de la voz de la actriz por parte de OpenAI junto a la salida de personas clave de la compañía desata una tormenta de críticas que cuestionan los verdaderos intereses del CEO de la compañía




"Intento no pensar demasiado en la competencia, pero no puedo dejar de pensar en la diferencia estética entre OpenAI y Google", escribió a modo de dardo Sam Altman hace siete días en la red social antes conocida como Twitter. En ese momento se sentía un triunfador que había puesto a bailar a media industria tecnológica con sus novedades. 26 minutos de evento online le habían servido para dinamitar la gran cumbre anual de su principal rival, Google, en esto que se llama inteligencia artificial generativa.

Lo había conseguido haciendo realidad, al menos aparentemente, una de las grandes distopías que Hollywood se había imaginado hace diez años: una máquina que pudiese hablar con la misma calidez que lo haría un humano, con dotes para cosas como el flirteo o la ironía, probablemente superiores a las de muchas personas de carne y hueso. Por si la comparativa no estaba clara, Altman remató tuiteando 'Her' (en referencia a la película donde Joaquín Phoenix se enamora de un asistente virtual) durante la presentación.




Es mucho más fácil vender eso que un nuevo gran modelo de lenguaje con dos millones de tokens de contexto o un cambio en un buscador que parece más amenazado que nunca por esta revolución tecnológica. Google también tenía un asistente capaz de ver, leer y escuchar lo que le rodea y dar respuestas sobre ello.

Sin embargo, todavía está en pañales y no parecía tan humano como GPT-4. Lo único que parecía llamar la atención del común de los mortales era la certeza de que iban a volver a intentar resucitar las Google Glass. Después de que unos y otros pusieran sus cartas sobre la mesa, el poso que quedó es que OpenAI iba varios meses por delante y sobre el ambiente flotaba la idea de que Sundar Pichai debía apretar si no quería empezar a ser cuestionado como CEO.

Pero han hecho falta tan solo siete días para que Altman pierda esa aura de ganador y sea el blanco de un torrente de críticas enorme. Gran parte de la opinión pública lleva zurrándole varias horas con las mismas ganas que suelen hacerlo con Elon Musk o como lo hacían cuando Facebook se llamaba Facebook y no Meta y Mark Zuckerberg daba la cara por escándalos como Cambridge Analytica.


Se llama Sky, pero suena a Viuda Negra

Ha sido alguien completamente ajeno a la industria tecnológica quien le ha sacado los colores y ha prendido fuego a un polvorín: la polémica cultura empresarial de OpenAI, que tarde o temprano podía saltar por los aires. Scarlett Johansson soltó el bombazo este lunes: se planteaba tomar acciones legales contra ellos por supuestamente haber clonado su voz para la versión parlante de ChatGPT. El parecido ya fue señalado por algunos internautas poco después de la presentación, a los que la voz de Sky (una de las cinco que ofrecía el sistema) les sonaba a Viuda Negra.


placeholderJohansson, en un fotograma de 'Viuda Negra'. (EFE/Marvel)
Johansson, en un fotograma de 'Viuda Negra'. (EFE/Marvel)

La intérprete además dio datos clave para demostrar que esto no era una obsesión suya. Aseguró que Altman le había contactado el pasado otoño con una oferta para poner voz a su inteligencia artificial, cosa que declinó tras meditarlo profundamente. El comunicado también asegura que el directivo lo intentó por segunda vez, tan solo días antes del evento de lanzamiento. Antes de que pudiesen contestar, el asistente había sido presentado en sociedad.

OpenAI intentó apagar este fuego lo antes posible. Desenchufó a Sky, por “respeto a la señora Johansson”, aunque aseguró que la voz era de una actriz de doblaje contratada incluso antes de la primera de las propuestas y que en ningún caso la orden fue la de imitarla. La empresa incluso ha filtrado documentos y grabaciones al Washington Post para apoyar esta narrativa.

Sin embargo, hay cosas que no terminan de encajar. La primera de todas es que la intérprete estadounidense es la que puso voz al asistente de Her y Altman dejó bastante claro que pretendía que su último invento fuese percibido de esa manera. En estas condiciones, es difícil creer que los parecidos sean fruto de la casualidad. Incluso, si así fuera, ¿por qué retirarla si tienen pruebas que respaldan su relato? En el comunicado dijeron que no compartían la idea de que las IA imitasen deliberadamente la voz de Johansson u otros famosos… entonces, ¿para qué contactaron con Johansson?


Otras medias verdades de Altman

La hipótesis de que Altman desoyó ese ‘no’ y buscase un camino alternativo para llegar a su objetivo cobra bastante fuerza. Y pone una vez más el foco en el consentimiento y la propiedad intelectual, algo que ha preocupado a creadores de contenido y organizaciones de internet desde hace tiempo, ya que hay una enorme laguna legal sobre el material que se ha utilizado para entrenar estos sistemas. En algunos casos, esta guerra ha llegado a los tribunales, con casos como el del New York Times, que demandó a OpenAI por supuestamente utilizar ilícitamente cientos de miles de artículos del rotativo neoyorquino.

No es la primera vez que esta compañía juega con medias verdades o respuestas evasivas. Uno de los episodios más recientes no fue protagonizado por Altman, sino por Mira Murati, CTO de OpenAI. Cuando presentaron Sora, su generador de video, aseguró que había sido entrenado “con contenido en abierto y licenciado”, cuando se le preguntó si se habían utilizado datos de YouTube. Incluso llegó a afirmar que desde su papel como directora técnica era imposible saber exactamente esta información. Otros ejecutivos han jugado también al despiste con respuestas vagas y nada contundentes.

A esta lista también se le podría sumar, como explica el analista de tecnología Edward Zitron en su boletín semanal, el asunto de Sam Altman y los intereses personales en OpenAI. La compañía está dividida en dos partes. Por encima está la fundación, supuestamente sin ánimo de lucro, que cuenta con una empresa satélite que le permite recaudar fondos y comercializar participaciones. El objetivo de esta bicefalia corporativa es poder tener gasolina financiera para costear los gastos de desarrollo. Los miembros del consejo de dirección, del que forma parte Altman, no pueden tener intereses personales y económicos. Cuando el directivo dice que no tiene títulos de OpenAI juega también a las medias verdades, ya que tiene acciones de Y Combinator, la mayor aceleradora de empresas emergentes de Silicon Valley de la que fue director. Esta plataforma sí que tiene participaciones de OpenAI.

El episodio de Johansson, que seguro traerá cola, ha vuelto a retratar la filosofía que parece haberse impuesto en el seno de la empresa: mejor pedir perdón que permiso. Una forma de actuar que durante mucho tiempo reinó en la meca de la tecnología y que fue perdiendo fuelle, por así decirlo, una vez las autoridades de medio mundo empezaron a meter mano a los grandes nombres de esta industria porque sus excesos se habían convertido en un peligro para la competencia, entre otras muchas cosas.

Que Altman haya tenido margen para ejecutarla también se debe a que la suya era una firma sin ánimo de lucro, que en un principio luchaba para desarrollar una IA que no estuviese controlada por las fuerzas vivas de Silicon Valley. Mirar para otro lado podía fomentar un actor fuerte que moviese la silla a una de esas empresas a las que se les acusa de ser monopolios sin fin, como es el caso de Google, principal damnificado a día de hoy por el auge de OpenAI y su asociación con Microsoft.


El último cameo de Sutskever

En todo este culebrón ha aparecido un personaje que parecía desahuciado desde hace meses: Ilya Sutskever. Jefe científico y cofundador, fue una pieza clave para la crisis que hace seis meses se vivió en la compañía. Cabe recordar que su voto fue decisivo para que el consejo de dirección despidiese a Altman “por falta de confianza”. Nunca terminaron de quedar claros los motivos por los que se le cortó la cabeza, aunque las filtraciones apuntaban que la falta de transparencia en la gestión de la empresa y el desarrollo de los productos tuvo bastante que ver.

La cuestión es que el despido de Altman se resolvió en cinco días. Tiempo insuficiente para poner luz y taquígrafos al asunto. El ahora CEO regresó triunfal a las oficinas de OpenAI con el mismo ímpetu que regresó a Ferraz Pedro Sánchez tras ganarle las primarias del PSOE a Susana Díaz. Además, Altman se cobró un importante trofeo: el consejo de administración, donde había varias voces críticas con su gestión. Lo pudo modelar al gusto con perfiles de corte aceleracionista, como él.

En aquel momento todos daban por supuesto que Sutskever saldría, pero el jefe tenía que intentar guardar las formas. Le nombró jefe del nuevo equipo de Superalineación, un equipo encargado, grosso modo, de que una futura inteligencia artificial tan capaz o superior a los humanos no se descontrolase.

Sutskever anunció su marcha un par de días después de que GPT-4o estuviese en el aire. El diagnóstico más fácil era que tenía los días contados por su papel en la revuelta. El asunto podría haber quedado ahí si Jan Leike, su mano derecha, no hubiese renunciado y diseccionado los motivos de su marcha en un hilo en Twitter. El motivo era que todas las promesas y recursos para esta unidad de seguridad quedaron en un brindis al sol. Leike aseguró que la empresa estaba entregada al desarrollo de productos sorprendentes, priorizando su avance por encima de otros aspectos como la seguridad, la privacidad o la propiedad intelectual.


placeholderAltman y Sutskever. (Reuters)
Altman y Sutskever. (Reuters)

Este debate también ha salpicado a su principal pareja de baile, Microsoft, aunque en mucho menor medida. La compañía, que celebró su cumbre anual, presentó una nueva generación de portátiles que han sacado los colores incluso a los MacBook Air de Apple, tanto por su ficha técnica como por las funciones de IA que llegarán a Windows 11.

La que más ha llamado la atención es una bautizada como Recap, que es capaz de recordar todo lo que has hecho en el ordenador y rescatarlo fácilmente cuando el usuario se lo pide. Que un desarrollo así sepa y grabe todos los pasos que hemos dado a lo largo del día por nuestro sistema operativo ha hecho que los expertos en protección de datos pongan el grito en el cielo. La compañía ha dicho que esta IA se ejecuta en local y que hay opciones para desactivarla, pero la bronca alrededor de esta novedad simplemente es un aperitivo de lo pantanoso que va a resultar cualquier nueva función que se saque potenciada por IA, sea quien sea quien mueva pieza.

En este sentido, Google se ha apuntado una pequeña victoria porque el discurso que abanderan para justificar su retraso no es el de que van por detrás técnicamente sino que están moviéndose así por "precaución y seguridad". Ellos también vivieron su particular fuego en febrero después de que sus sistemas generasen imágenes de soldados nazis de raza negra, motivo por el que tuvieron que disculparse y retirar la herramienta. Por el camino, perdieron 90.000 millones de dólares de capitalización bursátil.

Volviendo a OpenAI, cabe destacar que el testimonio de Leike ha sido una excepción. Suele llamar la atención las pocas voces discrepantes que han hablado sobre su experiencia en la compañía. Una investigación de Vox Media reveló que la empresa había estado presionando a los trabajadores que iban a dejar la plantilla para que firmasen estrictas cláusulas de confidencialidad que impedían, entre otras cosas, criticar públicamente a la compañía. La penalización por no hacerlo incluía la posibilidad de perder las participaciones adquiridas durante sus años en la empresa, algo que podría traducirse en miles de dólares, teniendo en cuenta que la firma podría estar valorada en 80.000 millones a día de hoy. Nuevamente, la dirección negó la mayor y negó que tuviese conocimiento de estas cláusulas, una versión que contradicen los documentos a los que han accedido los autores de la investigación.