Todo se está viniendo abajo en OpenAI (otra vez)

Una ilustración de Sam Altman, CEO de OpenAI (la desarrolladora de ChatGPT).
Una ilustración de Sam Altman, CEO de OpenAI (la desarrolladora de ChatGPT).

Justin Sullivan/Getty; Chelsea Jia Feng/Business Insider

  • OpenAI es un auténtico caos: han vuelto a salir a la luz nuevas dudas sobre el compromiso de la startup de inteligencia artificial con la seguridad.
  • La desarrolladora de ChatGPT se ha enfrentado a reacciones adversas por cuestiones de transparencia, el uso de acuerdos de confidencialidad y una disputa con Scarlett Johansson. 
  • Sam Altman tampoco pasa por su mejor momento a nivel de popularidad.

La semana difícil que estaba atravesando OpenAI se está convirtiendo poco a poco en un mes difícil y no parece un problema que el chico de oro de la compañía, Sam Altman, vaya a resolver fácilmente.

En el último acontecimiento de la saga "OpenAI-es-un-desastre", un grupo de empleados y exempleados de la desarrolladora de ChatGPT ha hecho públicas sus inquietudes con respecto a las motivaciones financieras de la empresa y su compromiso con la inteligencia artificial responsable. En un artículo del New York Times publicado este martes, describen una cultura corporativa llena de falsas promesas.

"El mundo no está preparado y nosotros tampoco", aseguraba Daniel Kokotajlo, antiguo investigador de OpenAI, en un correo electrónico en el que anunciaba su dimisión, según ha informado el medio de comunicación estadounidense. "Me preocupa que nos estemos precipitando a pesar de todo y racionalizando nuestras acciones".

También este martes, los garganta profunda de la startup —junto a otros expertos en IA— han publicado una carta abierta exigiendo un cambio en la industria. Este colectivo pide a las compañías de inteligencia artificial que se comprometan con una cultura de crítica abierta y que prometan no tomar represalias contra quienes planteen sus preocupaciones.

Aunque la carta no se dirige específicamente a OpenAI, se trata de una indirecta bastante clara y otro duro golpe para una empresa que ya ha recibido bastantes en las últimas semanas.

En una declaración a Business Insider, un portavoz de la desarrolladora de ChatGPT ha reiterado el compromiso de su organización con la seguridad, destacando una "línea directa de integridad anónima", que serviría para que los trabajadores expresen sus preocupaciones, así como el comité de seguridad y protección que existe en la compañía.

"Estamos orgullosos de nuestro historial suministrando los sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo", ha afirmado el portavoz a través de un correo electrónico. "Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología y seguiremos comprometiéndonos con los gobiernos, la sociedad civil y otras comunidades de todo el mundo".

La seguridad, en segundo —o en tercer— lugar

Un tema común de las quejas contra OpenAI es que, en la startup, la seguridad no es lo primero: lo son el crecimiento y los beneficios.

En 2019, la empresa pasó de ser una organización sin ánimo de lucro dedicada a la tecnología segura a una organización con "beneficios limitados" valorada en 86.000 millones de dólares (unos 79.000 millones de euros al tipo de cambio actual). Ahora, Altman estaría preparándose para convertirla en un instrumento más del capitalismo tardío.

Esto habría hecho que la seguridad esté todavía más abajo en la lista de prioridades, según han indicado exmiembros de la junta directiva de OpenAI y antiguos empleados.

"Basándonos en nuestra experiencia, creemos que el autogobierno no puede resistir de forma fiable la presión de los incentivos lucrativos", señalaron Helen Toner y Tasha McCauley, antiguas miembros del consejo de OpenAI, en un artículo de opinión publicado el mes pasado en The Economist, en el que pedían una supervisión externa de las compañías de inteligencia artificial. 

Toner y McCauley votaron a favor de la destitución de Altman como CEO de la desarrolladora de ChatGPT el año pasado. (En otro artículo de opinión publicado en respuesta en el medio británico, los actuales miembros de la junta directiva de OpenAI, Bret Taylor y Larry Summers, han defendido tanto a Altman como a las normas de seguridad de la empresa).

Esos incentivos económicos han puesto el crecimiento en primer plano, según explican algunas personas con conocimiento de la situación de OpenAI, en una dinámica en la que la startup compite contra otras compañías de IA para desarrollar formas más avanzadas de esta tecnología (lanzando algunos de esos productos antes incluso de que algunos piensen que están listos para ser el centro de atención).

El director ejecutivo de OpenAI, Sam Altman.

Según una entrevista que concedió Toner la semana pasada, Altman mintió y ocultó información a la junta de forma rutinaria, incluida la información relativa a los procesos de seguridad. La junta ni siquiera estaba al tanto de la publicación de ChatGPT en noviembre de 2023, se enteró por Twitter, según detallaba la exmiembro del consejo. (La empresa no lo negó explícitamente, pero, a través un comunicado, dijo estar "decepcionada de que la Sra. Toner siga volviendo sobre estos temas").

Kokotajlo, el antiguo investigador de OpenAI, ha declarado al New York Times que Microsoft empezó a probar Bing con una versión no publicada de GPT, una medida que el consejo de seguridad de la desarrolladora de ChatGPT no había autorizado. (Microsoft ha negado al medio estadounidense que eso hubiese ocurrido de esa forma).

Estas preocupaciones coinciden con las que planteaba Jan Leike, el responsable del equipo de superalineación de la compañía, un puesto que ocupaba junto al científico jefe y cofundador de OpenAI, Ilya Sutskever, hasta que ambos decidieron dimitir recientemente. Este equipo se dedicaba a estudiar los riesgos que la superinteligencia de la inteligencia artificial podía plantear para la humanidad, pero en los últimos meses ha sufrido tantas salidas que finalmente acabó disolviéndose cuando se marcharon sus líderes, aunque desde entonces se ha conformado un nuevo comité de seguridad.

"En los últimos años, la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a los productos brillantes", aseguró Leike en una serie de publicaciones en redes sociales en las que habló acerca de su salida de la startup. "He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la empresa durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura".

Estas preocupaciones aumentan a medida que la compañía se acerca a la inteligencia artificial general (AGI, por sus siglas en inglés), una tecnología con una capacidad intelectual similar —cuando no superior— a la de un ser humano. Muchos expertos afirman que la AGI aumenta la probabilidad de p(doom), un término deprimente utilizado en internet para referirse a la probabilidad de que la IA destruya a la humanidad.

Por decirlo sin rodeos, como indicaba el mes pasado Stuart Russell, destacado investigador especializado en inteligencia artificial, a este medio de comunicación: "Incluso la gente que está desarrollando la tecnología dice que existe una posibilidad de extinción humana. ¿Qué les ha dado derecho a jugar a la ruleta rusa con los hijos de todo el mundo?".

Una actriz protagonista y los acuerdos de confidencialidad

Probablemente no entraba en tus planes para 2024 leer la noticia de que Viuda Negra se estaba enfrentando a un gigante de Silicon Valley, pero aquí estamos. En las últimas semanas, la desarrolladora de ChatGPT se ha encontrado con algunos enemigos insólitos con preocupaciones que van más allá de la seguridad, entre ellos, la actriz Scarlett Johansson.

El mes pasado, la actriz se puso en contacto con sus abogados y escribió una dura carta dirigida a OpenAI después de que esta lanzase un nuevo modelo de IA con una voz "inquietantemente parecida" a la suya. 

Aunque la empresa insiste en que no pretendía hacer pasar a GPT-4o por Johansson, las similitudes eran innegables, sobre todo teniendo en cuenta que Altman tuiteó "her" cuando se anunció el producto, en una aparente referencia a la película de que protagonizó Johansson en el 2013 y en la que interpretó a una inteligencia artificial. (Spoiler: en la película, la cosa no acaba precisamente bien para esta tecnología).

"Me sorprendió, me enfureció y me hizo sentir incrédula el hecho de que el Sr. Altman buscase una voz que sonaba tan extrañamente parecida", expresó Johansson haciendo referencia al nuevo modelo de OpenAI, en unas declaraciones en las que añadió que había rechazado múltiples ofertas de Altman para ponerle voz a ChatGPT.

Scarlett Johansson y OpenAI.

La versión de la compañía en ese momento más o menos fue que sus dirigentes no se comunicaron adecuadamente y manejaron el asunto con torpeza, lo cual no es muy reconfortante si se tiene en cuenta que OpenAI maneja una de las tecnologías más potentes y peligrosas del mundo.

Las cosas empeoraron cuando se publicó un reportaje acerca de la cultura corporativa de la startup, en la que se intentarían limitar los escándalos con unos restrictivos e inusuales acuerdos de confidencialidad. Los trabajadores que abandonasen OpenAI sin firmar un acuerdo de confidencialidad podían perder su derecho sobre las acciones de la organización, que en algunos casos suponía perder millones de euros. Este tipo de acuerdo prácticamente era inaudito hasta ahora en tecnología.

"Esto es culpa mía y una de las pocas veces en las que me he sentido realmente avergonzado dirigiendo OpenAI; no sabía que esto estaba ocurriendo, y debería haberlo sabido", respondió a estas acusaciones el director ejecutivo de la desarrolladora de ChatGPT a través de un tuit.

Sin embargo, días más tarde le pilló con las manos en la masa la publicación de otro artículo que parecía indicar que Altman conocía estos acuerdos de confidencialidad desde el principio.

Tal y como ha tenido que aprender el CEO: a mal tiempo, buena cara.

Se acabó la imagen del caballero sin espada

Sin embargo, en esta ocasión un marzo ventoso y un abril lluvioso no hicieron a mayo florido y hermoso.

Como ocurre con muchas otras empresas tecnológicas, la cara visible de OpenAI es la de su cofundador y director ejecutivo, Sam Altman, que hasta hace poco era visto como un genio benévolo con una visión de un mundo mejor.

Pero, a medida que la imagen de la desarrolladora de ChatGPT se deteriora, también lo hace la de su CEO. A principios de este año, la clase alta del capital riesgo empezó a volverse contra Altman y ahora los usuarios podrían estar predicando con ejemplo.

El incidente de Scarlett Johansson le hizo parecer un incompetente, los acuerdos de confidencialidad le hicieron parecer una víbora y los problemas de seguridad le hicieron parecer un genio malvado.

 

Más recientemente, el Wall Street Journal informaba este lunes de algunos negocios cuestionables de Altman.

Aunque no se beneficia directamente de OpenAI (no posee ninguna participación en la startup y su salario, de 65.000 dólares, es una gota de agua en comparación con su patrimonio neto, de mil millones de dólares), abundan los conflictos de intereses. Al parecer, tiene inversiones personales en varias compañías con las que la desarrolladora de ChatGPT hace negocios.

Por ejemplo, posee acciones en Reddit, que recientemente firmó un acuerdo con OpenAI. El primer cliente de la empresa de energía nuclear Helion, en la que Altman es un importante inversor, fue Microsoft, el mayor socio de la desarrolladora de ChatGPT. (Tanto Altman como OpenAI dicen que el director ejecutivo se ha abstenido de participar en estos acuerdos).

Ante el diluvio de malas noticias, la startup de inteligencia artificial y su líder han intentado controlar los daños: Altman anunció su compromiso de donar la mayor parte de su fortuna y la compañía habría cerrado un importante acuerdo con Apple.

Aun así, unas cuantas buenas noticias no van a bastar para arreglar el desaguisado al que se enfrenta Altman. Es hora de que coja un cubo y una fregona y se ponga a trabajar.

Conoce cómo trabajamos en Business Insider.