Nadie debería confiar en la autorregulación de OpenAI, según sus propias exconsejeras

Lloyd Lee,
Hannah Getahun
| Traducido por: 
El CEO de OpenAI, Sam Altman, se ha enfrentado a las críticas contra su organización desde que fue restituido el pasado mes de noviembre.
El CEO de OpenAI, Sam Altman, se ha enfrentado a las críticas contra su organización desde que fue restituido el pasado mes de noviembre.

Jason Redmond/AFP vía Getty

  • Dos antiguas miembros de la junta directiva de OpenAI han declarado a medios de comunicación que los organismos reguladores deberían legislar la actividad de las compañías de inteligencia artificial.
  • Helen Toner y Tasha McCauley eran las únicas mujeres del consejo de administración de la desarrolladora de ChatGPT, pero abandonaron su puesto el pasado noviembre, después de haber apoyado la destitución de Sam Altman como CEO.

Dos antiguas miembros de la junta directiva de OpenAI han afirmado que no se puede confiar en que las empresas de inteligencia artificial se autorregulen y han defendido que debe existir una regulación por parte de organismos externos para que estas organizaciones rindan cuentas.

Helen Toner y Tasha McCauley eran miembros del consejo de administración de la desarrolladora de ChatGPT antes de que ambas presentasen su dimisión en noviembre de 2023, en medio del escándalo que se produjo con la destitución de Sam Altman, cofundador de OpenAI. Altman fue restituido como CEO apenas unos días después de su repentina salida y volvió a la junta directiva cinco meses más tarde.

Las dos exmiembros del consejo de administración han coescrito un artículo de opinión para The Economist en el que mantienen su decisión de destituir a Altman, ateniéndose a las declaraciones de altos directivos de OpenAI que aseguraban que el cofundador había creado una "cultura tóxica de la mentira" y había incurrido en un "comportamiento [que] puede caracterizarse como maltrato psicológico".

Desde que el CEO regresó a la junta directiva de la startup en marzo, la desarrolladora de ChatGPT ha sido cuestionada por su compromiso con la seguridad y ha sido criticada por haber utilizado una voz que sonaba "inquietantemente parecida" a la de la actriz Scarlett Johansson para su nuevo modelo de IA, el GPT-4o.

Sam Altman

Con Altman de nuevo al timón, Toner y McCauley han expresado que no se puede confiar en que OpenAI se haga responsable de sus actos.

"También creemos que los acontecimientos ocurridos desde su regreso a la compañía —incluida su reincorporación al consejo y la marcha de altos cargos enfocados en la seguridad— son un mal presagio para el experimento de autogobierno de OpenAI", han señalado las dos antiguas miembros de la junta directiva.

Para que la empresa tenga éxito en su supuesta misión de beneficiar a "toda la humanidad", Toner y McCauley argumentan que los gobiernos deben intervenir y establecer "marcos reguladores eficaces ahora".

Las antiguas miembros del consejo de OpenAI han admitido que hubo un tiempo en el que incluso ellas creyeron que la compañía podía regularse a sí misma, pero han apuntado que, basándose en su experiencia, creen que "el autogobierno no puede resistir de forma fiable la presión de los incentivos económicos".

Business Insider ha tratado de ponerse en contacto con OpenAI, con Toner y con McCauley, pero por el momento no ha obtenido respuesta.

Los responsables políticos deben "actuar con independencia" de las empresas de inteligencia artificial

Las exmiembros de la junta directiva de OpenAI han hecho un llamamiento a la regulación gubernamental, pero han reconocido que la legislación mal diseñada puede obstaculizar "la competencia y la innovación", al suponer una carga para las compañías más pequeñas.

"Es crucial que los responsables políticos actúen con independencia de las principales empresas de IA a la hora de desarrollar nuevas normas", han añadido en ese sentido. "Deben estar atentos a las lagunas jurídicas, a los 'fosos' regulatorios que protegen a los pioneros de la competencia y a la posibilidad de captación regulatoria".

En abril, el Departamento de Seguridad Nacional de Estados Unidos (DHS, por sus siglas en inglés) anunció la creación de una "Junta de Seguridad y Protección de la Inteligencia Artificial", un órgano consultivo que emitirá recomendaciones para "un desarrollo y despliegue seguros de la IA" en las infraestructuras críticas del país norteamericano.

Entre los 22 miembros de esta junta se encuentran Altman y otros CEO de grandes tecnológicas, como el CEO de Nvidia, Jensen Huang, y el CEO de Alphabet (la matriz de Google), Sundar Pichai.

Aunque la junta de seguridad de EEUU también incluye a representantes de organizaciones tecnológicas sin ánimo de lucro, los líderes de compañías con ánimo de lucro parecen estar sobrerrepresentados.

Los expertos en ética de la inteligencia artificial que han hablado con medios de comunicación como Ars Technica han manifestado su preocupación por que la influencia desmesurada de las organizaciones con ánimo de lucro pueda dar lugar a políticas que favorezcan a la industria por encima de la seguridad humana.

"Si todos estamos de acuerdo en que nos preocupamos por la seguridad de las personas, entonces creo que podemos estar de acuerdo en que es importante tener en la mesa a personas especializadas en dar prioridad a las personas sobre la tecnología", declaraba al medio de comunicación especializado en tecnología Margaret Mitchell, experta en ética de la inteligencia artificial de Hugging Face.

Un portavoz de DHS tampoco ha respondido a la petición de declaraciones de este medio de comunicación.

Conoce cómo trabajamos en Business Insider.