Los empleados de OpenAI exigen un cambio: estas son las 4 cosas que piden

Jordan Hart
| Traducido por: 
El director ejecutivo de OpenAI, Sam Altman.

Jack Guez/Getty Images; Jenny Chang-Rodriguez/BI

  • Empleados actuales y anteriores de las principales empresas de inteligencia artificial firman una carta en la que alertan sobre los riesgos de la IA. 
  • Aseguran que "la pérdida de control de los sistemas autónomos de IA podría provocar la extinción humana". 

Un grupo de nueve empleados, actuales y anteriores de OpenAI, y trabajadores de otras empresas de inteligencia artificial, han firmado una carta alertando sobre los riesgos de la IA.

En la misiva, solicitan más transparencia a las compañías y mayor protección para las personas que planteen sus dudas sobre el poder de la IA

La extinción humana

"Somos empleados actuales y anteriores de empresas de inteligencia artificial de vanguardia, y creemos en el potencial de esta tecnología para ofrecer beneficios sin precedentes a la humanidad", señalan.

"También entendemos los graves riesgos que plantea, y que van desde un mayor afianzamiento de las desigualdades existentes, hasta la manipulación y la desinformación, o la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana", continúan. "Las propias empresas de IA han reconocido estos riesgos, al igual que los gobiernos de todo el mundo y otros expertos en IA".

 

Un total de 13 personas firmaron la carta y todas provienen de algunos de los principales actores de la IA, incluidos OpenAI, Anthropic y DeepMind. También contó con el respaldo de dos hombres conocidos como los "padrinos de la IA", Yoshua Bengio y Geoffrey Hinton.

"Decidí dejar OpenAI porque perdí la esperanza de que actuaran de manera responsable, particularmente porque persiguen la inteligencia artificial general", indicó el exempleado de OpenAI Daniel Kokotajlo en un comunicado.

¿Qué piden los trabajadores de empresas de inteligencia artificial?

Los firmantes incluyen un listado de cuatro demandas que, según explicaron, ayudarían a mitigar los problemas existentes de desigualdad y desinformación en el espacio de la inteligencia artificial.

Estos son los cuatro principios que estos trabajadores exigen que adopten a las empresas de IA:

  • Que la empresa no firme ningún acuerdo que prohíba el "menosprecio" o la crítica a la empresa por preocupaciones relacionadas con el riesgo, ni tomará represalias por las críticas relacionadas con el riesgo, obstaculizando cualquier beneficio económico adquirido.
  • Que la empresa facilite un sistema anónimo para que los empleados actuales y anteriores planteen inquietudes relacionadas con riesgos al directorio de la empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante.
  • Que la empresa apoyará una cultura de crítica abierta y permitirá que sus empleados actuales y anteriores planteen inquietudes relacionadas con riesgos sobre sus tecnologías al público, a la junta directiva de la empresa, a los reguladores o a una organización independiente apropiada con experiencia relevante, siempre y cuando, los secretos comerciales y otros intereses de propiedad intelectual estén debidamente protegidos.
  • Que la empresa no tomará represalias contra empleados actuales o anteriores que compartan públicamente información confidencial relacionada con riesgos después de que otros procesos hayan fallado. Una vez que exista un proceso adecuado para plantear inquietudes de forma anónima, aceptamos que las inquietudes se planteen inicialmente a través de dicho proceso. Sin embargo, mientras no exista dicho proceso, los empleados actuales y anteriores deben conservar la libertad de informar sobre sus inquietudes al público.

Business Insider se ha puesto en contacto con OpenAI, Antrhopic y Google Deepmind para comentar la carta.

La portavoz de OpenAI, Lindsey Held, declaró a The New York Times que la compañía está "orgullosa de nuestro historial, proporcionando los sistemas de IA más capaces y seguros, y cree en nuestro enfoque científico para abordar el riesgo".

Conoce cómo trabajamos en Business Insider.