Un extrabajador de OpenAI confiesa por qué le despidieron: "He levantado algunas ampollas"

Jyoti Mann
| Traducido por: 
Una imagen de un teléfono móvil con el logo de OpenAI, la desarrolladora de ChatGPT.

NurPhoto/Getty

  • William Saunders abandonó su puesto de trabajo en OpenAI en febrero porque consideraba que la desarrolladora de ChatGPT no sabe gestionar los riesgos de seguridad que plantea la inteligencia artificial de forma responsable.
  • Saunders es una de las 13 personas que firmaron una carta en la que pedían principios que permitiesen a los trabajadores plantear sus preocupaciones con respecto a la IA. Asegura que OpenAI no aborda estas cuestiones "adecuadamente".

William Saunders, un exempleado de OpenAI que dimitió el pasado mes de febrero, ha ofrecido su versión a Business Insider con respecto a lo que le llevó a renunciar y más tarde a firmar una carta abierta pidiendo que se produzca un cambio de mentalidad en las empresas de inteligencia artificial.

Saunders ha declarado que las preocupaciones que planteó mientras trabajaba en OpenAI "no se abordaron adecuadamente". Ahora pide cambios que permitan a los trabajadores plantear este tipo de cuestiones en sus organizaciones sin miedo a represalias.

Saunders cree que los modelos de IA que están desarrollando compañías como OpenAI podrían tener consecuencias catastróficas en el futuro: "Probablemente, en mi caso, me preocupan más las cosas que podrían conducir a un desastre a gran escala o si las cosas se salen realmente de madre, como la posible extinción humana".

En su opinión, si los sistemas de inteligencia artificial llegan a ser más inteligentes que los seres humanos, se plantearán muchas cuestiones sobre el impacto potencial que tendrá esta tecnología en la sociedad.

Sobre todo, si "estos sistemas pueden mejorarse a sí mismos y crear una nueva generación aún más inteligente", ha afirmado el exempleado de OpenAI. "Existe eso o la posibilidad de que los sistemas se utilicen como un asistente muy inteligente que lleve a construir cosas como armas nucleares, biológicas o químicas si se les hace un jailbreak".

Saunders ha defendido que, si las empresas tratan lenta y cuidadosamente de predecir los peligros y abordarlos antes y después de su despliegue, existe una "buena oportunidad" para mitigar los riesgos.

Sin embargo, a ese respecto ha añadido: "No considero que el comportamiento de OpenAI sea responsable a la hora de gestionar este tipo de conflictos".

Microsoft, OpenAI y Google han anunciado nuevas funciones de inteligencia artificial en mayo.

Saunders, que trabajó en OpenAI durante unos tres años, es uno de los 13 firmantes de una carta que fue publicada este martes en la que se exigen medidas para responsabilizar a las compañías del sector de la IA.

Este antiguo trabajador de la desarrolladora de ChatGPT ha explicado que un incidente en el que se despidió a un empleado que expresó su preocupación por la seguridad, sumado al hecho de que OpenAI exigiese al personal que abandonaba su puesto en la startup que firmase acuerdos "extraordinarios" de confidencialidad (NDA, por sus siglas en inglés), han llevado a la creación de los cuatro puntos que se exponen en la carta.

Leopold Aschenbrenner, que trabajaba en el equipo de Superalineación de la empresa de IA, detallaba esta semana en una entrevista para el podcast de Dwarkesh Patel los motivos de su despido. Esta información llegaba después de que The Information publicase en abril que Aschenbrenner había sido despedido por filtrar información.

"Terriblemente insuficiente"

Según ha señalado este extrabajador, la desarrolladora de ChatGPT comunicó a su plantilla que había sido despedido por compartir con investigadores externos un documento que contenía ideas sobre seguridad, pero Aschenbrenner asegura que su despido también estuvo relacionado con el hecho de haber informado a la junta directiva de OpenAI de que había recibido una advertencia de Recursos Humanos tras compartir un comunicado de seguridad con sus directores.

Dicho comunicado estaba relacionado con la seguridad de la tecnología de compañía, que, según Aschenbrenner, era "terriblemente insuficiente".

Por su parte, Saunders ha declarado a este medio de comunicación que también planteó sus preocupaciones en ese sentido, pero que la respuesta de OpenAI "no fue adecuada".

Este investigador e ingeniero dirigía un equipo de cuatro personas que trabajaba en modelos de interpretabilidad y lenguaje. Tras dimitir, afirma que le dieron siete días para firmar un NDA y que le disuadieron a la hora de querer hablar primero con un abogado.

"Minimizar y restar importancia"

A raíz de un reportaje publicado en Vox, Sam Altman, CEO de OpenAI, argumentó que su empresa no iba a privar a los empleados que dimitiesen de sus derechos adquiridos sobre las acciones de la desarrolladora de ChatGPT en caso de que no firmasen dichos acuerdos (como sí que ocurría con anterioridad).

Saunders ha apuntado que la respuesta de Altman representaba un "microcosmos" de la forma en la que el CEO y la dirección de OpenAI hablan en público, con el fin de "minimizar y restar importancia a la gravedad de lo sucedido".

Este extrabajador sostiene que OpenAI todavía no ha aclarado si va a impedir que los antiguos empleados que hayan criticado a la compañía puedan vender sus acciones.

Después de que surgieran informes sobre los acuerdos de confidencialidad y de que varios trabajadores de la startup dimitiesen por cuestiones relacionadas con su enfoque de las cuestiones de seguridad de la inteligencia artificial, la empresa anunció la semana pasada que ha formado un nuevo comité de seguridad y protección.

Business Insider ha tratado de ponerse en contacto con OpenAI, pero por ahora no ha obtenido respuesta. 

Conoce cómo trabajamos en Business Insider.