Por qué el trabajo de los directores de ética será clave en la empresas tras la irrupción de la IA

Los planes para pasarse a la inteligencia artificial son más rápidos de lo que se pensaba, según un nuevo estudio
Foto del redactor Félix EstebanFoto del redactor Félix Esteban
  • El director de ética de una empresa garantiza que la IA se use de manera responsable.
  • Definen principios para regular la tecnología, aprenden el panorama legal y se relacionan con las partes interesadas.
  • Puedes ganar salarios anuales que alcanzan las seis cifras. 

El lanzamiento de ChatGPT marcó el comienzo del mundo corporativo en una nueva era. La tecnología de la IA generativa puede ya escribir correos electrónicos, producir código y materializar gráficos en minutos. De repente, los días en que los trabajadores examinaban detenidamente sus bandejas de entrada y creaban presentaciones cuidadosamente elaboradas parecen ya una reliquia del pasado.

Las empresas, atraídas por ganancias y ganancias de productividad, se han apresurado a adoptar la tecnología. Según una encuesta de la firma consultora Mckinsey & Company, el 65% de las más de 1.300 compañías indican que ahora usan regularmente IA generativa, el doble del número que la usó el año anterior.

Pero el riesgo de mal uso la tecnología está siempre sobre la mesa. La IA generativa puede alucinar, difundir información errónea y reforzar los prejuicios contra los grupos marginados si no se maneja adecuadamente. Dado que la tecnología se basa en volúmenes de datos confidenciales, el potencial de violaciones de datos también es alto. En el peor de los casos, sin embargo, existe el peligro de que cuanto más sofisticado se vuelva, menos probable es que se alinee con los valores humanos.

Como todo gran poder, entonces, conlleva una gran responsabilidad, y las empresas que ganan dinero con la IA generativa también deben asegurarse de regularla. Ahí es donde entra un director de ética.

Un papel crítico en la era de la IA

Los detalles de su rol varían de una compañía a otra, pero en general son responsables de determinar el impacto que el uso de IA de una compañía podría tener en la sociedad en general, según Var Shankar, el director de IA y privacidad de Enzai, una plataforma de software para la gobernanza, el riesgo y el cumplimiento de la IA van "más allá de la empresa y sus resultados, ¿cómo afecta a sus clientes? ¿Cómo afecta a otras personas en el mundo? Y luego, ¿cómo afecta al medio ambiente", dijo a Business Insider. Viene "construyendo un programa que estandariza y escala esas preguntas cada vez que usa IA."

Es un papel que le da a los nerds de políticas y estudiantes de filosofía, junto con los rumores de programación, una base en la industria tecnológica que cambia rápidamente. Y a menudo viene con un cheque de pago anual considerable que alcanzan las seis cifras.

Sin embargo, en este momento las empresas no están contratando personas en estos roles lo suficientemente rápido, según Steve Mills, director de ética de IA en Boston Consulting Group. "Creo que se habla mucho sobre el riesgo y los principios, pero hay poca acción para hacer operativo eso dentro de las empresas", indicó.

Una responsabilidad de nivel C-suite

Aquellos que tienen éxito en el papel tienen cuatro áreas de experiencia, según Mills. Deben tener una comprensión técnica sobre la IA generativa, experiencia en la construcción e implementación de productos, una comprensión de las principales leyes y regulaciones en torno a la IA, y experiencia significativa en la contratación y toma de decisiones en una organización.

"Con demasiada frecuencia, veo que las personas ponen a los gerentes de nivel medio a cargo, y si bien pueden tener experiencia, deseo y pasión, por lo general, no tienen la estatura para cambiar las cosas dentro de la organización y reunir a los equipos legales, comerciales y de cumplimiento", dijo. Agregó que cada compañía de Fortune 500 que usa IA a escala necesita cobrarle a un ejecutivo la supervisión de un programa de IA responsable.

Shankar, un abogado de formación, dijo que el papel no justifica ningún trasfondo educativo específico. La calificación más importante es comprender los datos de una empresa. Eso significa tener un control sobre las "implicaciones éticas de los datos que recopila, usa, de dónde proviene, dónde estaba antes en su organización, y qué tipo de consentimiento tienes a su alrededor", dijo.

Señaló el ejemplo de los proveedores de atención médica, que podrían perpetuar involuntariamente los sesgos si no tienen una comprensión firme de sus datos. En un estudio publicado en Science, los hospitales y las compañías de seguros de salud que utilizaron un algoritmo para identificar a los pacientes que se beneficiarían de la "gestión de la atención de alto riesgo" terminaron priorizando a los pacientes blancos más sanos sobre los pacientes negros más enfermos. Ese es el tipo de error que un oficial de ética puede ayudar a las empresas a evitar.

La tecnología disruptiva de Microsoft que podría hacer más eficiente a la IA y que consuma menos energía

Colaboración entre empresas e industrias

Aquellos que tengan este rol también deberían poder comunicarse con confianza con varias partes interesadas.

Christina Montgomery, vicepresidenta de IBM, directora de privacidad y confianza, y presidenta de su Junta de Ética de IA, le dijo a Business Insider que sus días generalmente están llenos de reuniones y eventos de clientes, junto con otras responsabilidades.

"Pasé mucho tiempo externamente, probablemente más tiempo últimamente, al hablar en eventos y participar con los responsables políticos y en las juntas externas, porque siento que tenemos una gran oportunidad de influir y determinar cómo será el futuro", dijo.

Montgomery está en ello, al igual que la Asociación Internacional de Profesionales de la Privacidad (International Association of Privacy Professionals), que recientemente lanzó la certificación Artificial Intelligence Governance Professional para las personas que desean liderar el campo de la ética de la IA. También se involucra a líderes gubernamentales y otros directores de ética.

"Creo que es absolutamente crítico que estemos hablando entre nosotros de manera regular y compartiendo las mejores prácticas, y hacemos mucho de eso en todas las empresas", dijo. Su objetivo es desarrollar una comprensión más amplia de lo que está sucediendo a nivel social, algo que ve como clave.

"Mi temor en el espacio en el que estamos ahora es que no haya interoperabilidad a nivel mundial entre todas estas regulaciones, y lo que se espera, dijo, y lo que está bien y lo que está mal en términos de lo que las empresas van a tener que cumplir", dijo; y añadió que "no podemos operar en un mundo de esa manera. Así que las conversaciones entre empresas, gobiernos y juntas son tan importantes en este momento."

Conoce cómo trabajamos en BusinessInsider.

Etiquetas: innovación, Inteligencia artificial, Trabajo, Curiosidades, Tecnología, Empresa