El Reglamento de la IA puede decepcionar: así se organiza ya parte de la sociedad civil para combatir los efectos más nocivos de esta tecnología

Ilustración sobre inteligencia artificial.

Getty

Foto del redactor Alberto R. AguiarFoto del redactor Alberto R. Aguiar
  • A finales de 2021 nació la coalición Acción por la Justicia Algorítmica (AxJA) que usa la litigación estratégica para frenar el despliegue de esta tecnología sin control.
  • Las últimas negociaciones en los trílogos por el Reglamento de la IA han causado preocupación entre organizaciones en defensa por los derechos digitales.

La ley de Amara, acuñada por el futurólogo Roy Amara, sigue vigente en 2023. Se trata de un popular adagio que expone cómo los seres humanos sobrevaloran el impacto a corto plazo de una tecnología, mientras que subestiman sus efectos a largo plazo.

Ahora que los modelos de inteligencia artificial (IA) viven una nueva juventud, esta ley empieza a adquirir un cariz premonitorio. Pasó con la blockchain, con los NFT o con el metaverso y ya está sucediendo con la IA. ChatGPT no tiene ni un año de vida como producto, pero ya hay ensoñaciones sobre los desorbitados sueldos que van a cobrar los ingenieros de prompts.

Hace apenas unos días la Comisión Europea advertía en redes que "mitigar el riesgo de extinción humana por IA" debería ser "una prioridad global". El que la IA primero supere y luego esclavice a la humanidad es, por ahora, ciencia ficción, pero sí una preocupación más propia de empresarios tecnológicos multimillonarios que de instituciones políticas.

Tal vez a esos magnates les inquiete saber que el fenómeno que puede acercar la humanidad al abismo ya existe y recibe otro nombre: cambio climático.

La tecnología sigue sumida en esos bucles de sobreexpectación o hype, pero con cada bucle completado algunos desarrollos tecnológicos no solo se comercializan: se normalizan y crean nuevos e importantes desafíos sociales. Prueba: hace días se supo que las cárceles catalanas están ensayando un piloto para controlar a la población reclusa con una IA.

U otro caso: la noticia de que una veintena de niñas de entre 12 y 17 años de Almendralejo (Extremadura) estaban sufriendo por la difusión de imágenes falsas realizadas con IA (deepfakes) que chicos de su entorno y edad habían creado para desnudarlas digitalmente.

Es por esta razón que a nivel global no se debate si hay que regular la IA o no: la discusión está más centrada en cómo regularla.

¿Qué va a hacer Google con los contenidos generados con IA en su buscador?

La Unión Europea va varios pasos por delante en este debate, y está ultimando las negociaciones de su esperado Reglamento de la IA. Cuando Bruselas propuso su borrador en 2021, la norma se centraba más en herramientas como el reconocimiento facial o la vigilancia biométrica. El estallido de las IA generativas llegó bastante después.

Pero precisamente esos instrumentos tecnológicos que los 27 se propusieron regular ya están causando no solo enormes desafíos, sino también perjuicios. La literatura académica es extensa al denunciar, por ejemplo, que muchos sistemas de vigilancia que incluyen modelos de reconocimiento facial pueden propiciar discriminación.

Las últimas negociaciones por el futuro reglamento preocupan en varios colectivos

Muchos de estos modelos tan controvertidos estarán sujetos al futuro Reglamento de la IA, y el sector de auditoras que se dedican a comprobar si algunos sistemas tienen sesgos y pueden ser socialmente dañinos sigue creciendo. Pero el Reglamento de la IA europeo no solucionará las cosas por sí solas.

Sobre todo por sus futuras y a veces ineludibles carencias: hace escasas semanas el Tribunal General de la Unión Europea falló contra una asociación en defensa de la privacidad que había pedido acceso a los datos con los que se había entrenado un proyecto que implementaba un detector de mentiras con IA en algunas fronteras europeas.

Europa estudia blindar sus fronteras con las mismas tecnologías que quiere reguladas en su interior: "Los migrantes merecen el mismo amparo que cualquier otra persona"

El proyecto, bautizado como iBorderCtrl, es un ejemplo de las potenciales carencias de la norma comunitaria: el reglamento determinará si un modelo de IA es arriesgado socialmente para los ciudadanos europeos y en función de ello impedirá la comercialización de servicios. Pero la justicia comunitaria ha acabado amparando ese proyecto que podía lesionar derechos de refugiados.

Unas carencias que se pueden agravar a tenor de cómo avanzan las reuniones tripartitas entre Parlamento, Consejo y Comisión: la semana pasada se supo de cómo el sexto artículo del reglamento podría descafeinarse al añadir excepciones con las que los modelos de alto riesgo podrían operar en la Unión Europea a pesar de ser catalogados como tales.

El Reglamento de la IA no solucionará otras cosas no solo por esas ausencias o carencias: también porque no es necesario esperar a una norma específica para frenar el impacto de una tecnología que se produce en el mundo físico, en la sociedad. 

Y a ese filón se agarra una coalición llamada Acción por la Justicia Algorítmica, AxJA, que está cerca de cumplir 2 años.

La principal arma de la coalición

AxJA nace a finales de 2021 de una conversación entre Gemma Galdon, experta en auditorías algorítmicas y responsable de Eticas, una auditora y fundación del ámbito, con Clara Jiménez, una de las fundadoras de Maldita.es, un verificador de bulos. Mireia Orrás, portavoz de la coalición, explicaba en una entrevista con Business Insider España los fines que persigue esta organización.

"Se vio que estaban sucediendo muchas situaciones en las que la tecnología se estaba aplicando sin ninguna conciencia de qué impacto podía estar generando y afectando nuestros derechos. Hablando, surge la pregunta de qué podemos hacer ahora mismo sin una regulación muy firme al respecto para intentar frenar esos casos", explica Orrás.

Orrás atendió a Business Insider España semanas antes de que se celebraran las elecciones municipales de mayo y las generales de julio, y a meses vista de que el Reglamento de la IA entrase en vigor. La norma europea todavía no ha sido aprobada definitivamente, pero la luz verde podría llegar antes de que termine el año.

Por eso, la portavoz de AxJA explicaba que "teniendo en cuenta que el reglamento tardará", desde la coalición buscaban qué herramienta se podría empezar a utilizar "ahora mismo" para "combatir esas situaciones antes de que en 5 años muchas tecnologías estuviesen operando a diversos niveles y sea entonces el triple de complicado aplicar una regulación".

La herramienta se encontró rápido: la litigación estratégica.

No hace falta esperar al Reglamento de la IA si la aplicación inconsciente de una tecnología en un proceso productivo o en cualquier ámbito o esfera de la vida íntima puede lesionar los derechos de los ciudadanos o de algún colectivo de la sociedad civil. 

No hace falta esperar al Reglamento para determinar si una extracción de datos en un centro de trabajo no tiene base legal, o para concluir que la creación de imágenes falsas y pornográficas de menores, como le sucedió al grupo de niñas de Almendralejo, es un delito.

"Surgió esa idea, de por qué no utilizábamos la litigación estratégica para empezar a activar toda la estructura judicial y para que se empezara a ver y a interpretar cómo todas estas situaciones que involucran una IA están impactando en la sociedad", abunda Orrás. "Por ejemplo, cómo transponemos la libertad de expresión si la aplicamos a esferas como las redes sociales".

"¿Todo vale o no todo vale? ¿Cómo aplicamos todo lo que ya está regulado de derechos que tanto nos ha costado luchar? ¿Cómo se traslada a toda la digitalización que vemos por todas partes?", incide.

Otros ámbitos del derecho pueden ser el canal para "acciones más contundentes" ante despliegues tecnológicos no medidos

En la coalición hay representadas organizaciones de la sociedad civil, desde verificadores como Maldita, auditores algorítmicos como Eticas, a fundaciones como Open Society, sindicatos como UGT, despachos de abogados y otras entidades como X.net o Reclaim Your Face.

Cuando Orrás llegó a la AxJA en noviembre de 2022 tenía claro cuál debía ser la primera misión del organismo: "Entender qué situaciones estaban operando, o en qué sectores la tecnología estaba ya invadiendo completamente cualquier esfera que hubiéramos protegido". Por eso surgieron esas alianzas, de las cuales empezar a elaborar un mapeo de la escena actual.

Las 3 primeras líneas que abordó la coalición fueron el reconocimiento facial, "por ser una tecnología que se está aplicando sin ningún control o límite", la brecha digital, "porque ya se ven casos sobre todo en servicios públicos de digitalización" que están dejando atrás a ciudadanos, y las cookies, "ya que cada vez se ven mejor las consecuencias de todo el rastreo que sufrimos en la red".

De esas 3 primeras líneas se dio un salto a 8 líneas de trabajo en la que han identificado una serie de casos. El problema: siempre faltarán manos y recursos para abordar una litigación estratégica en una veintena de casos simultánea. Por eso el primer paso lo dio el organismo ante los exámenes en línea que la Universitat Oberta de Catalunya estaba celebrando.

Ya en abril de este año el organismo de protección de datos catalán sancionó a la universidad en línea por usar reconocimiento facial para realizar estos exámenes a sus alumnos. 

Las startups europeas solo captan el 5% del dinero invertido por el capital riesgo en IA generativa

Fruto de los casi 2 años de la coalición en activo hay varios aprendizajes. Mireia Orrás reconoce que en un primer momento los contactos con las entidades que podían estar implementando tecnologías sin todo el celo necesario se hicieron desde la cordialidad. "Cuando hablas con la Administración a menudo hay que recurrir incluso al Consejo de Transparencia".

"Pero la respuesta a nivel privado es nula. Ya puedes enviar una carta muy amable con toda la buena intención del mundo pero el resultado es nulo". Por eso, un primer aprendizaje de esta coalición fue que "a lo mejor no hace falta ser lo más amigable sino empezar desde un medio grado".

En esa litigación estratégica la intención de la coalición tampoco es dejarlo todo a cargo del RGPD. Hay más herramientas para ello. Por ejemplo: qué se puede hacer en el caso de que se esté empleando un modelo de reconocimiento facial para, como trabajador, acceder al centro de trabajo. Ahí se puede recurrir a la legislación laboral y plantear "acciones más contundentes".

El cómo llegar a conocer los casos no es problema para Acción por la Justicia Algorítmica. No solo reciben denuncias, quejas y consultas por los canales habituales: en el ámbito de la digitalización es sencillo encontrar causas porque "lo bueno es que al sector público y al sector privado les encanta presumir".

"Y como presumen, nos enteramos". Un ejemplo es ese piloto de una IA que controlará a la población reclusa en los centros penitenciarios catalanes. Otro, el anunció que Mercadona hizo hace años: instalaría un sistema piloto con reconocimiento facial en sus establecimientos. Apenas un año después la AEPD propuso a la cadena de supermercados para sanción.

Mercadona, de hecho, tuvo que pagar 2,5 millones de euros.

Conoce cómo trabajamos en BusinessInsider.

Etiquetas: Trending, Unión Europea, Inteligencia artificial, Política internacional, Justicia, Ciberseguridad