Así vigila China los grandes modelos de IA para que perpetúen los "valores socialistas" del país

El presidente de China, Xi Jinping, llega a la tercera sesión plenaria de la Asamblea Popular Nacional, en Pekín (China), en marzo de 2017.
El presidente de China, Xi Jinping, llega a la tercera sesión plenaria de la Asamblea Popular Nacional, en Pekín (China), en marzo de 2017.

Tyrone Siu/Reuters

Foto del redactor Alberto R. AguiarFoto del redactor Alberto R. Aguiar
  • China se ha tomado en serio la regulación de la inteligencia artificial y audita, examina y aprueba uno a uno los grandes modelos que las tecnológicas lanzan allí.
  • Un equipo de funcionarios se encarga de determinar si un producto puede salir al público evitando respuestas incómodas para las altas esferas de Pekín.

La Unión Europea ya sabe cómo regulará la IA: los Veintisiete vieron cómo su Reglamento de la Inteligencia Artificial nacía a pocas semanas de las elecciones del mes de junio. No comenzará a aplicarse hasta dentro de meses.

La norma cataloga a los sistemas IA en función del riesgo que implican sus usos. Por eso hay herramientas IA de riesgo mínimo y modelos algorítmicos de riesgo "inaceptable" que son directamente prohibidos o limitados, como por ejemplo la posibilidad de puntuar a los ciudadanos en función de su comportamiento o hábitos.

Hay críticos que consideran que el Reglamento de IA se quedará corto a medida que se vayan conociendo nuevos casos de uso y críticos que opinan que la norma puede obstruir la capacidad de innovación de los empresarios y tecnólogos en el Viejo Continente.

El de la UE es un enfoque regulatorio inédito en el resto del mundo. En China también se está regulando la IA, pero el régimen de Pekín no se anda con medias tintas. Tanto, que medios como el Financial Times ya hablan de que los reguladores en el gigante asiático están desplegando un sistema de censura para que los modelos de lenguaje se entrenen con "valores socialistas".

En realidad, lo que está sucediendo en China es que la Administración del Ciberespacio China, CAC por sus siglas en inglés, está obligando a las grandes tecnológicas del país a permitir que sus grandes modelos de IA sean revisados por funcionarios. Entre las afectadas están ByteDance, propietaria de TikTok, Alibaba, Moonshot y 01.AI, según el Financial Times.

El diario británico ha sabido, a través de fuentes involucradas en estas auditorías gubernamentales, que los funcionarios someten a los grandes modelos de texto chinos a una serie de preguntas para ver cómo responden. Muchas de esas preguntas tienen carga política y pueden llegar a provocar respuestas sensibles sobre el presidente Xi Jinping.

La CAC tiene un equipo de funcionarios dedicado expresamente a auditar los modelos de IA de las tecnológicas en el país. Un empleado de una compañía de Hangzhou que prefiere no revelar su nombre cuenta en declaraciones al diario británico cómo son estas auditorías: los funcionarios llegan, se sientan en una sala de reuniones, y empiezan su examen.

"La primera vez no lo aprobamos, no nos dieron razones muy claras, por lo que tuvimos que hablar con colegas del sector", cuenta este trabajador. "Tocó un poco de prueba y error, y lo aprobamos a la segunda, aunque todo el procedimiento puede durar meses".

El nuevo plan de China para dominar el futuro tecnológico va a transformar el mundo

Fruto de estas auditorías, algunos chatbots populares en China, como el de Baidu, son capaces de esquivar preguntas comprometedoras para Pekín, como qué ocurrió el 4 de junio de 1989 —la fecha en la que tuvo lugar la masacre de Tiananmén— o por qué se dice que el presidente Xi se parece a Winnie-the-Pooh.

Sin embargo, los funcionarios del CAC también exigen que los chatbots no esquiven para siempre las preguntas: solo pueden eludir responder un 5% de las peticiones de los usuarios. Por eso se da la circunstancia de que aunque estas preguntas más sensibles son eludidas, no hay auditores vigilando qué se responde y cómo cuando estos modelos IA ya están al alcance del público.

También se da la circunstancia de que muchos modelos lanzan respuestas predefinidas ante preguntas controvertidas, porque es costoso y complicado tener la capacidad de ajustar las respuestas que un modelo de lenguaje pueda dar.

La CAC, además de auditar y aprobar los modelos de IA en el territorio, también vigila algunas regulaciones que Pekín ya ha aprobado sobre los deepfakes y el etiquetado de contenidos reales o falsificados con IA. La regulación china, además, responsabiliza a las personas de lo que hacen estos modelos, como explicaba en Business Insider Linette Lopez.

Ni ByteDance ni Alibaba ni Moonshot, Baidu o 01.AI han atendido al Financial Times. Tampoco ha respondido a las preguntas del diario británico la Administración del Ciberespacio China, que hacen todas estas auditorías para asegurarse de que los generadores de texto por IA presentes en el gigante asiático atienden siempre "los valores socialistas".

Ese principio, y otros, como evitar que un modelo "menoscabe la unidad nacional" son algunas de las directrices que China envía a las empresas IA presentes en su territorio. 

No es nada muy distinto o sorprendente teniendo en cuenta que Pekín ya subió un telón de acero digital, el conocido "gran cortafuegos", que impide a los ciudadanos chinos a acceder a muchas plataformas o medios occidentales.

Por otro lado, la gran diferencia con las auditorías a los modelos IA en el resto del mundo es que las grandes tecnológicas —generalmente estadounidenses— se someten voluntariamente a exámenes como los que proponen en China para asegurarse de que sus productos IA son seguros y no incentivan polarización o ataques terroristas.

Las auditorías en grandes multinacionales como Meta, claro, nacen dentro de la misma casa: las tecnológicas cuentan con sus equipos de Red Team para poner al límite sus modelos de texto y comprobar qué respuestas dan a preguntas más sensibles.

La otra gran diferencia, claro, es que los grandes modelos IA de Occidente no tienen por qué atender los "valores socialistas" que Pekín persigue reivindicar también en la inteligencia artificial.

Conoce cómo trabajamos en BusinessInsider.

Etiquetas: Trending, Inteligencia artificial, China, Ciberguerra, Estados Unidos