El Oppenheimer de la IA: las conclusiones de este investigador son aterradoras

  • Michal Kosinski está empujando los límites de lo que la inteligencia artificial puede hacer y eso le aterroriza.
  • En su opinión la sofisticada inteligencia artificial del mañana conocerá tan bien a las personas que no necesitará la fuerza: simplemente se asegurará de que obedezcamos dándonos exactamente lo que queremos. 
El Oppenheimer de la inteligencia artificial.

Brian Stauffer para Business Insider

Adam Rogers,

| Traducido por: 

Michal Kosinski sabe exactamente cómo suena cuando habla de su investigación. Y no suena nada bien.

Psicólogo de la Universidad de Stanford, es especialista en Psicometría, un campo que trata de medir las facetas de la mente humana. Durante más de una década, su trabajo ha asustado a la gente. Estudio tras estudio, Kosinski ha concluido de manera plausible que los algoritmos de aprendizaje automático de la inteligencia artificial pueden averiguar cosas profundamente privadas sobre nosotros (nuestra inteligencia, nuestras preferencias sexuales o nuestras creencias políticas) utilizando poco más que nuestros "me gusta" de Facebook y fotografías de nuestros rostros. Y eso es aterrador.

"Ni siquiera me interesan las caras de las personas. Nada en mi carrera que hacía pensar que me iba a pasar unos cuantos años analizando las apariencias de la gente", insiste Kosinski.

Lo que le importa a Kosinski son los datos y la psicología. ¿Y qué son las fotografías sino datos pixelados? "La teoría psicológica te grita a la cara que debería haber vínculos entre el aspecto facial y los rasgos íntimos", afirma. Por eso cree que se puede juzgar la vida interior de alguien por sus características externas.

Es una creencia con implicaciones inquietantes. La ciencia lleva siglos intentando adivinar verdades sobre la personalidad y el comportamiento a partir de pruebas e imágenes. Ya en el siglo XVIII, los fisonomistas medían los rasgos faciales en busca de cualidades como la nobleza y la inmoralidad. Los frenólogos utilizaban calibradores para medir las protuberancias de la cabeza de las personas, con la esperanza de diagnosticar incapacidades mentales o morales. Los eugenistas utilizaban fotografías y pruebas de cociente intelectual para determinar qué personas eran "inferiores" y esterilizaban a los que no daban la talla, que solían ser los que no eran blancos y ricos. Los métodos diferían, pero la teoría seguía siendo la misma: que las mediciones podían calibrar de algún modo la mente y el valor de una persona para la sociedad.

Para ser claro, ninguna de estas "ciencias" funcionó. De hecho, cada vez que alguien afirmaba que había encontrado una forma de medir los rasgos internos de las personas basándose en sus características exteriores, rápidamente se convertía en una herramienta para discriminar por cuestión de raza o género. Esto se debe a que los descubrimientos sobre individuos casi siempre se aplican a poblaciones enteras. De decir "algunas personas son más inteligentes que otras" a "algunas razas son más inteligentes que otras" hay una línea muy fina. Un test puede ser útil para evaluar para qué clase de cálculo tiene aptitudes tu hija. Pero es un error y además es malintencionado utilizar los resultados de esos tests para afirmar que no hay muchas ingenieras informáticas porque a las chicas no les gustan las matemáticas. Sin embargo, hoy en día, los tests de inteligencia y el reconocimiento facial se siguen utilizando, y abusando, en todos los ámbitos, desde el marketing y la contratación laboral hasta la admisión universitaria y la aplicación de la ley.

Kosinski es consciente de la larga y oscura historia del campo que ha elegido. Al igual que sus antepasados medidores de cráneos, cree que su investigación es correcta: que la IA, combinada con el reconocimiento facial, puede poner al descubierto nuestras personalidades y preferencias con más precisión que los humanos. Y para él, esa precisión es lo que hace que sus descubrimientos sean tan peligrosos. Teme que, en defensa de esta capacidad, sus creadores violen la intimidad de las personas y la utilicen para manipular la opinión pública y perseguir a grupos minoritarios. Su trabajo, dice, no pretende ser utilizado como herramienta de opresión, como la pseudociencia del pasado. 

Es una advertencia sobre el futuro. En cierto sentido, es el Oppenheimer de la IA, advirtiéndonos a todos del potencial destructivo de una bomba de inteligencia artificial, mientras la construye.

"Muy pronto, puede que nos encontremos en una situación en la que estos modelos tengan propiedades y capacidades que estén muy por delante de lo que los humanos podrían soñar. Y ni siquiera nos daremos cuenta", afirma.

Daron Acemoglu.

Al reunirme con él, veo que Kosinski no lleva ningún aparato para evaluar mi frente y determinar si soy perezoso, como hacían los frenólogos del siglo XIX. Va vestido con una camisa de flores y mocasines de cuero blanco sin calcetines, y me lleva a tomar un café a un soleado patio de Stanford. Allí, rodeados de una alegre y diversa multitud de estudiantes de empresariales, comienza a exponer sus argumentos sobre lo que teme que será la dominación algorítmica secreta de nuestro mundo.

Antes de trabajar con fotografías, Kosinski se interesó por Facebook. Cuando era estudiante de doctorado en Cambridge, a mediados de la década de 2000, los pocos científicos sociales que se tomaban en serio el emergente mundo online lo consideraban un valle inquietante, un lugar donde la gente construía personalidades falsas. Su comportamiento en internet no reflejaba su psicología ni su conducta en el mundo real.

Kosinski no estaba de acuerdo. "Sentía que seguía siendo yo mismo cuando utilizaba esos productos y servicios, y que mis amigos y la gente que conocía también eran así", afirma. Incluso las personas que se hacían pasar por algo que no eran seguían teniendo las mismas ansiedades, prejuicios e ideas preconcebidas que en la vida real.

Basándose en los 'me gusta' de Facebook, el modelo de Kosinski podía decir si un hombre era gay con una precisión del 88%

Para consternación de su director de tesis, esto se convirtió en la base del enfoque de Kosinski. "Ese fue el primer objetivo: mostrar esa continuidad. Y eso me llevó al segundo objetivo: si todos seguimos siendo nosotros mismos en internet, significa que podemos utilizar los datos recogidos en línea (big data) para comprender mejor a los seres humanos", explica. Para probar su hipótesis, Kosinski y un estudiante de posgrado llamado David Stillwell, del Centro de Psicometría de Cambridge, crearon una aplicación de Facebook llamada myPersonality, un cuestionario al estilo de las revistas que evaluaba rasgos de personalidad como la "apertura" o la "introversión", al tiempo que recogía los "me gusta" de la gente en Facebook. A continuación, construyeron un modelo informático que relacionaba esos "me gusta" con rasgos de personalidad específicos de casi 60.000 personas.

Los resultados, publicados en 2013 en Proceedings of the National Academy of Sciences, parecían asombrosos. Los "me gusta" de Facebook podían predecir la religión y la política de una persona con una precisión superior al 80%. El modelo podía decir si un hombre era gay con una precisión del 88%. A veces, el algoritmo no parecía tener poderes mágicos: por ejemplo, que te gustara el musical Wicked era uno de los principales indicadores de la homosexualidad masculina. Pero otras conexiones eran desconcertantes. Entre los mejores predictores de inteligencia, por ejemplo, estaban el gusto por las "tormentas eléctricas" y las "patatas fritas rizadas".

¿Cómo sacaba la máquina conclusiones tan aparentemente precisas a partir de datos tan arbitrarios? "¿Quién sabe por qué?", dice Stillwell, ahora director del Centro de Psicometría. "¿A quién le importa el porqué? Si se trata de un grupo de 10.000 individuos, los errores se anulan y es suficiente para una población". Stillwell y Kosinski, en otras palabras, no están especialmente interesados en si sus modelos dicen algo sobre la causalidad real, sobre una explicación detrás de las conexiones. La correlación es suficiente. Su método permite a una máquina predecir comportamientos y preferencias humanas. No tienen por qué saber, ni siquiera importarles, cómo.

Inteligencia artificial.

Brian Stauffer para Business Insider

Esos modelos no tardaron en convertirse en armas. Otro investigador del Centro de Psicometría, Aleksandr Kogan, llevó ideas similares a una consultora de campañas políticas llamada Cambridge Analytica, que vendió sus servicios a la campaña de Donald Trump en 2016 y a los defensores del Brexit en el Reino Unido. ¿Influyeron realmente los esfuerzos por manipular las redes sociales y cambiar el comportamiento de los votantes? Nadie lo sabe con certeza. Pero un año después, Stillwell y Kosinski utilizaron los datos de myPersonality para crear anuncios psicológicamente personalizados que influyeron notablemente en lo que compraron por internet 3,5 millones de personas, frente a las que vieron anuncios que no estaban dirigidos a ellas. 

La investigación se situó a la vanguardia de lo que hoy es habitual: utilizar algoritmos de redes sociales para vendernos cosas basándose en cada uno de nuestros datos y clics.

Lo que necesitas saber para estar informado

Lo que necesitas saber para estar informado

¿Te gusta lo que lees? Comienza tu día sabiendo qué piensan y qué les preocupa a los ejecutivos de las principales empresas del mundo con una selección de historias enviada por Business Insider España a primera hora cada mañana.

Recibe la newsletter

Más o menos al mismo tiempo que Kosinski demostraba que su investigación podía manipular al consumidor, un grupo de empresas empezaba a vender sistemas de reconocimiento facial. En aquel momento, ni siquiera eran buenos en lo que decían hacer: distinguir entre individuos con fines de identificación. Pero Kosinski se preguntaba si el software podría utilizar los datos contenidos en un gran número de fotografías, del mismo modo que había hecho con los "me gusta" de Facebook, para discernir cosas como las emociones y los rasgos de personalidad.

La mayoría de los científicos consideran esa idea una forma de fisionomía moderna, una pseudociencia basada en la suposición errónea de que nuestros rostros revelan algo sobre nuestras mentes. Claro que podemos saber mucho de alguien con solo mirarlo. De un vistazo podemos adivinar, con bastante exactitud, cosas como la edad, el sexo y la raza

Basándonos en simples probabilidades, podemos intuir que un hombre blanco mayor tiene más probabilidades de ser políticamente conservador que una mujer latina más joven; un tipo sin afeitar con una sudadera sucia y unas zapatillas de deporte destrozadas probablemente tenga menos dinero en efectivo que una mujer con un traje de Chanel. 

¿Pero discernir cosas como la extroversión, la inteligencia o la fiabilidad? Venga ya.

Pero una vez más, Kosinski creía que una máquina, basándose en el big data, podría conocer nuestras almas a partir de nuestras caras de una manera que los humanos no pueden. La gente te juzga por tu cara, dice, y te trata de forma diferente en función de esos juicios. Eso, a su vez, cambia tu psicología. Si la gente te recompensa constantemente con trabajos e invitaciones a fiestas porque te considera atractivo, eso alterará tu carácter con el tiempo. 

Tu cara afecta a cómo te trata la gente, y cómo te trata la gente afecta a quién eres

Todo lo que necesitaba era un algoritmo que leyera las pistas escritas en nuestros rostros: separar las patatas fritas rizadas de los musicales de Broadway.

Kosinski y un compañero buscaron en una web de citas fotografías de 36.360 hombres y 38.593 mujeres, divididos a partes iguales entre homosexuales y heterosexuales (según indicaban sus campos "buscando"). Después utilizó un algoritmo de reconocimiento facial llamado VGG-Face, entrenado con 2,6 millones de imágenes, para comparar a sus sujetos de prueba en función de 500 variables. Presentando al modelo fotografías por parejas —una persona homosexual y otra heterosexual— le pidió que eligiera cuál de las dos era homosexual.

Al presentarle al menos cinco fotografías de una persona, el modelo de Kosinski eligió a la persona gay de entre una pareja con una precisión del 91%. Los humanos, en cambio, sólo acertaron el 61% de las veces.

El estudio apunta a una explicación: la exposición hormonal en el útero, o algo por el estilo. Pero, una vez más, a Kosinski no le interesa realmente saber el motivo por el que funciona el modelo. Para él, lo importante es que un ordenador entrenado con miles de imágenes pueda sacar conclusiones precisas sobre algo como la preferencia sexual combinando detalles invisibles sobre una persona.

Otros no están de acuerdo. Investigadores que estudian los rostros y las emociones criticaron tanto sus cálculos como sus conclusiones. The Guardian criticó a Kosinski por dar una charla sobre su trabajo en la famosa Rusia homófoba. The Economist calificó su investigación de "malas noticias" para cualquiera que tenga secretos. La Human Rights Campaign [el mayor lobby en favor de lesbianas, gays, bisexuales y transgénero en Estados Unidos] y GLAAD [La Alianza de Gays y Lesbianas contra la difamación, otra ONG estadounidense] emitieron un comunicado condenando el estudio, advirtiendo que podría ser utilizado por regímenes brutales para perseguir a los homosexuales. "Stanford debería distanciarse de semejante ciencia basura en lugar de prestar su nombre y credibilidad a una investigación que es peligrosamente defectuosa y pone en peligro al mundo y la vida de millones de personas", señaló Human Rights Campaign.

Kosinski se sintió sorprendido. "La gente decía: 'Un profesor de Stanford ha desarrollado algoritmos de reconocimiento facial para crear un 'radar de gais'. Pero en realidad ni siquiera me preocupa la apariencia facial en sí. Me preocupa la privacidad y el poder algorítmico para hacer cosas que los humanos no podemos hacer". No pretendía construir un escáner para que los derechistas lo llevaran a las reuniones de los consejos escolares. Quería que los responsables políticos tomaran medidas y que los homosexuales se prepararan para el mundo que viene.

"No hemos creado una herramienta que invada la privacidad, sino que hemos demostrado que métodos básicos y ampliamente utilizados plantean graves amenazas a la privacidad. Esperamos que nuestros hallazgos informen al público y a los responsables políticos, y les inspiren para diseñar tecnologías y redactar políticas que reduzcan los riesgos a los que se enfrentan las comunidades homosexuales de todo el mundo", escriben Kosinski y su coautor en su artículo.

Ilustración sesgos machistas inteligencia artificial

Kosinski siguió investigando. Esta vez, recopiló más de un millón de fotografías de personas de Facebook y de una web de citas, junto con las afiliaciones políticas que indicaban en sus perfiles. Con VGGFace2, de código abierto, disponible para cualquiera que quiera probarlo, convirtió esas caras en miles de puntos de datos y calculó la media de los datos de liberales y conservadores. A continuación, mostró a un nuevo algoritmo cientos de miles de pares de imágenes de la web de citas y le pidió que separara a los defensores de Trump y los que preferían a Bernie Sanders. La máquina acertó el 72% de las veces. En las parejas emparejadas por edad, sexo y raza (eliminando las pistas fáciles) la precisión disminuyó, pero solo un poco.

Esto puede parecer algo que da miedo. La IA puede conocer nuestra ideología. ¡Nuestra sexualidad! Pero la mayoría de los que estudian los rostros y la personalidad creen que Kosinski está totalmente equivocado. "No discuto en absoluto que se pueda diseñar un algoritmo capaz de adivinar mucho mejor que el azar si una persona es homosexual o heterosexual", afirma Alexander Todorov, psicólogo de la Universidad de Chicago. "Pero eso se debe a que todas las imágenes son publicadas por los propios usuarios, por lo que hay muchas confusiones", puntualiza. 

En otras palabras, el modelo de Kosinski no capta pistas microscópicas de las fotos. Se limita a captar la forma en que los gais se presentan en las webs de citas, que, como es lógico, suele ser muy diferente de la forma en que se presentan los heterosexuales. Si se tiene esto en cuenta en las fotos, la precisión del 'radar gay' algorítmico es poco mejor que el azar.

Kosinski ha intentado responder a estas críticas. En su reciente estudio sobre afiliación política, hizo sus propias fotos de los sujetos de la prueba, en lugar de buscar en Internet fotos publicadas por ellos mismos. Esto le permitió controlar más variables: eliminar los fondos, mantener el mismo peinado y asegurarse de que la gente miraba directamente a la cámara con una expresión neutra. Después, con este nuevo conjunto de fotos, volvió a pedir al algoritmo que separara a los conservadores de los progresistas.

Inteligencia artificial.

Brian Stauffer para Business Insider

Esta vez, la máquina lo hizo un poco peor que los humanos a la hora de predecir con exactitud la afiliación política de alguien. Y ahí radica el problema. No es solo que la conclusión central de Kosinski (que la IA puede leer a los humanos mejor que ellos) sea muy posiblemente errónea. Es que tenderemos a creerlo de todos modos. La computación, la matemática que tiene una máquina en lugar de una mente, parece objetiva e infalible, aunque el ordenador solo esté reconociendo nuestros propios prejuicios.

Esta creencia errónea no es solo la causa de los intentos equivocados y aterradores de la ciencia de medir a los seres humanos en los últimos tres siglos. Está en el corazón de la propia ciencia. La forma en que los científicos saben si creen haber encontrado datos que confirman una hipótesis es a través de la estadística. Y los pioneros de la estadística moderna (Francis Galton, Ronald Fisher y Karl Pearson) estaban entre los eugenistas y fisonomistas más atroces de finales del siglo XIX y principios del XX. Creían que los negros eran salvajes, que los judíos eran una raza inferior, que solo debía permitirse tener hijos a las personas "correctas". Como afirma el matemático Aubrey Clayton, inventaron literalmente el análisis estadístico para dar un barniz de objetividad a sus virulentos prejuicios raciales.

Los métodos y técnicas de los que fueron pioneros están con nosotros hoy en día. Están detrás de las pruebas de cociente intelectual y los exámenes de admisión a la universidad, la incesante elaboración de perfiles raciales por parte de la policía, los sistemas que se utilizan para seleccionar a los candidatos a un puesto de trabajo en función de aspectos como las "habilidades blandas" y la "mentalidad de crecimiento". No es coincidencia que Hitler siguiera el ejemplo de los eugenistas (incluyendo un infame fallo de 1929 de la Corte Suprema de Estados Unidos que apoyó la esterilización forzada de mujeres consideradas por la ciencia como "imbéciles").

Imagina lo que una segunda Administración Trump haría con el reconocimiento facial impulsado por IA en un paso fronterizo (o en cualquier lugar, en realidad, con el objetivo de identificar a los "enemigos del Estado"). Tales herramientas, de hecho, ya están incorporadas en las máquinas expendedoras de munición (posiblemente una de las frases más distópicas que he escrito nunca). También se están incorporando a muchas de las tecnologías desplegadas en la frontera sur de Estados Unidos, construidas por startups fundadas y financiadas por las mismas personas que apoyan la campaña de Trump. ¿Crees que el racismo es sistémico ahora? Espera a que el sistema esté literalmente programado con él.

Las diversas tecnologías denominadas como "inteligencia artificial" son básicamente motores estadísticos que han sido entrenados según los prejuicios de sus creadores. Kosinski cree que la capacidad de la IA para emitir juicios de personalidad como los que él estudia no hará sino mejorar. "En última instancia, estamos desarrollando un modelo que produce resultados como una mente humana", me dice. Y una vez que la máquina haya estudiado a fondo y domine nuestros prejuicios demasiado humanos, cree, será capaz de analizar nuestras mentes y utilizar lo que encuentre para tomar las decisiones.

En la pesadilla de Kosinski, no ve a Skynet bombardeando hasta el olvido. La sofisticada IA del mañana conocerá tan bien a las personas que no necesitará la fuerza: simplemente se asegurará de que obedezcamos dándonos exactamente lo que queremos. "Piensa en tener un modelo que haya leído todos los libros del planeta, te conozca íntimamente, sepa cómo hablarte y sea recompensado no solo por ti sino por miles de millones de personas por interacciones atrayentes. Se convertirá en un manipulador maestro, un sistema de entretenimiento maestro", argumenta. 

Ese es el futuro que teme Kosinski, aunque siga trabajando con los modelos que demuestran que así será.

Conoce cómo trabajamos en BusinessInsider.

Etiquetas: Trending, Inteligencia artificial, Ordenadores, Robots, Reconocimiento Facial