Unos marines engañaron a un robot de DARPA escondiéndose en una caja de cartón mientras se reían y fingían ser árboles

Katherine Tangalakis-Lippert
| Traducido por: 
Los infantes de marina de los Estados Unidos y los representantes de Boston Dynamics miran a Spot

Chip Somodevilla/Getty Images

  • El ex analista político del Pentágono Paul Scharre habla del poder global y la IA en su próximo libro.
  • Escribe que los marines entrenaron a los robots de la Agencia de Proyectos de Investigación Avanzada de Defensa del Pentágono.
  • Los robots, entrenados para identificar humanos, fueron engañados por marines dando volteretas y escondiéndose en cajas.

Los robots de última generación utilizados por el Pentágono tienen un punto débil fácilmente manipulable, según un libro escrito por un antiguo analista político: aunque están entrenados para identificar objetivos humanos, los robots se dejan engañar fácilmente con el más mediocre de los disfraces.

En el próximo libro de Paul Scharre, Four Battlegrounds: El poder en la era de la inteligencia artificial, que saldrá el 28 de febrero, escribe que el equipo de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) entrenó a sus robots con un equipo de marines durante 6 días para mejorar sus sistemas de inteligencia artificial. 

Shashank Josi, redactor de defensa de The Economist, publicó en Twitter varios extractos del libro de Scharre. En los pasajes, Scharre detalla cómo, al final de su curso de entrenamiento, los marines idearon un juego para poner a prueba la inteligencia del robot de DARPA.

 

Un total de 8 marines colocaron el robot en el centro de una rotonda y encontraron formas creativas de acercarse a él, con el objetivo de tocarlo sin ser detectados

Para ser claros: 2 de los marines dieron volteretas durante 300 metros. Otros 2 se escondieron debajo de una caja de cartón, riéndose todo el tiempo. Otro cogió ramas de un abeto y caminó sonriendo de oreja a oreja mientras fingía ser un árbol... Ninguno de los 8 fue detectado.

"La IA había sido entrenada para detectar humanos caminando", escribe Scharre. "No humanos dando volteretas, escondidos en una caja de cartón o disfrazados de árbol. Así que estos simples trucos, que un humano habría visto fácilmente, fueron suficientes para romper el algoritmo."

Aunque no está claro cuándo tuvieron lugar los ejercicios del libro de Scharre, ni qué mejoras se han introducido en los sistemas desde entonces, las payasadas de los robots de DARPA se han enfrentado durante mucho tiempo a obstáculos para su rendimiento. 

Desde problemas por un equilibrio deficiente y la preocupación por su potencial para causar asesinatos accidentales debido a que la IA se comporta de forma impredecible.

El Departamento de Defensa y DARPA no respondieron inmediatamente a las peticiones de comentarios de Business Insider.

Conoce cómo trabajamos en Business Insider.