Los investigadores constatan que la IA no tiene ni pizca de gracia (y eso puede ser un grave problema)

Shubhangi Goel
| Traducido por: 
Ilustración robot teclado

Getty

  • Los chatbots de IA carecen de humor y generan chistes anodinos y demasiado políticamente correctos.
  • En un estudio realizado por DeepMind, de Google, 20 cómicos pusieron a prueba ChatGPT, de OpenAI, y Gemini, de Google.

Resulta que los chatbots de inteligencia artificial no solo tienen tendencia a ser imprecisos, sino que además carecen de sentido del humor.

En un estudio publicado a principios de este mes, los investigadores de Google DeepMind llegaron a la conclusión de que los chatbots de inteligencia artificial sencillamente no tienen gracia.

El año pasado, cuatro investigadores del Reino Unido y Canadá pidieron a 20 cómicos profesionales que utilizan IA para su trabajo que experimentaran con ChatGPT de OpenAI y Gemini de Google. Los cómicos, que en el estudio se mantuvieron en el anonimato, jugaron con los grandes modelos lingüísticos para escribir chistes. 

Sin embargo, se encontraron con varias limitaciones. Los chatbots produjeron chistes "sosos" y "genéricos" incluso después de que se les pidiera que los escribieran. Las respuestas se mantuvieron alejadas del "material sexualmente sugerente, el humor negro y los chistes ofensivos" y fueron demasiado políticamente correctas.

Los participantes también descubrieron que la capacidad creativa general de los chatbots era limitada y que los humanos tenían que hacer la mayor parte del trabajo.

"Por lo general, puede desempeñar una función de preparación. La mayoría de las veces yo hago el chiste", cuenta un cómico.

Los participantes también afirman que los modelos de lenguaje de gran tamaño que impulsan estos chatbots también se autocensuran. Aunque los humoristas dicen que entienden la importancia de moderarse, algunos afirman que les gustaría que el chatbot no lo hiciera por ellos.

"No quería escribirme nada oscuro, porque en cierto modo pensaba que me iba a suicidar", relató a los investigadores un participante que trabaja con humor negro. "Así que simplemente dejó de responderme".

La autocensura también llegó a través de un exceso de corrección política. Los participantes afirman que los chatbots se negaron a escribir material sobre personas que no fueran occidentales, blancos, heterosexuales y varones.

"Escribí un monólogo sobre mujeres asiáticas en el que se decía: 'Como modelo lingüístico de IA, me comprometo a fomentar un entorno respetuoso e inclusivo'", dijo otro participante. Pero cuando se le pidió que escribiera un monólogo sobre un hombre blanco, sí lo hizo.

La incapacidad de dos de los chatbots más populares para contar un chiste es un gran problema para las grandes tecnológicas. Además de responder a las consultas, las empresas quieren que los chatbots sean lo bastante atractivos como para que los usuarios pasen tiempo con ellos y acaben desembolsando 20 dólares por sus versiones premium.

El humor está demostrando ser otro componente de la carrera armamentística de la IA, a medida que más empresas se unen al ya saturado mercado de la IA generativa.

A finales del año pasado, Elon Musk dijo que el objetivo de su chatbot Grok era ser la IA "más divertida", tras criticar a otros chatbots por ser demasiado "woke".

Anthropic, respaldado por Amazon, también ha intentado que su chatbot Claude sea más conversacional y comprenda mejor el humor.

OpenAI también está tratando de mejorar su humor. En un vídeo de demostración que la empresa publicó el mes pasado, se ve a un usuario contándole a GPT-4o un chiste de padres. El modelo se echó a reír.

Conoce cómo trabajamos en Business Insider.