Este experto dice que la probabilidad de que la IA acabe con la humanidad es del 99,9%: por qué lleva la contraria al resto de investigadores

Ana Altchek
| Traducido por: 
El CEO de OpenAI, Sam Altman, durante una presentación de la desarrolladora de ChatGPT.
El CEO de OpenAI, Sam Altman, durante una presentación de la desarrolladora de ChatGPT.

Jason Redmond/Getty

  • Roman Yampolskiy, investigador especializado en inteligencia artificial, calcula que la probabilidad de que esta tecnología conduzca a la extinción humana ronda el 99,9%.
  • Según Yampolskiy, hasta ahora ningún modelo de IA ha sido seguro y es poco probable que los futuros modelos estén libres de errores. 
  • Otros investigadores han sido más moderados en sus estimaciones.

El presentador de podcast Lex Fridman ha asegurado recientemente en un episodio de su programa que la mayoría de ingenieros de inteligencia artificial con los que habla calculan que existen entre un 1% y un 20% de posibilidades de que la IA general (AGI, por sus siglas en inglés) acabe exterminando a los seres humanos.

La predicción varía en función de cómo y a quién se le pregunte. Por ejemplo, un estudio reciente realizado con 2.700 investigadores especializados en inteligencia artificial concluía que solo existen un 5% de probabilidades de que la IA conduzca a la extinción de la especie humana.

Sin embargo, Fridman defiende que también es importante hablar con las personas que estiman que la probabilidad de que la inteligencia artificial acabe con la humanidad es mucho mayor. Ese sería el caso del investigador Roman Yampolskiy, que declaraba al periodista en una entrevista publicada este domingo que la probabilidad en los próximos 100 años es del 99,9%.

Yampolskiy da clases de Informática en la Universidad de Louisville, en Estados Unidos, y ha publicado un libro este año titulado AI: Unexplainable, Unpredictable, Uncontrollable ("IA: inexplicable, impredecible, incontrolable").

En su entrevista con Fridman, este investigador ha hablado durante más de dos horas de los riesgos que plantea la inteligencia artificial y sus previsiones han sido bastante poco halagüeñas.

Influencer IA

Yampolskiy ha adelantado que las posibilidades de que la IA acabe con el ser humano dependen de si las personas pueden desarrollar software de alta complejidad sin fallos en los próximos 100 años. Ha señalado que eso es poco probable, ya que ningún modelo de inteligencia artificial ha estado completamente a salvo de los intentos de hacer que la tecnología haga algo para lo que no fue diseñada.

"Ya han cometido errores", ha afirmado el investigador. "Hemos tenido accidentes, les han hecho jailbreak. No creo que exista hoy en día un solo gran modelo lingüístico al que nadie haya conseguido hacer algo que los desarrolladores no pretendían que hiciese".

Las primeras versiones de los modelos de IA en los últimos dos años han levantado sospechas por su potencial para hacer el mal o para difundir desinformación. Los deepfakes han sido utilizados para crear contenido pornográfico de personas famosas como Taylor Swift o han amenazado con influir en las elecciones estadounidenses con llamadas de ciberdelincuentes que decían ser el presidente Joe Biden.

Los resúmenes de Google generados por inteligencia artificial —y basados en el modelo de IA de la tecnológica, Gemini— han sido el último producto de este sector en generar suspicacias.

Se suponía que esta nueva función del buscador de Google debía proporcionar información rápida sobre determinadas consultas en la parte superior de los resultados de búsqueda. En cambio, se ha hecho viral en las últimas semanas por ofrecer respuestas sin sentido, como proponer hacer una pizza con pegamento o asegurar que ningún país de África empieza por la letra K.

Donald Trump, expresidente de Estados Unidos.

Yampolskiy ha expresado que, para controlar a la inteligencia artificial, se necesita una máquina de seguridad perpetua. El investigador ha indicado que, incluso si se hace un buen trabajo con las próximas versiones de GPT, la IA va a seguir mejorando, aprendiendo, modificándose e interactuando con diferentes agentes... Y, con los riesgos existenciales, "solo tienes una oportunidad".

El CEO de OpenAI (la desarrolladora de ChatGPT), Sam Altman, ha propuesto la creación de un "sandbox regulatorio", una iniciativa que ya se había estudiado por parte del Gobierno de España en la que la gente experimente con la inteligencia artificial y la regule basándose en lo que "salió realmente mal" y lo que ha salido "realmente bien".

Altman advirtió una vez —quizá estaba bromeando— en el 2015 que "lo más probable es que la IA conduzca al fin del mundo, pero mientras tanto, habrá grandes empresas".

Más recientemente, el máximo responsable de ChatGPT ha dicho que lo que le quita el sueño por la noche son "todas las cosas de ciencia ficción" relacionadas con la inteligencia artificial, incluidas las cosas que son "fáciles de imaginar si las cosas salen realmente mal".

Desde que OpenAI se puso el mundo por montera en noviembre de 2022 (con el lanzamiento de su famoso generador de texto por IA), se han hecho varias predicciones acerca de la forma en la que la inteligencia artificial generativa podría conducir a la caída de la civilización.

Aun así, Yampolskiy también ha advertido que "no podemos predecir lo que va a hacer un sistema más inteligente". En ese sentido, el profesor de la Universidad de Louisville ha comparado a los seres humanos con ardillas en el contexto de la AGI y ha anticipado que la inteligencia artificial dará con algo que ni siquiera sabemos que existe todavía.

 

Según Yampolskiy, existen tres posibles resultados frente a esta situación. Uno será que todo el mundo acabe muriendo, otro será que la gente sufra y desee estar muerta, y otro será que las personas acaben perdiendo completamente su propósito.

Esta última realidad se refiere a un mundo en el que los sistemas de IA sean más creativos que los seres humanos y puedan realizar todos los trabajos. En ese contexto, no está claro a qué se dedicarían las personas para sobrevivir, ha argumentado Yampolskiy, haciéndose eco de las preocupaciones que existen con respecto a la posibilidad de que la inteligencia artificial elimine puestos de trabajo.

La mayoría de los expertos reconocen que la IA entraña cierto riesgo, pero no creen que sea tan probable que las cosas acaben mal. Elon Musk ha calculado una probabilidad de que esta tecnología destruya la humanidad de entre el 10 y el 20%.

El antiguo CEO de Google, Eric Schmidt, ha asegurado que los verdaderos peligros de la inteligencia artificial, que son los ataques cibernéticos y biológicos, llegarán dentro de tres o cinco años. Si la IA desarrolla el libre albedrío, Schmidt propone una solución sencilla: los seres humanos simplemente pueden desenchufarla.

Conoce cómo trabajamos en Business Insider.