Sam Altman y otros líderes tecnológicos advierten de que la IA podría suponer un riesgo de extinción humana similar al de una guerra nuclear

Sam Altman, CEO de OpenAI, en Madrid.
Sam Altman, CEO de OpenAI, en Madrid.

IE University

  • Sam Altman, Elon Musk, Eric Schmidt y otros líderes tecnológicos creen que la inteligencia artificial podría llevar a la extinción humana. 
  • Han firmado una carta abierta en donde tienen claro que "mitigar el riesgo de extinción de la IA debe ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".

La inteligencia artificial podría llevar a la extinción humana. Así de tajantes se muestran varios líderes del sector, entre los que se encuentran figuras como Sam Altman, CEO de OpenAI, Elon Musk o Eric Schmidt, entre otros. 

"Mitigar el riesgo de extinción de la IA debe ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear", se desprende de una carta abierta publicada el pasado martes. 

La inteligencia artificial ha tenido un crecimiento masivo en los últimos meses, después de que ChatGPT se pusiera a disposición de todo el mundo. En tan solo 2 meses desde su lanzamiento, ya tenía 100 millones de usuarios activos y ha captado la atención y el asombro de investigadores de todo el mundo al ser capaz de generar respuestas similares a las humanas. 

Esta carta abierta ha aumentado el debate sobre un "amplio espectro de riesgos importantes y urgentes de la IA" y afirma que puede ser "dificil expresar las preocupaciones sobre algunos de los riesgos más graves de la IA avanzada". 

Podría decirse que ChatGPT ha provocado una mayor concienciación y adopción de la IA, ya que grandes empresas de todo el mundo se han lanzado a desarrollar productos y capacidades rivales. 

Altman ya ha dejado claro que le da "un poco de miedo" la IA porque le preocupa que gobiernos autoritarios desarrollen esta tecnología. 

Hace unos días, Altman también dejó claro que ChatGPT podría superar a la inteligencia humana en menos de 10 años, algo que podría suponer un riesgo para la civilización e instaba a crear una regulación para esta tecnología.

Musk y Schmidt, ex consejero delegado de Google, también se han pronunciado respecto a los riesgos que la IA plantea a la sociedad. 

En una carta abierta publicada en marzo de la que se hace eco CNBC, Musk, Steve Wozniak y otros líderes tecnológicos instaron a los laboratorios de IA a dejar de entrenar sistemas más potentes y pidieron una pausa de 6 meses en este desarrollo avanzado. 

"Los sistemas de inteligencia artificial contemporáneos ya compiten con los humanos en tareas generales", dice la carta.

"¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?", preguntaba la carta.

Conoce cómo trabajamos en BusinessInsider.

Etiquetas: Inteligencia artificial