Los deepfakes generados por IA les cuestan a las empresas millones de euros y la cosa podría ir a peor

Ilustración Inteligencia Artificial

Getty

  • Los ciberdelincuentes podrían haber encontrado su particular gallina de los huevos de oro con la llegada de la inteligencia artificial generativa. 
  • Los expertos afirman que esta tecnología está reduciendo la barrera de entrada para poder cometer estafas por valor de millones de euros y advierten de que podría convertirse en un problema mucho mayor a medida que avance el desarrollo de la IA.

A principios de año se conoció la noticia de que una empresa había perdido 24 millones de euros por culpa de la inteligencia artificial

Lejos de tratarse de una firma tecnológica que había apostado por el desarrollo de esta tecnología y había registrado pérdidas económicas o de una compañía que había contratado un servicio de IA y que todavía no había logrado sacarle rentabilidad, se trató de una "simple" estafa, que había sido llevada a cabo utilizando una herramienta de inteligencia artificial.

Básicamente, un empleado hongkonés de una multinacional mantuvo una videollamada con su jefe, el director del departamento financiero, en la que le pidió que transfiriese casi 24 millones de euros a una cuenta bancaria. Hasta ahí, algo más o menos habitual en este tipo de departamentos. El problema llegó cuando descubrió que su jefe no era en realidad su jefe, sino un deepfake generado por IA. 

Esta tecnología, en base a la cual se suplanta la identidad de una persona de forma especialmente creíble, ya ha causado bastantes daños en 2024, con casos como el de los deepfakes pornográficos de Taylor Swift o el de la suplantación del presidente estadounidense Joe Biden, que les habría pedido a sus propios votantes que no votasen por él en las primarias del partido demócrata. 

Sin embargo, la cosa podría ir a peor. Al menos así lo han asegurado varios expertos a la CNBC, que ha abordado a través de un artículo la posibilidad de que la inteligencia artificial comience a utilizarse para cometer cada vez más estafas como la del trabajador hongkonés. 

 

David Fairman, director de información y seguridad de la firma de ciberseguridad Netskope, ha declarado al medio de comunicación estadounidense que este tipo de amenazas han ido creciendo como consecuencia de la popularización de ChatGPT, el generador de texto por IA de Open AI, que fue lanzado en noviembre de 2022 y que ha disparado de IA generativa.

"La accesibilidad pública de estos servicios ha reducido la barrera de entrada para los ciberdelincuentes, que ya no necesitan tener conocimientos tecnológicos especiales", ha señalado Fairman a la CNBC, añadiendo que el volumen y la sofisticación de las estafas han aumentado a medida que la inteligencia artificial ha seguido evolucionando.

El medio estadounidense ha conseguido ponerse en contacto con la empresa que se vio afectada por el robo en Hong Kong, la compañía británica de ingeniería Arup, cuyo portavoz ha indicado que "al igual que muchas otras empresas en todo el mundo", sus operaciones están "sujetas a ataques regulares, incluyendo fraude de facturas, estafas de phishing, suplantación de voz por WhatsApp y deepfakes".

Arup ha confirmado a la CNBC que, en aquel incidente, que tuvo lugar el pasado mes de febrero, se utilizaron "voces e imágenes falsas" y ha apuntado que "el número y la sofisticación de estos ataques han aumentado considerablemente en los últimos meses". 

Business Insider también ha informado acerca de esta problemática, que no solo afecta a las organizaciones, sino que también se utiliza por parte de estafadores románticos, que consiguen ganarse la confianza de sus víctimas con deepfakes generados por IA.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.