Deepfakes representan el delito de IA más alarmante en la actualidad
CIUDAD DE MÉXICO, agosto 6 (EL UNIVERSAL).- Las falsificaciones profundas mejor conocidas como deepfakes, son el delito de inteligencia artificial más grave y preocupante en la lucha contra el crimen hoy en día, de acuerdo con un nuevo informe del University College London.
Más de 20 formas de usar IA para el delito. El equipo de investigación identificó por primera vez, 20 formas diferentes en que los delincuentes podrían utilizar la Inteligencia Artificial en los próximos 15 años.
Posteriormente, pidieron a 31 expertos en Inteligencia Artificial que los clasificaran por riesgo, en función de su potencial de daño, el dinero que podían ganar, su facilidad de uso y lo difícil que era detenerlos.
Deepfakes, videos generados por IA de personas reales que hacen y dicen cosas ficticias, obtuvieron el primer lugar por dos razones principales. En primer lugar, son difíciles de identificar y prevenir. Los métodos de detección automatizados siguen siendo poco fiables y los deepfakes también están mejorando para engañar a los ojos humanos. Una competencia reciente en Facebook para detectarlos con algoritmos llevó a los investigadores a admitir que es «un problema sin resolver».
En segundo lugar, los deepfakes se pueden utilizar en una variedad de crímenes y fechorías, desde desacreditar a las figuras públicas hasta estafar dinero en efectivo al hacerse pasar por personas. Justo esta semana, un video manipulado de Nancy Pelosi aparentemente borracha se volvió viral por segunda vez, mientras que el audio falso ayudó a los delincuentes a robar millones de dólares.
Además, los investigadores temen que los deepfakes hagan que las personas desconfíen de las pruebas de audio y video, un daño social en sí mismo.
El autor del estudio, el Dr. Matthew Caldwell, dijo que cuanto más se muevan nuestras vidas en línea, mayores serán los peligros:
«A diferencia de muchos delitos tradicionales, los delitos en el ámbito digital pueden compartirse, repetirse e incluso venderse fácilmente, lo que permite comercializar técnicas delictivas y proporcionar delitos como un servicio. Esto significa que los delincuentes pueden externalizar los aspectos más desafiantes de su crimen basado en IA».
Otras amenazas potenciales con AI
El estudio también identificó otras cinco amenazas principales de delitos de inteligencia artificial: vehículos sin conductor como armas, phishing impulsado por inteligencia artificial, recolección de datos en línea para chantaje, ataques a sistemas controlados por inteligencia artificial y noticias falsas.
Pero los investigadores no se alarmaron demasiado por los «robots ladrones» que ingresan a las casas a través de buzones y solapas para gatos, ya que son fáciles de detectar. También clasificaron el acoso asistido por IA como un delito poco preocupante, a pesar de ser extremadamente dañino para las víctimas, porque no puede operar a escala.
Los investigadores estaban mucho más preocupados por los peligros de las falsificaciones profundas. La tecnología ha estado acaparando los titulares de alarma desde que surgió el término en Reddit en 2017, pero pocos de los temores se han hecho realidad hasta ahora. Sin embargo, los investigadores consideraron que eso cambiará a medida que la tecnología se desarrolle y sea más accesible para cualquier persona.
Esto debido a que sería relativamente fácil, suplantar el rostro o la voz de un CEO de una compañía, desacreditar a una figura pública o incluso colocar el rostro de la pareja de una persona en un video comprometedor, lo que generaría desconfianza a las pruebas de audio y video.