
Las estafas impulsadas por inteligencia artificial (IA) están redefiniendo la forma en que las personas interactúan en línea, generando un ambiente de vigilancia constante y desconfianza creciente. El uso de tecnologías como deepfakes permite a delincuentes suplantar identidades de figuras públicas o profesionales, manipulando imágenes y voces con un realismo alarmante.
Un caso que cobró relevancia ocurrió en Argentina, en donde una mujer fue víctima de una estafa que involucró la recreación digital del actor George Clooney. El engaño comenzó en Facebook, desde una página con verificación aparente, lo que dio una sensación de autenticidad inmediata. Posteriormente, continuaron las conversaciones en una aplicación de mensajería similar a Telegram, donde se compartieron videos manipulados generados con IA.
La víctima relató su testimonio al canal América: "Me preguntó si tenía trabajo y le digo que no, que estoy desempleada. Empezamos a hablar y me dice que desde hace cuánto lo seguía". El impostor le ofreció acceso a un supuesto club de fans, solicitando pagos recurrentes para una tarjeta VIP y donaciones a una fundación real, usada como señuelo. Uno de los videos enviados decía: "¿Cómo estás? Espero que bien. Muchas gracias por apoyarme, prometo pagarte todo. Te amo".
Mientras tanto, en Estados Unidos, otro caso de suma preocupación es el de Nicole Yelland quien implementó verificaciones rigurosas tras caer en una estafa laboral. "Ahora, me encargo de todo el proceso de verificación cada vez que alguien me contacta", declaró a WIRED. Estas prácticas incluyen comprobar identidades mediante suscripciones a bases de datos, evaluar conocimientos lingüísticos y exigir videollamadas con cámara encendida.
Datos de la Comisión Federal de Comercio indican que las estafas laborales en Estados Unidos casi se triplicaron entre 2020 y 2024. Las pérdidas asociadas aumentaron de 90 millones a 500 millones de dólares en el mismo periodo, lo que refleja el impacto económico de estos delitos digitales.
La sofisticación de las falsificaciones impulsó el desarrollo de tecnologías para detectarlas. Startups como Reality Defender y GetReal Labs trabajan en soluciones que identifican contenidos generados por IA. A su vez, Tools for Humanity, liderada por el CEO de OpenAI, Sam Altman, utiliza escaneo ocular para crear identificadores biométricos únicos.
Sin embargo, muchas personas optan por métodos tradicionales para confirmar la autenticidad de sus interlocutores. Daniel Goldman, ingeniero de software, explicó: "Me dio un ataque de pánico". Desde entonces, pide validaciones dobles incluso cuando lo contactan por video o mensajes con su aparente imagen o voz.
Ken Schumacher, fundador de Ropes, señala que los reclutadores ahora interrogan sobre detalles geográficos o piden mostrar dispositivos mediante la cámara del teléfono. Aunque estas prácticas pueden parecer invasivas, se volvieron comunes frente al aumento de fraudes sofisticados.
Investigadores como Jessica Eise modificaron sus métodos de reclutamiento para evitar ser engañados. "Nos importa mucho asegurarnos de que nuestros datos sean íntegros y de que estudiemos a quienes decimos que estamos estudiando", afirmó. Su equipo redujo el tamaño de sus muestras y distribuye folletos físicos para verificar a los participantes presencialmente.
A medida que las herramientas de IA se vuelven más accesibles, los criminales digitales amplían sus estrategias para explotar emociones, vacíos de seguridad y la confianza de sus víctimas. Es por eso que las herramientas digitales se han robustecido para contrarrestar esta nueva ola de ciberataques. (NotiPress)