Es sábado por la mañana. Ha decidido dormir hasta tarde después del fiestón de anoche y no le importa que su teléfono esté sonando. Decide ignorarlo y seguir durmiendo, pero no deja de timbrar. Se despierta y mira a su alrededor. Su mujer ha desaparecido. Deja que el teléfono siga sonando hasta que se silencia y entierra su cabeza en la almohada para bloquear el fuerte dolor de cabeza que lentamente se va intensificando. Suena una sola notificación de mensaje. Toma la desafortunada decisión de mirar el teléfono sólo para ver un mensaje de su mujer. Es un vídeo comprometedor de la noche anterior. Las cosas no pintan bien. Mientras trata de entender la situación, aparece otro mensaje de su esposa. Dice “Te dejo”.
Si esta analogía no le resulta familiar, lamento decir que una situación como esta podría sucederle fácilmente. Los incidentes en los que se utilizan deepfakes y vídeos o audios generados por inteligencia artificial (IA) para calumniar o extorsionar son cada vez más comunes. Gracias a la facilidad de acceso y disponibilidad de la tecnología de IA, los estafadores y defraudadores disponen de las herramientas necesarias para hacer de las suyas. Murf, GPT-4 y Midjourney pueden emplearse para engañarle a un nivel antes nunca visto. ¿Lo peor de todo? No estamos preparados para ello.
La tecnología disponible no está equipada al 100% para combatir el fraude con IA. Aun así, sigue siendo esencial que conozca las distintas formas en que operan estos estafadores para estar prevenido.
Hola, soy mamá. Necesito 300 dólares.
El software de IA generadora de voz es muy efectivo a la hora de imitar las voces de las personas. Podría superponer la voz de Morgan Freeman sobre un vídeo que haya grabado del cielo nocturno o incluso la de David Attenborough sobre un vídeo de su perro haciendo travesuras. Cuando las voces de figuras tan prominentes pueden manipularse fácilmente, no es de extrañar que la suya también pueda clonarse y usarse de forma indebida. Supongamos que un día recibe una llamada de un número desconocido y, para su sorpresa, es su madre.
Dice que está atrapada en el supermercado y que ha perdido su tarjeta de crédito. Le pide que transfiera 300 dólares a su cuenta para pagar el mercado. Probablemente no dudaría ni un segundo en enviarle ese dinero. Sin embargo, los recientes avances en tecnología de IA nos obligan a detenernos un segundo y preguntarnos si estamos siendo estafados por alguien haciéndose pasar por nuestra madre. ¿Qué haría entonces? ¿Verificar su fecha de nacimiento? ¿Pedir que señale un incidente muy concreto de su infancia que nadie más pueda conocer? ¡Qué situación tan complicada!
Recientemente, Jennifer —una madre en Arizona— estuvo a punto de ser víctima de una de estas estafas de IA generativa de voz. Recibió una llamada de un número desconocido y, cuando contestó, era su hija de 15 años. Estaba llorando enloquecida y diciéndole que la habían secuestrado. Temiendo lo peor, ya que en ese momento su hija estaba en un viaje de esquí con sus amigos, Jennifer estaba lógicamente angustiada y habría estado dispuesta a pagar cualquier cantidad para recuperarla. Por fortuna, recibió una llamada de su hija de verdad a los pocos minutos. Esto evitó que fuera engañada.
Aunque Jennifer logró escapar por poco de una catástrofe financiera, otros no tienen tanta suerte. En 2020, el gerente de un banco de Hong Kong fue contactado por quien él creía que era el director del banco. Este le pidió que autorizara una transferencia de 35 millones de dólares para facilitar una adquisición. Los EAU están investigando este fraude, ya que afectó a muchas entidades de la región.
Gracias a la emergente tecnología IA y la reciente recesión económica mundial, en 2022 se produjo un aumento del 40% en la actividad fraudulenta de los centros de llamadas con respecto al año anterior. Se trata de una cifra muy alarmante teniendo en cuenta lo accesible que se está volviendo la inteligencia artificial para el público general.
A nivel corporativo, debe hacerse obligatoria la formación de los usuarios finales para detectar estos fraudes y estafas. Cualquier empleado que tenga contacto con los clientes o acceso a datos y finanzas debe actuar siempre con escepticismo cuando se realicen solicitudes impulsivas de tanto impacto.
Siempre es una buena práctica reportar tales solicitudes a las autoridades o, aún mejor, contactar directamente a la persona que hace la solicitud y tratar de documentarla. Una toma de decisiones rápida podría acabar costando millones a su empresa.
Noticias falsas
Según una encuesta Gallup de 2022, el 53% de los estadounidenses desconfían de los medios de comunicación tradicionales y afirman que estos podrían estar tratando de engañarlos. Hoy en día, alrededor del 62% de los adultos se informan a través de las redes sociales y esta cifra no deja de crecer. Desafortunadamente, los estafadores están sacando partido de la creciente confianza en las redes sociales como fuente de noticias.
El día en que Donald Trump —expresidente de Estados Unidos— tenía previsto llegar a Nueva York para asistir a su reciente audiencia de imputación, unas imágenes de Trump siendo llevado a la fuerza por la policía circulaban por Internet. Por fortuna, no hubo represalias por parte de sus partidarios. No obstante, esas imágenes podrían haber sido utilizadas fácilmente como arma para incitar a la violencia.
Según un estudio de Duke Reporters’ Lab, hay 194 entidades de comprobación de datos establecidas en 60 países. Todas emplean intervención manual. ¿Están equipadas para detectar la manipulación generada por la IA?
En 2020, Meta empezó a implementar tecnologías como ObjectDNA y las redes neuronales generativas adversarias (GAN). Las GAN constan de dos sistemas de machine learning: el adversario y el verificador. El adversario genera fake news (noticias falsas) que responden a ciertos criterios. Estos pueden ser la capacidad de convertirse en virales, la persuasión y el sentido de urgencia. El verificador, que tiene acceso a una gran base de datos de noticias reales y algunas noticias falsas del adversario, clasificará estas historias como reales o falsas. La verificación de hechos impulsada por IA es una realidad. Con la IA potenciando las fábricas de rumores y posibilitando la desinformación desenfrenada en línea, lo más lógico es que combatir la IA engañosa con IA detectora.
Resulta alarmante que más del 71% de los participantes en una encuesta realizada en 2022 afirmen no saber lo que es un deepfake y que el 57% de las personas que saben afirmen que serían capaces de detectar uno. El trabajo a distancia ha facilitado que los empleados disfruten de las comodidades de sus hogares o un descanso junto a la playa mientras trabajan, pero los empleadores definitivamente no previeron la ventana de oportunidad que esto abriría para el engaño. He aquí un par de estafas de deepfake que causaron estragos en en 2022.
Estafa de entrevista de trabajo remoto
Los estafadores utilizan tecnología deepfake, entre otras, para asistir de forma remota a entrevistas de trabajo. Luego consiguen empleos en roles de tecnología de la información y basados en datos para obtener acceso ilimitado a datos personales. Estos son robados y usados de manera indebida.
La estafa BitVex de Elon Musk
El año pasado circuló por Internet un vídeo de Elon Musk hablando de su nuevo proyecto de criptomonedas llamado BitVex. En el vídeo también aparecía el CEO de Binance, Changpeng Zhao, avalándolo. Resulta que el vídeo era un deepfake mal ejecutado y, a pesar de los apoyos, BitVex sólo llegó a registrar 1.700 dólares en depósitos. Casi, pero no lo suficiente.
Con las nuevas tecnologías, llegan nuevas formas de estafa. El engaño puede venir de alguien tan cercano como la persona con la que comparte su casa. Bueno, no exactamente esa persona: un copia indistinguible generada por IA. Aunque esta tecnología se encuentra en una fase muy incipiente, sin duda va en una dirección en la que será prácticamente imposible distinguir a lo falso de lo real. Tal vez ahora, tras un poco de persuasión, pueda recuperar a su esposa después de que se hiciera público ese deepfake suyo. No obstante, sin la suficiente sensibilización y educación, las estafas impulsadas por IA podrían arruinar su vida.