No se fíe de lo que ve o escucha: no se deje engañar por las estafas con deepfake

En una era en la que la IA avanza a una velocidad vertiginosa, la tecnología deepfake se está convirtiendo en una de las ciberamenazas más inquietantes que existen. Imagine un mundo en el que un hacker pueda robar e imitar su cara, su voz... ¡toda su identidad! Basta una foto y unos segundos de audio. Suena a ciencia ficción, ¿verdad? ¡Ya está ocurriendo!
Lo que empezó como una herramienta de entretenimiento que se utilizaba en películas y redes sociales se ha convertido en una sofisticada arma para los ciberdelincuentes. El auge de las deepfakes ultrarealistas está alimentando el fraude, el robo de identidades y los delitos financieros a gran escala. Los hackers ya no necesitan grandes recursos ni conocimientos técnicos. Hoy en día, las herramientas con IA pueden crear deepfakes convincentes en cuestión de minutos. Este rápido avance no sólo plantea graves amenazas para las personas. Las empresas, los gobiernos y las instituciones financieras también están en riesgo. Y dado que los ciberdelincuentes siempre están intentando ir un paso por delante, saber cómo protegerse a sí mismo y a su organización es vital.
Estafas de deepfake en el mundo real que le sorprenderán
El fraude deepfake es una realidad. He aquí algunos ejemplos:
∙ Criptoestafa de Elon Musk: los hackers utilizaron vídeos deepfake de Elon Musk para promocionar falsos esquemas de criptomonedas. La gente perdió cientos de miles de dólares.
∙ Estafa a los abuelos: los delincuentes clonaron voces de familiares y llamaron a sus seres queridos fingiendo estar en peligro para pedir dinero urgentemente.
∙ Atraco corporativo: una empresa británica de ingeniería fue engañada para transferir $25 millones después de que un empleado tuviera una videollamada deepfake con lo que parecía ser un miembro de la alta dirección.
Por qué es tan peligroso
¿Qué es lo peor? La mayoría de la gente ni siquiera se cuestiona si un vídeo o una llamada son falsos. Cuando un ser querido llama angustiado, pidiendo ayuda, nuestro primer instinto es reaccionar. Y eso es exactamente con lo que cuentan los estafadores.
Cómo protegerse de las estafas de deepfake
Enfoque Zero Trust: asuma que nada es real. Si recibe una llamada o un vídeo de alguien que dice ser un ser querido en apuros, verifíquelo por otro método.
Utilice palabras de seguridad: el FBI sugiere establecer una "palabra de seguridad" que sólo conozcan los parientes cercanos. Si alguien le llama en apuros, pida la palabra de seguridad antes de actuar.
Limite su huella digital: cuanto menos audio y vídeo haya de usted en línea, más difícil les resultará a los estafadores clonarle. Tenga cuidado con lo que publica.
Utilice herramientas de detección con IA: herramientas como Intel FakeCatcher, Microsoft Video Authenticator y Reality Defender pueden ayudar a identificar deepfakes.
Por qué ahora es más importante que nunca
Los deepfakes ya no son una pesadilla futurista. Están aquí y están siendo convertidos en armas. Ya sea para robar dinero, difundir desinformación o cometer fraude, los ciberdelincuentes están utilizando el engaño basado en IA como nunca.
¿Cuál es la mejor defensa? Tomar conciencia. Cuestione lo que ve y escucha, verifique las identidades a través de canales independientes y manténgase informado sobre las últimas estafas.