Los deepfakes son vídeos, imágenes o audios manipulados mediante inteligencia artificial (IA) para que parezcan reales. El término proviene de la combinación de las palabras “deep learning” (aprendizaje profundo), una rama de la IA, y “fake” (falso).
Ahora que sabes qué es un deepfake, imagina que estás en tu cama. Es la mañana de un tranquilo sábado. Acabas de abrir los ojos. Agarras tu celular para ver la hora y te encuentras con cientos de notificaciones de tus redes sociales, llamadas de tus amigos y mensajes de tus contactos. Al parecer, todos saben algo que tú no.
Una foto tuya al desnudo está circulando por la red.
Como dirían por ahí: pasa en TNT, pasa en la vida real
Acabamos de ponerte en un caso hipotético, pero esto es algo que pasa en la vida real. Fue lo que le ocurrió a la reconocida influencer de YouTube Gabi Belle, quien a sus 26 años experimentó esta violación de su privacidad. Este caso y muchos otros fueron documentados por The Washington Post.
Al pedir ayuda para eliminar la imagen, la influencer se sorprendió al enterarse de que casi 100 fotos falsas estaban dispersas en la web. Estas imágenes, la mayoría alojadas en sitios conocidos por contenido pornográfico generado por inteligencia artificial, fueron eliminadas en julio de 2023, según Belle.
Lamentablemente, este no fue el fin de la pesadilla. Las imágenes fueron eliminadas en dicho mes, pero al poco tiempo ya había nuevas fotos que la involucraban nuevamente en el mismo caso.
¿Hasta qué punto hemos llegado?
A lo largo de 2023, presenciamos un auge extraordinario en la creación de imágenes y videos para adultos generados con inteligencia artificial. Esto se debe a la proliferación de herramientas de IA, hoy en día tan asequibles y fáciles de usar.
En un popular foro de internet, un usuario inició un hilo titulado “Puedo falsificar a tu crush”. Tentador, ¿no? Ofrecía simular desnudos de cualquier persona mediante IA. Las solicitudes llegaron rápidamente. “¿Puedes hacerlo con esta chica no famosa?”, preguntó un usuario. Minutos después, la imagen desnuda apareció.
“Gracias, hermano. Es perfecto”, respondió mientras se sumergía en este inquietante juego de ilusiones generadas por IA. Este caso fue registrado por The Washington Post.
Legalmente hablando…
Como si fuera poco, no hay una ley federal que controle la ola de deepfakes para adultos. Solo unos pocos estados han decidido meter mano. La orden ejecutiva sobre inteligencia artificial del presidente de los Estados Unidos, Joe Biden, sugiere —mas no obliga— que las compañías pongan etiquetas en las fotos, videos y audios creados por IA para dejar claro que fueron hechos por una computadora.
Por su lado, Google tiene reglas para evitar que aparezcan imágenes subidas de tono no deseadas en los resultados de búsqueda. Sin embargo, las defensas no son tan fuertes cuando se trata de imágenes ultrafalsas. De igual manera, la empresa nos tranquiliza diciendo que está metida de lleno trabajando para dar más blindaje a las búsquedas. También está armando escudos más grandes para que no sea necesario que las víctimas anden rogando para que se elimine el contenido.
¿Se viene la revolución anti-fake?
En resumen, estamos inmersos en un fascinante pero desafiante juego del gato y el ratón en el mundo de la tecnología. Las imágenes generadas por inteligencia artificial no solo plantean un riesgo legal y ético, sino también una amenaza palpable para la privacidad y la integridad personal. Desde deepfakes que manipulan la realidad hasta la pornografía digital no consensuada, la era digital nos confronta una vez más con dilemas que exigen respuestas urgentes.