Los ciberdelincuentes utilizan cada vez más deepfakes en los ataques contra empresas. Qué podemos hacer para estar más seguros?
Deepfake es el nombre que recibe la tecnología que crea copias convincentes de imágenes, vídeos y voces utilizando IA. Las tecnologías deepfake llevan ya unos cinco años desarrollándose rápidamente. La idea de crear falsificaciones combinando datos reales y generados no es nueva. Pero es el uso de redes neuronales y aprendizaje profundo lo que ha permitido a los investigadores automatizar este proceso y aplicarlo a imágenes, vídeos y formatos de audio.
Antes, la calidad de estas falsificaciones era baja y se detectaban fácilmente a simple vista; ahora se ha vuelto mucho más difícil reconocer una falsificación. Esto se ve agravado por la reducción del coste de almacenamiento y procesamiento de la información y la aparición de software de código abierto. Esta tendencia convierte a deepfake en una de las tecnologías más peligrosas del futuro.
¿Cómo de real puede parecer?
En julio de 2021 los entusiastas publicaron un vídeo deepfake de Morgan Freeman hablando sobre la percepción de la realidad.
Parece muy realista, pero no es Morgan Freeman. Las expresiones faciales, el pelo… todo es de gran calidad e incluso no se aprecian defectos de vídeo. Es un deepfake bien hecho, y demuestra lo fácil que se ha convertido engañar nuestra percepción de la realidad.
¿Cuál es el peligro?
La primera y más obvia área en la que deepfake encontró inmediatamente su lugar fue la pornografía. Los famosos fueron los primeros en sufrirlo, pero incluso gente menos conocida empezó a preocuparse. Se asumieron muchos escenarios diferentes: acoso escolar, llamadas telefónicas fraudulentas con solicitudes de transferencia de dinero, extorsión a directivos de empresas mediante chantaje, espionaje industrial. Al principio se veía como una amenaza potencial; ahora es real.
El primer caso conocido de ataque a una empresa se produjo en 2019. Unos estafadores utilizaron tecnología de cambio de voz para robar en una empresa energética británica. El atacante se hizo pasar por el director general e intentó robar 220.000 euros. El segundo caso conocido fue en 2020 en los Emiratos Árabes Unidos cuando, también mediante deepfake de voz, los atacantes consiguieron engañar al director de un banco y robar ¡35 millones de dólares! Los estafadores pasaron de los correos electrónicos y los perfiles en redes sociales a métodos de ataque más avanzados utilizando deepfake de voz. Otro interesante caso similar se conoció en 2022, cuando unos estafadores intentaron engañar a la mayor plataforma de criptomonedas, Binance. El ejecutivo de Binance se sorprendió cuando empezó a recibir mensajes de agradecimiento sobre una reunión de Zoom a la que nunca asistió. Utilizando sus imágenes públicas, los atacantes consiguieron generar un deepfake y utilizarlo con éxito durante una reunión online.
El fraude deepfake
Así, además de las técnicas tradicionales de ciberfraude, como el phishing, ahora tenemos una nueva: el fraude deepfake. Y puede utilizarse para aumentar los esquemas tradicionales de ingeniería social, para la desinformación, el chantaje y el espionaje.
Según una alerta del FBI, los responsables de recursos humanos ya se han encontrado con deepfakes utilizados por ciberdelincuentes al solicitar trabajo a distancia. Los atacantes pueden utilizar imágenes de personas encontradas en Internet para crear deepfakes y, a continuación, utilizar datos personales robados para engañar a los responsables de RRHH y conseguir que les contraten. Esto puede permitirles acceder a los datos del empleador, e incluso desatar malware en la infraestructura corporativa. Potencialmente, cualquier empresa puede correr el riesgo de sufrir este tipo de fraude.
Y esas son sólo las áreas más obvias en las que se puede aplicar el fraude deepfake. Pero todos sabemos que los atacantes inventan constantemente nuevas formas de utilizar este tipo de ataques.
¿Hasta qué punto es real el peligro?
Todo eso suena bastante espeluznante. Pero, ¿es realmente tan malo? En realidad, no tanto. La creación de un deepfake de alta calidad es un proceso costoso.
En primer lugar, para hacer un deepfake se necesitan muchos datos: cuanto más diverso sea el conjunto de datos que se utilice, más convincente será el deepfake que podamos hacer. Si hablamos de imágenes fijas, esto significa que, para conseguir una falsificación de calidad, las fotos originales deben tomarse desde distintos ángulos, con diferentes ajustes de brillo e iluminación y distintas expresiones faciales del sujeto. Además, una instantánea falsa tendría que ajustarse manualmente (la automatización no es demasiado útil en este caso).
En segundo lugar, si quieres hacer una falsificación realmente indistinguible, necesitas un software especializado y mucha capacidad de cálculo; por lo tanto, necesitas un presupuesto importante. Encontrar software gratuito e intentar hacer un deepfake en el ordenador de casa dará lugar a resultados poco realistas.
Las llamadas a Zoom de deepfake antes mencionadas añaden complejidad al proceso. Aquí los malos no sólo necesitan hacer un deepfake, sino crearlo «en línea», manteniendo una alta calidad de imagen sin artefactos perceptibles. De hecho, hay ciertas aplicaciones disponibles que permiten hacer deepfakes videostream en tiempo real, pero se pueden utilizar para hacer un clon digital de la persona preprogramada, no para crear una nueva identidad falsa. Y la elección por defecto suele limitarse a actores famosos (porque hay muchas imágenes suyas en Internet).
El precio de general deepfake
En otras palabras, un ataque deepfake ya es bastante posible, pero este tipo de fraude es muy caro. Al mismo tiempo, cometer otros tipos de fraude suele ser más barato y accesible, por lo que el fraude deepfake está al alcance de muy pocos ciberdelincuentes (sobre todo si hablamos de falsificaciones de alta calidad).
Por supuesto, eso no es motivo para relajarse: la tecnología no se detiene y dentro de unos años el nivel de amenaza puede aumentar significativamente. Ya ha habido intentos de crear deepfakes utilizando modelos generativos populares modernos, como la difusión estable. Y tales modelos permiten no sólo cambiar caras, sino también sustituir objetos de la imagen por casi cualquier cosa que se desee.
Formas de protegerse contra deepfake
¿Hay alguna forma de protegerte a ti y a tu organización del fraude de deepfake? Lamentablemente, no existe una solución milagrosa. Sólo podemos reducir el riesgo.
Como cualquier otro método de ingeniería social, el fraude por deepfake se dirige a los seres humanos. Y el factor humano siempre ha sido el eslabón más débil de la seguridad de cualquier organización. Así que, en primer lugar, vale la pena educar a los empleados sobre la posibilidad de este tipo de ataques: explique esta nueva amenaza a sus colegas, muéstreles dónde mirar para detectar un deepfake y, tal vez, demuestre y analice públicamente algunos casos.
Qué buscar en la imagen:
- Movimiento antinatural de los ojos
- Expresiones y movimientos faciales poco naturales
- Cabello y color de piel poco naturales
- Posición poco natural de los rasgos faciales
- Falta de emoción
- Caras excesivamente lisas
- Cejas dobles
Probablemente también sea un buen momento para reforzar tus procesos generales de seguridad. Merece la pena implantar la autenticación multifactor para todos los procesos que impliquen la transferencia de datos sensibles. Y tal vez implantar tecnologías de detección de anomalías que permitan detectar y responder a comportamientos inusuales de los usuarios.
Además, el fraude deepfake puede combatirse con las mismas herramientas que permiten su creación: el aprendizaje automático. Grandes empresas como Twitter o Facebook ya han desarrollado sus propias herramientas que permiten detectar deepfakes, pero, por desgracia, no están disponibles para el gran público. Aun así, esto demuestra que la comunidad de ciberseguridad comprende la importancia de la amenaza de los deepfakes y está inventando y mejorando ya formas de protegerse contra ella.