La estafa de la videollamada que ha salido cara: 20 millones de euros
Los delincuentes han suplantado a un directivo de una multinacional con el objetivo de engañar a más víctimas
En la actualidad, las estafas han evolucionado de maneras sorprendentes y alarmantes. Un reciente caso en Hong Kong ha puesto en evidencia cómo los estafadores están utilizando tecnologías avanzadas.
Es el caso, por ejemplo, del deepfake. Este incidente subraya la necesidad de estar siempre alerta y bien informado sobre las nuevas tácticas de fraude.
Una videollamada falsa que consigue 20 millones de euros
La tecnología avanza a pasos agigantados. Una de las técnicas de las que más estamos escuchando hablar en estos meses es de la Inteligencia Artificial. Ahora, los estafadores también la usan para sus engaños.
En este caso, en Hong Kong ha sucedido un hecho que puede extenderse pronto al resto del mundo. Los trabajadores de una multinacional recibieron una videollamada falsa de un directivo recreado por deepfake.
Los empleados creyeron que la persona al otro lado era de verdad su jefe. Esto hizo que transfirieran nada menos que 20 millones de euros. Y es que es complicado averiguar la realidad con técnicas tan profesionales y sofisticadas.
Qué es el deepfake, la técnica de estafa más avanzada
Los estafadores utilizaron tecnología de deepfake para clonar la voz y la apariencia del alto ejecutivo de la compañía. Durante la videollamada, los trabajadores creyeron estar hablando con su superior y, confiados, siguieron las instrucciones. Solo era un caso de deepfake.
El deepfake es una tecnología que utiliza inteligencia artificial para crear videos y audios falsos que parecen extremadamente reales. Esta tecnología puede clonar voces, gestos y expresiones faciales, haciendo que sea muy difícil distinguir entre lo real y lo falso. En el caso de Hong Kong, los estafadores utilizaron esta tecnología para suplantar la identidad del ejecutivo y llevar a cabo la estafa.
Medidas de seguridad contra la estafa del deepfake
Este caso resalta la importancia de verificar siempre la identidad de la persona con la que estamos hablando. Sobre todo, en situaciones que involucran transferencias de dinero o información sensible.
No debemos confiar ciegamente en lo que vemos y oímos en una videollamada. Es crucial utilizar métodos adicionales de verificación, como llamadas telefónicas o correos electrónicos, para confirmar la identidad de la otra persona.
Para protegerse de este tipo de estafas, es fundamental seguir algunas medidas de seguridad:
- Verificación doble: siempre verifica la identidad de la persona con la que estás hablando a través de un segundo canal de comunicación.
- Capacitación: educa a los empleados sobre las nuevas tácticas de estafa y cómo reconocerlas.
- Tecnología de seguridad: utiliza software de seguridad que pueda detectar y bloquear intentos de deepfake.
- Políticas internas: implementa políticas internas que requieran múltiples aprobaciones para transferencias de dinero.
Más noticias: