AccueilÉconomieDeepfake : trompée par des voix clonées, une entreprise transfère des fonds...

Deepfake : trompée par des voix clonées, une entreprise transfère des fonds à des escrocs

 »
data-script= »https://static.lefigaro.fr/widget-video/short-ttl/video/index.js »
>

Une multinationale chinoise a perdu 26 millions de dollars à cause de cette arnaque, où un salarié a cru parler à des cadres de son service financier.

Des escrocs ont arnaqué une multinationale chinoise en utilisant la technologie deepfake, une première qui pourrait en inspirer d’autres. L’entreprise trompée a versé 26 millions de dollars à ces cybercriminels, a rapporté la police de la ville.

Un deepfake est un enregistrement vidéo ou audio réalisé ou modifié grâce à l’intelligence artificielle. Il recèle un potentiel de désinformation et d’utilisation abusive, comme par exemple des images deepfake montrant des gens disant des choses qu’ils n’ont jamais dites.

Un employé d’une entreprise d’un centre financier chinois a reçu «des appels par vidéoconférence de quelqu’un se faisant passer pour cadre supérieur de son entreprise lui demandant de transférer de l’argent vers des comptes bancaires désignés», a indiqué la police à l’AFP.

Vidéos conçues à partir de YouTube

La police a reçu un rapport sur l’incident le 29 janvier, date à laquelle quelque 200 millions de dollars de Hong Kong (26 millions de dollars américains) avaient déjà été perdus via 15 transferts. «Les enquêtes sont toujours en cours et aucune arrestation n’a été effectuée jusqu’à présent», a indiqué la police, sans divulguer le nom de l’entreprise.

La victime travaillait au département financier et les escrocs se sont fait passer pour le directeur financier de l’entreprise, basé au Royaume-Uni. Un haut responsable de la police a déclaré que la vidéoconférence impliquait plusieurs participants, mais que tous, à l’exception de la victime, étaient des «fake».

«Les escrocs ont trouvé des vidéos et des audios accessibles au public via YouTube, puis ont utilisé la technologie deepfake pour imiter leurs voix afin d’inciter la victime à suivre leurs instructions», a déclaré le policier aux journalistes.

Les vidéos deepfakes étaient préenregistrées et n’impliquaient aucun dialogue ni interaction avec la victime, a-t-il ajouté.

Source du contenu: www.lefigaro.fr

dernières nouvelles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici