Utiliser l’IA. Ils ont essayé de déjouer le PDG de Ferrari !

A hidrogénio. Ferrari desenvolve motor de combustão virado ao contrário

Dans un contexte où l’intelligence artificielle soulève des inquiétudes, une tentative de fraude impliquant le PDG de Ferrari vient de susciter l’attention. Les détails, allant des messages WhatsApp aux appels utilisant des voix synthétiques, témoignent des risques croissants liés à ces technologies. Un regard approfondi sur ce phénomène captivant vous attend.

À l’heure où les avancées dans le domaine de l’intelligence artificielle (IA) suscitent la polémique, le PDG de Ferrari aura rejoint ce mardi les opposants à la technologie. Et c’est parce que quelqu’un a essayé de se faire passer pour vous, en utilisant l’IA !

La nouvelle a été rapportée par Automotive News Europe, révélant que, un mardi de juillet dernier, l’un des dirigeants de Ferrari NV a commencé à recevoir une série de messages inattendus, signés (soi-disant) par le PDG de la marque Cavallino Rampante, Benedetto Vigna, annonçant un une acquisition majeure qui serait en cours.

Envoyés par Whatsapp, les messages ont cependant soulevé des doutes, car non seulement ils ne provenaient pas du numéro de téléphone portable de service de Vigna, que le responsable connaît, mais le compte avait une photo de profil différente de celle d’habitude, avec le PDG en lunettes, costume et cravate, les bras croisés, devant un emblème Cavallino.

Benedetto Vigna, PDG de Ferrari
Benedetto Vigna, PDG de Ferrari

Quant aux messages, Auto News raconte que, dans l’un d’eux, on pouvait lire : « Hé, as-tu entendu parler de la grande acquisition que nous préparons ? J’aurai peut-être besoin de votre aide. Cela a été suivi d’un autre disant « soyez prêt à signer l’accord de confidentialité que notre avocat devrait vous envoyer sous peu ». Ajoutant que « le régulateur italien du marché et la bourse de Milan ont déjà été informés. Soyez prêt et faites preuve d’une totale discrétion.

Cependant, l’affaire ne s’est pas arrêtée là puisque, selon des sources proches du dossier, les messages ont été suivis d’un appel téléphonique, effectué à l’aide d’outils deepfake et d’intelligence artificielle, afin d’obtenir une imitation presque parfaite de la voix de Vigna, avec son accent du sud de l’Italie.

Le deepfaker, ou hacker électronique, a commencé par dire qu’il appelait depuis un numéro différent de celui d’habitude, car il avait besoin de discuter de quelque chose d’ultra-confidentiel, plus précisément d’un projet d’accord, lié à la Chine, qui risquait d’être rencontré en dernier lieu. -des obstacles infimes. Ce qui ne pouvait être surmonté qu’en réalisant une opération de change d’une valeur indéterminée.

Surpris par toute la situation, mais aussi méfiant face à une certaine intonation mécanique qu’il entendait, le dirigeant a décidé de mettre sa voix à l’épreuve en disant : « Je suis désolé, Benedetto, mais je dois confirmer que c’est bien toi. Dites-moi : quel est le livre que vous m’avez recommandé il y a quelques jours ? – selon Auto News, le livre en question était « Décalogue de la complexité : agir, apprendre et s’adapter dans le devenir incessant du monde », d’Alberto Felice De Toni.

Les mêmes sources affirment que l’appel s’est terminé brusquement, ce qui a conduit Ferrari à lancer une enquête interne.

Ce n’est pas le premier cas

Il est également important de dire qu’il ne s’agit pas du premier cas de tentative de fraude utilisant des outils de deepfake et l’intelligence artificielle. En mai, des informations ont été révélées selon lesquelles quelqu’un avait tenté de se faire passer pour le PDG du géant de la publicité WPP, Mark Read, lors d’un appel passé via Teams.

Arnaque qui a cependant fini par être découverte à temps.

Après des attaques de hackers sur des véhicules, les dirigeants de marques se retrouvent également dans le viseur des fraudeurs, grâce aux outils (mal utilisés) d'Intelligence Artificielle
Après des attaques de hackers sur des véhicules, les dirigeants de marques se retrouvent également dans le viseur des fraudeurs, grâce aux outils (mal utilisés) d’Intelligence Artificielle

Cependant, le résultat d’une autre fraude similaire, début 2024, dans laquelle une multinationale non identifiée s’est retrouvée sans 200 millions de dollars de Hong Kong (23,5 millions d’euros), après que des fraudeurs aient réussi à fabriquer, en utilisant des outils et des technologies de deepfake, a été très différent. , représentations du directeur financier de l’entreprise et d’autres dirigeants, lors d’un appel vidéo. Amenant ainsi la victime à transférer l’argent.

Entre-temps, selon Auto News, plusieurs sociétés de sécurité informatique forment déjà leurs employés et cadres afin qu’ils ne soient pas trompés. Car, comme le prévient également le professeur de cybersécurité Stefano Zanero, du Politecnico di Milano, en Italie, « ce n’est qu’une question de temps avant que ces outils sophistiqués de deepfake, basés sur l’IA, ne deviennent incroyablement fiables ».