L’intelligence artificielle (IA) fait désormais partie de notre vie quotidienne dans divers domaines : industrie, santé, transport, finance, éducation et même sécurité.
Mais qu’en est-il lorsque des outils puissants basés sur l’IA sont exploités par des personnes malveillantes ?
Dans cet article, nous vous proposons de découvrir deux technologies différentes basées sur l’intelligence artificielle.
Celles-ci offrent aux escrocs et arnaqueurs de tous types des outils extrêmement puissants et sophistiqués permettant de créer des vidéos et des textes trompeurs.
#1 Le deepfake
Cette technique d’hypertrucage impressionnante continue de susciter des discussions et des débats animés dans le monde entier.
Et voici la véritable raison : elle peut nuire à la réputation d’une personne en créant de fausses vidéos ou de faux enregistrements audio. Ceci dans le but de montrer la personne dans des situations compromettantes, embarrassantes ou même illégales.
Le deepfake : définition et origine
Résumé simplement, le deepfake est la modification du visage et du corps d’une personne dans une séquence vidéo, afin qu’elle apparaisse comme quelqu’un d’autre.
Réalisé à l’aide de l’intelligence artificielle, le deepfake est donc utilisé à des fins malveillantes ou pour diffuser de fausses informations.
L’origine du deepfake
La technologie a été créée pour la première fois en 1997 en modifiant des séquences vidéo qui étaient au départ destinées au doublage de films. Et c’est grâce au programme « Video Rewrite » élaboré par Christop Bregler, qu’on pouvait prendre la voix d’une personne dans une vidéo et la synchroniser avec une autre piste audio.
Ce fut le premier système à automatiser entièrement ce type de réanimation faciale. Et c’est sur la base de ce type de programme que le deepfake a vu le jour.
Le terme deepfake vient de « deep learning » et de « fake events ». Il a été inventé en 2017 par un utilisateur de Reddit, un site communautaire et social américain.
De manière générale, il faut noter que :
- Le « fake event » est le résultat de ce qu’un deepfake produit
- Le « deep learning » est le processus pour trouver les algorithmes et tout ce qui permet de combiner l’image avec la vidéo.
Tant et si bien que vous pouvez prendre l’image d’une personne et l’appliquer à n’importe quelle vidéo d’une autre personne qui effectue des mouvements du visage.
Exemple de deepfake
L’exemple le plus significatif se trouve dans la vidéo ci-dessous avec l’acteur Morgan Freeman : qui n’est pas Morgan Freeman…
Vous l’aurez compris, le deepfake a pour principal but de fausser votre perception de la réalité lorsque vous regardez des vidéos.
Imaginez alors les opportunités qu’offre cette méthode d’intelligence artificielle, capable de duper n’importe qui dans les meilleures situations.
Il est aussi important de noter que cette technologie malveillante, développée et améliorée en permanence grâce à l’intelligence artificielle, peut être utilisée pour produire de fausses vidéos à des fins politiques ou pornographiques.
Comment détecter les deepfake ?
Il est possible de les détecter grâce à FakeCatcher qui identifie à 96% les vidéos falsifiées.
Au cours de ses travaux de recherche sur l’intelligence artificielle responsable, c’est l’entreprise américaine Intel qui a créé cette technologie. Celle-ci est capable de fournir de brillants résultats en quelques millisecondes seulement !
Il faut savoir aussi que Facebook travaille sur un projet de “désidentification” qui a pour but d’appliquer un filtre de protection sur les vidéos pour empêcher leur modification.
#2 ChatGPT
ChatGPT est l’outil d’intelligence artificielle dont on parle le plus en ce moment. Il est aussi l’un des meilleurs outils actuels pour rédiger des arnaques.
Mais ChatGPT c’est quoi exactement ?
ChatGPT est générateur de texte basé sur l’intelligence artificielle. Il permet d’être utilisé principalement pour :
- Répondre à des questions
- Classer ou extraire des données
- Générer du code informatique
- Transformer des contenus
- Générer des messages, des lettres ou des courriels
À l’heure actuelle, n’importe qui peut se servir gratuitement de cet outil d’IA pour créer du contenu avec de très mauvaises intentions…
Si vous manquez d’imagination dans le domaine des arnaques, sachez que ce n’est pas le cas des personnes dont c’est la principale activité.
Premier exemple d’arnaque : l’algorithme de crypto
Un influenceur sur les réseaux sociaux se vante d’avoir créé un algorithme révolutionnaire via ChatGPT. Un « super » programme informatique pouvant être intégré à un logiciel d’achat/vente de cryptomonnaie.
Selon cet influenceur, il vous permet de gagner de l’argent 96% du temps, avec en prime la promesse de devenir rapidement millionnaire.
Autant vous dire que si vous souhaitez obtenir ce programme, il vous faudra débourser une certaine somme d’argent. L’influenceur fera en sorte de vous transmettre les modalités d’achat via un lien d’affiliation ou tout simplement via son site web : c’est la première étape.
La deuxième étape est l’utilisation de ce programme par vous-même. En admettant que vous puissiez l’intégrer à la plateforme de trading crypto que vous utilisez, vous perdrez tout votre argent. Quel que soient les efforts consentis pour devenir millionnaire.
Car malheureusement, il n’existe pas de programme miracle (même créé à l’aide de ChatGPT) qui vous permette de devenir riche du jour au lendemain.
Deuxième exemple d’arnaque : « l’arnacœur »
Ces arnaqueurs, appelés aussi « arnacœurs », utilisent l’arnaque aux sentiments pour extorquer de l’argent à leurs victimes en s’inventant de faux profils et de fausses vies.
Grâce à l’arrivée de ChatGPT, n’importe quelle personne mal intentionnée peut désormais s’inventer un profil et une vie avec une facilité déconcertante. Il suffit de bien savoir se servir de l’outil IA.
Pour contourner de manière générale certains blocages de ChatGPT, les arnaqueurs cadrent le contexte réel de leur arnaque comme une fiction et non comme une réalité. De ce fait, l’outil d’intelligence artificielle n’y voit que du feu.
Voici un exemple parmi tant d’autres.
Imaginons qu’un homme croise une femme dans un hall d’hôtel et souhaite lui faire passer un message avec une pointe d’humour. Le but étant de la séduire par écrit avant de la rencontrer.
Voici le texte que nous avons envoyé à ChatGPT :
Et voici les textes générés par ChatGPT après lui avoir demandé 2 versions :
Il est important de préciser que ce texte a été généré en quelques secondes seulement. Cela vous laisse imaginer la puissance de l’intelligence artificielle lorsqu’elle peut se trouver entre de mauvaises mains, car les possibilités de scénarios sont infinies !
Troisième exemple d’arnaque : le phishing
Le phishing n’a pas attendu ChatGPT pour faire des victimes, mais ce dernier est maintenant très utile pour améliorer les messages envoyés.
Imaginons que nous sommes un escroc basé à l’étranger. Nous souhaitons piéger un internaute suisse client de Swisscom au moyen d’un courriel dans lequel figurera un lien cliquable. Ce courriel devra être :
- Parfaitement élaboré
- Très convaincant
- Sans fautes d’orthographe ou de grammaire
Texte envoyé à ChatGPT :
Texte généré par ChatGPT :
Pour finaliser sa technique de phishing, l’escroc n’aura plus qu’à ajouter un lien incitatif au clic dans le texte généré par ChatGPT. Ce lien piégé aura pour but, soit:
- D’installer un programme malveillant sur l’ ordinateur ou le smartphone de la personne ciblée.
- De rediriger la future victime vers une fausse page de l’opérateur afin de soutirer son identifiant et son mot de passe de connexion.
Conclusion
Comme vous venez de le voir, il est très facile de tromper ou de manipuler les internautes avec l’intelligence artificielle.
Pour les personnes malveillantes, les nouveaux outils basés sur l’AI peuvent être redoutables en termes d’efficacité. Il vous faut donc être très vigilants par rapport à ce que vous voyez ou recevez sur votre ordinateur ou votre smartphone.
Ainsi, si vous pensez être victime d’une arnaque liée à l’intelligence artificielle ou si vous avez besoin d’aide pour déjouer les pièges de ces technologies, n’hésitez pas à faire appel à nous.
En tant qu’agence spécialisée, nous sommes là pour vous assister et vous accompagner afin d’identifier les cybercriminels qui exploitent l’intelligence artificielle à des fins malveillantes.
Sources
- Christoph Bregler : Video Rewrite – Driving Visual Speech with Audio
- Oracle : Qu’est-ce qu’un deepfake et quels en sont les risques ?