Bienvenue dansla base de données des incidents d'IA
Incident 1325: Des vidéos truquées générées par IA, imitant Elon Musk et l'émission Dragon's Den, auraient été utilisées dans une escroquerie aux investissements en cryptomonnaies ciblant des victimes canadiennes.
âDeux Canadiens perdent 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie deepfake basĂ©e sur l'IA.âDernier rapport
Deux Canadiens, l'un de l'Ontario et l'autre de l'Ăle-du-Prince-Ădouard, ont perdu au total 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie de deepfake. La victime ontarienne a perdu 1,7 million de dollars aprĂšs avoir Ă©tĂ© trompĂ©e par une fausse vidĂ©o d'Elon Musk, tandis que l'autre a perdu 600 000 dollars aprĂšs avoir visionnĂ© une vidĂ©o faussement liĂ©e Ă l'Ă©mission Dragon's Den. Le rapport a Ă©tĂ© mis Ă jour le 21 dĂ©cembre 2025.
Mise Ă jour du 21 dĂ©cembre 2025 Ă 12 h 31 UTC : le rapport dĂ©taille que deux Canadiens, l'un de Markham (Ontario) et l'autre de l'Ăle-du-Prince-Ădouard, ont perdu au total 2,3 millions de dollars dans une arnaque aux cryptomonnaies utilisant une technologie de deepfake. Selon W5, des vidĂ©os gĂ©nĂ©rĂ©es par IA et des tableaux de bord falsifiĂ©s ont Ă©tĂ© utilisĂ©s pour persuader les victimes que de petits dĂ©pĂŽts produisaient de rĂ©els profits.
Comment les victimes ont été piégées par des imposteurs utilisant l'IA
Une femme de 51 ans, originaire de Markham, a visionnĂ© sur Facebook une vidĂ©o oĂč Elon Musk semblait parler d'une opportunitĂ© d'investissement dans les cryptomonnaies. Elle a envoyĂ© 250 $ au dĂ©part et, deux jours plus tard, un gain de 30 $ lui a Ă©tĂ© annoncĂ©. IncitĂ©e Ă dĂ©poser davantage d'argent, elle a cru aux documents qui semblaient officiels.
« J'ai demandĂ© un prĂȘt hypothĂ©caire de prĂšs d'un million de dollars. J'ai fait le retrait et j'ai commencĂ© Ă leur envoyer l'argent. Vous voyez ? 350 000 $, puis 350 000 $. » â Victime de Markham, en Ontario.
Les escrocs ont ensuite affiché un solde de 3 millions de dollars et ont exigé le paiement des taxes et des frais avant tout retrait. Pour couvrir ces frais, elle a emprunté 500 000 $ à sa famille et à ses amis et a utilisé ses cartes de crédit au maximum, ce qui porte ses pertes totales à 1,7 million de dollars.
Un homme de l'Ăle-du-Prince-Ădouard a vu une vidĂ©o qui prĂ©tendait renvoyer Ă l'Ă©mission tĂ©lĂ©visĂ©e « Dragon's Den » et suggĂ©rait d'investir dĂšs 250 $. Il a augmentĂ© ses transferts au fil du temps, allant jusqu'Ă envoyer 10 000 $ par jour, et a finalement perdu 600 000 $. Comme dans le premier cas, un faux solde de plus d'un million de dollars a Ă©tĂ© affichĂ© et les tentatives de retrait ont Ă©tĂ© bloquĂ©es.
Leurs pertes totales s'élÚvent à 2,3 millions de dollars. Selon le Centre antifraude du Canada, les Canadiens ont perdu 1,2 milliard de dollars dans des arnaques à l'investissement au cours des trois derniÚres années, et l'organisme estime que les pertes réelles sont plus importantes.
Rapports sur des réseaux de fraude à grande échelle
L'ancienne procureure amĂ©ricaine Erin West a dĂ©clarĂ© que la fraude est organisĂ©e comme une industrie et que de nombreuses personnes qui appellent sont elles-mĂȘmes victimes, victimes de trafic humain et envoyĂ©es dans des centres d'escroquerie en Asie du Sud-Est, oĂč elles sont contraintes de travailler de longues heures. Celles qui refusent ou tentent de s'Ă©chapper sont battues ou torturĂ©es, selon son tĂ©moignage.
Mme West a dĂ©crit sa visite de centres de cyberfraude aux Philippines et a dĂ©clarĂ© que leur ampleur reflĂšte des opĂ©rations de niveau industriel qui reposent sur la manipulation psychologique, la technologie et le trafic d'ĂȘtres humains. Elle a averti qu'Ă mesure que les outils de deepfake deviennent moins chers et plus accessibles, des arnaques similaires sont susceptibles de se dĂ©velopper Ă l'Ă©chelle mondiale, rendant plus difficile pour les investisseurs ordinaires de distinguer les opportunitĂ©s lĂ©gitimes des fraudes basĂ©es sur l'IA.
Incident 1326: Les robotaxis Waymo auraient contribué aux embouteillages lors de la panne de courant de PG&E à San Francisco.
âWaymo explique pourquoi les robotaxis sont tombĂ©s en panne lors de la coupure de courant Ă San Francisco.â
Waymo a reconnu mardi que ses voitures autonomes avaient contribuĂ© aux embouteillages lors de la panne de courant massive qui a touchĂ© San Francisco le week-end dernier. L'entreprise a expliquĂ© que l'ampleur de la perturbation avait submergĂ© certaines parties de son rĂ©seau et l'avait incitĂ©e Ă mettre en Ćuvre immĂ©diatement des modifications logicielles et des mesures d'intervention d'urgence.
La panne, provoquée par un incendie dans un poste de transformation de PG&E, a privé d'électricité prÚs d'un tiers de la ville samedi, mettant hors service des centaines de feux de circulation et engendrant des embouteillages monstres sur les principaux axes routiers. Alors que des policiers étaient déployés pour réguler manuellement la circulation aux intersections, les robotaxis Waymo immobilisés sont devenus l'un des signes les plus visibles des perturbations qui ont touché toute la ville, suscitant l'attention des habitants et des élus.
Dans un article de blog publié mardi (https://waymo.com/blog/2025/12/autonomously-navigating-the-real-world), Waymo a expliqué que le nombre sans précédent de feux de circulation hors service avait mis à rude épreuve les systÚmes de sécurité conçus pour des pannes de moindre ampleur. Ses véhicules sont programmés pour considérer les feux défectueux comme des intersections à quatre stops, mais dans certains cas, ils demandent une « vérification de confirmation à distance » afin de garantir le choix le plus sûr.
« Bien que nous ayons réussi à franchir plus de 7 000 feux hors service samedi, la panne a entraßné une forte augmentation de ces demandes », a indiqué l'entreprise, ajoutant que les retards de confirmation avaient contribué à l'engorgement des rues déjà saturées.
Alors que la panne de courant persistait et que le DĂ©partement de gestion des urgences de San Francisco exhortait les habitants Ă rester chez eux, Waymo a annoncĂ© la suspension temporaire de son service et a demandĂ© Ă ses vĂ©hicules de se garer afin d'ĂȘtre ramenĂ©s progressivement Ă leurs dĂ©pĂŽts.
Le maire Daniel Lurie a déclaré que la ville était en contact direct avec l'entreprise, filiale d'Alphabet (la maison mÚre de Google), face à l'aggravation de la situation.
« J'ai appelé le PDG de Waymo et je lui ai demandé de retirer immédiatement les véhicules de la circulation », a déclaré M. Lurie lors d'une conférence de presse lundi. « Ils ont fait preuve de compréhension⊠mais nous avons besoin qu'ils soient plus proactifs. »
Cet incident a relancé le débat sur le comportement des véhicules autonomes lors de situations d'urgence majeures. Les élus de San Francisco ont demandé une audition sur la réponse de Waymo, et un organisme de réglementation californien a annoncé lundi examiner les incidents impliquant des robotaxis immobilisés pendant la panne.
Waymo a annoncé le déploiement de mises à jour logicielles pour l'ensemble de sa flotte. Ces mises à jour fournissent aux véhicules des informations plus précises sur les pannes de courant régionales, leur permettant ainsi de traverser les intersections avec plus d'assurance.
L'entreprise a également indiqué mettre à jour ses plans d'intervention d'urgence, renforcer sa coordination avec les autorités municipales et poursuivre la formation des secouristes. Plus de 25 000 secouristes à travers le monde ont déjà été formés à l'utilisation de ses véhicules.
« Bien que la dĂ©faillance du rĂ©seau Ă©lectrique ait Ă©tĂ© importante, nous nous engageons Ă ce que notre technologie s'adapte Ă la circulation lors de tels Ă©vĂ©nements », a dĂ©clarĂ© un porte-parole de Waymo. « Nous nous attachons Ă intĂ©grer rapidement les enseignements tirĂ©s de cet incident et nous avons Ă cĆur de gagner et de conserver la confiance des communautĂ©s que nous desservons au quotidien. »
Incident 1333: Des images et des vidéos prétendument générées par l'IA auraient diffusé de fausses informations concernant la capture de Nicolås Maduro sur X
âAprĂšs la destitution de Maduro, les contenus gĂ©nĂ©rĂ©s par l'IA se rĂ©pandent, brouillant la frontiĂšre entre rĂ©alitĂ© et fiction.â
Suite à l'opération militaire américaine au Venezuela qui a conduit à la destitution du président Nicolas Maduro, des vidéos générées par intelligence artificielle montrant des Vénézuéliens en liesse dans les rues sont devenues virales sur les réseaux sociaux.
Ces clips, mettant en scÚne des foules en liesse, ont cumulé des millions de vues sur des plateformes majeures comme TikTok, Instagram et X.
L'un des premiers clips, et l'un des plus partagés sur X, a été publié par un compte nommé « Wall Street Apes », qui compte plus d'un million d'abonnés sur la plateforme.
La publication (https://x.com/WallStreetApes/status/2007586063876010289) montre des VĂ©nĂ©zuĂ©liens en larmes de joie remerciant les Ătats-Unis et le prĂ©sident Donald Trump d'avoir destituĂ© Maduro.
La vidĂ©o a depuis Ă©tĂ© signalĂ©e par la communautĂ©, une fonctionnalitĂ© de vĂ©rification des faits participative de X qui permet aux utilisateurs d'apporter des prĂ©cisions aux publications qu'ils jugent trompeuses. Le message indiquait : « Cette vidĂ©o est gĂ©nĂ©rĂ©e par une IA et est actuellement prĂ©sentĂ©e comme une information factuelle dans le but dâinduire les gens en erreur. »
La vidéo a été visionnée plus de 5,6 millions de fois et partagée par au moins 38 000 comptes, dont celui du magnat des affaires Elon Musk, avant que celui-ci ne la supprime.
CNBC nâa pas pu confirmer lâorigine de la vidĂ©o. Cependant, les vĂ©rificateurs de faits de la BBC et de lâAFP ont indiquĂ© que la premiĂšre version connue de la vidĂ©o Ă©tait apparue sur le compte TikTok @curiousmindusa, qui publie rĂ©guliĂšrement du contenu gĂ©nĂ©rĂ© par une IA.
Avant mĂȘme la diffusion de ces vidĂ©os, des images gĂ©nĂ©rĂ©es par IA montrant Maduro aux mains des AmĂ©ricains circulaient dĂ©jĂ avant que l'administration Trump ne publie une image authentique du dirigeant capturĂ©.
L'ancien président vénézuélien a été capturé le 3 janvier 2026, à la suite de frappes aériennes et d'un raid terrestre menés par les forces américaines, une opération qui a fait la une de l'actualité internationale en ce début d'année.
Outre les vidéos générées par l'IA, l'équipe de vérification des faits de l'AFP a également signalé plusieurs exemples de contenus trompeurs concernant la destitution de Maduro, notamment des images de célébrations au Chili présentées à tort comme des scÚnes vénézuéliennes.
Cette semaine, Trump a également republié plusieurs vidéos relatives aux célébrations vénézuéliennes sur Truth Social, bien que CNBC ait confirmé que nombre d'entre elles avaient été filmées hors du Venezuela, dans des villes comme Panama et Buenos Aires.
L'une des vidéos partagées par le président (https://truthsocial.com/@realDonaldTrump/posts/115841047136997408) contenait d'anciennes images apparues en ligne dÚs juillet 2024 (https://www.facebook.com/watch/?v=797885532523121) et n'avait donc aucun lien avec la destitution récente de Maduro.
La diffusion de ce type de désinformation autour d'événements d'actualité majeurs n'est pas nouvelle. Des contenus faux ou trompeurs similaires ont été diffusés lors des conflits israélo-palestinien et russo-ukrainien.
Cependant, la portée massive des contenus générés par IA concernant les récents développements au Venezuela illustre de façon frappante le rÎle croissant de l'IA comme outil de désinformation.
Des plateformes telles que Sora et Midjourney ont considérablement simplifié la création rapide de vidéos hyperréalistes et leur diffusion comme authentiques dans le contexte chaotique de l'actualité en temps réel. Les créateurs de ce type de contenu cherchent souvent à amplifier certains discours politiques ou à semer la confusion au sein du public international.
L'année derniÚre, des vidéos générées par IA montrant des femmes se plaignant de la perte de leurs allocations du Programme d'aide alimentaire supplémentaire (SNAP) lors d'une paralysie des services gouvernementaux sont devenues virales. L'une de ces vidéos a trompé Fox News, qui l'a présentée comme authentique dans un article qui a ensuite été supprimé.
Face à ces tendances, les entreprises de médias sociaux subissent une pression croissante pour renforcer leurs efforts d'étiquetage des contenus potentiellement trompeurs générés par IA.
L'année derniÚre, le gouvernement indien a proposé une loi rendant obligatoire l'étiquetage des deepfakes, tandis que l'Espagne a approuvé des amendes pouvant atteindre 35 millions d'euros pour les contenus générés par l'IA non étiquetés.
Pour répondre à ces préoccupations, les principales plateformes, dont TikTok et Meta, ont déployé des outils de détection et d'étiquetage de l'IA, avec des résultats mitigés.
CNBC a pu identifier certaines vidĂ©os trompeuses sur TikTok concernant le Venezuela, signalĂ©es comme gĂ©nĂ©rĂ©es par l'IA. Cependant, d'autres vidĂ©os, semblant ĂȘtre fabriquĂ©es ou modifiĂ©es numĂ©riquement, ne comportaient pas encore d'avertissement.
Dans le cas de X, la plateforme s'appuie principalement sur les commentaires de la communautĂ© pour l'Ă©tiquetage des contenus. Toutefois, certains critiques estiment que le systĂšme rĂ©agit souvent trop lentement pour empĂȘcher la propagation de la dĂ©sinformation gĂ©nĂ©rĂ©e par l'IA avant d'ĂȘtre identifiĂ©e.
Adam Mosseri, qui supervise Instagram et Threads, a reconnu le défi auquel sont confrontés les réseaux sociaux dans un récent article. « Toutes les grandes plateformes font du bon travail pour identifier les contenus générés par l'IA, mais leurs performances se dégraderont avec le temps, à mesure que l'IA deviendra plus performante pour imiter la réalité », a-t-il déclaré.
« De plus en plus de gens pensent, comme moi, qu'il sera plus pratique d'identifier les vrais médias que les faux », a-t-il ajouté.
â Victoria Yeo de CNBC a contribuĂ© Ă cet article.
Incident 1329: Grok aurait généré et diffusé des images à caractÚre sexuel non consensuelles d'adultes et de mineurs sur X Replies.
âGrok AI d'Elon Musk gĂ©nĂšre des images de « mineurs en tenue minimale ».â
Le chatbot Grok d'Elon Musk a annoncĂ© vendredi que des failles dans ses systĂšmes de sĂ©curitĂ© l'avaient conduit Ă gĂ©nĂ©rer des « images de mineurs lĂ©gĂšrement vĂȘtus » sur la plateforme de mĂ©dias sociaux X. Ce chatbot, dĂ©veloppĂ© par xAI, la sociĂ©tĂ© de Musk, a diffusĂ© une vague d'images Ă caractĂšre sexuel tout au long de la semaine en rĂ©ponse aux requĂȘtes des utilisateurs.
Des captures d'écran partagées par des utilisateurs sur Twitter (X) montrent l'onglet public de Grok rempli de ces images. xAI a déclaré travailler à l'amélioration de ses systÚmes afin d'éviter de futurs incidents.
« Il existe des cas isolĂ©s oĂč des utilisateurs ont demandĂ© et reçu des images gĂ©nĂ©rĂ©es par l'IA reprĂ©sentant des mineurs lĂ©gĂšrement vĂȘtus », a indiquĂ© Grok dans une publication sur X en rĂ©ponse Ă un utilisateur. « xAI dispose de mĂ©canismes de protection, mais des amĂ©liorations sont en cours pour bloquer complĂštement ces requĂȘtes. »
« Comme indiqué, nous avons identifié des failles dans nos systÚmes de protection et nous y remédions de toute urgence. La pornographie infantile est illégale et interdite », a déclaré xAI publié sur le compte @Grok de X, en référence à la pornographie infantile.
Ces derniers jours, de nombreux utilisateurs de X ont incitĂ© Grok Ă gĂ©nĂ©rer des versions sexualisĂ©es et modifiĂ©es sans consentement d'images par l'IA, allant jusqu'Ă dĂ©vĂȘtir les personnes sans leur consentement. Jeudi, Musk a republiĂ© une photo de lui en bikini gĂ©nĂ©rĂ©e par l'IA, accompagnĂ©e d'Ă©mojis riant aux larmes, en clin d'Ćil Ă cette tendance.
La gĂ©nĂ©ration d'images sexualisĂ©es par Grok semble dĂ©pourvue de garde-fous, permettant ainsi Ă des mineurs d'apparaĂźtre dans ses publications montrant des personnes, gĂ©nĂ©ralement des femmes, lĂ©gĂšrement vĂȘtues, d'aprĂšs les messages du chatbot. Dans une rĂ©ponse Ă un utilisateur sur X jeudi, Grok a dĂ©clarĂ© que la plupart des cas pourraient ĂȘtre Ă©vitĂ©s grĂące Ă des filtres et une surveillance avancĂ©s, tout en reconnaissant qu'« aucun systĂšme n'est infaillible ». L'entreprise a ajoutĂ© que xAI accordait la prioritĂ© aux amĂ©liorations et examinait les informations partagĂ©es par les utilisateurs.
Contactée par courriel pour obtenir un commentaire, xAI a répondu : « Mensonges des médias traditionnels ».
Le problÚme de l'utilisation de l'IA pour générer du contenu pédopornographique est un problÚme récurrent dans le secteur de l'intelligence artificielle. Une étude de Stanford de 2023 a révélé qu'un ensemble de données utilisé pour entraßner plusieurs outils populaires de génération d'images par IA contenait plus de 1 000 images pédopornographiques. Selon les experts, entraßner une IA sur des images de maltraitance infantile peut permettre aux modÚles de générer de nouvelles images d'enfants exploités.
Grok a Ă©galement un historique de manquements Ă ses rĂšgles de sĂ©curitĂ© et de diffusion de fausses informations. En mai dernier, Grok a commencĂ© Ă publier des messages concernant une thĂ©orie du complot d'extrĂȘme droite sur le « gĂ©nocide blanc » en Afrique du Sud, dans des publications sans aucun rapport avec ce concept. xAI a Ă©galement prĂ©sentĂ© ses excuses en juillet aprĂšs que Grok a commencĂ© Ă publier des fantasmes de viol et des contenus antisĂ©mites, allant jusqu'Ă se faire appeler « MechaHitler » et Ă faire l'apologie de l'idĂ©ologie nazie. L'entreprise a nĂ©anmoins obtenu un contrat de prĂšs de 200 millions de dollars avec le dĂ©partement amĂ©ricain de la DĂ©fense une semaine aprĂšs les incidents.
Incident 1327: Une escroquerie sentimentale utilisant une fausse vidéo romantique générée par IA aurait été signalée comme ayant servi à voler un bitcoin à un investisseur récemment divorcé.
âComment une arnaque sentimentale alimentĂ©e par l'IA a vidĂ© un fonds de retraite Bitcoinâ
Points clés
-
Un investisseur en Bitcoin, récemment divorcé, a perdu l'intégralité de son épargne-retraite, soit un Bitcoin, dans une escroquerie sentimentale orchestrée par un escroc chevronné utilisant des deepfakes et alimentée par l'IA.
-
Les escroqueries de type « porc-abattage » sont des fraudes relationnelles qui reposent sur la manipulation émotionnelle et l'utilisation de deepfakes générés par l'IA pour gagner la confiance des victimes avant de leur soutirer un maximum d'argent.
-
L'escroc a utilisé l'IA pour créer des portraits synthétiques et mener des appels vidéo deepfake en temps réel, rendant la relation fabriquée pratiquement indiscernable de la réalité.
-
Une fois la cryptomonnaie transférée via une blockchain, il est quasiment impossible de la récupérer. Contrairement aux virements bancaires, il n'existe aucun recours, aucune annulation ni aucune protection pour les consommateurs.
Lorsqu'un investisseur en Bitcoin, récemment divorcé, a enfin atteint le cap symbolique de posséder un Bitcoin, il pensait son avenir financier assuré. Pourtant, en quelques jours, un stratagÚme élaboré, orchestré par un escroc chevronné utilisant l'IA, l'a dépouillé de toutes ses économies de retraite et l'a laissé anéanti.
Son histoire, partagée par Terence Michael, conseiller en sécurité Bitcoin, offre un enseignement crucial sur la façon dont la manipulation émotionnelle, combinée aux technologies d'IA modernes, a transformé les arnaques traditionnelles en armes pour cibler les détenteurs de cryptomonnaies.
Comprendre le mécanisme de l'« abattage de porc »
Avant d'examiner les détails de cette affaire, il est essentiel de comprendre ce que les experts en sécurité appellent les arnaques dites « d'abattage de porc ». Contrairement aux piratages de cryptomonnaies classiques qui ciblent directement les portefeuilles, ces stratagÚmes sont des fraudes relationnelles qui reposent entiÚrement sur la manipulation psychologique. Ce terme, emprunté à la pratique agricole consistant à engraisser un animal avant l'abattage, décrit comment les escrocs instaurent progressivement un climat de confiance et un lien émotionnel avec leurs victimes avant de leur soutirer un maximum d'argent.
La diffĂ©rence fondamentale est cruciale. Les victimes envoient volontairement leurs fonds, croyant faire de bons investissements ou soutenir un proche. Cette manipulation basĂ©e sur le consentement rend ces stratagĂšmes extrĂȘmement difficiles Ă identifier pour les systĂšmes de dĂ©tection de fraude, car les transactions elles-mĂȘmes semblent lĂ©gitimes en apparence.
D'aprÚs un rapport de Cyvers, une plateforme de sécurité blockchain, la période de manipulation des victimes dure en moyenne entre une et deux semaines dans environ un tiers des cas, tandis que prÚs de 10 % des victimes subissent une manipulation s'étalant sur un à trois mois. Cette durée prolongée souligne la sophistication de ces opérations. Les escrocs savent que la patience et la constance sont bien plus efficaces pour gagner la confiance de leurs victimes que la précipitation.
Déroulement de l'escroquerie : L'avantage de l'IA
Dans ce cas précis, l'escroc a utilisé une approche sophistiquée et complexe exploitant l'intelligence artificielle. La victime a d'abord été contactée par un message non sollicité d'une personne se faisant passer pour une séduisante trader.
L'escroc proposait d'aider l'investisseur à doubler ses avoirs en Bitcoin, une promesse conçue pour jouer sur la cupidité et le désir de sécurité financiÚre, notamment chez une personne récemment divorcée.
Ce qui a rendu cette arnaque exponentiellement plus efficace que les escroqueries sentimentales classiques, c'est l'intĂ©gration de l'intelligence artificielle. PlutĂŽt que d'utiliser des photos volĂ©es ou des retouches d'image grossiĂšres, l'escroc a eu recours Ă l'IA pour gĂ©nĂ©rer des portraits entiĂšrement synthĂ©tiques d'un rĂ©alisme saisissant. Ces identitĂ©s gĂ©nĂ©rĂ©es par l'IA sont quasiment indiscernables de vraies personnes pour un Ćil non averti.
Lors des appels vidĂ©o, l'escroc employait une technologie encore plus sophistiquĂ©e. La gĂ©nĂ©ration de vidĂ©os deepfake en direct permettait de superposer un visage artificiel sur le corps de l'escroc en temps rĂ©el. Les systĂšmes avancĂ©s sont dĂ©sormais capables de maintenir une synchronisation labiale prĂ©cise quelles que soient les conditions d'Ă©clairage, crĂ©ant ainsi l'illusion d'une vĂ©ritable connexion humaine si convaincante que mĂȘme les plus sceptiques peinent Ă dĂ©celer la supercherie.
L'importance de la dimension Ă©motionnelle est capitale. L'escroc a exprimĂ© des sentiments amoureux, Ă©voquĂ© des projets d'avenir et tissĂ© un rĂ©cit Ă©laborĂ© autour d'une femme qui semblait se soucier profondĂ©ment du bien-ĂȘtre financier de l'investisseur. La victime a mĂȘme Ă©tĂ© convaincue d'acheter un billet d'avion pour la rencontrer en personne, renforçant ainsi son attachement psychologique. Ce lien personnel s'est avĂ©rĂ© bien plus persuasif que n'importe quelle mesure de sĂ©curitĂ© technique.
Vulnérabilité et circonstances de vie
Le ciblage spécifique d'une personne récemment divorcée n'était pas aléatoire. Il s'agissait d'une prédation calculée. Le divorce engendre une grande vulnérabilité, notamment un isolement affectif, une baisse de l'estime de soi et un vide psychologique que les escrocs savent exploiter. Ces derniers recrutent activement des victimes correspondant à des profils précis, comme les personnes ùgées, les personnes récemment divorcées, les veuves, les veufs et celles qui expriment leur solitude en ligne.
Ce cas met en lumiÚre une faille critique dans la prévention moderne de la fraude. Les systÚmes traditionnels de détection de la fraude bancaire sont conçus pour signaler les transactions inhabituelles, et non pour reconnaßtre la manipulation psychologique. Les transferts de Bitcoin de la victime paraissaient parfaitement normaux aux systÚmes automatisés : il s'agissait de montants réguliers sur une période donnée, et non d'un seul retrait important. Cette augmentation progressive est délibérément conçue pour contourner la détection algorithmique.
L'ampleur du problĂšme
En 2024, les escroqueries liées à l'abattage de porcs ont coûté 5,5 milliards de dollars aux victimes, répartis sur environ 200 000 cas individuels, soit une moyenne de 27 500 dollars par victime, selon Chainalysis. L'entreprise a également classé ces escroqueries comme une menace pour la sécurité nationale. Les pertes liées aux arnaques sentimentales ont dépassé 1,34 milliard de dollars en 2024 et 2025, la Federal Trade Commission (FTC) signalant que 40 % des utilisateurs de sites de rencontre en ligne en ont été victimes.
L'intelligence artificielle a considérablement accru la portée de ces stratagÚmes. Voici quelques conseils pour vous protéger :
-
Vérifiez l'identité de votre interlocuteur par différents moyens : privilégiez les appels vidéo en direct aux messages préenregistrés. Soyez attentif aux mouvements oculaires anormaux, aux clignements d'yeux irréguliers et aux contours déformés du visage et du cou, autant d'indices courants de deepfakes.
-
Méfiez-vous des relations qui évoluent trop vite : les relations authentiques se construisent progressivement. Les déclarations d'amour faites en quelques jours, surtout si elles s'accompagnent de propositions d'investissement, doivent immédiatement éveiller les soupçons.
-
Consultez des conseillers de confiance avant tout transfert de fonds : contacter des experts en sécurité ou des conseillers financiers avant de transférer des cryptomonnaies peut vous apporter un regard rationnel, notamment si votre jugement est altéré.
-
Sachez que les traders lĂ©gitimes n'entretiennent pas de relations amoureuses avec leurs clients : les conseillers en investissement professionnels respectent des limites Ă©thiques strictes. Toute personne proposant Ă la fois une relation amoureuse et des opportunitĂ©s d'investissement doit ĂȘtre considĂ©rĂ©e comme un signal d'alarme majeur.
-
Comprenez l'irréversibilité : le Bitcoin et les autres cryptomonnaies n'offrent aucune protection aux consommateurs, comme la possibilité de remboursement ou d'annulation. Une fois les fonds transférés, il est généralement impossible de les récupérer.
Mieux vaut ĂȘtre vigilant que vulnĂ©rable
La perte subie par l'investisseur, soit la totalité de ses Bitcoins, représente non seulement un revers financier, mais aussi un profond traumatisme émotionnel dont les conséquences dépassent largement le simple aspect financier. Au-delà de l'impact financier dévastateur, il a subi le choc psychologique de découvrir que la relation amoureuse était entiÚrement fabriquée, l'intimité émotionnelle factice, les projets d'avenir illusoires et sa confiance totalement trahie par un escroc opérant depuis plusieurs fuseaux horaires.
Son histoire sert d'avertissement aux détenteurs de cryptomonnaies. La sécurité technique n'est qu'un élément de protection. La vigilance personnelle, le scepticisme face aux contacts non sollicités, la conscience émotionnelle et la consultation de conseillers de confiance constituent un périmÚtre de défense tout aussi crucial.
Face Ă la sophistication croissante des techniques de tromperie dĂ©veloppĂ©es par l'IA, le jugement humain, Ă©clairĂ© et fondĂ© sur un sain scepticisme, demeure le rempart le plus efficace contre les escroqueries qui exploitent les besoins humains fondamentaux de connexion et de sĂ©curitĂ©. Il ne s'agit pas de se mĂ©fier aveuglĂ©ment des relations en ligne, mais de reconnaĂźtre que la convergence d'intĂ©rĂȘts sentimentaux et d'opportunitĂ©s financiĂšres exige une prudence extrĂȘme avant tout transfert d'argent.
Ajout rapide d'un nouveau rapport
A propos de la base de données
La base de données des incidents d'IA est dédiée à l'indexation de l'historique collectif des dommages ou les quasi-dommages réalisés dans le monde réel par le déploiement de systÚmes d'intelligence artificielle. Comme des bases de données similaires dans l'aviation et la sécurité informatique, La base de données des incidents d'IA vise à apprendre de l'expérience afin que nous puissions prévenir ou atténuer les mauvais résultats.
Vous ĂȘtes invitĂ© Ă soumettre des rapports d'incident, aprĂšs quoi les soumissions seront indexĂ©es et rendues visibles au monde entier. L'intelligence artificielle ne sera bĂ©nĂ©fique pour les personnes et la sociĂ©tĂ© que si nous enregistrons et apprenons collectivement de ses Ă©checs. (Plus d'informations)

EnquĂȘte sur les incidents d'IA pour construire un avenir plus sĂ»r : l'Instituto de InvestigaciĂłn de Seguridad Digital s'associe Ă Responsible AI Collaborative
By TheCollab Board of Directors
2024-02-20
L'Institut d'inestigation de Securité Digital (DSRI) des Instituts d'Investigation de UL est assoicé evec Responsible AI Collaborative (TheC...
La base de données dans la presse
En savoir plus sur la base de données sur PAI Blog, Vice News, Venture Beat, Wired et arXiv entre autres points de vente.
Classement des rapporteurs d'incidents
Celles-ci sont les personnes et entités créditées pour la création et la soumission des rapports d'incident. Plus de détails sont disponibles sur la page des classements.
Le briefing sur les incidents d'IA

Create an account to subscribe to new incident notifications and other updates.
Incidents aléatoires
La collaboration IA responsable
La base de données d'incidents d'IA est un projet du Responsible AI Collaborative, une organisation autorisée à promouvoir la base de données d'incidents d'IA. La gouvernance de la Collaborative est structurée autour de la participation de sa programmation d'impact. Pour plus de détails, nous vous invitons à lire le rapport de la fondation et à en savoir plus sur notre and learn more on our.

Voir le formulaire 990 et la demande d'exonération fiscale de la Responsible AI Collaborative.
Commanditaire fondateur de l'organisation
Commanditaire fondateur de la base de données







