L’escalade des hostilités entre Israël et l’Iran a entraîné une diffusion sans précédent d’images générées par intelligence artificielle sur les réseaux sociaux.
Sous un épais nuage de poussière, des gratte-ciel éventrés semblent sur le point de s’effondrer dans un chaos de verre brisé et de béton pulvérisé. La ville est en ruines. « Bonjour Tel Aviv », peut-on lire dans la publication qui accompagne la photo vue plus de 39 millions de fois sur le réseau social X.
Si des missiles iraniens ont réellement causé de la destruction en Israël dans la dernière semaine, l’image décrite ci-dessus est entièrement fausse. Elle a été générée à l’aide d’outils d’intelligence artificielle (IA), mais à première vue, elle semble tout à fait réelle.
Lorsqu’on scrute les détails, on s’aperçoit que l’un des bâtiments se fond dans l’arrière-plan et que le texte sur un autre d’entre eux est déformé, deux signes révélateurs d’une image générée par IA. Sans mentionner qu’elle a initialement été mise en ligne sous forme de vidéo par un compte TikTok qui publie exclusivement du contenu IA.
Mais de nombreux internautes, qui l'ont probablement observée pendant quelques secondes en défilant sur un petit écran de téléphone cellulaire, y ont cru.
Ce n’est que la pointe de l’iceberg, et ce n’est même pas l’image artificielle la plus réaliste à devenir virale sur les réseaux sociaux depuis l’escalade des hostilités entre Israël et l’Iran.
Une fausse photo spectaculaire mais convaincante (nouvelle fenêtre) qui montre des missiles s’abattant la nuit sur Tel-Aviv a, par exemple, été vue 27 millions de fois sur X. Elle a d’abord été publiée sur Facebook par un internaute qui a indiqué qu’elle avait été générée par IA. L’image contient aussi un filigrane invisible qui révèle qu’elle a été générée à l’aide des outils d’IA de Google lorsqu’on effectue une recherche inversée (nouvelle fenêtre) sur le moteur de recherche.
Décidément, les derniers jours marquent un tournant pour la désinformation générée par IA – tant par la quantité de fausses images diffusées que par leur réalisme, bien qu’elles soient encore imparfaites.
Je pense que, la semaine dernière, c’est la première fois que Full Fact a vérifié davantage de contenus générés par intelligence artificielle que de véritables médias sortis de leur contexte, a indiqué le responsable de l’IA au média de vérification de faits Full Fact, Andrew Dudfield, dans une publication sur LinkedIn (nouvelle fenêtre). Ça me semble marquant. Les contenus sortis de leur contexte dominaient le paysage depuis si longtemps.
Des vidéos hyperréalistes
Depuis l’avènement des réseaux sociaux, les premières heures qui suivent un grand événement d’actualité de dernière heure sont marquées par un vide informationnel qui se remplit de rumeurs et d’images décontextualisées. Par la suite, les pendules sont remises à l’heure par les internautes, les journalistes et les autorités.
Mais depuis que les outils d’intelligence artificielle générative sont devenus plus accessibles et plus hyperréalistes, on observe une augmentation constante de contenus générés par IA lors d’événements d’actualité de dernière heure, estime Emmanuelle Saliba, une ancienne journaliste d’enquête visuelle désormais responsable des investigations à GetReal Labs, une entreprise technologique spécialisée dans la détection et la lutte contre les contenus synthétiques malveillants.
Je ne dirais pas que c’est nouveau, mais c’est la première fois qu’on le voit autant utilisé dans le contexte d’une guerre.
Selon Mme Saliba, d’autres événements d’actualité récents marqués par des images générées par IA sont le passage de l’ouragan Milton (nouvelle fenêtre) en Floride en 2024 et les incendies de janvier 2025 (nouvelle fenêtre) à Los Angeles. Depuis, non seulement le contenu artificiel est devenu plus réaliste, mais un nouveau générateur de vidéos plus performant que ses concurrents a vu le jour : Veo 3, de Google, lancé à la fin mai, également capable de produire du son synchronisé à l’image.
Une fausse vidéo (nouvelle fenêtre) d’un missile qui frappe un bâtiment en Israël créée par Veo 3 a d’ailleurs d’abord été disséminée par un média d’État iranien, Tehran Times, en début de semaine. Si la publication originale du Tehran Times contenait un filigrane dans le coin inférieur droit de la vidéo indiquant clairement qu’elle avait été générée par Veo, plusieurs comptes l’ont reprise en rognant l’image de manière à ce qu’il disparaisse.
GetReal Labs a été en mesure de rapidement identifier les multiples vidéos générées par Veo qui circulaient sur les réseaux sociaux ces derniers jours parce que le laboratoire a collaboré avec Google pour le développement de SynthID, une technologie de filigrane invisible qui marque le contenu généré par Veo. Or, les outils de détection de SynthID ne sont pas encore disponibles pour le grand public, et aucune date de sortie n’a encore été annoncée.
Pour la personne moyenne, je conseillerais de simplement être sceptique de tout ce que l’on voit. Certains contenus contiennent des filigranes visibles, mais sinon, on doit vraiment faire davantage de campagnes de sensibilisation pour que les gens sachent à quel point la technologie s’améliore, avertit Emmanuelle Saliba.
Autre bémol : ce ne sont pas toutes les technologies d’IA générative qui contiennent des filigranes ou même des garde-fous. Si Veo a permis de générer des images réalistes de missiles qui frappent des bâtiments, il ne peut pas, par exemple, produire d’images violentes et sanglantes.
Lorsque les modèles d’IA publics ou en source ouverte seront capables de produire du contenu aussi réaliste, il sera presque impossible d’avoir des garde-fous assez forts pour que les gens ne puissent pas produire de contenu problématique, prédit le directeur de l’Observatoire de l'écosystème médiatique de l'Université McGill et de l'Université de Toronto, Aengus Bridgman.
La technologie avance rapidement, mais elle n’est pas encore parfaite, ajoute M. Bridgman. Mais j’ai peur de voir à quoi ressemblera Veo 4.
07/03/2025
28/01/2025
<p>Entre gondoles, diamants et robes à traînes, le mariage du siècle de Jeff Bezos et Lauren Sánchez, et leurs célèbres invités ont...