Mésinformation
ENTREPRISE
Auteur(s) : Par Catherine Bertrand-Ferrandis
Détecter la manipulation de l’image est devenu un véritable casse-tête, ouvrant la porte à la désinformation et à la mésinformation. Au fil des évolutions de l’intelligence artificielle, il est de plus en plus difficile à résoudre. Comment s’y retrouver ?
Les images ont un pouvoir immense sur la perception. Artistes, publicitaires et spécialistes du marketing le savent bien. Mais la réalité cognitive décrite par l’expression « un coup d’œil vaut mille mots » n’a jamais été aussi dangereuse qu’à l’ère du numérique et de l’intelligence artificielle (IA). Les images attirent l’attention et sont capables de transmettre des messages complexes en une fraction de seconde. Elles ne déclenchent pas uniquement l’activation d’un raisonnement, elles provoquent également une réaction émotionnelle d’autant plus importante qu’elle est liée à des émotions négatives1.
Le bon côté est que cela augmente l’implication de chacun dans le sujet traité. Les clients cliquent, par exemple, beaucoup plus sur des posts de réseaux sociaux montrant un joli chaton sauvé par les bons soins des praticiens. Mais la mauvaise nouvelle est que ce pouvoir captivant n’est passé inaperçu pour personne. Les amateurs du marketing sauvage ou de la désinformation savent extrêmenent bien s’en servir. L’image est aujourd'hui exploitée à tout va, pour le meilleur comme pour le pire.
L'IA : un faussaire de haut vol pour les images
Sur les réseaux sociaux, photos, illustrations et vidéos sont omniprésentes et jouent un rôle central dans la diffusion d’informations. Les utilisateurs producteurs de contenu utilisent des visuels à fort impact cognitif pour capter et retenir l’attention, et certains n'hésitent pas à manipuler l’opinion. Distinguer le vrai du faux en matière d’image n’a donc jamais été aussi important… et difficile à faire.
L’avènement des outils d’IA « en libre-service » n’a fait qu’amplifier le problème ces dernières années. L’IA a démultiplié la capacité de produire et de modifier les images, tout en rendant disponibles ces talents (jusqu’alors réservés à des spécialistes de Photoshop et autres logiciels de traitement de l’image) au plus grand nombre. Créer des images truquées ou générées de toutes pièces n'a jamais été aussi facile, avec des résultats de plus en plus saisissants de réalisme rendant la détection des faux d’autant plus complexe.
Un smartphone, une bonne application et deux minutes de pianotage suffisent pour obtenir une « photo » hyperréaliste d’un croisement entre un chat norvégien et un shih tzu. Et c’est comme cela que « tata Jeanine » arrive au comptoir et demande pourquoi personne ne lui avait jamais parlé de cette extraordinaire race de « chat-chien ».
Méthodes de vérification à consommer et à partager
Les capacités de génération d’images avec l’IA ne cessent de monter en niveau. Depuis mi-mars, l’écriture de texte n’est, par exemple, plus une limite : le nouveau modèle d’OpenAI gère parfaitement les textes. Mais cela n’empêche pas les manipulations « à l’ancienne » de continuer à circuler. Savoir les repérer est donc la base. La méthode DOCCRE2 permet déjà de faire un premier gros tri et d’écarter bon nombre d’images suspectes en observant avec attention cinq points :
1. Doigts : avant mars 2025, les IA avaient du mal à reproduire fidèlement les mains et les doigts. Il faut donc les compter et observer leur forme.
2. Ombres : des ombres incohérentes ou absentes peuvent indiquer une manipulation.
3. Couleurs : les nuances de couleurs peuvent être irréalistes ou mal harmonisées (saturation excessive ou des teintes inhabituelles).
4. Contours : les bords des objets ou des personnages peuvent être flous ou mal définis, si bien que sur certaines zones des détails manquent (visages mal finis par exemple).
5. Résolution : un élément inséré peut aussi avoir une résolution différente du reste de l’image. Un grossissement de l’image au maximum permet de regarder si les pixels qui apparaissent sont homogènes.
La méthode loupe, c’est bien, mais cela ne suffit pas. Lorsque le doute persiste après une première analyse visuelle, de nombreux outils en ligne peuvent aider à détecter si l’image a été générée ou manipulée par une IA. Parmi eux, en voici deux utilisables gratuitement et facilement : Hive Moderation3 et Fake Image Detector4. Ces plateformes analysent les images en utilisant des algorithmes capables de reconnaître les signatures laissées par les IA génératives. Il en existe de bien plus professionnelles, telles fotoforensics ou forensically mais qui demandent un oeil plus aiguisé pour chercher les indices et comprendre les résultats.
Attention : aucun de ces outils n’est pas infaillible, surtout avec les développements rapides des nouveaux générateurs IA. Il est donc conseillé de tester son image sur plusieurs plateformes pour comparer les résultats, et de ne surtout pas oublier de faire marcher son esprit critique !
Voir de l’autre côté du miroir avec la recherche inversée
L'humain n'a pas attendu l'IA maître faussaire pour savoir manipuler les images. Il sait depuis longtemps les modifier, mais aussi les sortir de leur contexte et les réutiliser pour propager de fausses informations. La recherche inversée d’images est alors la méthode la plus efficace pour retrouver leur origine et vérifier le contexte initial. Elle permet aussi de repérer les deepfakes si ceux-ci ont déjà été repérés par des fact-checkers. Plusieurs outils sont à disposition en ligne, dont Google images, Yandex images, Microsoft bing, TinEye ou Baidu. Voici comment procéder avec Google images en quatre étapes :
1. Se rendre sur images.google.com ;
2. Cliquer sur l’icône de l’appareil photo pour accéder à la recherche par image ;
3. Importer l’image suspecte ou coller son URL ;
4. Google montre alors où et quand l’image est apparue en ligne, ainsi que des images similaires.
Il est alors possible d’observer la liste des utilisations de l’image et de se poser plusieurs questions : A-t-elle été utilisée dans un autre contexte ? Quelle est la plus ancienne utilisation de la photo ou de l’image ? Un site de fact-checking professionnel a-t-il déjà vérifié cette photo ? Par exemple, en 2020, une photo de cercueils alignés5 circulait, prétendant montrer les victimes du Covid-19 en Italie. La recherche inversée révèle que cette image date en réalité de 2013 et provient d’un naufrage de migrants à Lampedusa. Plus légères d’esprit, les fausses photos du Pape François se baladant dans la rue en doudoune jaune sont tout aussi facilement retraçables avec la recherche inversée.
Dans un environnement où la désinformation est omniprésente, il est plus que jamais nécessaire de développer une attitude critique face aux images rencontrées. Les praticiens ont bien sûr la responsabilité de s’assurer de la véracité des informations relayées. Mais ils peuvent aussi participer à la diffusion de ces bonnes pratiques auprès de collègues et clients. En apprenant au plus grand nombre à utiliser des méthodes et outils de détection en ligne et en pratiquant la recherche inversée d’images, chacun peut contribuer à lutter contre la propagation des infox en santé.