Sommaire :
Facebook, Instagram et Threads étiquetteront les images générées par l’IA
Le géant américain Meta, propriétaire de Facebook, Instagram et Threads, a annoncé qu’il prévoit d’étiquetter les images publiées sur ces plateformes lorsque celles-ci sont générées par l’intelligence artificielle (IA). Actuellement, cette fonctionnalité n’est disponible que pour les images créées avec l’outil Meta AI. Cependant, Meta souhaite étendre cette capacité aux contenus générés par d’autres entreprises telles que Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock.
Dans les prochains mois, Meta déploiera ces étiquettes dans toutes les langues prises en charge par chaque application. Cette initiative vise à lutter contre la désinformation et la mésinformation qui pourraient être propagées à l’approche d’élections majeures, notamment aux États-Unis.
Les risques liés à l’IA générative
L’essor de l’IA générative soulève des préoccupations quant à son utilisation à des fins politiques malveillantes. Des experts et des régulateurs mettent en garde contre la production de contenus trompeurs, notamment des images truquées à l’aide de techniques appelées « deepfakes ». Par exemple, une fausse image de Taylor Swift a été vue des millions de fois sur une ancienne plateforme de médias sociaux avant d’être supprimée. Cette préoccupation concerne non seulement les personnalités célèbres, mais aussi les anonymes.
C’est dans ce contexte que Meta prend des mesures pour étiquetter les images générées par l’IA, afin de fournir une transparence significative à ses utilisateurs et de minimiser la prolifération des contenus trompeurs.
Comment cela fonctionne-t-il concrètement ?
Pour identifier les images générées par l’IA, Meta utilise une combinaison de marqueurs visibles et de la technologie du « watermarking ». Le « watermarking » consiste à insérer une marque invisible à l’intérieur de l’image générée par l’IA, permettant ainsi sa détection par les réseaux sociaux de Meta.
Lorsqu’une image est téléchargée sur l’une de ces plateformes, celle-ci subit différents traitements tels que la compression et le changement de taille. Meta profite de ces traitements pour intégrer un petit marqueur de détection à l’image. Cette approche est réalisable grâce aux ressources dont Meta dispose.
Efficacité du processus d’étiquetage
Meta reconnaît que l’étiquetage à grande échelle des images générées par l’IA ne permettra pas d’éliminer totalement le risque de fausses images. Cependant, cette mesure permettra certainement de limiter la prolifération de ces contenus trompeurs, dans les limites actuelles de la technologie. Nick Clegg, responsable des affaires internationales de Meta, espère que cette initiative encouragera d’autres entreprises à travailler ensemble pour développer des normes communes.
Le besoin de normes et de collaborations
Duncan Stewart, directeur de la recherche Technologies, médias et télécommunications chez Deloitte, souligne l’importance de la collaboration entre les entreprises et la définition de normes techniques communes. Selon lui, les solutions isolées risquent d’être insuffisantes pour faire face aux défis posés par l’IA générative. Des efforts concertés sont nécessaires pour accroître la confiance dans cette technologie.
OpenAI, qui a développé le générateur de texte ChatGPT, a également pris des mesures similaires pour lutter contre la désinformation. Par exemple, le générateur d’images DALL-E 3 d’OpenAI intègre des mécanismes de protection pour empêcher la création d’images de personnes réelles, notamment de candidats politiques, à des fins trompeuses.

