Sommaire :
Une nouvelle politique pour les contenus IA de Meta
L’entreprise californienne Meta, propriétaire de Facebook, Instagram et Threads, va mettre en place une nouvelle politique pour étiqueter les contenus générés par l’intelligence artificielle (IA). Cette décision fait suite à des critiques sur la modération des contenus et les risques liés à l’IA. Meta prévoit de mettre en œuvre cette nouvelle politique à partir de mai.
Contexte de la décision de Meta
En 2023, une vidéo manipulée montrant le président américain Joe Biden circule sur Facebook, suscitant une controverse. Le Conseil de surveillance de Meta pointe une faiblesse de la politique de modération du groupe et demande une révision de cette politique. Par ailleurs, lors d’une réunion à la Maison Blanche, la vice-présidente américaine Kamala Harris souligne les risques liés à l’IA générative sur l’opinion publique.
Objectif de la nouvelle politique de Meta
L’objectif de Meta est de certifier la provenance des images diffusées sur ses réseaux sociaux en étiquetant les contenus générés par l’IA sous la mention « Made with AI ». Cette nouvelle politique vise à mieux encadrer les contenus IA et à répondre aux critiques reçues. Monika Bickert, vice-présidente de Meta, explique que la politique actuelle de modération a été établie en 2020, à une époque où les contenus réalistes générés par l’IA étaient peu courants.
Techniques de détection des contenus IA
Pour détecter les contenus générés par l’IA, Meta s’appuiera sur l’analyse des métadonnées associées aux fichiers et images. L’entreprise souhaite également identifier la présence d’un filigrane numérique invisible, appelé watermarking, qui permet de distinguer le réel du faux. Cette analyse d’authenticité aura lieu avant la publication des images sur les réseaux sociaux de Meta.
Politiques des autres réseaux sociaux
D’autres réseaux sociaux sont également confrontés aux contenus générés par l’IA. TikTok propose une fonctionnalité volontaire permettant aux utilisateurs de labelliser leurs contenus comme étant générés par l’IA. Le réseau social X (ex-Twitter) a quant à lui mis en place des « community notes » pour lutter contre la désinformation générée par l’IA.

