Sommaire :
Meta va identifier les images générées par l’IA sur ses réseaux sociaux
Le géant américain Meta a annoncé qu’il allait identifier « dans les prochains mois » toutes les images générées par l’intelligence artificielle (IA) qui seraient publiées sur ses réseaux sociaux. Cette mesure est déjà mise en œuvre avec l’outil de génération d’images de Meta AI depuis son lancement en décembre. L’objectif est d’étiqueter les images créées avec des outils d’autres entreprises telles que Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. Nick Clegg, responsable des affaires internationales de Meta, a souligné que cette capacité serait développée dans toutes les langues prises en charge par chaque application.
Lutte contre la désinformation grâce à l’étiquetage des images générées par l’IA
Cette initiative de Meta intervient alors que la prolifération d’images produites par l’IA générative soulève des préoccupations concernant la désinformation et la mésinformation politique. À l’approche de plusieurs élections majeures cette année, Meta souhaite minimiser la propagation de fausses images, telles que les deepfakes. Bien que cette mesure ne puisse pas éliminer complètement ce risque, Nick Clegg a souligné qu’elle représentait la tentative la plus avancée de toutes les plateformes pour fournir une transparence significative à des milliards de personnes dans le monde.
« Ce n’est pas parfait, la technologie n’est pas encore tout à fait au point, mais c’est la tentative la plus avancée de toutes les plateformes jusqu’à présent pour fournir une transparence significative à des milliards de personnes dans le monde », a insisté Nick Clegg auprès de l’AFP.
Encourager l’industrie à développer des normes communes
Nick Clegg a exprimé l’espoir que Meta, en prenant l’initiative de l’étiquetage des images générées par l’IA, incitera le reste de l’industrie à travailler ensemble pour développer des normes techniques communes. Meta se dit prêt à partager sa technologie ouverte autant que possible. D’autres acteurs tels que OpenAI ont également pris des mesures contre la désinformation en affirmant qu’ils n’autoriseraient pas l’utilisation de leurs outils à des fins politiques.