Sommaire :
Un trucage de plus en plus facile à réaliser
Si elles ne sont pas nouvelles, les vidéos de ce type se multiplient dernièrement sur les réseaux sociaux. Les présentateurs de JT sont une cible privilégiée, mais on peut aussi trouver des vidéos similaires usurpant l’identité de diverses célébrités. Le webdesigner spécialiste de la tech Victor Baissait indique sur X en avoir « collecté des dizaines ». Grâce à l’accessibilité grandissante d’outils basés sur l’intelligence artificielle, elles sont devenues faciles à réaliser pour n’importe qui, encore plus lorsque le visage et la voix d’une personne sont présentes dans de nombreux contenus.
Complément d’information sur les « deepfakes »
Les « deepfakes » sont des vidéos truquées qui utilisent l’intelligence artificielle pour superposer le visage et la voix d’une personne sur un autre corps ou dans une situation fictive. Ils sont souvent utilisés pour créer des vidéos trompeuses ou mensongères, et peuvent être utilisés à des fins de manipulation ou de diffusion de fausses informations.
Les risques liés aux « deepfakes »
Les « deepfakes » représentent un risque important pour la société, car ils peuvent être utilisés pour propager des informations fausses ou manipulées, ce qui peut avoir des conséquences négatives sur les individus, les institutions et la démocratie en général. Il est donc essentiel de sensibiliser le public à ce problème et de prendre des mesures pour identifier et contrer les « deepfakes ».
Les chaînes déterminées à poursuivre les usurpateurs
Confrontée à ce phénomène, TF1 indique à France Inter agir « systématiquement » lorsque de telles exploitations illicites sont repérées « afin de montrer qu’il n’y pas d’impunité en la matière ». La chaîne précise agir sur plusieurs plans : demande de suppression des contenus, action pénale et démarches auprès des autorités de concurrence.
Également ciblée, BFMTV nous répond être « très vigilante aux détournements de notre marque par l’IA. Nous nous réservons à chaque fois le droit d’attaquer. »