Quels outils pour renforcer l’impact de ces « news » ?
Dans cette partie, nous allons, tout d’abord, développer l’usage des
« deepfakes ».
C’est un outil basé sur l’intelligence artificielle et permettant de
modifier ou de
créer des
images ou vidéos en
utilisant l’apparence ou la voix de quelqu’un d’autre. Bien que l’utilisation puisse être récréative (faire chanter le générique de Pokémon à Johnny Hallyday), elle peut aussi avoir pour but la désinformation.
Imaginez une fausse information, mais relayée par le visage et la voix d’une personnalité que vous approuvez, vous renforcez la manipulation. Bien que des outils permettent d’analyser et de démentir ces vidéos, certaines études (comme celles de
Julien Nelson) ont montré que ces vidéos créent un doute raisonnable dans l’esprit des spectateurs, bien qu’elles soient démenties ensuite. Ce qui rend dangereuse cette utilisation de l’IA.
De plus, si nous parlons de la propagation des
« fausses nouvelles », nous pouvons nous intéresser aux
« usines à troll ». A l’origine une créature issue du folklore nordique, elle désigne sur internet, une personne cherchant à semer la discorde dans une communauté ou discussion en ligne, soit en partageant des fausses infos, soit en insultant, soit en provoquant tout simplement.
Et pourquoi le terme d’usine ? Aussi appelé « ferme à troll », c’est un regroupement de plusieurs « trolls » ou même d’hackers, payés pour diffuser, sur les réseaux sociaux ou sites internet, des informations partielles, orientés ou des fakes news. Le but de cette manœuvre peut autant être de créer du chaos, ou de faire de la propagande. A l’origine de ces usines, on peut retrouver des groupes privés, mais aussi des gouvernements ou parti politique. Pour donner un exemple, Prigojine, ancien chef du groupe paramilitaire russe Wagner, avait reconnu de l’ingérence dans les élections américaines et le partage de fausse information autour de la guerre en Ukraine.