L'une des principales préoccupations concernant l'IA dans le journalisme est son potentiel à générer et à diffuser de fausses informations à une échelle sans précédent. Des outils comme GPT-3 et DALL-E peuvent créer des textes et des images d'une qualité si élevée qu'il devient difficile de distinguer le vrai du faux. Par exemple, en 2020, des chercheurs ont démontré que GPT-3 pouvait rédiger des articles de presse entièrement fictifs mais crédibles, qui pouvaient tromper même des lecteurs avertis. De plus, ces technologies sont accessibles à un large public, y compris des acteurs malveillants qui peuvent les utiliser pour manipuler l’opinion publique. La prolifération de deepfakes, des vidéos truquées utilisant l'IA pour remplacer les visages et les voix, représente également une menace significative. En 2018, une vidéo truquée de Barack Obama, créée par l'acteur Jordan Peele, a démontré à quel point il était facile de produire des contenus visuellement convaincants et trompeurs.
L'IA n'amplifie pas seulement la création de fakenews, mais accélère également leur diffusion. Les algorithmes des réseaux sociaux sont conçus pour maximiser l'engagement des utilisateurs, souvent en privilégiant des contenus sensationnalistes ou polémiques, qui incluent souvent des fausses nouvelles. Une étude menée par le MIT en 2018 a révélé que les fausses informations se propagent six fois plus vite que les informations vérifiées sur Twitter. Les systèmes d'IA utilisés par ces plateformes jouent un rôle crucial dans cette propagation rapide, en identifiant et en amplifiant les contenus susceptibles de retenir l’attention des utilisateurs. Par exemple, pendant les élections présidentielles américaines de 2016, des articles de fakenews ont largement circulé sur Facebook, influençant potentiellement les opinions et les votes de millions de personnes.
La même technologie qui facilite la création de fakenews pose également des défis pour leur détection. Les systèmes de vérification des faits doivent évoluer pour être à la hauteur des contenus générés par l'IA. Cependant, ces systèmes ont leurs limites. Bien que des outils comme Snopes, FactCheck.org et PolitiFact travaillent sans relâche pour vérifier les informations, ils ne peuvent pas suivre la rapidité à laquelle les fakenews se propagent. De plus, l’IA peut apprendre à contourner ces vérifications en créant des contenus de plus en plus sophistiqués. Par exemple, une étude de 2019 a montré que les réseaux adverses génératifs (GANs) peuvent produire des images hyperréalistes de personnes qui n'existent pas, rendant la vérification d'images encore plus complexe. La capacité des outils de fact-checking à suivre ce rythme et à rester à jour est un défi constant.
Les conséquences des fakenews alimentées par l'IA ne sont pas seulement limitées au domaine médiatique, mais s'étendent à la société et à la politique. Les fausses informations peuvent exacerber les tensions sociales, miner la confiance dans les institutions et influencer les résultats électoraux. En 2017, une fausse nouvelle selon laquelle le pape François aurait soutenu la candidature de Donald Trump a été massivement partagée sur les réseaux sociaux, illustrant comment des informations fictives peuvent façonner les perceptions publiques et affecter les processus démocratiques. En Afrique, des rumeurs infondées propagées par des algorithmes ont provoqué des violences communautaires dans plusieurs pays. L'ampleur de ces impacts souligne la nécessité urgente de développer des outils et des stratégies pour combattre la désinformation.
Face à ces défis, plusieurs initiatives sont en cours pour lutter contre les fakenews générées par l'IA. Les grandes entreprises technologiques, comme Google, Facebook et Twitter, investissent dans des technologies de détection de contenus trompeurs et travaillent avec des organisations de vérification des faits pour améliorer leurs algorithmes. En parallèle, des chercheurs développent des systèmes d'IA capables de détecter et de signaler automatiquement les fakenews. Par exemple, des projets comme Grover, un outil développé par l'Université de Washington, utilisent l'IA pour identifier les articles écrits par des machines. Par ailleurs, l'éducation des utilisateurs est cruciale. Sensibiliser le public aux dangers des fakenews et leur apprendre à reconnaître les contenus suspects peut réduire leur impact. Enfin, une régulation plus stricte des plateformes de médias sociaux pourrait également jouer un rôle crucial en imposant des normes plus élevées de transparence et de responsabilité.