Xm ia et journal 08 2024 standardize jktv copie 1

L'Intelligence Artificielle et le journalisme multimédia

Le mardi, 06 août 2024 à 14:25

Dans Multimédias

L'Intelligence Artificielle (IA) révolutionne le journalisme, transformant la façon dont les professionnels de l'information travaillent et créent du contenu. Voici un aperçu de cette convergence entre technologie et journalisme, avec un regard spécifique sur les enjeux en Afrique et en Asie.

L'IA, telle que ChatGPT, ZeroGPT et DALL-E, s'invite dans les rédactions, suscitant à la fois excitation et inquiétude. Comment cette technologie impacte-t-elle le journalisme multimédia ? Quelles sont ses limites et ses opportunités ?

Le journalisme a déjà intégré l'IA dans certains aspects de son travail. Les systèmes automatisés collectent des informations, génèrent du contenu et gèrent les abonnements. Cependant, l'IA générative, comme ChatGPT et compagnie, ElevenLabs, Microsoft Design, démocratise davantage son utilisation. Plus besoin de compétences en codage ou d'algorithmes complexes pour en bénéficier.

Journalisme sans IA

Avant l'IA, les journalistes s'appuyaient sur leur expertise, leurs sources et leur intuition pour créer des récits. Ils triaient manuellement les informations, vérifiaient les faits et rédigeaient des articles. C'était un processus intensif et chronophage.

Dans ce contexte traditionnel, le travail journalistique reposait sur une série d'étapes minutieuses : la collecte d'informations, la vérification des faits, la rédaction, l'édition et la diffusion. Chaque étape nécessitait une attention particulière et un investissement en temps conséquent. Les journalistes devaient jongler entre leurs sources, les entretiens, les recherches et les vérifications pour produire des contenus précis et fiables.

Journalisme avec IA

L'IA accélère ce processus. Elle peut détecter et extraire des données, vérifier automatiquement les informations, produire des écrits ou des graphiques, et diffuser du contenu. Les journalistes peuvent ainsi se concentrer sur des tâches à plus forte valeur ajoutée.

Par exemple, des outils comme Wordsmith et Heliograf sont utilisés pour générer automatiquement des articles à partir de données structurées. "The Washington Post" a ainsi pu couvrir les élections locales de 2016 avec une efficacité accrue grâce à Heliograf, produisant des centaines d'articles en un temps record. De plus, l'IA peut aider à personnaliser l'expérience des lecteurs en recommandant des articles basés sur leurs intérêts et en adaptant le contenu aux préférences individuelles.

L'IA, un vivier des fakenews

L'une des principales préoccupations concernant l'IA dans le journalisme est son potentiel à générer et à diffuser de fausses informations à une échelle sans précédent. Des outils comme GPT-3 et DALL-E peuvent créer des textes et des images d'une qualité si élevée qu'il devient difficile de distinguer le vrai du faux. Par exemple, en 2020, des chercheurs ont démontré que GPT-3 pouvait rédiger des articles de presse entièrement fictifs mais crédibles, qui pouvaient tromper même des lecteurs avertis. De plus, ces technologies sont accessibles à un large public, y compris des acteurs malveillants qui peuvent les utiliser pour manipuler l’opinion publique. La prolifération de deepfakes, des vidéos truquées utilisant l'IA pour remplacer les visages et les voix, représente également une menace significative. En 2018, une vidéo truquée de Barack Obama, créée par l'acteur Jordan Peele, a démontré à quel point il était facile de produire des contenus visuellement convaincants et trompeurs.

L'IA n'amplifie pas seulement la création de fakenews, mais accélère également leur diffusion. Les algorithmes des réseaux sociaux sont conçus pour maximiser l'engagement des utilisateurs, souvent en privilégiant des contenus sensationnalistes ou polémiques, qui incluent souvent des fausses nouvelles. Une étude menée par le MIT en 2018 a révélé que les fausses informations se propagent six fois plus vite que les informations vérifiées sur Twitter. Les systèmes d'IA utilisés par ces plateformes jouent un rôle crucial dans cette propagation rapide, en identifiant et en amplifiant les contenus susceptibles de retenir l’attention des utilisateurs. Par exemple, pendant les élections présidentielles américaines de 2016, des articles de fakenews ont largement circulé sur Facebook, influençant potentiellement les opinions et les votes de millions de personnes.

La même technologie qui facilite la création de fakenews pose également des défis pour leur détection. Les systèmes de vérification des faits doivent évoluer pour être à la hauteur des contenus générés par l'IA. Cependant, ces systèmes ont leurs limites. Bien que des outils comme Snopes, FactCheck.org et PolitiFact travaillent sans relâche pour vérifier les informations, ils ne peuvent pas suivre la rapidité à laquelle les fakenews se propagent. De plus, l’IA peut apprendre à contourner ces vérifications en créant des contenus de plus en plus sophistiqués. Par exemple, une étude de 2019 a montré que les réseaux adverses génératifs (GANs) peuvent produire des images hyperréalistes de personnes qui n'existent pas, rendant la vérification d'images encore plus complexe. La capacité des outils de fact-checking à suivre ce rythme et à rester à jour est un défi constant.

Les conséquences des fakenews alimentées par l'IA ne sont pas seulement limitées au domaine médiatique, mais s'étendent à la société et à la politique. Les fausses informations peuvent exacerber les tensions sociales, miner la confiance dans les institutions et influencer les résultats électoraux. En 2017, une fausse nouvelle selon laquelle le pape François aurait soutenu la candidature de Donald Trump a été massivement partagée sur les réseaux sociaux, illustrant comment des informations fictives peuvent façonner les perceptions publiques et affecter les processus démocratiques. En Afrique, des rumeurs infondées propagées par des algorithmes ont provoqué des violences communautaires dans plusieurs pays. L'ampleur de ces impacts souligne la nécessité urgente de développer des outils et des stratégies pour combattre la désinformation.

Face à ces défis, plusieurs initiatives sont en cours pour lutter contre les fakenews générées par l'IA. Les grandes entreprises technologiques, comme Google, Facebook et Twitter, investissent dans des technologies de détection de contenus trompeurs et travaillent avec des organisations de vérification des faits pour améliorer leurs algorithmes. En parallèle, des chercheurs développent des systèmes d'IA capables de détecter et de signaler automatiquement les fakenews. Par exemple, des projets comme Grover, un outil développé par l'Université de Washington, utilisent l'IA pour identifier les articles écrits par des machines. Par ailleurs, l'éducation des utilisateurs est cruciale. Sensibiliser le public aux dangers des fakenews et leur apprendre à reconnaître les contenus suspects peut réduire leur impact. Enfin, une régulation plus stricte des plateformes de médias sociaux pourrait également jouer un rôle crucial en imposant des normes plus élevées de transparence et de responsabilité.

Les limites de l'IA

Malgré ses avantages, l'IA présente des défis. Elle peut amplifier la désinformation, surtout dans des régions comme l'Afrique où la fracture numérique persiste. Les infrastructures obsolètes et les coûts élevés d'Internet entravent son adoption.

L'un des principaux risques de l'IA dans le journalisme est la propagation de fausses informations. Les algorithmes peuvent être manipulés pour diffuser des contenus biaisés ou erronés, et la vérification automatique n'est pas infaillible. Charlie Beckett, directeur fondateur de Polis à la London School of Economics.

 « L'intelligence artificielle peut rendre le journalisme plus pertinent et accessible, mais elle comporte aussi des risques de désinformation ».

Enjeux en Afrique et en Asie

L'Afrique, moins connectée au monde, doit relever ces défis. Lors de la deuxième convention africaine des médias, des journalistes ont discuté de l'IA et de l'avenir de la liberté d'expression sur le continent. La formation en IA est essentielle pour tirer parti de ces outils tout en évitant les pièges de la désinformation.

En Asie, l'IA est également en train de transformer le journalisme. La Chine, par exemple, utilise des algorithmes pour produire des contenus à grande échelle, tout en surveillant et en censurant les informations. Cette double utilisation de l'IA, pour créer et contrôler, soulève des questions éthiques importantes. En Inde, les rédactions expérimentent l'IA pour améliorer la couverture locale et multilingue, malgré les défis de diversité linguistique et culturelle.

L'IA n'est pas là pour remplacer les journalistes, mais pour les soutenir. Elle ouvre de nouvelles perspectives, tout en exigeant une réflexion éthique et une adaptation constante. Le journalisme multimédia, avec l'IA comme alliée, écrit un nouveau chapitre de son histoire.

Les journalistes doivent s'adapter à ces nouvelles technologies tout en préservant les valeurs fondamentales de leur profession : l'exactitude, l'équité et l'intégrité. Comme l'explique Charlie Beckett,

 « L'intelligence artificielle peut rendre le journalisme plus pertinent et accessible, mais elle comporte aussi des risques de désinformation ».

L'IA est en train de remodeler le paysage médiatique, offrant des outils puissants pour améliorer l'efficacité et la personnalisation du journalisme. Cependant, son adoption doit être accompagnée d'une vigilance constante pour éviter les dérives potentielles. L'équilibre entre innovation technologique et éthique journalistique sera crucial pour façonner l'avenir de l'information.