Principaux sujets de ce blogue
On pourrait penser que l’intelligence artificielle (IA) est un phénomène relativement nouveau dans le secteur de la radiodiffusion, mais la réalité est qu’elle est utilisée de différentes façons depuis plus d’une décennie pour tirer parti des données dans le but de soutenir la collecte d’informations et la prise de décision.
Bien que l’IA générative (p. ex. Gemini de Google et ChatGPT d’OpenAI) fasse beaucoup jaser à l’heure actuelle, l’IA traditionnelle est utilisée depuis plusieurs années pour automatiser les processus de flux de travaux au sein du secteur d’activité, et notre expérience en la matière est plus vaste qu’on pourrait le croire. (Une grande différence entre l’IA générative et l’IA traditionnelle est que la première peut analyser des données et des documents narratifs en plus de créer de nouveaux actifs ou contenus à partir d’une grande quantité de renseignements sur lesquels elle a été entraînée et qui lui sont accessibles.)
L’IA et l’automatisation intelligente prennent actuellement en charge plusieurs tâches de routine tout au long de la chaîne de valeur journalistique, comme la recherche, la vérification de renseignements, la production, la distribution, la comptabilité et la planification des flux de travaux. En effet, il est très probable que l’IA aura touché le billet de blogue que vous lisez actuellement à plusieurs étapes de son parcours, que ce soit par l’entremise d’une nouvelle génération de correcteurs orthographiques et de moteurs de traduction sophistiqués, d’un acheminement efficace du trafic Internet, de l’optimisation pour les moteurs de recherche, ou encore d’autres processus alimentés par l’IA.
Néanmoins, les récents progrès technologiques suscitent de nouvelles préoccupations quant aux considérations éthiques potentielles liées à l’utilisation de l’IA, particulièrement en ce qui concerne les salles de presse.
Cas d’utilisation de l’IA générative et dilemmes
L’IA générative peut être utilisée de deux manières principales dans une salle de presse moderne.
- Aide à la génération de textes : l’IA générative peut résumer un texte existant pour des émissions plus courtes, le réécrire pour des publics différents (c’est-à-dire pour des plateformes de médias sociaux et des groupes démographiques différents), et plus encore. Cette fonctionnalité est une aide pour les rédacteurs. Elle leur permet d’agencer leurs idées de façon rationnelle pour les exprimer dans un texte bien rédigé. Ce cas d’utilisation est déjà très répandu et employé au quotidien.
- Génération de texte complet : l’IA générative peut être utilisée pour générer un texte complet à partir d’instructions formulées en langage naturel. Ce contenu doit ensuite être vérifié par des humains, de préférence selon le principe des « quatre yeux », qui nécessite deux personnes pour l’approbation.
Les deux cas d’utilisation concernent la manipulation de texte, et les deux soulèvent plusieurs dilemmes éthiques.
Supposons par exemple qu’une erreur ou une information erronée en lien avec l’âge ou la nationalité d’une personne importante se glisse dans un article publié. Même si une telle erreur peut sembler sans conséquence, elle peut nuire à la réputation d’un organisme de presse qui tient à cœur la précision de ses informations. Dans cet exemple, qui est responsable de l’erreur? Est-ce le programmeur qui a écrit le code original? Est-ce la personne qui a formé le modèle d’IA sur l’ensemble de données? Est-ce le journaliste qui a écrit, avec l’aide de l’IA, l’article contenant la fausse information? Ou est-ce l’IA elle-même, comme toutes les plateformes d’IA générative sont sujettes à ce que l’on appelle des « hallucinations », c’est-à-dire qu’elles inventent des faits pour répondre à l’objectif fixé dans les instructions reçues?*
Il s’agit de… toutes ces réponses.
Au sein d’une organisation médiatique, tous les acteurs doivent reconnaître la complexité de la mise en œuvre de l’IA et le fait qu’il incombe à chaque personne et à chaque service de veiller à ce que les gains de productivité apportés par l’IA ne sont pas minés par une érosion de la fonction première de la salle de presse, qui est de dire la vérité. Les utilisateurs de toute solution d’IA doivent apprendre à faire preuve de discernement lorsqu’ils consultent l’information fournie, et considérer l’outil comme une aide plutôt que comme un substitut aux processus de validation.
Suivre le rythme rapide du changement
Les organisations médiatiques doivent comprendre de toute urgence qu’il s’agit d’un domaine qui évolue rapidement et qui comporte de nombreuses questions en suspens. Par exemple, d’où provient l’information actuelle générée par l’IA? L’IA générative est formée sur des ensembles de données, mais l’information recueillie n’est pas nécessairement à jour, même si elle provient d’Internet. Comment les organisations peuvent-elles s’assurer qu’elles ont accès à des renseignements à jour et à des sources d’information transparentes?
Alors que les événements mondiaux contribuent à la diffusion d’un nombre croissant d’informations erronées sur une panoplie de réseaux sociaux, comment pouvons-nous détecter les fausses nouvelles? Et comment pouvons-nous éviter qu’elles ne soient d’abord transmises au public qui fait confiance aux médias, puis recyclées par la prochaine génération d’IA qui risque de les considérer comme des faits absolus?
L’adage « à données inexactes, résultats erronés » n’a jamais été aussi pertinent. Nous pouvons même considérer la désinformation comme un virus au sein d’un système d’IA qui se propage et se répand avec des conséquences inconnues. Dans certains cas, les fausses informations peuvent être extraites de plusieurs sources qui ne sont pas correctement liées, et les résultats de l’IA peuvent être très convaincants. Bien qu’elles ne soient pas intentionnellement falsifiées, les informations erronées peuvent être trompeuses et entraîner la diffusion de faits inexacts.
Alors, comment former l’IA pour éviter les associations incorrectes et empêcher les fausses informations et les biais? Comment éviter les erreurs et les préjugés lors de la rédaction d’instructions formulées en langage naturel?
L’une des principales réponses à cette dernière question est la formation pratique des utilisateurs. Notamment, les organisations médiatiques qui connaissent le plus grand succès avec l’IA jusqu’à présent ont mis en place de solides codes de pratique qui précisent son utilisation et ses limites. Qu’il s’agisse de rédiger des instructions plus efficaces qui raccourcissent le cycle d’itération, de rendre les solutions d’IA transparentes ou de comprendre les limites de la technologie et les cas où elle peut être utilisée de façon appropriée dans la salle de presse, il est essentiel de disposer d’une stratégie d’utilisation responsable de l’IA détaillée plutôt que de miser sur une succession de réponses ponctuelles.
Il est également important de s’appuyer sur l’expertise dans le domaine. Les fournisseurs de solutions pour les salles de presse, comme CGI, ont réalisé des investissements importants non seulement pour ajouter des outils d’IA au flux de travaux, mais aussi pour intégrer des règles dans leurs systèmes afin de s’assurer qu’ils peuvent être utilisés de manière responsable. Ces outils sont conçus pour aider, et non remplacer, les journalistes dans leur travail quotidien afin de créer un meilleur contenu.
Les outils d’IA sont susceptibles d’évoluer à une grande vitesse au cours des prochains mois, car les organisations du monde entier cherchent à tirer parti de la prochaine génération de modèles d’IA. Ces avancées soulèveront à leur tour plus de questions éthiques, à mesure que la variété des capacités et des cas d’utilisation augmentera. L’utilisation accrue de présentateurs générés par l’IA (hôtes virtuels créés à l’aide de l’IA) et les fausses vidéos figurent sur la feuille de route des cycles électoraux de 2024. Les entreprises médiatiques devront comprendre les défis que ces avancées représentent, et trouver une manière de les relever avec la même rapidité.
Veuillez communiquer avec moi pour poursuivre cette conversation.
*Lisez sur la prévention des fausses données grâce à une supervision humaine, un mandat de meilleures pratiques pour la législation en matière de compétence en IA, et chez CGI.
Ce billet de blogue est basé sur l’article Ethical considerations of AI in newsroom workflows (en anglais), publié initialement par TVB Europe (en anglais).
Haut de page