Lors d’un programmathon organisé pour un client aux Pays-Bas, Koen van Kan, conseiller en intelligence artificielle (IA) de CGI, et son équipe d’IA conversationnelle ont vu dans les limites de la version gratuite de ChatGPT une occasion de développer un assistant virtuel robuste qui fusionne le raisonnement d’un grand modèle de langage avec des données personnalisées pour fournir des réponses précises et personnalisées.

Ce qui suit est un résumé de son entrevue du 10 juillet 2023 avec Teus Molenaar pour le magazine Computable, dans lequel il discute de l’approche de la conception et de la mise en œuvre de la solution, ainsi que des considérations techniques et éthiques relatives aux nouveaux outils d’IA.

Compiler une base de connaissances complète et actualisée

Après avoir identifié une limite dans les connaissances factuelles du grand modèle de langage (les connaissances de l’outil étant limitées aux informations incluses dans l’ensemble de données de formation et les premières données fournies à celui-ci ne datent que de 2021), l’équipe de M. Van Kan a cherché à créer une solution qui automatise le processus de recherche dans de multiples sources de données volumineuses et ajoute des données personnalisées aux puissantes capacités de raisonnement du grand modèle de langage afin que les organisations puissent l’utiliser pour des cas d’utilisation spécifiques.

Avec l’aide de l’outil de base de données vectorielle Pinecone, l’équipe de M. Van Kan a commencé par alimenter une base de connaissances avec des documents contenant les informations nécessaires pour que l’assistant virtuel puisse répondre aux questions des utilisateurs.

Au cours de ce processus, les textes sont d’abord convertis en nombres (vectorisation) afin de créer des représentations numériques de la signification sémantique du texte. Cela signifie que deux textes vectorisés de façon similaire sont placés à proximité l’un de l’autre dans l’espace vectoriel et qu’ils ont des significations similaires.

« Pour illustrer, les vectorisations des mots “homme” et “roi” sont plus similaires que celles des mots “homme” et “échecs”, explique M. Van Kan. Cette conversion de données textuelles en données numériques est effectuée par un modèle d’apprentissage machine. » Pour ce projet, l’équipe a utilisé le modèle d’apprentissage machine text-embeddings-ada-002 d’OpenAI.

Utiliser la recherche sémantique pour créer des réponses pertinentes

Ensuite, l’équipe a utilisé Pinecone pour effectuer une recherche sémantique dans la base de connaissances, en recherchant les documents dont le contenu se rapproche le plus de la requête. Les documents sont ensuite classés du plus similaire au moins similaire à la requête de l’utilisateur.

Comme l’explique M. Van Kan : « Une fois que vous disposez des informations pertinentes, nous exploitons le pouvoir des grands modèles de langage pour trouver une réponse pertinente. » Pour garantir des réponses pertinentes aux utilisateurs, l’équipe de CGI a appris à l’assistant virtuel à signaler « Aucune réponse possible » si aucune information correspondante suffisante n’est trouvée dans la base de connaissances.

Améliorer l’ingénierie de requête pour optimiser les performances

La dernière étape du processus de l’équipe a consisté à utiliser l’ingénierie de requête pour affiner l’interaction avec l’outil d’IA et optimiser la réponse fournie. Comme mentionné dans l’entretien, l’ingénierie de requête est une technique utilisée dans le traitement du langage naturel qui consiste à élaborer avec soin les instructions d’entrée à utiliser par le grand modèle de langage pour générer sa sortie.

Le magazine Computable explique : « Dans ce processus, un modèle d’apprentissage machine est formé sur de grandes quantités de données textuelles afin de prédire le mot suivant dans la phrase. Le modèle peut ensuite être utilisé pour générer un nouveau texte en prédisant le mot suivant le plus probable, sur la base des mots précédemment employés dans la phrase. »

Bien que l’ingénierie de requête puisse également contribuer à la traduction, l’utilisation du grand modèle de langage d’OpenAI signifie que la langue d’un document donné ne pose pas de problème, puisqu’il n’y a pas de barrière linguistique. Les questions et les réponses peuvent donc être fournies dans n’importe quelle langue, sans regard pour la langue de rédaction des documents de la base de connaissances. En outre, vous pouvez personnaliser la réponse en fonction de l’âge ou des connaissances de l’utilisateur, ainsi qu’en fonction d’un persona virtuel ou d’un ton particulier, conformément aux lignes directrices de la marque de votre entreprise.

Explorer les cas d’utilisation tout en respectant les meilleures pratiques

Comme l’explique M. Van Kan dans son entrevue, l’association d’un grand modèle de langage à une base de connaissances crée un outil puissant avec de nombreux domaines d’application potentiels. Qu’il s’agisse d’automatiser les réponses aux questions relatives aux ressources humaines ou d’offrir des articles de vulgarisation en temps réel aux employés de centres d’appels pour étayer leurs conversations avec les clients, l’objectif est de rendre les interactions plus efficaces et plus agréables.

Toutefois, M. Van Kan souligne qu’un tel outil ne devrait être utilisé que s’il existe une bonne base de connaissances compatible avec le grand modèle de langage et la recherche sémantique. Si une base de connaissances n’est pas exacte ou à jour, il y a un risque que des données inexactes ou périmées soient utilisées, ce qui se traduirait par des réponses erronées.

Il explique à Computable : « Lors de la création d’une base de données vectorielle, il est important de déterminer avec soin ce qui constitue un document unique. Par exemple, est-ce qu’un PDF, un chapitre, une page ou un paragraphe représente un document unique? Il convient de mettre en balance la nécessité de recueillir suffisamment d’informations en choisissant des documents plus volumineux avec le risque d’introduire de l’interférence et rendant la recherche de détails spécifiques plus difficile.

Adopter une approche responsable et éthique de l’IA pour obtenir des résultats

Avec l’émergence d’un nombre croissant de solutions et de cas d’utilisation en matière d’IA et de modèles de langage, de plus en plus d’organisations adoptent l’IA pour créer et automatiser des processus ainsi que la production de résultats. Cependant, il reste encore du travail à faire pour s’assurer que les données sources et les produits qui en résultent sont exacts, efficaces et éthiques.

Dans la nouvelle architecture de CGI pour les assistants virtuels, par exemple, il existe de nombreux cas où les données sont envoyées à des outils logiciels tiers. Cela nécessite une évaluation approfondie des politiques de confidentialité de ces organisations et de la sensibilité de vos données. M. Van Kan recommande également de « tenir compte des politiques de stockage des données, car l’emplacement du centre de données où ces outils stockent leurs données peut varier, de même que les lois auxquelles il adhère ».

Outre les éléments techniques, les considérations éthiques telles que l’équité, la limitation des préjugés et l’égalité de traitement des groupes d’utilisateurs sont essentielles au développement des technologies interactives. Il convient d’accorder une attention particulière à l’« explicabilité », c’est-à-dire au fait que le raisonnement qui sous-tend les décisions ou les comportements d’une IA ou d’un outil de modèle de langage puisse être compris par les humains.

M. Van Kan est conscient de sa responsabilité dans la création d’un outil qui s’appuie sur l’IA et le modèle de langage pour fournir des informations exploitables aux utilisateurs finaux humains. His take? « Vous générez du texte à l’aide d’un modèle de langage, donc vous devez toujours le vérifier avec votre propre expertise. »

Consultez l’article original de Computable en néerlandais