Stéphane Riegel

Stéphane Riegel

Directeur et Responsable de la practice Emerging Technologies - CGI au Luxembourg

L’innovation fait partie de l’ADN de CGI avec un dispositif d’innovation global et local organisé pour cocréer avec nos clients. Nos travaux de Recherche & Innovation nous permettent de repousser les limites des technologies les plus avancées afin de répondre à leurs ambitions.

En travaillant en co-idéation avec nos clients de la banque et de l’assurance, nous avons identifié les usages en intelligence artificielle (IA) générative les plus prometteurs en apport de valeur pour leurs activités. Il s’avère que ces cas d’usage avancés nécessitent une réelle contextualisation des différentes IA (classique et générative) et une orchestration de ces dernières pour des tâches unitaires extrêmement pointues dans un contexte d’utilisation totalement souverain et hautement sécurisé. Notre savoir-faire d’assembleur technologique, face à ces enjeux, nous a permis de dégager différents axes de réflexions et d’expérimentations.  

L'hybridation de l'IA classique et générative

Dans le paysage dynamique de l'intelligence artificielle, l'hybridation de l'IA classique avec l'IA générative émerge comme une stratégie prometteuse. La première excelle dans les tâches structurées et de précision, tandis que la seconde démontre une créativité exceptionnelle. En combinant ces deux approches, on peut atteindre une symbiose où la logique et la créativité s’associent, ouvrant ainsi la voie à des applications plus robustes et innovantes. Cette hybridation offre un potentiel significatif pour résoudre des problèmes complexes et repousser les limites actuelles de l'IA.

C’est le cas par exemple de l’un des cas d’usage identifiés avec nos clients du monde de la banque concernant l’analyse des marchés financiers (rapport annuel SEC-10K). Nos clients souhaitent combiner la valeur ajoutée de leurs dispositifs analytiques d’IA classique avec les résultats de traitement des synthèses de l’IA générative des données non structurées issues du web (analyse de sentiments, des signaux faibles). Ce système permet de soutenir le conseiller dans la structuration de son argumentaire, en lui proposant une vue synthétique et consolidée des informations structurantes des différentes sources d’informations pour chaque acteur du marché (synthèse consolidée et actualisée périodiquement), et de lui faciliter si besoin la récupération à la demande d’une information clé en référençant ses sources (système de Question-Réponse dynamique).

L'hybridation des LLMS génériques avec des LLMS spécialisés plus petits

Les grands modèles de langage (LLMS) génériques ont dominé le domaine de l'IA, mais l'hybridation avec des LLMS spécialisés plus petits représente une évolution cruciale. L’utilisation des grands modèles génériques permet de découper des problèmes complexes en une somme de problèmes plus élémentaires, soumis aux modèles spécialisés. Ceux-ci peuvent être adaptés à des domaines spécifiques, voire très pointilleux, offrant une efficacité et une précision accrues. En combinant la puissance des LLMS génériques avec la spécialisation ciblée des modèles plus petits et moins consommateurs de ressources, on obtient une solution équilibrée qui répond aux besoins diversifiés des applications d'IA.

Un autre exemple de cas d’usage identifié avec nos clients du monde de l’assurance concerne la rétention d’un client dans une situation de stress et de mécontentement lié à un sinistre.  Le potentiel de l’hybridation se matérialise ici par la combinaison de plusieurs « petits » LLMS hautement spécialisés pour des tâches précises : on va ainsi pouvoir reconstituer l’historique de la relation client en s’appuyant sur l’ensemble des interactions avec ce client (multicanal et réseaux sociaux) , proposer une synthèse illustrée de tous les éléments de connaissance du client (contrats, évènements majeurs) et de soumettre des suggestions d’actions au conseiller ou d’en réaliser une partie.

La création de valeur par l'auto-amélioration dans l'orchestration des modèles

Beaucoup ignorent encore que l’intégration d’une IA générative dans leur système d’information induit la mise en place d’un cycle d’amélioration continue de la solution pour maintenir sa performance. Un élément essentiel de l'optimisation des performances des modèles LLM réside dans l'application de principe d'auto-amélioration. Ce concept révolutionnaire permet aux prompts et modèles, de s'améliorer progressivement au fil du temps. En incorporant des mécanismes d’optimisation continue, les modèles peuvent ajuster leurs paramètres en fonction des retours d'expérience, garantissant ainsi une adaptation constante aux besoins changeants des applications. L'utilisation du principe de « self-improvement » promet d'augmenter l'efficacité des modèles, assurant une pertinence continue dans un environnement dynamique.

Nos propres travaux de R&D sur ces concepts nous permettent de proposer à nos clients des dispositifs dont la performance peut être garantie dans le temps malgré l’évolution du corpus informationnel de l’entreprise.

De la même manière, pour nos cas d’usage décrits précédemment, l’évolution du contexte d’exécution des analyses peut nécessiter la prise en compte de nouveaux éléments non structurés : sans travail de recontextualisation préalable, par exemple l’actualisation du RAG[1] avec de nouvelles typologies d’évènements clients, ces évolutions peuvent engendrer une dégradation des performances des modèles et du système.

Une orchestration prometteuse des modèles d'IA

En conclusion, l'hybridation et l’orchestration de l'IA classique avec l'IA générative et des LLMS génériques avec des LLMS spécialisés représente une avancée significative dans l’utilisation de l'IA pour résoudre les usages les plus complexes, et ceci dans une dimension éthique et responsable. Cette approche permet de tirer le meilleur parti de différentes capacités pour créer des systèmes plus intelligents et polyvalents mais surtout respectueux. L’optimisation des principes d’ingénierie autour du prompt, notamment l’auto-amélioration combinée du prompt et du LLM, permet de doper l’efficience des LLMS et de maintenir cette efficience dans le temps, voire de simplifier l’effort d’intégration de ces modèles dans les systèmes d’information pour une véritable IA souveraine.

L’auto-amélioration de ces modèles offre un potentiel immense pour résoudre des défis complexes et ouvre la voie à de nouvelles applications révolutionnaires.


[1] La génération d'augmentation de récupération (RAG) est une architecture qui augmente les fonctionnalités d'un modèle de langage volumineux en référençant les données internes de l’entreprise.