Dans mon précédent blogue, je présentais les cinq dimensions clés d’un « cadre d’utilisation responsable de l’IA » : transparence, gestion des risques, gouvernance, inclusion et intervention humaine. En bref, ce type de cadre doit être robuste, éthique et fiable pour exploiter le potentiel illimité de l’IA. Les principes de robustesse que sont la fiabilité, la sécurité, la confidentialité et la sécurité des données font l’objet de ce blogue, dans lequel j’explore plus en profondeur l’utilisation, en toute sécurité, de l’IA générative dans les pratiques commerciales.
La facilité d’accès, de concert avec les vastes connaissances disponibles dans les outils d’IA générative tels que Google Bard, ChatGPT, etc., renforce l’attrait pour ces nouveaux outils d’intelligence artificielle. Néanmoins, l’utilisation des modèles publics d’IA générative à des fins commerciales présente des risques d’exposition de renseignements exclusifs aux sources d’entraînement ou de données d’un modèle en raison d’une erreur de la part de l’utilisateur. Elle s’accompagne également d’un risque d’utilisation d’informations peu fiables ou invérifiables provenant des résultats de l’IA, puisqu’il n’y a aucun moyen de vérifier les sources d’information.
Les problèmes de sécurité liés aux outils publics d’IA générative proviennent en grande partie d’un manque de transparence en ce qui concerne les sources d’information, notamment la faible visibilité sur la façon dont les modèles sont entraînés et sur la récupération, l’utilisation et le stockage des contenus fournis par les interactions avec ces derniers.
En raison de ces risques, et aux fins d’une utilisation responsable de l’intelligence artificielle, CGI suggère aux organisations d’utiliser les directives relatives au partage public de l’information comme ligne de conduite en ce qui concerne l’utilisation d’outils publics d’IA générative, de données ainsi que d’actifs organisationnels.
L’IA multimodèle requiert un cadre global d’utilisation responsable
Pour atténuer les risques d’exposition des données, les principaux fournisseurs de technologies d’IA et infonuagiques proposent des cadres pour une utilisation responsable et offrent la possibilité d’utiliser des outils d’IA générative dans des environnements sécurisés sans risque de fuite de données vers les modèles publics. Cependant, dans un écosystème d’IA multimodèle, où les modèles d’IA sont optimisés avec des données exclusives, les entreprises doivent compléter les mesures de protection des fournisseurs avec leurs propres dispositifs. Bien que la plupart des outils d’IA générative fonctionnent dans le nuage, il peut également y avoir des situations hybrides dans lesquelles certains processus de traitement sont effectués sur place.
Dans ses directives pour une utilisation responsable de l’IA, CGI recommande que, dans les cas d’utilisation commerciaux comportant des données sensibles, les entreprises restreignent l’utilisation des technologies d’IA générative à l’intérieur d’une infrastructure sécurisée. Dans un tel environnement, le modèle peut être appliqué aux données organisationnelles et à la propriété intellectuelle sans risque d’exposition. De plus, les sources des données et des réponses de l’IA peuvent être intégrées dans les interactions avec une plus grande transparence.
L’avantage de concevoir un modèle d’IA générative comme un service en nuage réside dans le fait que les entreprises utilisent leurs investissements existants en technologies infonuagiques et qu’elles optimisent ainsi la gestion des accès déjà en place pour tirer parti des services et des résultats fondés sur l’IA. Dans ces environnements sécurisés, les modèles d’IA générative peuvent être restreints par des modèles basés sur des cas d’utilisation et des paramètres personnalisables pour s’assurer qu’ils ne répondent que dans les limites de leur objectif. Les modèles peuvent également restreindre l’accès des utilisateurs aux réponses en fonction des rôles de ces derniers et des exigences d’authentification, ce qui rend les solutions encore plus puissantes pour la prise de décisions fondée sur les données, à tous les échelons.
Nous recommandons aux entreprises d’appliquer un cadre d’IA éthique qui étend les cadres d’utilisation responsable de l’IA générative et des fournisseurs de services d’informatique en nuage. Nous conseillons aux leaders sectoriels d’exploiter les protocoles de confidentialité et de sécurité existants pour obtenir une infrastructure d’IA encore plus sécurisée et robuste, ce qui leur permettra de tirer une plus grande valeur et un meilleur rendement du capital investi (RCI) de leur utilisation des solutions d’IA.
Principes éthiques clés pour une utilisation responsable des données dans un cadre d’IA
- Inclusion et pertinence : veiller à ce que les données utilisées pour l’entraînement et les résultats soient approuvées par l’entreprise et qu’ils respectent les critères d’inclusion et contribuent à la pertinence statistique de l’énoncé du problème de l’IA. Continuer à contrôler la pertinence des résultats de l’IA.
- Protection contre les biais : veiller à ce que les modèles d’IA tiennent compte des limites algorithmiques telles que les biais et la variance.
- Pipelines de données sécurisés : veiller à ce que toutes les données ingérées par l’IA utilisent des pipelines de données sécurisés avec une protection des données sensibles mise en œuvre pour gérer les renseignements permettant d’identifier une personne, la propriété intellectuelle et d’autres renseignements sensibles ou exclusifs.
- Dépersonnalisation : restreindre l’accès à tout renseignement permettant d’identifier une personne par la dépersonnalisation, le masquage et l’analyse des risques de réidentification dans le cadre des processus d’ingestion des données. Ces transformations doivent être mises en œuvre avant l’accès aux données par tout outil ou modèle d’IA.
- Sécurité en nuage : veiller à ce que le stockage des informations et le mouvement des données soient sécurisés dans le cadre des activités dans le nuage et appliquer des restrictions d’accès adaptées selon l’utilisateur.
- Chiffrement de l’API : utiliser des appels d’interface de programmation d’applications (API) sécurisés et chiffrés pour permettre à l’IA d’accéder à toute information ou donnée conservée sur place et appliquer la dépersonnalisation aux données conservées sur place, le cas échéant.
- Validation par des experts : veiller à ce que l’interprétation des réponses et des résultats de l’IA soit effectuée avec des experts du domaine, afin d’en valider l’exactitude et la pertinence pour les activités de l’entreprise.
- Transparence : fournir des renseignements sur la source des informations contenues dans les résultats de l’IA par le biais de citations et de liens vers des renseignements ou des documents sources.
Appliquer les bonnes pratiques pour une utilisation responsable de l’IA en veillant à intégrer une intervention humaine
Une nouvelle solution de test destinée à aider les radiologues dans leurs prises de décision à l’hôpital universitaire d’Helsinki est un exemple d’IA développée de manière éthique dans un environnement sécurisé. En collaboration avec CGI et Planmeca, un important fabricant d’appareils d’imagerie numérique de pointe, l’hôpital a conçu une solution axée sur l’intelligence artificielle (IA) qui assistera les radiologues dans l’interprétation de tomodensitogrammes ainsi que dans la détection des types les plus communs d’hémorragies cérébrales non traumatiques. En détectant les hémorragies cérébrales difficiles à déceler à l’œil nu, cette solution d’IA utilise l’analyse précoce pour aider à sauver des vies grâce à un diagnostic et à un traitement rapides.
Cette solution s’appuie sur les bonnes pratiques pour une utilisation responsable en garantissant la validation par un humain. Le radiologue et l’IA analysent d’abord les images séparément, puis les résultats de l’IA fournissent des conseils spécialisés au clinicien. Ce n’est qu’une fois qu’il a posé son diagnostic qu’il compare son évaluation avec les conclusions émises par l’intelligence artificielle.
La clé de ce projet a été l’application d’un cadre d’utilisation responsable de l’IA qui garantit que les risques liés à la confidentialité et la sécurité sont pris en compte pour protéger les données, l’environnement et tout mouvement de données depuis l’imagerie diagnostique jusqu’à l’analyse. La solution a également fait appel à la rigueur universitaire et aux bonnes pratiques pour garantir la précision du modèle et de ses résultats, l’évolutivité de la solution et la participation d’experts à la conception et à l’interprétation des résultats, afin que la solution puisse être mise en œuvre dans les flux de travaux cliniques.
Chez CGI, nous suivons une approche fondée sur des principes pour gérer les risques tout au long de la conception, de la mise en œuvre et de l’opérationnalisation des solutions d’IA pour les clients. Nous veillons à la rigueur scientifique et procédons à une évaluation approfondie des risques éthiques liés à l’IA à chaque étape de la mise en œuvre. Nous définissons également les avantages prévus du modèle d’IA dès le début et surveillons l’opérationnalisation afin d’évaluer si les avantages et le rendement du capital investi sont atteints. Enfin, CGI assure que ses solutions d’IA incluent la validation par un humain afin que les résultats soient un outil d’aide plutôt qu’un outil conçu pour remplacer l’humain dans le processus de prise de décision.
Communiquez avec moi pour en savoir plus sur la façon dont notre cadre d’utilisation responsable de l’IA permet aux entreprises d’exploiter l’IA générative tout en atténuant les risques.