Pour utiliser de façon responsable l’IA, il est essentiel de définir des principes de base, de gérer leur application et de les mettre en pratique. L’objectif est de s’assurer que les résultats des initiatives d’IA sont sécuritaires, fiables et éthiques.

L’accessibilité généralisée à l’IA représente une occasion unique, mais qui comporte également son lot de défis. Le manque de transparence quant aux sources de données et aux extrants ainsi qu’un environnement à ce jour peu réglementé engendrent des risques pour les organisations. Ces risques vont des violations en matière de données personnelles et de droit d’auteur, aux menaces pour la sécurité, aux atteintes à la réputation et aux conséquences financières.

Un cadre de gouvernance de l’IA qui prend en compte les impacts positifs et l’atténuation des risques est crucial pour exploiter le plein potentiel de l’IA. CGI a défini trois piliers pour une IA responsable, mettant de l’avant les principes suivants.

  • Robustes – Notre cadre de gestion du partenariat client (CPMF) constitue notre assise pour la conception, les tests et l’exploitation selon des processus opérationnels rigoureux. Il est soutenu par des politiques et pratiques en matière de protection des données personnelles et sécurité, afin d’assurer la fiabilité et la sécurité des résultats qui sont conformes aux lois et règlements en vigueur.
  • Éthiques – Nous souscrivons à des objectifs de conception et d’exploitation fondés sur le respect des valeurs humaines, qui favorisent activement l’équité et l’inclusion et qui font en sorte que les systèmes d’IA bénéficient durablement aux individus, à la société et à l’environnement.
  • Fiables – Nous concevons des systèmes en nous appuyant sur des modèles explicables et interprétables, ainsi que sur des intrants et des résultats transparents, et nous demeurons responsables des technologies d’IA que nous contrôlons.
Ingénieurs qui discutent de l'IA responsable

Maintenir les plus hautes normes

CGI maintient les plus hautes normes dans ses processus de développement et de déploiement de technologies responsables en matière d’intelligence artificielle (IA), y compris pour les nouvelles vagues d’innovation telles que l’IA générative.

L’environnement réglementaire de l’IA continue d’évoluer, avec des lois telles que la Loi européenne sur l’IA en vigueur à partir d’août 2024, et plusieurs autres initiatives législatives en préparation à l’échelle mondiale. Nous nous engageons à nous adapter et à nous conformer aux exigences réglementaires en constante évolution.

Nous participons activement à des initiatives et des discussions axées sur la gouvernance de l’IA en collaboration avec les autorités réglementaires. Par exemple, nous sommes un signataire du Code de conduite volontaire concernant l’intelligence artificielle au Canada.

Rapport sur l’utilisation responsable de l’IA de CGI

Chez CGI, nous reconnaissons que l’utilisation responsable de l’intelligence artificielle n’est pas seulement une nécessité, mais aussi un impératif d’affaires.

Cette année, CGI a publié son premier rapport sur l’utilisation responsable de l’IA dans le cadre de son rapport ESG annuel. Notre rapport sur l’utilisation responsable de l’IA souligne le rôle essentiel de l’IA responsable dans l’atteinte de résultats fiables et durables. Il reflète également l’engagement de CGI à intégrer des principes solides, fiables et éthiques dans tous les aspects de ses initiatives d’IA, y compris l’utilisation de l’IA pour le bien commun.

Lire le rapport de CGI sur l’utilisation responsable de l’IA

 

Pierre angulaire avec collègues au centre - Rapport sur l’utilisation responsable de l’IA de CGI

Notre approche en matière d’IA responsable pour la prise de décision et des résultats axés sur les données prône l’utilisation des meilleures pratiques de même que des principes éthiques de la recherche scientifique, offre des lignes directrices claires et exécutoires et comprend une matrice de risque robuste.

À titre de leader mondial en solutions d’IA, nous tirons parti de notre approche en matière d’IA responsable au sein de nos propres activités. Cette pratique nous permet de mieux aider nos clients de tous les secteurs d’activité à passer de manière responsable de l’expérimentation de l’IA à sa mise en œuvre tout en accélérant le délai de rentabilisation. 

Lorsque nous prodiguons des conseils à nos clients pour une approche responsable et centrée sur l’humain en matière d’IA, nous examinons collectivement les mesures suivantes.

  • Conception des niveaux appropriés de surveillance et de gouvernance pour générer des résultats robustes, éthiques et fiables
  • Compréhension des risques spécifiques aux différents modèles d’IA
  • Sélection de la bonne combinaison de modèles d’IA (apprenez-en plus sur les écosystèmes d’IA multimodèle dans notre blogue).

 

Apprenez-en davantage dans notre billet de blogue sur l’adoption d’une IA responsable, y compris la nécessité de veiller à ce que des experts en affaires et en intelligence artificielle participent à l’interprétation des réponses afin de s’assurer que les informations sont significatives. Nos cadres de gestion et outils prêts à l’emploi, présentés dans le tableau ci-dessous, peuvent vous aider à intégrer l’IA responsable à votre stratégie et à vos plans dès le début, lors de la conception, plutôt que de l’ajouter par la suite.

Utilisation responsable de l'IA dès la conception