Au cours de la dernière décennie, l’utilisation de l’apprentissage automatique a connu une croissance rapide dans tous les secteurs, y compris celui de la santé. Nous en faisons l’expérience dans notre vie quotidienne grâce à la reconnaissance vocale, au traitement du langage naturel et aux agents conversationnels. Ces technologies sont souvent utilisées dans le domaine de la télésanté pour orienter les patients, les diriger vers les services appropriés et répondre à leurs questions urgentes.
L’une des raisons de la popularité de l’apprentissage automatique est sa capacité à apprendre des modèles et des relations complexes à partir de données sans règles codées en dur. Cela permet d’augmenter la précision et la performance dans de nombreuses applications.
Même si ces modèles sont de plus en plus précis, il est encore difficile de comprendre comment leurs prédictions sont faites. La capacité à expliquer ces dernières est une condition indispensable à la création d’une valeur commerciale d’excellence. Souvent, les experts en science des données évitent les méthodes de pointe en raison de leur complexité et de la difficulté qu’ils éprouvent à les expliquer, conduisant à une performance plus faible. L’un des principaux objectifs de l’intelligence artificielle explicable est de pallier ce problème.
Qu’est-ce que l’intelligence artificielle explicable?
Il s’agit d’une recherche essentielle qui permet aux utilisateurs et aux parties prenantes d’interpréter et de comprendre comment un modèle d’apprentissage automatique fait ses prédictions. L’intelligence artificielle explicable renforce la transparence, la fiabilité et la sécurité de ces modèles, et permet de détecter les erreurs, en répondant aux questions suivantes :
-
Pourquoi le modèle prédit-il ce résultat?
-
Quelles sont les raisons de cette prédiction?
-
Quels sont les principaux éléments contribuant à cette prédiction?
-
Comment le modèle fonctionne-t-il?
Une meilleure compréhension du fonctionnement du modèle pour prédire la population ou des données inconnues permet de détecter plus facilement si ce modèle comporte des erreurs.
Quels sont les avantages de l’intelligence artificielle explicable dans le domaine de la santé?
Les applications de l’intelligence artificielle explicable dans le domaine de la santé sont illimitées :
-
Comprendre comment une maladie chronique ou un traitement spécifique peut avoir une incidence sur la durée du séjour d’un patient lors d’une visite aux urgences;
-
Déterminer comment la tension artérielle et l’âge influencent la probabilité qu’un patient souffre d’insuffisance cardiaque;
-
Mettre en évidence ce que le modèle a vu dans une image et qui a conduit à une certaine classification (par exemple, la détection d’une tumeur cérébrale à l’IRM);
-
Marquer les mots-clés d’un courriel utilisés par un modèle de classification de texte pour déterminer à quel service il convient d’envoyer un courriel de suivi.
Comment fonctionnent les algorithmes de l’intelligence artificielle explicable?
Bien qu’il existe de nombreux algorithmes d’intelligence artificielle explicables qui décrivent les modèles d’apprentissage automatique, nous en avons sélectionné trois que nous décrivons ci-dessous.
-
Explications additives de Shapley (SHAP) – SHAP mesure la contribution de chaque caractéristique à la prédiction faite par le modèle. Par exemple, si un amateur de football suivait en permanence les parties de son équipe préférée en étudiant attentivement le moment où les joueurs sont remplacés au cours de la partie et l’impact de ces remplacements sur la performance, il en déduirait rapidement la performance de chaque joueur. De la même manière, SHAP analyse attentivement l’évolution des prédictions en explorant toutes les prédictions possibles. Il apprend rapidement comment chacune des caractéristiques influence le modèle et leur attribue une valeur SHAP. L’un des avantages de SHAP est d’expliquer le modèle de chaque prédiction ainsi que de l’ensemble de la caractéristique sur toutes les valeurs possibles. Plus important encore, ces explications locales et générales permettent d’obtenir une explication unifiée.
-
Explications locales interprétables par modèle-agnostique (LIME) – Tandis que SHAP peut être chronophage et s’avérer lourd sur le plan des calculs, LIME résout ces problèmes en créant un échantillon de points de données autour du point de données à prédire. En pondérant cet échantillon par la proximité de l’instance, LIME construit un modèle de régression linéaire. Il utilise les coefficients du modèle pour déterminer l’impact des caractéristiques sur la prédiction. Il est important de préciser qu’étant donné que cette explication n’est construite que sur un échantillon de données de l’instance expliquée, LIME n’est pas totalement fiable. Le mode de fonctionnement de LIME est de construire des modèles linéaires et épars, autour des instances/prédictions individuelles, sur la base des points de données situés à proximité.
-
Gradients intégrés – Les gradients intégrés décrivent la prédiction d’un modèle en expliquant la différence de prédiction d’une instance à partir d’une base ou d’une instance masquée, selon les caractéristiques d’entrée du modèle. En d’autres termes, les gradients intégrés partent d’une base complètement vide (toutes les caractéristiques sont absentes ou nulles) et activent lentement les caractéristiques, l’une après l’autre, en suivant l’évolution de la prédiction. Cela permet d’isoler le moment où les changements ont été les plus importants, ainsi que la direction des changements, et d’identifier les caractéristiques clés d’un modèle et leur incidence sur la prédiction. Cette méthode est bien adaptée aux modèles d’apprentissage profond et permet des calculs beaucoup plus rapides que les valeurs SHAP. Néanmoins, le modèle doit être différentiable (il faut qu’il y ait des gradients).
Quel algorithme fonctionne le mieux?
Bien que tous les algorithmes aient le même objectif, celui d’expliquer un modèle, chacun le fait de manière légèrement différente. Par exemple, si les ressources sont limitées ou si la prédiction doit être très rapide, LIME pourrait être la meilleure solution puisqu’il se concentre sur l’analyse des points de données plutôt que sur l’ensemble des données. Inversement, s’il faut une explication générale unifiée à la prédiction locale, SHAP conviendra davantage à la tâche. En résumé, le meilleur algorithme ne peut être déterminé qu’après avoir bien compris les données, le modèle et la situation.
Tirer parti de l’intelligence artificielle explicable dans votre parcours d’intelligence artificielle
Construire l’intelligence artificielle explicable sur des modèles d’apprentissage automatique permet aux entreprises d’essayer de nouveaux algorithmes d’apprentissage automatique, de mieux comprendre le mode de fonctionnement des prédictions et d’un modèle en présence de nouvelles données, de renforcer la confiance dans les modèles et de détecter les erreurs. L’intelligence artificielle explicable offre également aux experts en science des données la possibilité de travailler avec des spécialistes pour étudier les données qui ont une incidence sur un modèle et détecter ainsi les failles potentielles.
Où que vous en soyez dans votre parcours d’intelligence artificielle, l’intelligence artificielle explicable peut vous aider à automatiser, à prévoir et à accélérer les mécanismes d’économie dans votre organisation de soins de santé.
Apprenez-en plus sur la façon dont CGI habilite les organisations de soins de santé à optimiser leurs activités et à améliorer les résultats des patients grâce à une utilisation responsable de l’IA.
Contactez-moi pour discuter du potentiel de l’intelligence artificielle