Dans le dernier épisode de notre série de balados Parlons transition énergétique, Doug Leal, vice-président-conseil – données et analyse, chez CGI, discute avec Peter Warren de l’évolution de l’utilisation des données dans le secteur de l’énergie et des services publics, en particulier à la lumière des nouvelles applications d’IA. Dans le premier volet de cette conversation en deux parties, ils abordent les défis liés au déploiement des modèles d’IA, l’abandon de l’expérimentation au profit de solutions pratiques et les deux approches clés de la gestion des données, le lac de données à fonctionnalités d’entrepôt (Data Lakehouse) et le maillage des données, chacune permettant de mettre en œuvre une stratégie gagnante en matière de gestion des données pour l’avenir.
Les entreprises de services publics subissent de plus en plus de pression pour optimiser l’utilisation des données dans les processus de prise de décision. Cela consiste à intégrer plusieurs sources de données telles que l’infrastructure de mesurage avancé (IMA) et les systèmes de gestion des pannes pour améliorer les données opérationnelles. Selon Doug Leal, si certaines entreprises progressent déjà dans ce domaine, beaucoup n’en sont encore qu’au tout début de leur parcours axé sur les données.
Doug Leal et Peter Warren présentent deux approches distinctes de l’IA : la première consiste à la considérer comme un nouvel outil à explorer, et la seconde à se concentrer sur la résolution des problèmes. Selon Doug Leal, cette dernière est essentielle pour développer une approche stratégique de la mise en œuvre de l’IA, en veillant à ce que les solutions soient non seulement efficaces pour relever les défis immédiats, mais puissent également s’adapter aux développements futurs.
« Nous devons être en mesure de concevoir un modèle, ou toute autre solution d’IA, de manière à permettre à l’entreprise de se développer, non seulement en faisant évoluer ce modèle vers la production, mais aussi en soutenant tout ce qui en découle, y compris l’innovation. »
Le défi du passage de la preuve de concept à la production
En général, une unité d’affaires reconnaît le potentiel d’une technologie ou d’un modèle et décide de poursuivre ses investissements. Cependant, sans un processus opérationnel bien défini pour passer de la preuve de concept ou de la démonstration de la valeur à une production complète, cela peut poser des défis de taille et créer des goulets d’étranglement importants.
Comme l’explique Doug Leal, seuls 53 % des modèles réussissent le passage de la preuve de concept à la production, ce qui rend le processus coûteux dans la mesure où près de la moitié d’entre eux n’aboutissent pas.
Se recentrer sur les produits minimums viables (PMV) et l’aspect pratique
Peter Warren approuve, évoquant la décision d’un client de passer complètement l’étape de la preuve de concept pour développer immédiatement des produits minimums viables (PMV). Il explique que sa stratégie consiste à créer des solutions en phase avec les objectifs de l’entreprise et pouvant être efficacement déployées. Cela garantit que l’équipe TI peut soutenir la croissance des produits et que l’entreprise peut en tirer une valeur tangible.
Doug Leal a également remarqué un changement d’état d’esprit chez les clients. Selon lui, ils mettent de plus en plus l’accent sur la façon de passer efficacement des idées à la production plutôt que sur de simples expérimentations, ce qui reflète une meilleure compréhension de l’importance d’évaluer la valeur réelle et le rendement du capital investi de ces initiatives. Compte tenu de l’importance des coûts associés à l’infrastructure, aux experts en science des données et aux ingénieurs en apprentissage automatique nécessaires au développement des modèles, les entreprises sont de plus en plus prudentes lorsqu’il s’agit de considérer ces efforts comme de simples expériences.
Comprendre le lac de données à fonctionnalités d’entrepôt comme une plateforme unifiée et évolutive
En étudiant les nouveaux outils que les entreprises utilisent pour accélérer les résultats, Peter Warren et Doug Leal explorent le concept de lac de données à fonctionnalités d’entrepôt. Le lac de données à fonctionnalités d’entrepôt est un modèle architectural novateur qui allie les caractéristiques des lacs de données et des entrepôts de données, servant de plateforme unifiée qui consolide les données provenant de différentes sources dans une entreprise de services publics :
- Lac de données : l’infrastructure infonuagique du lac de données facilite l’extensibilité, évitant ainsi les mises à niveau du stockage physique. Ce composant offre la possibilité de stocker une large gamme de données :
- Données structurées : formats tabulaires traditionnels, tels que ceux que l’on trouve dans les bases de données relationnelles.
- Données semi-structurées : formats tels que les documents JSON ou les PDF.
- Données non structurées : fichiers multimédias tels que les images ainsi que les fichiers audio et vidéo.
- Entrepôt de données : cet élément est un outil fiable pour réaliser les tâches d’intelligence d’affaires et de production de rapports. Il permet aux entreprises d’analyser efficacement les données.
Le lac de données à fonctionnalités d’entrepôt combine la flexibilité du lac de données avec la performance prévisible d’un entrepôt de données, prenant en charge diverses fonctions d’affaires et s’adressant à différents niveaux de compétences au sein de l’entreprise. Cette approche centralisée permet à toutes les équipes de l’entreprise d’accéder aux données et de les utiliser efficacement, favorisant ainsi la collaboration et la prise de décision éclairée.
Comprendre le concept de maillage des données pour favoriser l’agilité organisationnelle
En revanche, explique Doug Leal, le maillage des données est un cadre sociotechnique conçu pour améliorer le partage, l’accès, la gestion et l’analyse des données au sein des entreprises. Contrairement aux approches traditionnelles qui s’appuient sur des plateformes de données centralisées, telles que les entrepôts de données ou les lacs de données à fonctionnalités d’entrepôt, le maillage des données préconise un modèle décentralisé. Ce changement vise à permettre aux unités d’affaires de s’approprier leurs données, en leur conférant la responsabilité de la qualité des données et des informations qu’elles contiennent.
Principes clés du maillage des données
- Décentralisation : le maillage des données encourage la décentralisation des plateformes de données, délaissant les grands répertoires de données. Au lieu de créer des silos de données isolés, il favorise la mise en place de plateformes de données spécifiques à un domaine.
- Transfert de propriété : par exemple, dans une entreprise de services publics, l’équipe chargée de la production gèrerait son propre lac de données à fonctionnalités d’entrepôt, par domaine. Ce transfert de propriété des unités de TI aux unités d’affaires permet aux personnes les plus proches des données d’utiliser leur expertise pour obtenir de meilleures informations.
- Changement culturel : la mise en œuvre d’un maillage des données nécessite un changement culturel important, puisqu’il s’agit de donner aux équipes opérationnelles le contrôle de la gestion des données, ce qui ne convient pas forcément à toutes les organisations.
Selon Doug Leal, malgré la décentralisation, les TI jouent toujours un rôle crucial dans le cadre du maillage des données. Elles sont chargées de mettre en place la gouvernance des données de l’entreprise et de fournir l’infrastructure en tant que service pour soutenir les activités opérationnelles.
L’un des principaux avantages de l’adoption d’une approche de maillage des données est l’agilité organisationnelle. En permettant aux unités d’affaires d’accéder aux données et de les analyser de manière indépendante, les entreprises peuvent réagir plus rapidement aux informations sans dépendre du service informatique ou d’autres services.
Restez à l’affût! La structure organisationnelle et les changements de culture garantissent le succès de la stratégie en matière de données.
Pour réussir la mise en œuvre du maillage des données, Doug Leal insiste sur la nécessité de mettre en place un processus de gouvernance des données solide et bien établi qui garantit le bon fonctionnement du modèle décentralisé et l’intégrité des données.
Dans la deuxième partie de la conversation, Peter Warren et Doug Leal abordent la structure organisationnelle et la gouvernance des données, qui sont cruciales pour une mise en œuvre réussie de ces approches.