Depuis la fin de l’été 2016, la Direction générale des finances publiques (DGFIP) compte parmi ses effectifs un Chief Data Officer. Entretien avec Lionel Ploquin sur les enjeux de la gestion des données de la DGFiP. Baromètre CGI 2017 - Secteur Public
Nommer un Chief Data Officer à la tête de la DGFiP : est-ce le signal de la transformation de l’administration française ?
Lionel Ploquin : Dans le cadre de la transformation numérique de l’État, la DGFiP a pris pleinement conscience de l’importance de la maîtrise des données. Entre ses missions liées à l’assiette, au recouvrement, au contrôle de l’impôt, celles de tenue des comptes de l’État, des collectivités et établissements publics hospitaliers… les données produites par la DGFiP s’évaluent en centaines de teraoctets. Si elles sont indispensables pour exercer des missions de qualité, elles deviennent également de plus en plus souvent nécessaires à d’autres acteurs publics et privés. D’où l’importance d’exploiter au mieux ces big data et de les mettre à disposition des tiers autorisés dans des conditions optimales. Ce sera une partie de mon rôle… et le chantier est de taille ! La vision globale de notre patrimoine de données notamment reste à dessiner. La DGFiP n’est d’ailleurs pas la seule à se doter de la fonction de CDO ; d’autres nominations sont en cours attestant de ce mouvement général de transformation.
Quels sont les projets emblématiques de cette transformation digitale ?
L.P. : Que cela soit dans le cadre de l’État plate-forme ou de la loi pour une République numérique, la constitution d’un catalogue d’API (Application Programming Interface) est un projet fondamental car il va renouveler notre façon d’exercer notre mission de service public tout en étant vecteur d’économies. Concrètement, les parents de collégiens peuvent, depuis la rentrée et dans certaines académies, faire leur demande de bourse sans fournir de justificatif fiscal. En autorisant le ministère de l’Éducation nationale à communiquer avec les API de la DGFiP, les informations essentielles sont transmises, à l’exclusion de toute autre, ce qui constitue une garantie de sécurité.
Autre projet sur lequel nous travaillons : développer le datamining. Aujourd’hui, nous utilisons le big data pour la programmation de contrôles fiscaux. Avec le datamining, nous pourrions aller plus loin. Par exemple, définir une meilleure segmentation pour adresser des messages personnalisés aux contribuables. Nous allons passer du décisionnel classique à l’analyse des données non structurées en explorant le potentiel des big data. Nous explorons progressivement le potentiel des bases de données noSQL comme le font déjà des organismes comme Tracfin et d'autres. Des compétences de data science pour interpréter le potentiel des données restent néanmoins à développer.
En quoi l’ouverture et le partage des données sont-ils prioritaires ?
L.P. : La politique d’ouverture des données n’est pas nouvelle. Dès 2010, Etalab posait les prémices de l’open data. La loi Lemaire va plus loin et instaure l’ouverture des données publiques par défaut. En parallèle on doit citer l’engagement de la France dans le Partenariat pour un gouvernement ouvert (PGO) avec pour principale annonce l’ouverture de davantage de données dans une volonté de transparence de l’action publique.
La DGFiP publie déjà de nombreuses données sur le portail data.gouv - sur les produits de la fiscalité, millésime par millésime, taux par taux, pour chaque localité et type d’impôt… Je suis assez confiant quant à l'intérêt de la réutilisation des données ouvertes que nous publions. Néanmoins, nous devons garder à l'esprit que la DGFiP est la garante du secret fiscal et professionnel. Une réflexion particulière sur l'anonymisation et la pseudonymisation des données pour qu’elles soient utiles tout en gardant leur confidentialité est nécessaire pour toutes les administrations productrices ou gardiennes de données personnelles.