mozZz - Fotolia

Open Data : l’avance prise par la France ne tient qu’à un fil

La mission Bothorel a remis son rapport sur la politique publique de la donnée, des algorithmes et des codes sources au Premier ministre Jean Castex le 23 décembre. Les auteurs signent un document sans fard pour l’État français et les administrations dont les tergiversations pourraient ralentir les bienfaits de l’open data.

Éric Bothorel, député LREM de la cinquième circonscription des Côtes-d’Armor, Renaud Vedel, préfet coordonnateur national pour l’intelligence artificielle et Stéphanie Combes, administratrice de l’Insee et directrice du Health Data Hub établissent une synthèse à la fois édifiante et sévère sur dans un document de 215 pages.

Suite de l'article ci-dessous

Après plus de 200 auditions et la collecte des observations de plus de 50 administrations entre juillet et décembre 2020, la mission Bothorel remarque un ralentissement dans la politique d’ouverture des données et d’innovations du gouvernement. « La France s’est placée à l’avant-garde européenne de la politique de la donnée et des codes sources depuis 2013, mais l’avance acquise est fragile », écrivent les rapporteurs.

Le pays qui a inspiré la stratégie open source et open data de l’Union européenne ferait face à une « inertie » due à un « débat inapproprié “pour ou contre l’ouverture” ». Il y a aurait un manque de compréhension au sein même de l’État et des institutions de l’intérêt de l’open data, surtout de la part des administrations qui ne se perçoivent pas comme des organes statistiques.

La loi pour la République numérique effective depuis 2016 qui édicte un principe d’ouverture par défaut ne serait pas totalement appliquée dans les faits.

En résulte, une ouverture « largement incomplète, voire insatisfaisante à certains égards dans la manière dont elle a été mise en œuvre, et les acteurs publics ont aujourd’hui une faible connaissance des réutilisations permises. Encore une fois, c’est la méthode qu’il faut changer, pas l’objectif », ajoutent les rapporteurs.

Outre une possible mécompréhension, Éric Bothorel et ses confrères affirment qu’il convient de « lever les barrières injustifiées à l’ouverture de données et de codes déjà financés par l’argent public ». Ces barrières seraient en partie dues à des craintes de mauvaises utilisations des informations, de possibles cyberattaques, ou encore d’excès de contrôle de gestion de l’État envers les administrations et les collectivités.

Peurs infondées et errances techniques

Les rapporteurs prennent l’exemple des chiffres de la délinquance. « Les services de sécurité ont exprimé à la mission plusieurs craintes, par exemple, que la publication de statistiques à des échelons locaux plus fins ne conduise à une “compétition” de la délinquance à travers le territoire, à l’image de ce qui a été parfois constaté pour les voitures brûlées lors du Nouvel An », peut-on lire dans le document. Or la mission Bothorel estime que publier des données limitées « concentre l’attention publique sur des chiffres qui sont mal interprétés ». L’absence d’informations et le manque de documentation « peut mettre en cause la réalité statistique de certains phénomènes (par exemple l’absence de données disponibles sur les violences contre les agents et sur leur évolution dans le temps) ».

Un concentré de remarques pour faire bouger les lignes

Outre l’intérêt principal d’informer les citoyens sur les politiques et les actions menées par l’État et ses administrations, l’ouverture des données doit aussi simplifier le travail quotidien des fonctionnaires.

Et s’il n’est plus nécessaire qu’une administration en paie une autre pour y accéder, « le partage de données entre administrations de l’État est scandaleusement faible ». Les rapporteurs déplorent que certaines administrations comprennent la notion d’open data en direction des citoyens, mais pas celle de partage collaboratif entre ministères, administrations et collectivités.

La mission Bothorel constate également qu’il est parfois plus facile pour les administrations de s’appuyer sur l’open data, que de passer par des « procédures longues et complexes ». Parfois cela nécessite l’intervention du personnel IT, quand les API destinées aux bases de données les plus utilisées ne sont pas câblées. Non pas que les API soient mauvaises, au contraire, mais elles ne répondent pas à tous les cas d’usage, notamment quand un usager « non expert » souhaite trouver rapidement des indicateurs.

Un alignement nécessaire avec la Commission européenne

Or ce ralentissement impacte potentiellement les activités de la société civile, notamment la recherche (la crise du COVID-19 aurait pointé les manques en la matière) en intelligence artificielle et l’exploitation « des données ouvertes utiles » (parfois soumises à redevances) par les startups et les entreprises. En l’occurrence, la mission cite une étude réalisée par Capgemini qui estime que l’open data aurait généré 28 milliards d’euros en 2019 en France, soit 1,19 % du PIB. En Europe, cette somme atteindrait 184 milliards d’euros.

Par ailleurs, la même étude évalue (sans prendre en compte les impacts de la crise en cours) que la croissance annuelle du PIB « pourrait être de l’ordre de 4,3 %, dans le scénario le plus conservateur, à 15,7 % dans un scénario où le partage des données se développe ». Le rapport remarque également les bienfaits d’un code source et des algorithmes libres. Les auteurs rappellent que la bibliothèque scikit-learn est un projet ouvert ayant pris corps au sein de l’INRIA, donc en partie grâce à des fonds publics.

De plus, la Commission européenne, portée par les membres de l’UE, pousse à davantage d’ouverture et entend gouverner les pratiques des fournisseurs sur le Web à l’aide du Digital Services Act.

Autant de raisons qui invitent les auteurs du rapport à multiplier les recommandations, 37 au total.

Donner plus de moyens aux administrations

Trois d’entre elles sont transversales : l’initiation d’un débat public sur les conditions de confiance dans le numérique et de transparence de l’action publique ; l’association de la société civile et la multiplication des consultations citoyennes ; ainsi que la conduite d’une évaluation de « l’impact économique, social et scientifique de l’ouverture et du partage des données et des codes sources ».

La mission invite à un « portage politique » issu de ses recommandations par le Premier ministre. Et surtout à la création d’un poste d’administrateur général de la donnée des algorithmes et des codes sources (AGDAC), missionné par chef du gouvernement auprès de la DINUM (Direction interministérielle du numérique).

Sur le papier, la DINUM, évolution de la DINSIC (direction interministérielle du numérique et du système d’information et de communication), doit déjà mener cette politique. En réalité, c’est son bras armé, Etalab, qui mène la bataille du numérique, avec des ressources financières et humaines limitées. Preuve en est que l’ANCT (l’agence nationale de la cohésion des territoires), lancé en janvier 2020, dont la mission consiste à accompagner les collectivités territoriales dans la mise en œuvre de leur politique, n’a pas investi le sujet de l’ouverture des données. Elle considère que c’est le travail d’Etalab. En clair, la politique numérique de l’État a perdu le souffle dont il disposait au moment de l’institution des projets menés sous le quinquennat Hollande.

La CNIL, l’ANSSI, et la CADA en première ligne

Pour y remédier, Éric Bothorel et les coauteurs du rapport souhaitent, tout comme la CE, créer un Open Source Program Office (OSPO) afin de piloter cette stratégie numérique au niveau national. Mais la recommandation numéro 12 risque de provoquer l’ire de certaines administrations. Elle vise à renforcer les pouvoirs de la CADA (la commission d’accès aux documents administratifs) en lui conférant des capacités de sanctions en cas de non-respect du code des relations entre le public et l’administration (CRPA) par les administrations. Il s’agit « de fluidifier la gestion des dossiers récurrents devant la CADA ».

« Que se passera-t-il après ce rapport ? En l’état actuel des choses, la mission craint que ses recommandations ne soient pas portées et suivies. »
Rapport Bothorel

Si l’on suit les consignes des rapporteurs, la CNIL et l’ANSSI seraient plus souvent consultées afin de statuer sur la bonne utilisation des données publiques en toute sécurité. Les autres recommandations tendent principalement à confier plus de moyens financiers, humains et informatiques aux administrations – et aux entreprises qui le demanderaient (notamment par le soutien aux hubs sectoriels comme AgDataHub et Health Data Hub) – pour assurer cette ouverture et l’amélioration de la qualité des données. En contrepartie, la mission Bothorel imagine la possibilité pour l’État d’accéder à des données du secteur privé « en cas de motif impérieux d’intérêt général et d’urgence ».

Toutefois, les auteurs semblent fonder peu d’espoir dans leur entreprise. « Que se passera-t-il après ce rapport ? En l’état actuel des choses, la mission craint que ses recommandations ne soient pas portées et suivies », écrivent-ils.

La communication du gouvernement salue l’exercice. Elle indique que le Premier ministre s’appuiera sur ce document afin de prendre de « nouvelles décisions d’ouverture de données et de codes sources publics pour 2021 et 2022, ainsi que de partage de données entre administrations ». Jean Castex a chargé Amélie de Montchalin, ministre de la Transformation et de la Fonction publiques, de donner suite aux travaux de la mission Bothorel auprès du reste du gouvernement.

Pour approfondir sur Secteur public

Close