Open data local : comment généraliser les réutilisations ?

La réforme des CCAG, un art de l'exécution

 

 

La volonté des collectivités de développer transparence et innovation sont les deux leviers historiques de l’open data. Mais ne nous y trompons pas : le véritable moteur de son essor repose sur la multiplication des API et la banalisation de leur usage, tous azimut.

L’exigence de transparence de l’action publique est à l’origine du développement de l’open data. Il convient de rappeler le rôle précurseur de la loi CADA de 1978 (accès aux documents administratif) qui s’inscrit lui-même dans l’obligation de rendre des comptes pour l’administration inscrite dans la Déclaration des droits de l’Homme et du citoyen de 1789.

En cette période de défiance croissante à l’égard du politique, savoir comment l’argent public est dépensé, vérifier si les promesses des candidats sont tenues ou, plus simplement, rendre les débats plus objectifs grâce aux chiffres, restent plus que jamais d’actualité.

Mais force est de constater que les citoyens ne se précipitent pas sur les délibérations ou les budgets des collectivités territoriales. Ces données intéressent essentiellement un public avisé : opposants politiques, data-journalistes et autres « datactivistes ». On peut penser que l’usage de ces données restera cyclique, au gré des controverses locales, des élections et de débats ponctuels organisés le plus souvent par des acteurs en place.

Le second pilier de l’open data repose sur une innovation générée par des données « réutilisables », comme l’exigent les directives européennes. L’ouverture des données locales promet de faire émerger de nouvelles applications utiles aux citoyens ou aux services municipaux. Et pour stimuler l’innovation, les collectivités locales ont multiplié ces dernières années les « hackathons », c’est-à-dire des marathons de développeurs réunis le temps d’un weekend pour inventer de nouveaux usages.

Si le nombre d’initiatives est en progression, peu d’entre elles sont efficaces : visites thématiques de territoires, menus des cantines, itinéraires cyclistes… Par ailleurs, les mêmes idées émergent partout (calculateur d’itinéraire, cartographie interactive, agenda culturel par géolocalisation…) sans véritable « scalabilité » des applications, celles-ci étant limitées à un territoire, et souvent dépourvues de modèle économique, excepté  celui de la subvention publique.

À l’origine de ce bilan mitigé, il y a une erreur de diagnostic sur les bénéfices économiques de l’open data. La donnée publique, à quelques exceptions près (état civil/généalogie, marchés publics/veille sur les appels d’offres) est rarement intéressante en elle-même.

En revanche, les entreprises qui utilisent de la data créée par le secteur public sont innombrables. L’exemple le plus emblématique est celui de l’adresse postale qui est essentielle au e-commerce… soit à la majeure partie de l’économie française. Autrement dit, la donnée publique de qualité peut avoir un effet de levier, être un facteur d’amélioration ou d’enrichissement de services existants, à condition que ces acteurs s’en emparent. Pour ce faire, il faut trois conditions.

Il faut d’abord des jeux de données locales de qualité, homogènes et disponibles pour l’ensemble du territoire. Un défi qui passe par une meilleure coordination des collectivités notamment au sujet des formats et métadonnées et la création d’un « socle de données » (recommandation d’Open Data France). La libération de toutes les données locales présentes dans des bases nationales (DGFIP, Intérieur…) peut cependant jouer un rôle d’accélération, tout en simplifiant la tâche des collectivités.

Il faut ensuite multiplier les API (interfaces de programmation) permettant aux acteurs d’enrichir leur application,  site, ou formulaire, sans nécessairement demander des connaissances techniques (copier-coller d’un widget), avec la garantie d’afficher des données toujours à jour. Les transports locaux, la localisation, les horaires des services publics, ou l’agenda culturel sont autant de données utiles à d’innombrables services publics et privés.

Enfin un dialogue entre les entreprises, notamment les startups,  et les collectivités est indispensable pour aider à hiérarchiser les priorités et bâtir des schémas de données efficients.

Certes cette « apisation » de l’open data est décevante, car elle dilue les réutilisations de centaines, voire de milliers de services en ligne, et le retour sur investissement est difficile à évaluer (temps gagné, citoyens mieux informés, livraison optimisée…), mais en garantissant un usage massif et permanent de l’open data, cette stratégie assurera la pérennité de la démarche et l’entrée des administrations dans l’économie de la donnée.

Olivier Devillers

Olivier Devillers
Consultant en transformation numérique
NETLOCAL
Intervenant à la conférence EFE conférence d’actualité  « L’open Data en pratique » le 23 mars 2017 à Paris.