Skip to content

Piloter par l'impact

ppezziardi edited this page Nov 24, 2016 · 10 revisions

Pourquoi mesurer un impact ?

« Plus un indicateur quantitatif est utilisé pour prendre des décisions, plus il va être manipulé et plus son usage va aboutir à corrompre le processus qu’il était censé améliorer. » (loi de Campbell, 1976). Il est en effet clair que si une administration se voyait responsable de publier un « taux de satisfaction » ou un « coût par transaction », ces mesures deviendraient un objectif de facto, que ce soit vis-à-vis du gouvernement ou de la société civile. Ainsi, il faut être extrêmement attentif à ce que les mesures soient celles d’un impact réel et non des mesures d’efficience interne, aux effets délétères assurés.

Certaines mesures d’impact (Key Performance Indicators, KPI) semblent pourtant capturables assez facilement :

  • Une course sur le.taxi, génère en moyenne 15€ de valeur ajoutée,
  • Le temps moyen de dénouement d’un dossier MDPH en ligne par rapport au temps moyen de dénouement sans
  • 1 candidature MPS, c’est 2 heures de gagnées en moyenne pour une entreprise (ceci masquant des différences fortes : quelques minutes pour une entreprise déjà experte, et plusieurs jours pour une PME primo-accédante à la commande publique)
  • ...

Malheureusement, l’impact réel est souvent difficile à mesurer. La difficulté principale dans la construction de la métrique pour la plupart des produits vient du fait que le parcours utilisateur se finit hors du produit et qu’on ne peut donc pas savoir si l’objectif est atteint au-delà des clics : l’usager a-t-il obtenu le RSA après une simulation sur Mes Aides ? A-t-il suivi la formation trouvée sur La Bonne Formation ? Cette formation a-t-elle accéléré son retour à l’emploi par rapport au délai moyen ?

Le risque est ainsi de mesurer ce que l’on peut mesurer plutôt que ce qu’il faudrait mesurer. Notre approche est de nous accorder sur une métrique stratégique non mesurable dans l’immédiat, et nous satisfaire d’une métrique qualitative ou indirecte (dite « proxy »), mesurable dans l’immédiat. Il ne faut pas chercher à tout prix la justesse. L’objectif de la métrique est d’indiquer l’effet attendu, de rendre des comptes, d’orienter des décisions budgétaires, d’obtenir du soutien politique. Le bon niveau de justesse est celui qui remplit ces objectifs, ni plus ni moins.

À l’incubateur de service numériques, le processus de définition des KPI est surtout une maïeutique permettant de nous questionner sur les investissements dans nos produits. « Sommes-nous collectivement d’accord que notre but principal est ?… Si oui, alors notre succès pourrait se mesurer par… », « Si je fais ça, quel chance ai-je d’augmenter notre impact, mesuré dans telle KPI ? »

Il existe une méthode simple d’évaluer l’utilité perçue d’un service : le Net Promoter Score. Demander à ses usagers s’ils recommanderaient votre service sur une échelle de 1 à 10, pour subjectif que cela puisse paraître, est une mesure très utile, simple à capturer, et, associée à un commentaire libre, qui peut aider à adresser les problèmes que rencontrent les usagers. Cette méthode peut aisément être intégrée dans tout produit Web, avec des solutions freemium comme Hotjar.

Savoir que 80% des usagers recommandent le service est une chose, mais la justification d’un investissement peut réclamer une mesure d’impact stratégique. Pour estimer l’impact du produit à un moment donné, nous utilisons la méthode de calibrage par des cohortes : une première cohorte n’utilise pas le produit (situation avant) et une seconde l’utilise (situation après). Ces cohortes respectent les règles statistiques (groupe de contrôle, échantillonnage) pour éviter tout biais et garantir la comparabilité. Dans chaque cohorte, nous mesurons la moyenne de l’impact souhaité (ex. : délai de retour à l’emploi, taux de non-recours aux prestations sociales …). Nous en déduisons un coefficient d’impact (CI), différence en % entre ces 2 mesures d’impact stratégique réalisées précisément sur les 2 cohortes. Ainsi, si 100 personnes réalisent une action mesurable chez nous (une simulation mes-aides, une recherche dans laBonneBoite), nous déduisons que par rapport à celles qui ne le font pas, elles seront impactées de CI%.

Exemple : les demandeurs d’emploi n'utilisant pas la Bonne Boîte ont une probabilité de retour à l'emploi à 5 mois de 19,99%. En utilisant La Bonne Boîte, elle passe à 22,1% (soit +11%, étude 2016, cohortes de 100 000 individus). Ainsi, si 1000 demandeurs d'emploi ont utilisé LBB, 801 seront encore chômeurs dans 5 mois, au lieu de 779 ; soit 22 personnes ayant retrouvé un emploi plus vite grâce à La Bonne Boîte.

En multipliant les coefficient d’impact par le nombre d’usages, nous obtenons une première idée de l’impact économique, social et environnemental du service. Dans notre exemple, la mesure est présentable en social (impact : 12 personnes), mais aussi en économique : le "coût d'un chômeur" pour la collectivité est estimé autour de 3000€ (source Ministère du Travail). En connaissant le nombre de mois gagnés en moyenne par un utilisateur de LBB, nous pouvons obtenir un impact normalisé en €.

Pour autant, cette mesure indirecte, n’est que la meilleure manière de mesurer notre impact dans le monde réel. Tout sauf un chiffre exact, un objectif à faire progresser ou un totem immuable. Le contexte socio-économique change, les mentalités, les personnes, et la mesure devra évoluer. Avec de nouvelles cohortes, un nouveau produit, et probablement de nouvelles KPI.

Boite à outils

Pour construire une mesure d’impact nous distinguons deux temps, le temps court et le temps long.

A court terme :

  • Pendant la rédaction de la fiche produit : répondre collectivement à la question « Qu’est-ce que l’on cherche à améliorer ? QU'est-ce qui ira mieux lorsque l'on sera en production ? Pour qui ? Si on pouvait trouver une mesure simple de cet impact ce serait quoi ? ». Ne pas se poser la question de comment on la mesure. Afficher une ambition et l'insérer dans la fiche produit.
  • Avec le produit beta : sonder, échantillonner, et extrapoler. Fastidieux mais efficace : avec le téléphone ou l’email de ses usagers, on peut en appeler plusieurs centaines pour savoir ce qui s’est passé pour eux ensuite. En multipliant par le nombre total on obtient une idée des vrais résultats !
  • Faire des sondages en ligne (ou IRL) avant et après
  • Inciter les usagers à revenir quand ils ont « gagné ». Il faut alors prévoir un bénéfice pour eux ... Exemple : dans Boomerang, si l'on décroche un job, le conseiller est averti.

A long terme :

  • Construire une cohorte que l’on suit dans le temps en s’y prenant très en amont. Pour cela mesurer la différence “avec” et “sans” sur 2 groupes les plus similaires possibles (entre 100 et 100 000 personnes suivant l’importance de la précision). Un service statistique dans l'administration est souvent nécessaire.
Clone this wiki locally