« Hacking is the new lobbying » – Ce n’est pas des algorithmes dont il faut avoir peur

A quand la couverture du Time désignant un algorithme comme personnalité de l’année? A force de titres chocs, ceux qui abordent le sujet contribuent en effet à la constitution d’une sorte de mythe incarné. Et le moins que l’on puisse dire, c’est qu’il crée un imaginaire collectif globalement plutôt anxiogène.

Pourtant, nous pourrions nous rappeler que la pensée humaine ressemble fort à un algorithme. Elle manipule en effet un volume d’informations et de perceptions et en déduit une prise de décision ou une réaction. Néanmoins :

  • la pensée humaine ne maîtrise pas bien les données qu’elle prend en entrée,
  • les mécanismes de traitement de ces données sont encore relativement obscurs malgré tous les progrès en neurosciences,
  • une dose de hasard semble se glisser parfois dans les traitements conduisant à des résultats difficiles à prévoir.

En contrepoints des « défauts » de la pensée humaine, nous voyons l’atout majeur des algorithmes : ils sont auditables, autrement dit, il est possible d’ouvrir le capot et de vérifier qu’ils fonctionnement conformément aux attentes. De quoi faut-il alors réellement se préoccuper au sujet des algorithmes? Je vois trois enjeux clés : un enjeu législatif, un enjeu pédagogique et un enjeu technique.

l’enjeu législatif : s’assurer de l’ouverture des algorithmes

Si l’obligation d’ouverture des algorithmes dans la sphère privée est sans doute utopique, c’est le minimum qui doit être demandé à la puissance publique. Cette ouverture rend possible le contrôle par tout citoyen, association, … par exemple pour vérifier le caractère non discriminatoire de l’algorithme. Le décret du 14 mars 2017 de la loi République Numérique n’est sans doute pas assez ambitieux mais va dans ce sens.

l’enjeu pédagogique : s’assurer de l’égalité d’accès à la compréhension des algorithmes

Ouvrir les algorithmes c’est bien, encore faut-il ensuite être capable de les lire et comprendre.Pour assurer une égalité d’accès à la compréhension des algorithmes, la puissance publique doit sans doute agir à deux niveaux : le développement de la culture du numérique et de la donnée dans le cadre de l’éducation nationale, et la mise en place d’un service public de l’information qui aurait vocation à répondre aux demandes de tout citoyen concernant la compréhension d’un algorithme ou d’une décision prise le concernant.

l’enjeu technique : s’assurer de la bonne prise en compte des problématiques de cybersécurité

A partir du moment où les algorithmes sont ouverts, le danger est moins dans les algorithmes en eux-mêmes que dans leur potentiel piratage. Tout comme les lobbyistes influent sur la pensée de nos décideurs, il y a fort à parier que certains s’emparent des outils disponibles pour influer sur les algorithmes : « hacking is the new lobbying ». Dès lors, comment maîtriser le code de l’algorithme et s’assurer que celui qui tourne est bien celui qui a été conçu (ce qui peut être complexe dans le cas d’algorithmes apprenants) ? Comment par ailleurs maîtriser les données qui sont fournies en entrée de l’algorithme ? En effet, à partir du moment où l’algorithme est compris, il est possible d’identifier les données nécessaires en entrée pour obtenir les résultats souhaités. Dès lors, comment s’assurer de la fiabilité et de l’exhaustivité des données utilisées en entrée pour « modéliser l’existant » (que ce soit pour établir un diagnostic en vue de définir une politique publique, ou pour représenter une personne et « traiter » son dossier) ?

Sommes-nous prêts à assumer la formalisation explicite de certains de nos critères de choix?

Quand ils cherchent à automatiser ou optimiser des processus de décision existants – APB en est sans doute un bon exemple – les algorithmes ont au moins le mérite de formaliser les critères de décision et d’y apporter une bonne dose de transparence. Cela induit une obligation de pédagogie et de justification par rapport à ces critères. Un autre débat pourrait être lancé sur le caractère souhaité et assumé de cette transparence…