Hugues Bersini, Algocratie. Allons-nous donner le pouvoir aux algorithmes ?
Hugues Bersini, Algocratie. Allons-nous donner le pouvoir aux algorithmes ?, préface de Gilles Babinet, Louvain-la-Neuve, Éd. De Boeck Supérieur, 2023, 160 pages.
Texte intégral
1Si le titre de ce livre mérite quelques éclaircissements, son sous-titre pose explicitement la question et donne la tonalité du discours. Son auteur, Hugues Bersini, est un ingénieur informaticien, professeur d’université, membre de l’Académie royale de Belgique. Il est aussi très présent dans le champ professionnel pour défendre une certaine vision de la technologie numérique à visage humain. C’est un chef de projets et un orateur populaire. Il livre ici ce qu’il appelle un « essai », qui est plutôt un manifeste pour défendre ses idées et ses projets, en l’occurrence Citicode et Fari, que nous évoquerons lors de cette analyse. Dans un langage clair et peu technique, parfois familier, à portée de « monsieur Tout-le-monde » comme aime à le dire l’auteur (p. 128), celui-ci propose de lutter contre l’emprise des algorithmes dans la vie des individus comme de la société par un « nécessaire court-circuitage algorithmique, à certaines conditions, des systèmes de gouvernance traditionnels. Cette action politique consiste pour l’essentiel et par tous les moyens possibles, des moins aux plus coercitifs, à aligner les intérêts de tout un chacun sur celui de la collectivité dont il fait partie » (p. 2-3). Soyons clairs, il ne s’agit aucunement de supprimer ou limiter l’extension des algorithmes, mais de soumettre leur conception, leur développement et leur usage à une nouvelle forme de démocratie éclairée par la technologie informatique. C’est dans le cadre de cette réflexion globale sur l’articulation entre pouvoir, puissance, autorité, droit, justice, individu et société que se forge en filigrane le concept d’« algocratie », non défini explicitement dans le livre et restant riche de ses ambiguïtés. En effet, H. Bersini se contente d’évoquer le terme dans son introduction et de le présenter comme synonyme de « gouvernance ou gouvernementalité algorithmique » (en note de bas de page, p. 15) en continuité des précédents régimes de gouvernance auxquels il se réfère, la démocratie et la technocratie. En passant, notons que, outre les nombreux articles qui lui sont consacrés – une recherche « algocratie » sur Google produit 8 950 réponses au 1er septembre 2023 –, au moins deux autres ouvrages francophones l’incluant dans leur titre sont parus en 2020 (Magos Vincent, Résister à l’algocratie. Rester humain dans nos métiers et dans nos vies, Paris, Fabert) et en 2022 (Grimonpont Arthur, Algocratie. Vivre libre à l’heure des algorithmes, Arles, Actes Sud). Le thème est donc dans l’air du temps.
2L’ouvrage est structuré en deux parties principales, précédées d’une introduction par l’auteur et d’une préface signée Gilles Babinet. Ce dernier part de la prémisse que la révolution numérique est un fait généralement admis et même banalisé mais dont le contrôle social et juridique fait débat. « Ce débat, du fait de la nature de ses protagonistes, le plus souvent venant du monde du droit et des sciences politiques, ou encore du camp des défenseurs des libertés tout court, a souvent abouti à délégitimer l’usage des données par les acteurs publics, laissant le champ libre à ceux venant du privé pour prendre le contrôle de pans entiers de nos vies numériques » (p. V). La reprise en main de ces problématiques par des instances de type démocratique lui semble une tâche primordiale que H. Bersini contribue à faire avancer, grâce à son opiniâtreté à défendre l’idée « que l’on soit capable de mettre en place un État qui utilise massivement les algorithmes, tout en préservant son essence démocratique » (p. IX).
3L’introduction commence par une vision pessimiste, même apocalyptique, de l’avenir de cette planète Terre, « en perdition, en implosion, [qui] est devenue bien trop complexe pour en confier la seule gestion à des gouvernants en chair et en os et à leurs cerveaux de protéines vêtus » (p. 1). C’est pourquoi l’auteur propose d’étudier la façon dont les dispositifs logiciels (les algorithmes) peuvent « assister la chose publique et sa gouvernance, s’y substituer ou la complémenter » (p. 2). Se fondant sur la théorie des trois pouvoirs (exécutif, judiciaire et législatif) pour aligner les intérêts de chacun sur ceux de la collectivité, il centre son attention sur la gouvernance de l’exécutif pour aboutir à ce raisonnement : « Si le pouvoir exécutif change de main, il va devenir indispensable que les deux autres se réinventent également et urgemment » (p. 149). Le cheminement que nous offre l’auteur pour aller de ces prémisses à une telle conclusion est stimulant et enrichissant ; il provoque quelques réactions que nous allons évoquer.
4Deux parties constituent le corps de ce livre. La première est intitulée « Ces algorithmes qui nous formatent et nous cadenassent » (p. 17). La seconde, « Les poussées algorithmiques qui devraient permettre de ralentir et d’atténuer le désastre écologique qui vient » (p. 85). La première partie est une démonstration par une série d’exemples de l’emprise actuelle des algorithmes sur la vie individuelle et sur la société. Elle est rédigée globalement à l’indicatif présent. La seconde partie est une projection vers une informatique meilleure qui dépasse largement le champ de son titre (« désastre écologique »), pour imaginer une nouvelle démocratie s’appuyant sur les algorithmes. Elle est rédigée principalement à l’indicatif futur et au conditionnel. On passe de l’observation à la prescription. L’un des intérêts de ces discours est qu’ils proviennent, si l’on peut dire, de l’intérieur. C’est un informaticien qui nous explique les processus actuels et comment, en tant que citoyen engagé et fonctionnaire soucieux du bien public, il souhaiterait que fonctionne, comment passer de l’utilitarisme ambiant à la Jeremy Bentham à une attitude morale davantage kantienne (p. 5). L’une des sources de ce besoin de renouvellement est la constatation que les gouvernements sont de plus en plus soumis aux avis des experts, des technocrates, qui ne disposent pas de la légitimité élective, mais sont jugés les mieux placés pour « gérer » la complexité du monde actuel. « Ils sont l’émanation de la prédominance chaque jour plus importante du gestionnaire sur le politique, d’une performance quantifiée et quantifiable sur le symbolisme de la fonction » (p. 11). Et de l’expert humain, on dévie peu à peu vers l’expert machinique.
5Dans ce compte rendu, il est inutile de revenir sur la liste impressionnante des algorithmes qui nous entourent et emplissent nos smartphones, ainsi que nos objets familiers. H. Bersini fonde sa démonstration sur quelques cas emblématiques. Il commence par distinguer deux classes d’algorithmes selon le degré de coercition qu’ils exercent sur ceux qui en dépendent : la première est celle des algorithmes qui conseillent, aident ou recommandent, dont un exemple est le GPS (Global Positioning System) et ses applications classiques, Waze, Google Maps ou Apple Plans. La deuxième catégorie est celle des algorithmes qui nous contraignent ou nous forcent à s’y soumettre et dont l’archétype est Parcoursup, incontournable pour qui veut s’inscrire en formation après le baccalauréat. Les algorithmes de recommandation sont la spécialité des Gafam – Google, Apple, Facebook, Amazon, Microsoft –, les leaders mondiaux du numérique. Ils sont aux mains de sociétés privées et s’adressent à des consommateurs individuels mais, par leur effet de masse, provoquent des conséquences macroéconomiques, sociétales et mondialisées. De fait, le GPS entraîne une remise en cause des mobilités en offrant des itinéraires où la masse des conducteurs s’engouffre. On touche du doigt le concept d’« individualisme de masse », cher à Paul Virilio, qui apparaît aussi dans la technique du « profilage » que pratiquent les Gafam dans leur recherche d’un nouveau client. Le susdit profilage est généré à partir des données que les internautes eux-mêmes et avec leur accord – en application du règlement général sur la protection des données, (RGPD) – laissent sur l’internet. H. Bersini note avec finesse que les choix littéraires étaient, il n’y a pas si longtemps encore, le résultat de débats tels que ceux offerts dans l’émission télévisuelle Apostrophes (1975-1990), alors qu’ils sont maintenant le résultat du mimétisme qu’offre Amazon en mettant en avant par exemple : « Offres sur les articles fréquemment rachetés (sic) ». De plus, le phénomène dit « viral » qui fleurit sur l’internet tend à privilégier le sensationnalisme et l’émotion sur la raison. Les moteurs de recherche, les sites de rencontre ou les sites d’aide au consommateur renforcent l’entre-soi, la circularité de l’économie et le recyclage de l’information. Celle-ci n’est plus un bien « commun », mais un produit entre les mains de multinationales voraces.
6Les algorithmes qui contraignent appartiennent plutôt à la sphère de l’État et ont le caractère de service public. Ils présentent des avantages dans leur mission d’optimisation collective de demandes individuelles. H. Bersini décortique le fonctionnement et l’impact de Parcoursup par rapport à son objectif d’obtenir les meilleurs appariements possibles entre les demandes des candidats et les desiderata des établissements qu’ils souhaitent intégrer. C’est la mise en œuvre d’un algorithme classique, dit de [David] Gale et [Lyold] Shapley, ou appelé aussi « le problème du mariage stable ». Dans sa logique même, « il cesse d’être égalitariste pour devenir très méritocratique, conduisant très logiquement à l’inscription des meilleurs étudiants dans les meilleurs établissements » (p. 39). Surtout, il lui est reproché de ne pas être transparent et de conduire à des décisions difficilement explicables et perçues par le public comme injustes. Sachant que ce type d’algorithme est largement répandu dans tous les systèmes éducatifs européens et américains, on sent bien qu’une autre approche de leur mise en œuvre devrait être recherchée. Les systèmes de remplissage automatique des déclarations de revenus et de calcul de l’impôt sont cités comme le sont les systèmes d’accès au crédit et autres systèmes experts de l’ancienne génération (fin des années 1970 et années 1980). Un algorithme semble se distinguer des autres de sa catégorie : la blockchain. Celle-ci vise à remplacer le tiers de confiance nécessaire à toute transaction commerciale (par exemple, la garantie de la Banque centrale), par une chaîne gigantesque de signatures individuelles, et ouverte à tout le monde. Elle allie coopération, décentralisation et inviolabilité, mais elle consomme une quantité gigantesque de ressources de calcul et d’énergie. On ne peut donc la considérer comme une alternative aux algorithmes couramment utilisés aujourd’hui. Passant d’une informatique déductive de la programmation classique, nos algorithmes actuels se fondent sur une logique plus inductive, qualifiée d’« apprentissage profond ». L’apprentissage profond consiste à faire faire par un système de réseau de neurones un immense travail d’analyse statistique de la base de données que constitue tout l’univers actuel de l’internet, des milliards de données laissées par les internautes et qualifiées de big data. C’est le fondement de l’intelligence artificielle (IA). On connaît les débats que suscite le développement exponentiel des applications de l’IA, exponentiel car le concept d’IA remonte à plus de vingt ans, mais son apparition dans le domaine public s’est révélée récemment, en particulier à partir de la mise à disposition publique de l’application GPT-3 de la société OpenAI en juillet 2020. Aux prévisions apocalyptiques de certains s’oppose une question d’éthique fondamentale : quid de la protection des individus et de leurs données ? De leur usage pour le bien commun ? L’auteur aborde dans cette discussion le cas des algorithmes des applications « StopCovid » et « Covid Tracker » de l'Institut Pasteur, et du célèbre QR code (quick response code) qui a polarisé l’attention pendant trois ans. Il a un jugement nuancé sur les errements (inévitables !) de la lutte algorithmique anti-Covid, mais l’expérience va lui servir pour formuler des propositions dans la suite de l’ouvrage.
7La deuxième partie place la question de l’algorithmisation de la société dans une autre perspective : celle de la lutte contre le désastre écologique annoncé. Après une revue des usages immodérés du numérique, consommateurs de ressources rares et d’énergie, l’auteur revient à quelques exemples concrets de modification des comportements qui pourraient conduire à des économies globales pour la planète. Les propositions se font au mode conditionnel. La position est radicale : « Les lois n’auraient nul besoin d’exister si la technologie tout naturellement obligeait au comportement désiré, comme les barrières anti-fraude dans les transports en commun… » (p. 90). Par exemple, la mobilité gagnerait en fluidité, efficacité et sécurité si elle se fondait sur la généralisation des véhicules « autonomes » (expression de l’auteur), c’est-à-dire pilotés par l’intelligence artificielle. « Le code de la route, comme beaucoup d’autres codes législatifs d’ailleurs, à destination d’humains imparfaits ou déviants, devrait finir par se ranger dans les oubliettes de l’Histoire comme une erreur de parcours technologique. C’est là sa place naturelle » (p. 90). Il faudrait abandonner aussi le besoin de posséder des objets alors que le partage et son algorithmisation permettraient de les utiliser au maximum. Il y a actuellement plus d’accidents causés par les défaillances humaines que par les défaillances techniques. Bien qu’il se défende d’être un apôtre de la technoscience (p. 93), H. Bersini fait des propositions très ambitieuses pour l’habitat. Il évoque aussi le cas de conscience du juge qui se fonde sur des prévisions algorithmiques de récidive d’un délinquant pour décider de sa remise ou non en liberté. Il entrevoit que la « collaboration entre les algorithmes et les juristes a de beaux jours devant elle » (p. 115). Cela le conduit à traiter de la transparence algorithmique et du consentement éclairé. Le questionnement est à la fois technique et sociétal. Techniquement, il est très difficile d’avérer la perfection d’un algorithme, ou du moins son taux de fiabilité, car il émerge d’une chaîne de production hautement complexe, nonobstant sa base statistique qui n’est pas sans défauts. L’auteur distingue deux types de validation : celle par les pairs, qui concerne les algorithmes produits par des chercheurs, et celle par le marché (la concurrence) pour les algorithmes commerciaux. Le défi de l’acceptabilité des algorithmes dans un processus démocratique serait relevable grâce à une double action que suggère l’auteur. L’une consiste à élever la compétence générale des citoyens en technologie numérique, « et cela dès le plus jeune âge [car elle] sera nécessaire à l’accroissement du nombre de personnes à même de comprendre la sauce algorithmique à laquelle elles seront mangées » (p. 126). L’autre passe par l’organisation d’assemblées citoyennes pour agir sur la préservation et la maximisation de nos biens communs. H. Bersini s’inspire de la Convention citoyenne pour le climat pour en analyser ses performances et apprendre de son échec relatif en citant l’ouvrage de Thierry Pech (Le Parlement des citoyens. La Convention citoyenne pour le climat, Paris, Éd. Le Seuil, 2021). La composition de ces assemblées devrait inclure paritairement des techniciens et des juristes sélectionnés par leurs pairs et des citoyens tirés au sort. Leur production d’algorithmes devrait mobiliser trois processus successifs : un processus électif évoqué ci-dessus, un processus formatif pour atteindre à la compréhension des algorithmes et un processus délibératif fondé sur une méthode agile avec itérations et expérimentations permanentes. Est-ce un rêve ? Non. En effet, la fin de l’ouvrage est consacrée à la présentation de deux projets en cours de réalisation au laboratoire de H. Bersini. Le projet Citicode et l’institut Fari, soutenu par l’Union européenne, sont des creusets où s’élabore une nouvelle culture de la rédaction d’algorithme fondée sur la participation citoyenne et visant à une nouvelle forme de gouvernance transparente, efficace et légitime. H. Bersini souhaite faire des émules.
8Il est probable que le propos de H. Bersini ait suscité l’empathie du rédacteur de ces lignes. Sauver la planète et inventer une nouvelle forme de démocratie justifient pleinement la lecture de cet ouvrage, même s’il présente des faiblesses et irrite parfois. Le discours peut être confus et redondant, mais on perçoit le talent oratoire de l’auteur et son enthousiasme à défendre ses idées. On aura compris qu’il s’inscrit dans le mouvement hérité de la philosophie des Lumières et que la rationalité sous-tend pour considérer la société comme une collection d’individualités, plutôt que comme un ensemble qui dépasse la somme de ses parties. On peut questionner l’emploi d’un style souvent très familier étranger à la culture scientifique que partagent les lecteurs d’un éditeur tel que De Boeck Supérieur. Cependant, paraphrasant le style fleuri de H. Bersini, « sans verser dans la science-fiction ou l’obsession geek de bas étage, poussons le bouchon un peu loin » (p. 70) : face aux innombrables dystopies mettant en scène la prise de pouvoir par les machines, il est bon de penser à une utopie de coopération de l’homme avec ses algorithmes.
Pour citer cet article
Référence papier
Philippe Dumas, « Hugues Bersini, Algocratie. Allons-nous donner le pouvoir aux algorithmes ? », Questions de communication, 45 | -1, 582-588.
Référence électronique
Philippe Dumas, « Hugues Bersini, Algocratie. Allons-nous donner le pouvoir aux algorithmes ? », Questions de communication [En ligne], 45 | 2024, mis en ligne le 30 juin 2024, consulté le 18 janvier 2025. URL : http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/questionsdecommunication/35995 ; DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/11wyu
Haut de pageDroits d’auteur
Le texte seul est utilisable sous licence CC BY-NC-ND 4.0. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
Haut de page