1La multiplication des phénomènes mondiaux débordant le cadre des relations entre États-nations, tels que le changement climatique, la crise financière, le risque technologique ou le développement des réseaux d’information et de communication, a nourri la réflexion sur la notion de biens communs et sur la manière de gérer collectivement ce type de biens. Le concept, issu des sciences économiques, recouvre de nombreuses réalités en fonction de l’approche mobilisée (économique, juridique, éthique, politique…) et semble pouvoir s’appliquer à un ensemble d’objets toujours plus large dans le contexte de la mondialisation. La notion de bien commun mondial a été ainsi conçue pour prendre en charge la tension croissante entre la dimension mondiale de l’économie de marché, la persistance des régulations nationales et les impacts locaux sur les populations. Cette acception dépasse la définition traditionnelle du bien commun (propriété communautaire locale, voir Ostrom, 2010) en proposant un sens contemporain de « propriété universelle comme patrimoine génétique commun global » à toute l’humanité (Aigrain, 2010).
- 1 Cette initiative a rassemblé pendant plusieurs années un groupe de chercheurs européens en SHS et S (...)
- 2 Le Transmission Control Protocol assure l’interopérabilité entre les systèmes connectés. Le princip (...)
- 3 Tout équipement est connecté via une adresse IP (Internet Protocol) composée d’une succession de ch (...)
2Le climat de la planète, menacé par les activités humaines, est reconnu comme un exemple de bien commun. Mais la définition précise de la dimension « commune » de ce type de biens est une question épineuse. Le développement des technologies de l’information et de la communication (TIC) et la circulation transfrontalière de l’information par Internet ont engendré une terminologie supplémentaire, les « biens communs informationnels ». L’expression prend en compte l’expansion des échanges immatériels (idées, logiciels, produits culturels) largement conçus par des activités coopératives entre pairs sur la base de communs, c’est-à-dire incluant les notions de bien « non rival » et « non soustractible » (Benkler, 2002). Comme l’ont montré les travaux du programme Vox Internet1, consacrés à la gouvernance d’Internet, pour appréhender Internet et explorer sa dimension de « bien commun », il est nécessaire de considérer à la fois les ressources qui sont à la base de son architecture informatique (protocole TCP/IP et principe du end-to-end2) et celles que l’on qualifie de critiques pour son fonctionnement (adresses IP et noms de domaine3), tout autant que les contenus qui circulent sur la toile dans une « conversation » mondiale ininterrompue, pour former ce que certains nomment une « écologie numérique ». Dans cet espace hybride, la pluralité des sources de normativité contribue à former un écosystème complexe, configuré par de multiples arrangements techniques, économiques et politiques (Massit-Folléa, Méadel et Monnoyer-Smith, 2012). On le voit, le périmètre des « biens communs » ne touche plus seulement les ressources données et non renouvelables, comme la biosphère, mais intègre désormais les ressources techniques et intellectuelles produites et partagées par les habitants de la planète. La difficulté contemporaine à en proposer une définition tient à l’enchevêtrement des responsabilités publiques et privées dans la persistance des inégalités d’accès et d’usages.
- 4 Dans son acception commune, la notion désigne un partage des responsabilités, voire de la décision, (...)
3L’organisation d’actions collectives dans un cadre normatif accepté de tous s’impose progressivement comme un sujet politique de premier ordre. On cherche à mettre en place de nouvelles instances dites de « gouvernance4 » afin de faire évoluer la façon de décider ensemble et de construire l’intérêt général en tenant compte du renouvellement des interdépendances et de la multiplication des « partenariats ». Mais, dans les différents domaines où se développe la notion de bien commun, la mise en place d’instruments de régulation ne se fait pas au même rythme. Les travaux de P. Samuelson (1983) montrent que, pour être gérés de manière efficiente, les biens communs doivent être encadrés par des décisions politiques et non par les seules lois économiques. Dans cette optique, le concept de gouvernance mondiale, porté par les sciences politiques, a été conçu pour prendre en charge l’internationalisation de la gouvernance de ces biens collectifs. En effet, protéger la qualité de l’air, la mer, la couche d’ozone, la justice, la santé publique ou encore la diversité culturelle doit être le fruit d’un choix partagé et garanti. La mise en place d’instruments de gestion collective doit permettre de dépasser le paradoxe de la « tragédie des communs » (Harding, 1968), qui fait que, suivant leur rationalité économique, les agents utilisent les biens sans s’assurer de leur renouvellement alors que leur préservation serait dans l’intérêt de tous, y compris des générations futures.
4Chaque type de biens communs en appelle à un régime particulier : si la gouvernance du climat cherche à diminuer l’impact négatif des actions humaines sur la nature, dans une optique essentielle de préservation, celle d’Internet, qui concerne une technologie en perpétuelle évolution, vise un projet de « nouvelle société » (de l’information, de la connaissance) en construction, dont les enjeux sont encore insuffisamment formulés et ressentis. L’hypothèse que nous formulons ici avance qu’il est possible d’isoler des invariants de la gouvernance multi-acteurs dans ces différents contextes et ainsi de repérer des intrants et des effets propres à la gestion des biens communs, étant entendu qu’au contraire de l’absolu prescriptif de l’universel, le commun est une notion stratégique — on pourrait même la qualifier de pragmatique, comme processus de prise en charge partagée (Brédif et Christin, 2009).
5Dans notre étude, nous avons mobilisé une conception du bien commun considéré comme une ressource, qu’elle soit naturelle ou immatérielle, qui devrait être équitablement gérée à l’échelle mondiale. Cette volonté normative de mise en commun implique de prendre en compte les modalités de gouvernance associées à ces biens afin de penser les conditions de leur mise en œuvre et les modalités de protection de leur intégrité. Notre définition souhaite donc articuler ce qui relève d’une gestion alternative au modèle propriétaire et ce qui relève d’une conception du politique qui rende possible cette approche, à la fois en ce qui a trait au système de gouvernance et à la mise en cohérence des valeurs qui y sont attachées.
- 5 Selon les termes employés dans les déclarations du SMSI (voir infra).
6En prolongeant les apports du programme de recherche Vox Internet (2005 et 2011), nous souhaitons observer si les modalités de coordination mises en place pour gérer les questions climatiques depuis les années 1980 peuvent venir enrichir la réflexion en cours sur la construction d’une gouvernance d’Internet « ouverte, transparente et démocratique »5. Quels enseignements peut-on tirer des expériences existantes ? Est-il réellement possible de mettre en place un système respectueux des différentes sources de légitimité des acteurs ? L’observation des mécanismes de gouvernance mis en place pour la gestion du climat, de leurs réussites et de leurs limites, devra nous permettre de comprendre pourquoi certaines institutions de la gouvernance d’Internet peinent à légitimer leur action et à remplir leurs missions. Cet article sera également l’occasion de mener une réflexion sur les critères nécessaires pour proposer un modèle de gouvernance qui échappe à la fois au consensus mou et au maintien du statu quo. Passer d’un état de fait à un état de droit dans la gouvernance mondiale des biens communs suppose en effet d’associer l’expert, le diplomate et le juriste, mais aussi d’intégrer le point de vue, les aspirations et les droits de l’usager-citoyen.
- 6 On peut citer Richard Lindzen aux États-Unis ou Claude Allègre et Vincent Courtillot en France.
- 7 On pense ici aux vifs débats qui se sont tenus autour du blogue Real climate du professeur Michael (...)
- 8 On notera le poids des journalistes scientifiques comme le détaille Comby (2009).
7La question du climat est un sujet scientifique complexe. Elle est l’objet de nombreuses controverses entre les climato-sceptiques6, qui mettent en doute l’existence du réchauffement climatique, ou du moins son origine anthropique (reconnue par le protocole de Kyoto en 1997), et les tenants d’une approche plus alarmiste postulant qu’une évolution rapide des comportements est indispensable pour préserver notre écosystème naturel. Cette controverse est sortie des laboratoires pour occuper une place importante dans l’espace public médiatique. Ses principaux acteurs, y compris des chercheurs reconnus dans leur domaine, se sont violemment opposés dans les médias, allant jusqu’à remettre en cause la scientificité des positions adverses et l’objectivité de la démarche de leurs confrères7. Du fait du caractère universel et concret du sujet, l’opinion publique suit avec intérêt ces débats (Comby, 2008), et si leur haut niveau de technicité impose un coût d’entrée très élevé dans la partie académique des échanges, l’ensemble de la population se sent suffisamment touché par les questions climatiques pour avoir un avis moral sans pour autant disposer de connaissances scientifiques robustes sur le sujet. Le concept de climat, d’abord issu des sciences dures au siècle dernier, a vu sa définition évoluer progressivement pour prendre en compte l’homme et son impact sur son environnement. Parfois visible, parfois invisible à l’œil nu, le réchauffement climatique ne peut être pleinement appréhendé que par la prise en compte des dynamiques que créent les rencontres entre les sphères scientifiques et politiques dans l’espace public. Le grand public, qui attend des décisions politiques, dispose de la traduction des positions scientifiques par les médias8. Dans la compétition des logiques et des points de vue, la communauté scientifique a une position particulière : grâce au rôle d’expert qu’elle assure, elle devient une force de médiation qui structure les configurations politico-sociales à l’origine de l’émergence de ces problématiques dans l’espace médiatique mondial (Roqueplo, 1997). Ainsi, derrière l’expertise technique, il y a bien une dimension politique. Si l’expert a pour mission d’assumer une position scientifique sur les questions climatiques, il est également chargé de proposer une orientation politique sur les modalités de leur régulation (Comby, 2008). Pourtant, cette double fonction dépasse ses compétences classiques, car la science ne se construit pas avec les mêmes instruments que l’expertise. L’expert a pour mission d’éclairer un décideur qui fait appel à lui ; la science se nourrit des controverses qui doivent pouvoir s’exprimer librement afin de faire avancer la connaissance dans un contexte différent de celui du marché (Akrich, 1998). Sur la question climatique, la part d’incertitude reste très importante : le diagnostic proposé est inquiétant sans que les résultats des études parviennent à une mesure précise de la gravité et des échéances des risques encourus.
8Depuis longtemps, la science a mis au point des mécanismes d’autorégulation qui permettent la prise en considération de l’incertain (la validation par les pairs, par exemple) afin d’être capable de produire un discours légitime. Mais désormais, les sources de légitimité sont multiples et pour que ce discours trouve sa place dans l’espace médiatico-politique, il devient nécessaire de proposer une forme d’organisation de la médiation dans des espaces de traduction et de corégulation entre acteurs, à l’instar des « forums hybrides » décrits par Y. Barthe, M. Callon et P. Lascoumes (2001). Ce type d’espace va être chargé de concilier les différentes temporalités et d’impliquer la diversité des acteurs de la controverse pour faire avancer la mise en place de formes de gouvernance globale. Ce faisant, le risque est grand de voir remis en cause des équilibres politiques parfois difficilement acquis et de voir des acteurs dits « profanes » venir mettre en question la version officielle sur certaines thématiques et orientations des débats.
- 9 « [The Internet] mixes private property in individual computers and network links with a commons in (...)
- 10 Voir les débats sur la neutralité du Net (Schafer, Le Crosnier et Musiani, 2011) ou sur les questio (...)
9On veut ici esquisser une comparaison avec Internet dans la mesure où il est également considéré comme un système sociotechnique à la recherche d’instruments pour prendre en charge les incertitudes liées à son évolution. D’intenses débats animent l’ensemble des acteurs du Net pour savoir si la régulation doit se limiter aux infrastructures physiques (les « tuyaux ») ou intégrer dans sa gouvernance l’ensemble des ressources fonctionnelles (adresses et noms de domaine, applications, plateformes) et des pratiques communicationnelles (commerciales, culturelles et sociales) des réseaux. Certains auteurs (Grimmelmann, 2010) estiment d’ailleurs qu’Internet est seulement un « bien semi-commun », tout en confirmant la nécessité d’une gestion commune9. Mais les enjeux de régulation, du fait de leur haut niveau de technicité, sont difficilement accessibles au grand public, d’autant moins intéressé par ce sujet qu’il n’a pas besoin de comprendre l’architecture et le fonctionnement d’Internet pour en manipuler les opportunités. Le risque est que les questions de régulation disparaissent de l’espace public et que l’évolution d’Internet soit confiée aux seuls intérêts techniques et économiques, protégés par un voile d’ignorance collective et de désintérêt médiatique. Or les menaces sur la liberté des internautes sont plus importantes que jamais10.
- 11 Voir www.intgovforum.org/. Page consultée le 18 octobre 2012.
- 12 Organisé en 2006-2007 au Centre Alexandre Koyré par Amy Dahan.
10Si l’on souhaite en saisir tous les enjeux, la gouvernance d’Internet doit donc être perçue dans l’espace public comme l’agencement des dynamiques des différents acteurs de son écosystème. À l’instar des questions climatiques, la communauté scientifique et technique peut avoir un rôle de médiation qui lui permette, par un positionnement d’expert, de prendre position sur des orientations de gouvernance qui configurent les décisions politiques et les pratiques des citoyens. Reste à définir les instruments qui articuleront l’autorégulation de la communauté technique, indispensable pour l’efficacité, et les moyens mis en œuvre pour parvenir à établir une corégulation légitime prenant en compte les intérêts des différentes parties prenantes (entreprises, États, usagers). Afin de donner une dimension pragmatique à cette réflexion, il nous semble utile de partir d’un examen du fonctionnement procédural de deux organismes existants, le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) d’une part, le Forum sur la gouvernance de l’Internet (FGI)11 d’autre part, afin de définir les invariants de leurs modes de gouvernance. Nos angles d’approche ont été confortés par le questionnement du séminaire « Changement climatique, expertise et fabrication des futurs »12 dont voici la substance :
(a) Depuis 1988, le GIEC est en passe de devenir l’idéal type pour d’autres projets internationaux qui associent l’expertise scientifique, le rôle des institutions politiques et celui des organisations non gouvernementales, décisives dans l’émergence de convictions partagées et dans la reconfiguration des enjeux géopolitiques Nord-Sud. (b) Le fonctionnement de l’expertise se déploie entre normes de scientificité et exigences de délibération démocratique. (c) Les problèmes du changement climatique ont trouvé leur place dans l’espace public (articulation entre le global et le local, modalités du débat public dans des espaces nationaux, à l’échelle des rapports Nord-Sud, dans les forums hybrides internationaux).
11Ces axes constituent les lignes directrices de notre analyse comparée. Même si le FGI est loin d’être le seul prétendant à l’élaboration d’une « bonne gouvernance » d’Internet, la comparaison avec le GIEC se justifie tant par le contexte onusien de sa mission que par les problématiques qu’elle soulève.
- 13 Conférences de Stockholm en 1972, de Nairobi en 1983, de Rio de Janeiro en 1992, de Johannesburg en (...)
- 14 Kyoto en 1998, puis Copenhague en 2009 et Rio+20 en 2012.
12Depuis la fin de la Seconde Guerre mondiale, l’Organisation des Nations Unies (ONU) est censée constituer l’élément-clé d’un dispositif de gouvernance mondiale. Plusieurs sommets onusiens consacrés aux questions environnementales13, puis au climat14 ont contribué à inscrire celles-ci à l’ordre du jour international et à poser les bases d’une action planétaire. Devant la mise en lumière des limites d’une régulation nationale et de la progression des interdépendances mondiales, la mise en place d’instances de coordination a été progressivement discutée. Il convient d’être particulièrement attentif au type de procédure mis en place afin de laisser la communauté scientifique discuter de façon ouverte et transparente ses résultats, avant d’en tirer des conclusions politiques (Talpin et Wojcik, 2010). La science se construit à partir de tentatives, plus ou moins fructueuses, de discussions à caractère officiel ou non entre chercheurs, de reformulations et de citations qui font de la production de connaissances un processus itératif en perpétuelle évolution, qui doit trouver sa place dans des arènes de discussion protégées.
13Mis en place en 1988 par le Programme pour l’environnement des Nations Unies et l’Organisation météorologique mondiale à la demande du G7, le GIEC est une institution sous ombrelle onusienne chargée de recueillir et d’expertiser l’information d’ordre scientifique, technique et socioéconomique sur les risques de changements climatiques provoqués par l’homme et de faire une synthèse exhaustive de la littérature scientifique. Son organe central est son assemblée générale, pilotée par un bureau où sont représentés tous les pays membres de l’organisation. Cette assemblée définit les thèmes qui seront approfondis par le GIEC et valide les rapports. L’organisation est structurée autour de trois groupes : le premier groupe analyse les publications sur les mécanismes physiques du réchauffement, le second, celles portant sur ses impacts sur la biosphère et notre système socioéconomique, alors que le troisième évalue les politiques de réduction d’émissions de gaz à effet de serre.
14En ce qui concerne les enjeux d’Internet, différentes phases du Sommet mondial sur la société de l’information (SMSI), organisé par l’Union internationale des télécommunications sous l’égide de l’ONU, ont été établies à partir de 2003 pour organiser la circulation de l’information et la préservation des cultures dans le contexte de la mondialisation des échanges et pour donner de l’épaisseur au concept de société de l’information15. Le SMSI fut un sommet tripartite réunissant les gouvernants, le secteur privé et les acteurs de ladite « société civile » afin de poser le constat, à l’instar de la conférence de Rio pour l’environnement, de l’urgence du développement et de la bonne gestion d’Internet dans le monde. La déclaration de principes et le plan d’action de Genève se sont d’abord centrés sur la problématique de la fracture numérique (limitée dans un premier temps à la question de l’accès aux équipements et aux infrastructures), alors que l’ordre du jour de Tunis16 a inscrit la gouvernance d’Internet comme une de ses priorités. Il a été décidé de lui consacrer un lieu de dialogue international, le FGI. Ce dispositif a été chargé de poursuivre au-delà de la tenue du Sommet un dialogue multipartite sur la gouvernance d’Internet. Si des échanges entre différents acteurs parviennent à se mettre en place, le FGI est censé s’intégrer, pour le nourrir, dans un système de régulations multiples, avec l’Union Internationale des Télécommunications (UIT) pour les normes de télécommunications, l’IETF (Internet Engineering Task Force) et le W3C (World Wide Web Consortium) pour les normes de l’architecture et du Web, l’ICANN (Internet Corporation for Assigned Names and Numbers) ou l’OMC (Organisation mondiale du commerce) pour les normes de marché. Les normes juridiques et les souverainetés politiques sont ainsi confrontées à de multiples sources de normativités techniques et commerciales.
15La particularité des discussions portant sur le climat est qu’une des principales parties prenantes concernées, les générations futures, ne peut prendre part aux échanges. C’est donc la communauté scientifique organisée au sein du GIEC qui prend en charge les enjeux de long terme dans une structure ad hoc qui s’ajoute aux organes officiels. Cette institutionnalisation de la caution scientifique a pour mission de peser sur les décisions des gouvernants pour proposer une forme de consensus légitimant l’action au nom de l’intérêt général. Il en résulte un équilibre basé sur une limitation politique de l’incertitude technique grâce à une caution scientifique et un appel à la bonne volonté des États pour mettre en œuvre des réformes structurantes. Le défi ambitieux et complexe du GIEC est donc de conserver sa crédibilité scientifique en étant engagé dans des problématiques économiques et éthiques, de prodiguer des aides à la décision tout en cherchant à tenir compte de la diversité des productions scientifiques. La publication de ses résultats doit être reconnue par tous, et ce, même si des controverses scientifiques perdurent. Ce genre d’équilibre périlleux nécessite la mise en place d’une procédure stricte qui promeuve la transparence et la rigueur scientifique.
- 17 Voir l’article de George Monblot dans le Guardian du 20 février 2010 dénonçant le sponsoring des cl (...)
16Une phase décisive de l’action du GIEC est la production de rapports d’évaluation, officiellement approuvés par l’assemblée générale et destinés à servir de référence dans les négociations internationales. Il s’agit de fournir le matériel scientifique, basé sur l’état de la connaissance au moment de la publication, pour cadrer les échanges politiques. Entre ces publications officielles, le GIEC se prononce sur des points précis d’avancée scientifique, qui sont le sujet d’un résumé à destination des décideurs. Comme le montrent les travaux de J.-C. Hourcade (2009), la rédaction des rapports suit également une procédure stricte pour leur conférer une forme d’autorité. Plusieurs règles encadrent leur publication : les rapports ne doivent pas contenir de messages prescriptifs pour laisser aux gouvernants la responsabilité de leur choix ; chaque chapitre (consacré à une thématique) doit porter sur l’état de l’art scientifique et faire état des controverses et il engage de manière solidaire ses auteurs. Ce premier projet est ensuite soumis à d’autres experts du domaine et aux différentes parties prenantes qui proposent d’éventuelles modifications. L’acceptation ou le refus de ces relectures doit être motivé par écrit. Après un certain nombre de navettes, la seconde version du rapport est soumise au vote de l’assemblée générale du GIEC qui a un droit de veto sur les chapitres litigieux. Au total, plusieurs milliers d’experts vont avoir l’occasion de relire le texte dans le but de ne pas éliminer les positions minoritaires et de renforcer sa légitimité. Chaque chapitre donne lieu à un résumé technique, puis à un résumé pour les décideurs qui est adopté ligne par ligne par les représentants des États et les scientifiques pour parvenir à la synthèse la plus diplomatique possible. L’association des acteurs politiques au processus d’écriture a pour mission de renforcer l’équilibre entre science et gouvernance. En plus de la production d’un document académique visant à l’exhaustivité, la réalisation d’un résumé écrit en collaboration avec les représentants des États permet de préparer la circulation de l’information jugée essentielle vers la sphère politico-médiatique. La procédure montre également qu’un consensus scientifique doit d’abord être établi afin qu’il puisse éventuellement être l’objet d’un consensus politique. Au-delà de ce fonctionnement idéal, il est souvent reproché au GIEC d’exclure les positions divergentes et d’alimenter la position dominante afin d’autojustifier son existence. Hourcade rappelle par exemple le risque de faire perdurer les déséquilibres Nord-Sud, par le fait que la mobilisation des communautés reflète le poids respectif des appareils scientifiques : les pays riches finissent par imposer leur ordre du jour. Les possibilités de négocier « ligne par ligne » offriraient également aux lobbys17 l’occasion d’influencer directement les résultats scientifiques et les décisions politiques.
- 18 Proposition n° 34 du texte de l’ordre du jour de Tunis [En ligne]. http://www.itu.int/wsis/docs2/tu (...)
- 19 Le dialogue multistakeholder est une procédure de discussion qui associe les différentes parties pr (...)
- 20 Un certain nombre d’organisations non gouvernementales sont reconnues par les Nations Unies.
- 21 Voir http://www.igcaucus.org/. Page consultée le 18 octobre 2012.
17Il en va largement de même au FGI. L’organisation des réunions annuelles du FGI s’est fondée sur l’adoption officielle d’une définition large de la gouvernance d’Internet, vue comme « l’adoption par les différents acteurs, dans leurs rôles respectifs, de procédures et de normes communes propres à modeler le développement et l’utilisation de l’Internet18 ». Cette définition très théorique pose de nombreux problèmes et ne répond pas aux questions fondamentales qui doivent orienter la régulation d’Internet : comment celui-ci peut-il être une source de progrès partagé et non d’inégalité accrue ? Comment mener de pair les débats sur son infrastructure logique et physique et ceux sur ses applications et ses usages ? Comment articuler les apports et les attentes des différents groupes d’intérêts ? Si le processus diplomatique du SMSI n’a pas débouché sur de réelles avancées, l’innovation institutionnelle n’en reste pas moins importante. La mise en place du Sommet, puis du FGI, a permis la mise en avant de la « société civile » comme partie prenante, comme le montrent les travaux, entre autres, de B. Cammaerts (2005), C. Padovani (2009) ou M. Raboy (2005) — non sans que soient relevées les ambiguïtés concernant son périmètre et ses modalités d’action (Massit-Folléa, 2007). La mise en place du dialogue multistakeholder19 est certes une réussite procédurale, mais les échanges ne débouchent sur aucune décision concrète. La participation de la société civile au processus onusien s’est largement organisée autour d’organisations non gouvernementales existantes20, mais aussi du caucus Internet Governance Civil Society21, qui a pris une part importante dans la « représentation » de la société civile. Mais au nom de qui ces experts parlent-ils ? L’absence de procédure de sélection des participants mêle les positions des techniciens privés et des spécialistes universitaires d’Internet à celles des militants (du logiciel libre, du développement des Suds, des droits de l’homme, etc.) désireux de faire avancer leur cause dans les enjeux de gouvernance. Leurs contributions ont fourni une forme d’autolégitimité à la société civile, qui a ainsi pu prendre part au processus, mais au prix d’une confusion entretenue sur la véritable légitimité d’un tel rassemblement (Massit-Folléa, 2008). Comme nous le rappellent les travaux de J. Hoffman (2005), pour peser sur les décisions, la société civile doit se structurer en gérant la tension entre sa volonté de se développer dans un espace de débats ouverts (où peuvent s’exprimer les controverses) et la nécessité d’entrer dans un processus d’institutionnalisation.
18À la différence du GIEC, les experts ne sont pas ici clairement désignés, le concept de société civile est lui-même flou du fait de la grande diversité des positions incluses sous cette bannière et l’obtention de consensus susceptibles de servir de base aux discussions politiques est quasi impossible. L’absence de cohésion des représentés fragilise la portée des échanges, si informés soient-ils, qui se déroulent au sein du FGI et encourage les prises de position partisanes sur les questions techniques. Le GIEC est quant à lui composé de scientifiques qui se placent dans une posture d’observation du réel, pour mieux connaître les effets de l’action humaine sur le climat. Leurs échanges sont susceptibles d’aboutir à la construction de faits scientifiques. Le registre de la preuve est donc bien différent.
19On peut faire l’hypothèse que la difficulté du FGI à peser sur le programme politique s’explique par le fait que ses participants ne sont pas en mesure de fournir la matière scientifique exigée pour construire un consensus, et plus encore par l’incapacité statutaire du FGI à produire des recommandations. Si sa mission est de faire dialoguer les parties prenantes pour faciliter leur montée en compétences, il n’a pas de lien direct avec la décision. Pour tenter de peser sur les décisions politiques, ses membres — une minorité d’entre eux, cependant — sont obligés d’entrer dans le jeu institutionnel et d’intégrer les instances d’autres organismes, plus officiels, au prix de batailles incessantes. Contrairement aux discussions sur le climat, la procédure ne prévoit pas d’étape de co-construction avec les politiques : les thématiques des rencontres annuelles du FGI sont fixées dans des réunions préparatoires par un comité multipartite lui-même à légitimité réduite et qui se contente, année après année, d’entasser les analyses et propositions sur un portail Web sans procéder ni à leur capitalisation ni à leur validation. En résumé, le bilan montre le GIEC comme un importateur de connaissances et de positions dont l’usage est encadré et prescrit ; le FGI est pour sa part un exportateur de savoirs et d’opinions présentés en son sein dans un vague cadre de discussion, dont l’effet n’est aucunement garanti. Le premier rend compte directement à l’Assemblée générale des Nations Unies, le second fait remonter des synthèses (souvent édulcorées) à travers plusieurs strates de la procédure onusienne (la Commission sur la science et la technologie pour le développement, la Commission Eco-Soc, etc.).
20Le modèle proposé par le GIEC souffre toutefois de nombreuses lacunes, notamment en ce qui a trait à l’inclusion des parties prenantes et à la prise en compte des rapports de force (on lui reproche souvent de nommer des membres excessivement favorables à la lutte contre le réchauffement climatique), mais il n’en reste pas moins une expérience procédurale riche d’enseignements : la communauté scientifique, dans la première étape de la procédure, produit des connaissances qui, une fois synthétisées et organisées, serviront ensuite de matériaux pour enrichir les discussions des politiques, eux-mêmes chargés de trouver un compromis tourné vers l’intérêt général. La gouvernance d’Internet pourrait s’inspirer de ce principe pour utiliser le FGI comme un espace de discussion articulé, chargé d’éclairer les décideurs sur la nature politique et économique des choix techniques. Mais, pour que le FGI puisse jouer ce rôle, il semble nécessaire d’une part de mieux définir l’apport des différentes parties prenantes dans son fonctionnement et d’autre part de réexaminer sa production pour instaurer un dialogue constructif avec les décideurs en matière de régulation d’Internet.
21Sur le plan de la gouvernance, nous tirons un certain nombre d’enseignements de ces deux cas d’études. Malgré leur hétérogénéité, ces terrains nous permettent d’ores et déjà de définir des invariants susceptibles de contribuer à dessiner un modèle de gouvernance des biens communs.
22Nous avons vu que pour fonctionner, les institutions doivent mettre en place un dialogue dans un espace où le statut et la légitimité des différents acteurs sont définis en toute transparence. La rigueur procédurale du GIEC constitue une piste stimulante, même si les critiques sur la réalité du pluralisme de ses membres doivent être prises en compte. L’examen du GIEC et du FGI nous incite également à la plus grande vigilance sur les risques d’instrumentalisation des dispositifs par les lobbys. Une procédure peut être extrêmement contraignante, mais perdre toute efficacité si certains groupes parviennent à l’instrumentaliser pour servir leurs intérêts. À l’inverse, une procédure trop ouverte encourt le risque de « décrocher » les discussions des pratiques réelles.
23La gouvernance doit être un cadre d’action apte à faire valoir ses propres exigences envers les différents groupes d’intérêts, en lien direct avec les décideurs. Il est besoin pour cela que les procédures soient itératives entre la communauté technique et scientifique, les dirigeants politiques et les représentants de la société civile. C’est le prix à payer pour « fabriquer » un consensus qui s’appuie sur les différentes sources de normativités légitimes dans le domaine que l’on cherche à gérer. Ces observations nous invitent à interroger les conditions nécessaires pour qu’émerge un dialogue respectueux des différentes formes de légitimité et qui prenne en compte les rapports de force qui structurent les relations entre acteurs.
24L’observation des dispositifs existants amène au constat suivant : « Les problèmes globaux qu’il nous faut affronter sont d’une importance et d’une intensité croissantes, quand les moyens collectifs dont nous nous dotons sont faibles et incomplets » (Held, 2006 : 240). En effet, nous sommes dotés d’instruments de régulation à l’échelle mondiale assez faibles alors que la mondialisation des crises économiques, politiques et écologiques est toujours plus intense.
25Les discussions sur le climat illustrent ce point de vue. En effet, si les cinq principaux émetteurs de gaz à effet de serre (Chine, États-Unis, Union européenne, Inde et Brésil) sont responsables de plus de 60 % des émissions actuelles d’après les chiffres de N. Stern (2007), leur implication respective dans les négociations reste hétérogène, voire paradoxale : les pays émergents (Chine, Inde, Brésil), qui ont amorcé leur croissance sur le modèle du développement occidental, tentent de limiter leurs investissements dans les politiques de lutte contre le changement climatique ; de leur côté, les États-Unis, après avoir participé à la définition du protocole de Kyoto en 1997, refusent de le ratifier (Hourcade et Ghersi, 1998). Ainsi, lorsque les acteurs dominants participent à établir les règles d’un jeu auquel ils refusent de jouer par la suite, leur comportement remet en cause la légitimité de la démarche dans son ensemble. Au vu de ces tensions et de ces asymétries, L. Tubiana (2008) va même jusqu’à s’interroger sur la place du multilatéralisme : est-il possible de concilier le projet politique de l’Union européenne et le système de gouvernance multi-acteurs qui tente de se mettre en place à l’échelle mondiale ? Dans quelle mesure peut-on se contenter de l’engagement volontaire des États pour faire avancer le dossier de la lutte contre le réchauffement climatique ? Est-il possible de construire à plusieurs un système de gouvernance capable de prendre en charge des intérêts largement divergents ?
- 22 C’était l’intitulé du colloque organisé en France le 7 décembre 2010 par la Direction de la recherc (...)
26Ces interrogations planent également sur les débats concernant la gouvernance d’Internet. Depuis 1998, les États-Unis, par l’intermédiaire du Department of Commerce, ont le contrôle d’ICANN (Internet Corporation for Assigned Names and Numbers). Cette organisation de droit privé californienne gère le DNS (Domain Name System, qui permet l’attribution des « .com », « .fr », etc.) et les adresses IP (leur allocation est la première des ressources critiques d’Internet). On peut s’interroger sur la nature de ce partenariat public-privé, qui se fait au bénéfice principal des États-Unis (Massit-Folléa, 2012). Les autres États, sous la forme du Governmental Advisory Committee (GAC), ne sont qu’un acteur parmi d’autres dans ce fonctionnement animé pour l’essentiel par le jeu du marché (Klein, 2002). Les différentes phases du SMSI ont clairement constitué une tentative pour inclure d’autres parties prenantes, de plus en plus irritées de cette mainmise d’un seul sur les intérêts de tous. Après le Sommet de Tunis en 2005, la mise en place du FGI a été vécue par les observateurs comme une porte de sortie pour masquer l’échec du Sommet : la création d’une instance de dialogue multipartenaire aurait servi à justifier l’absence de concession américaine sur les éléments-clés du débat. Mais cette instance, dépourvue de véritable lien à la décision, reste totalement non contraignante pour les acteurs qui acceptent de rejoindre le dispositif et largement dépendante des intérêts des États-nations et des entreprises associées au développement d’Internet. Si la société civile a été sollicitée et a pu faire entendre ses revendications de « corégulation », renforcer ses connaissances et favoriser l’interconnaissance dans des « coalitions dynamiques » thématiques, son poids politique réel dans ces démarches reste sujet à caution. De la même façon, comme l’évoque S. Ollitraut, « si les ONG ont réussi au Sommet de Copenhague la construction d’une mobilisation médiatique inédite alliant des registres techniques et d’urgence humanitaire, parallèlement elles ont connu une mise à l’écart assez radicale lors des négociations inter-étatiques » (2010 : 21). À l’instar d’autres dispositifs de « modernisation » des politiques publiques, le processus de concertation est conçu plus comme un « accompagnement » que comme un « moteur » du changement22 — que la société civile soit tenue en lisière ou intégrée au dispositif officiel.
27Aujourd’hui, le FGI poursuit son bonhomme de chemin, mais les choses sérieuses se passent ailleurs : d’un côté, des tensions croissantes se font jour entre ICANN et sa tutelle, de l’autre, les nouvelles puissances mondiales (non occidentales) demandent à l’ONU d’instituer un cadre plus contraignant pour la gestion technique d’Internet, en redonnant à l’Union internationale des télécommunications (agence multilatérale des Nations Unies) des prérogatives confisquées par l’ICANN (association de droit privé californien). Dans le même temps, les gouvernements cherchent à reprendre la main sur les usages d’Internet, au nom des bouleversements de l’économie numérique, des nouvelles menaces de la cyberguerre ou des « excès » de la liberté d’expression.
28Les négociations portant sur le climat, comme la mise en place d’instruments qui cherchent à fonder une régulation d’Internet, nous montrent entre autres enseignements la nécessité de prendre en compte les rapports de force et les finalités réelles des acteurs. Qui s’investit dans quelle démarche et pour quelle raison ? Il s’agit alors de prévenir le développement d’un modèle trop irénique de gouvernance qui ne prendrait pas suffisamment en compte les conflits latents et les divergences d’intérêts co-constitutives du développement des institutions. Dans les cas du GIEC et du FGI, le système en place ne favorise pas, pour des raisons différentes, la prise de parole démocratique de la société civile. La dimension contraignante des décisions est également difficile à mettre en œuvre. Ainsi, l’absence de rapport à la sanction fragilise la portée des différentes institutions qui sont obligées de se contenter d’une adhésion à un vaste objectif (la lutte contre le réchauffement climatique ou la construction d’une société de l’information démocratique) sans pouvoir mettre en place des outils de contrôle suffisamment efficaces. Les sanctions peuvent intervenir en aval, sur le plan économique, mais la transformation des déclarations d’intentions en principes juridiques et en actions politiques collectives semble être un défi majeur pour accompagner les transformations des modes de gouvernance.
29Les procédures actuelles peinent à prendre en charge la diversité des acteurs concernés par les innovations techno-scientifiques et la variété des points de vue sur leur développement. Dans les deux cas que nous étudions, la décision reste largement centralisée et dépendante de l’implication des États, soumis aux considérations de croissance et de compétitivité, aux exigences des entreprises, nationales ou multinationales, et, de plus, aux conflits de juridiction. La société civile, lorsqu’elle est associée, est cantonnée aux marges du processus et ne parvient à faire entendre son point de vue qu’au prix d’intenses tractations et de déconvenues répétées. Le mode de légitimation de l’expression publique dans ces espaces s’inscrit dans la perspective théorique de la démocratie délibérative (Habermas, 1973 ; Cohen, 1989) et de la démocratie dialogique (Callon, Lascoume et Barthe, 2001). La littérature sur le sujet s’est largement interrogée sur l’implication des profanes dans les dispositifs (Monnoyer-Smith, 2011) et sur la possibilité de réduire les inégalités de ressources des acteurs grâce à un agencement procédural qui égaliserait leur influence dans les échanges (Fung, 2003 ; Mansbridge et al., 2010). Cependant, ce présupposé normatif, que l’on retrouve aussi bien dans le modèle de « démocratie technique » de M. Callon, P. Lascoumes et Y. Barthe (2001) que dans la proposition de « démocratie écologique » de D. Bourg et K. Whiteside (2011), ne peut être adopté au détriment de la prise en compte des formes du pouvoir, sous peine d’empêcher le développement de véritables espaces de discussion ouverts et respectueux des légitimités des acteurs. La question de l’accès aux savoirs dans la procédure et de ses rapports avec l’expression du pouvoir s’impose comme un élément-clé pour mesurer la légitimité des décisions qui en sont issues.
30L’analyse du statut accordé aux savoirs produits dans ces dispositifs et des modalités de leur circulation est primordiale pour saisir le rôle des instances dialogiques étudiées dans la constitution des publics. Les instances de la gouvernance du climat et de la gouvernance d’Internet peuvent-elles être considérées comme des espaces dialogiques suffisamment ouverts pour permettre l’inclusion d’un plus vaste public dans les discussions ? La prise de parole des groupes mobilisés est-elle légitime ? Les deux questions sont liées, car la problématique de l’accès aux savoirs est une question démocratique fondamentale dans la mesure où elle configure les liens avec la représentation du peuple (Manin, 1995). Les citoyens ne peuvent exercer leur rationalité que s’ils sont détenteurs d’information fiable qui leur permet de demander des comptes à ceux qui parlent en leur nom en fonction du principe « d’accountability » (Urbinati, 2006). Ce « droit à l’information », qui conditionne le développement des formes les plus participatives de nos démocraties, est donc un préalable pour l’émergence d’une parole collective légitime.
31Sur ce point, Internet souffre d’un handicap par rapport aux questions climatiques : la difficulté à mobiliser le public sur ses enjeux techno-politiques et à lui faire prendre conscience des controverses liées au développement de son architecture. Si les risques relatifs à son usage (par exemple, concernant la protection des données personnelles ou encore le respect de la propriété intellectuelle) peuvent être appréhendés de manière diffuse et trouvent leur place dans les médias, la dimension technique du réseau reste une boîte noire difficile à ouvrir. À l’inverse, comme nous l’avons évoqué dans la première partie, une fois le problème formulé, les effets négatifs liés au changement climatique peuvent être plus facilement saisis par l’opinion. Loin d’offrir des prises médiatiques aussi facilement saisissables, Internet est un système sociotechnique ouvert, dans lequel toute nouvelle application engendre à la fois des conséquences positives et négatives, ce qui a pour effet de maintenir un niveau d’incertitude sociopolitique élevé. L’écosystème constitué par Internet a donc une dimension « dénaturalisante » qui rend nécessaire une sensibilisation de l’opinion à la dimension politique des choix techniques. Cette opération de traduction des problématiques techniques en savoirs profanes est une des clés pour activer un public concerné et renforcer ses capacités. Or on constate une grande réticence des acteurs à envisager qu’Internet est bien plus qu’un nouveau média et donc à clarifier les responsabilités par rapport à ses différentes « couches » (protocoles et standards, infrastructures de distribution, logiciels pour les applications et — seulement in fine — production et distribution des contenus).
32Dans le modèle de la gouvernance d’Internet, le concept de multistakeholderism, devenu progressivement incontournable, doit également être analysé sous ce prisme. Nous nous sommes déjà demandé si ce mode de discussion à plusieurs confère aux acteurs engagés une légitimité suffisante pour représenter les intérêts de la majorité. Les travaux menés lors de la première phase du programme Vox Internet ont montré la tendance des membres de la société civile au sein de l’IGF à jouer la carte de l’institutionnalisation pour avoir un poids dans les échanges (en devenant par exemple membre du secrétariat du FGI ou du bureau de l’ICANN) et à instaurer à ce niveau des formes de négociation, nécessairement moins transparentes, au détriment d’une véritable délibération (Vox Internet, 2005). L’apport de connaissances est un des ressorts de la participation, mais les positions des acteurs se retrouvent diluées dans la recherche d’un consensus qui entérine les stratégies existantes et cristallise l’ordre établi. La procédure empêche une lecture claire du rôle de chacun dans les instances de régulation. La circulation de l’information n’est pas cadrée et ne rend pas compte de la diversité des intérêts. En outre, la question de savoir par quels mécanismes des comptes pourraient être rendus aux usagers d’Internet n’est jamais débattue ni même posée.
33Dans quelle mesure peut-on s’engager dans un système dialogique que l’on reconnaît par avance comme asymétrique et biaisé par des inégalités structurelles entre les participants ? N’y a-t-il pas d’autres avenues envisageables pour permettre le développement d’Internet dans un cadre plus démocratique ? Ce point a été, là encore, largement traité par la littérature sur la démocratie délibérative. Plusieurs auteurs offrent des pistes de réflexion intéressantes pour penser un format « d’engagement critique ». Il s’agit ici de prendre en compte la dimension agnostique de l’expression des parties prenantes dans l’espace public et d’analyser les facteurs externes qui pèsent sur l’engagement des participants.
34Les travaux de I. M. Young (1996 et 2000), par exemple, se sont largement interrogés sur la possibilité de mettre en place, dans des systèmes aux fragilités structurelles apparentes, un dialogue équitable et légitime. Lorsque l’on met en place des organes chargés de trouver des consensus, comment faire pour que les intérêts en position dominante ne profitent pas des dispositifs pour conforter leur ascendant ? Cette auteure remet en cause le primat accordé à l’expression rationnelle dans la délibération. Elle rappelle également que les activistes peuvent mobiliser d’autres tactiques que la voie institutionnelle pour mettre en avant leurs idées. M. Williams abonde dans le même sens et avance l’idée « [qu’]il y a de bonnes raisons de croire que les groupes privilégiés auront systématiquement tendance à rejeter comme déraisonnables les interprétations des pratiques sociales que formulent les groupes marginalisés » (2002 : 206). En tenant compte de ces critiques, une nouvelle série de travaux, comme ceux de J. Mansbridge (1999), s’interrogent sur la possibilité de revenir à des mécanismes plus représentatifs pour éviter la dénaturation du concept de délibération. Ses recherches ont également pour objectif d’élargir la définition même de la délibération pour prendre en compte certaines formes d’expressions alternatives et tenter de réintégrer la défense de l’intérêt personnel (Mansbridge et al., 2010).
35Retenons que, pour éviter l’impasse de l’injustice, la procédure doit se montrer suffisamment ouverte pour accueillir la diversité des acteurs et leurs différents registres d’expression. La contestation des règles du débat et de son cadrage doit trouver sa place dans le design de la procédure pour permettre au public de s’impliquer. Parfois, l’injustice est telle que la délibération ne peut être promue que par des moyens non délibératifs. Il faut alors trouver l’équilibre entre le coût éthique de la transgression des normes et le gain obtenu. Dans ce contexte, l’accent mis sur la discussion sans production de recommandations comme dans le cas du FGI ne risque-t-il pas de cristalliser les divergences et d’accentuer la polarisation pointée par C. Sustein (2002) ? L’analyse de la représentation des intérêts des groupes dans la procédure permettrait de renouveler l’approche des dynamiques qui structurent les dispositifs. Peut-être un des moyens de mieux prendre en compte les intérêts consiste-t-il à passer par des modalités d’actions collectives qui sortent du cadre des dispositifs délibératifs. Là encore, le cas du climat est éclairant : de nombreuses organisations non gouvernementales organisent des campagnes de mobilisation pour faire pression sur les acteurs rétifs aux efforts nécessaires à la préservation du climat (Gueterbock, 2004) et créent des advocacy networks (Custards, 2008) afin d’influencer la définition des politiques publiques dans le domaine. Reste aux défenseurs d’Internet ouvert, et donc respectueux du pluralisme normatif, à mieux mobiliser l’opinion publique pour défendre leur cause.
36Qu’elle prenne la forme de « délibération » ou de « dialogisme », la légitimation d’une décision connaît certaines limites lorsqu’elle est confrontée à des intérêts fortement divergents. Les cas que nous avons étudiés montrent tous les deux l’importance de prendre en compte les finalités des acteurs dès la mise en place de la procédure ainsi que la manière dont ils sont susceptibles d’influencer son déroulement. Pour être viable, un système de gouvernance doit trouver les ressources pour prendre en charge les relations de pouvoirs sous-tendues par les interactions entre acteurs. Anticiper le conflit et en faire une des données de base de la procédure nous apparaît comme un facteur de réussite déterminant. Dans ce cadre, l’explicitation du poids et des limites du rôle respectif des États-nations et des entreprises est un préalable à toute forme d’action collective.
37Dans les dispositifs de gouvernance, le pouvoir s’exprime également dans la manière dont il autorise l’égale diffusion du savoir. Le « droit à l’information » est un puissant outil de légitimation des acteurs et de leurs décisions. Se pose alors la question de la mobilisation des publics : comment faire en sorte que les citoyens perçoivent leurs intérêts et se sentent touchés par les thématiques abordées dans les instances mises en place ? Mettre l’information la plus technique à la portée des profanes, pour éclairer les différents niveaux de lecture sociotechnique de la gestion des biens communs, est certainement une piste à suivre. Cette préoccupation doit être inscrite dans le design même de la procédure pour assurer la légitimité du dispositif et améliorer ses chances de réussite. Ces réflexions procédurales invitent à réfléchir au modèle de démocratie informationnelle susceptible de combiner l’ordre et le pluralisme nécessaire pour articuler les échelles de régulation et de rendre possible l’accès aux savoirs pour tous.
38Il est difficile de mettre en place des procédures de gouvernance qui permettent l’inclusion des différents acteurs concernés tout en maintenant un équilibre entre le lien à la décision et les intérêts des groupes dominants. Les États continuent à défendre leur pré carré. Les dynamiques de la mondialisation et la persistance des inégalités Nord-Sud contribuent à entretenir des rapports de force asymétriques entre les différentes parties impliquées dans la gestion des biens communs. Lorsque des mécanismes de régulation se mettent en place, on constate que la gouvernance économique se développe plus rapidement que la gouvernance sociale et écologique : les lois du marché et la forme de rationalité qui l’accompagne se transforment rapidement en socle d’agrément pour coordonner l’exploitation des biens communs. Ainsi, dans les négociations sur le climat liées au protocole de Kyoto, les États-Unis voulaient un marché des permis négociables, plus facilement contournables, alors que les Européens militaient pour un système de taxation des émissions qui offre une meilleure proportionnalité (les gros pollueurs étant les plus pénalisés financièrement). À première vue, les logiques et les positions semblent inconciliables. Mais l’on constate que la conception du climat que partagent les protagonistes est équivalente à celle d’un bien marchand. C’est le marché qui fournit aux acteurs une grille de lecture qui conditionne leur perception et oriente les décisions. La dimension sociale ne semble pas prise en compte dans le développement des institutions de gouvernance.
39Pour Internet, un risque équivalent s’est développé. Une majeure partie des acteurs valorise les enjeux de la « gouvernance technique », qui soutient l’efficacité marchande d’Internet, et tente de reléguer les débats sur ses usages dans des espaces de dialogue sans débouchés politiques comme le FGI. Le constat est inquiétant : dans les deux cas, la tension qui pèse sur la gestion des biens communs débouche sur la prise de pouvoir des intérêts économiques.
40Face à cette tentative de technocratisation de la gouvernance, il est nécessaire de faire prévaloir une logique des valeurs (inscrite dans l’horizon des droits de l’homme, comme, pour Internet, le droit à l’information et à la liberté d’expression, la protection de la vie privée, de la diversité culturelle et linguistique, entre autres) qui permette d’affirmer un cadre idéologique commun à même de se décliner en une grammaire d’action partagée. Le marché est une vision du monde particulière, pour certains séduisante par sa souplesse et sa capacité à générer des compromis, mais qui véhicule également son lot de déconvenues et d’injustices. En réalité, les nouveaux modes de gouvernance doivent apprendre à protéger certains biens de la prédation du marché pour éviter une surdétermination économique de notre environnement immatériel aussi bien que matériel. Faire reconnaître le poids des valeurs, c’est rendre légitimes les institutions de gouvernance en les adossant à des principes partagés qui deviennent la base de l’action institutionnelle. La démarche consiste donc à donner une dimension substantielle aux procédures en mettant en avant les questions éthiques liées à la pratique de la gouvernance. Ces opérations morales de cadrage ne dépendent ni de la communauté scientifique ni du marché : le choix du système de valeurs repose plutôt sur notre rapport à la nature, au progrès scientifique et technique ou au modèle de société souhaité par l’ensemble des citoyens. Politiser la gouvernance, c’est donc affirmer un certain nombre de principes sur lesquels il est possible de fonder des formes de régulation et le répertoire d’actions qui leur est associé. Le choix de ces principes doit être discuté par l’ensemble de la communauté des concernés, y compris par les usagers, et doit prendre en compte leurs besoins et aspirations.
41Ce type de solution requiert de définir dans des négociations internationales élargies les leviers susceptibles d’infléchir les orientations actuelles.
42Afin de préserver les biens communs de l’influence excessive du marché et de promouvoir un modèle de gouvernance fondé sur des valeurs capables de résister à sa rationalité exclusive, il importe d’interroger la légitimité des institutions chargées de leur gestion. L’étude que nous avons menée montre que la fragilité des institutions actuelles provient d’une approche de la régulation où les intérêts particuliers sont surreprésentés dans le déroulement des discussions, même lorsque la procédure est censée s’ouvrir à des voix multiples et favoriser une démarche bottom-up. L’asymétrie est-elle un horizon indépassable où les plus faibles sont aussi les moins bien représentés, leurs positions étant progressivement éliminées dans la construction du consensus ?
43La légitimité peut avoir différentes sources (juridiques, démocratiques, éthiques…) et constitue le fondement de la relation entre les représentants et les représentés. Cela vaut aussi bien dans le cadre des États-nations que dans le cadre des relations multilatérales et dans l’articulation des niveaux global et local de l’action politique. Selon P. Rosanvallon (2008), le pouvoir ne serait légitime que s’il tient compte d’un triple impératif d’impartialité, de réflexivité et de proximité. Dans la perspective de démocratisation des instances de gouvernance, on peut retenir la proposition d’introduire une vision pluraliste qui parte des acteurs de terrain, eux-mêmes inscrits dans une pluralité de réseaux et de dispositifs. Adopter cette logique implique également de remettre en cause la capacité de la compétence individuelle du citoyen à définir ses préférences politiques et permet de reconnaître qu’une organisation collective et dialogique rend possible la conciliation entre l’intérêt général et la raison pratique.
44D’autres travaux issus de la philosophie politique (Bohman, 2007 ; Lafont, 2010) insistent quant à eux sur la possibilité de mettre en place une démocratie mondiale, sans gouvernement centralisé, qui s’appuierait sur une conception pluraliste et transnationale du pouvoir, reconnaissant les logiques d’autodétermination des citoyens face aux diverses institutions en place. Les mécanismes dialogiques proposés à cet effet ont l’avantage de mettre en avant le besoin crucial de dispositifs communicationnels qui rendent possible le dialogue entre les valeurs et les normes. Cette vision d’une démocratie « post-dialogique » (Lavelle et Goujon, 2007) reposant sur la mise en place d’instances délibératives renforce les possibilités de responsabilisation par la discussion publique et l’appel à des principes communs, capables de dépasser les frontières et les différences culturelles.
- 23 La France a ratifié la convention d’Aarhus le 8 juillet 2002. Celle-ci est entrée en vigueur le 6 o (...)
45Pour autant, il semble que les discussions au niveau mondial ne puissent se passer d’incitations gouvernementales contraignantes pour réellement faire bouger les relations de domination et contraindre l’exercice du pouvoir. La participation doit fournir une sorte de cahier des charges des dynamiques instituantes, avec une approche communicationnelle qui prenne en compte la réalité du pouvoir. Ainsi, l’opinion publique a besoin de créer un coût politique à la non-ratification de traités ou à la non-participation à certaines institutions. Pour reprendre le cas du climat, on voit bien qu’on ne peut pas se contenter de « consensus mou », comme lors des négociations liées au protocole de Kyoto. J. Dewey (1927) nous enseigne qu’un public se constitue à la condition qu’une activité sociale impose des conséquences indirectes à un certain nombre d’individus : c’est le cas de la gestion du risque climatique, qui concerne le plus grand nombre. La prise en charge collective du risque nécessite l’introduction d’un certain nombre de mécanismes visant à créer une chaîne de partage des conséquences plus réflexive (Beck, 2001). La mise en place de ce type de liens de causalité s’appuie nécessairement sur le principe du droit à l’information. La gestion des biens communs demande ainsi d’articuler la constitution de groupes d’acteurs capables de réfléchir sur les problèmes mondiaux et la production d’accords politiques contraignants basés sur des consensus locaux. Pour le climat, la convention d’Aarhus23 légitime différentes lois qui engendrent sur le territoire national des obligations très localisées, qui se voient à leur tour légitimées par les orientations données par la convention. Les acteurs d’Internet doivent désormais réfléchir à leur modèle de chaîne de responsabilités. Sur quels grands principes le développement d’Internet peut-il s’appuyer pour donner une dimension éthique aux innovations techniques ? Comment profiter des particularités techniques du Net pour faire circuler l’information de manière équitable et démocratiser l’accès au savoir ? Comment renforcer cette démocratie informationnelle esquissée dans les possibilités de circulation mondiale et de dissémination « many to many » du réseau ? Ce modèle devrait à la fois répondre aux critères de légitimité posés par P. Rosanvallon (2008) et proposer des réponses pragmatiques à la question du changement d’échelle soulevée par J. Bohman (2007) et C. Lafont (2010).
46L’articulation des sources et des échelles de la légitimité démocratique est au cœur des travaux de M. Delmas-Marty (2006), qui interrogent les possibilités de combiner les normes juridiques avec d’autres sources de légitimation de l’action publique lorsqu’il s’agit de répondre à des problématiques mondiales. Dans notre cas de figure, il s’agit de comprendre comment le droit parvient à légitimer l’action institutionnelle afin de venir renforcer le poids proprement politique de la régulation. Face à la difficulté de rendre opérationnels les principes négociés dans les grands rassemblements internationaux, il conviendrait de partir des échelles existantes et des pratiques sociales déployées par les acteurs pour mettre en place un système de régulation dynamique. En s’appuyant par exemple sur le principe de subsidiarité, M. Delmas-Marty propose de repenser notre acception de la gouvernance des biens communs. Ainsi, la gouvernance ne saurait être que multidimensionnelle, multi-acteurs et évolutive pour organiser le partage des responsabilités. Les différentes normes ne doivent pas se combattre ou s’annuler, mais il importe de les hiérarchiser : certains droits sont prioritaires, en fonction des contextes et des acteurs. Il peut être difficile de couvrir la totalité des dimensions d’un même bien commun par les dispositifs de régulation : le concept de la « tragédie des 3C » (Cornu, 2005) montre l’impossibilité de parvenir à une régulation complète et cohérente dans un monde complexe. Dans un article récent (Delmas-Marty, 2012), la spécialiste du droit international comparé s’est penchée sur le monde des technologies et plus particulièrement sur le développement d’Internet qui perturbe le système de droit classique : dans Internet, les valeurs s’entrechoquent, les normes circulent et les conflits se multiplient — entre les droits de l’homme et le droit de propriété ou le droit de la concurrence, entre la liberté et la sécurité... La mission du droit est traditionnellement d’organiser le réel et il a pour cela besoin d’unité : il doit donc évoluer avec son environnement pour prendre en compte la diversification des sources de légitimité, tout en parvenant à s’appuyer sur des principes communs qui seuls permettent la mise en place d’instances de contrôle. Internet oblige à admettre à la fois un certain pluralisme et un certain ordre qui doivent être conjugués dans un système socio-juridique.
47Ces travaux nous aident à « mettre de l’ordre » dans notre approche de la gestion des biens communs. Les instances de régulation ne peuvent être développées sans tenir compte des systèmes existants, mais ceux-ci doivent évoluer afin de rebâtir leur légitimité. Pour donner une grille de lecture de la complexité du monde actuel et fournir les lignes directrices des espaces de gouvernance, il est nécessaire d’une part de soumettre chaque instance impliquée dans la gouvernance aux exigences de transparence et d’accountability, d’autre part de fonder leur articulation sur un corps de principes de références non négociables.
48L’approche comparative de la gouvernance du climat et d’Internet nous a permis de mettre en avant certains traits particuliers de la gouvernance des biens communs : la légitimité des acteurs est constamment défiée par les évolutions du contexte et les rapports qu’ils entretiennent entre eux. Dans la plupart des cas, le conflit est inévitable et fait partie intégrante d’une dynamique structurante. Les États-nations conservent un rôle important dans la régulation et tentent de préserver leurs intérêts face aux nouveaux acteurs (entreprises, société civile) qui émergent. Bien que les relations de pouvoir et de domination restent au centre de tout dispositif, une dimension coercitive peine à s’imposer et l’équilibre entre surveillance et sanction reste très difficile à instituer. Le principal risque est que les acteurs refusent d’intégrer le dispositif pour échapper à la règle pourtant décidée collectivement.
49Sur le plan de la gouvernance multi-acteurs, nous avons pu déterminer plusieurs impératifs : la mise en place d’espaces de discussion ouverts et pluralistes, un besoin de transparence sur le statut et le rôle exact de chaque type d’acteurs, l’importance d’une instance de contrôle dans les procédures et enfin la nécessité d’intégrer la société civile. Le multistakeholderism entrant au cœur du système, il convient d’interroger son engagement dans la production et le partage des connaissances. Pour le climat comme pour Internet, l’espérance d’un accès équitable aux ressources matérielles et cognitives indispensables reste aujourd’hui marquée par la crainte du contrôle et par le risque d’exclusion. Pour associer la gestion équitable des ressources et la détermination démocratique des politiques publiques, la consultation des différentes parties ne saurait suffire, sous peine de devenir, dans une approche instrumentale de la communication, un prétexte pour une gouvernance « molle » qui perpétue un statu quo où les vainqueurs restent les puissants.
50Une vision politisée de la notion de gouvernance est indispensable pour tenir compte des finalités des acteurs et prendre en compte l’interconnexion de plus en plus forte entre le monde physique et l’espace des réseaux. Le concept de gouvernance doit être renforcé par un ensemble de principes et de valeurs qui encadrent les procédures. La combinaison des dimensions procédurale et substantielle est la seule manière de préserver les possibilités d’innovation juridique et la dimension démocratique de la gouvernance des biens communs. Nous avons tenté ici de dégager des lignes directrices issues de la science politique, du droit international et de la sociologie des techniques. Un travail considérable, à la fois théorique et citoyen, reste à fournir pour les traduire en actions concrètes et faire bouger les lignes de domination.