1Les propriétés des différentes technologies de communication mises au cours des dernières années à la disposition des individus et des groupes susceptibles d’intervenir dans l’espace public ont été déjà souvent étudiées. La collaboration entre les sciences de la communication et la sociologie, la science politique ou l’économie, en particulier, a rendu possible une meilleure connaissance des réseaux humains liés désormais aux réseaux techniques. Cependant, cette collaboration n’a souvent mis en relation que des disciplines relevant des sciences sociales. Fréquemment, ont été négligés les apports de celles qui n’en relèvent pas, notamment les apports de la physique. Des présentations de ces apports existent pourtant en grand nombre, qu’elles soient très techniques ou qu’elles soient plus vulgarisatrices. Sans entrer dans le détail d’une production extrêmement riche, il s’agira ici d’attirer l’attention, à la fois, sur les résultats auxquels ces recherches sont parvenues, sur leurs implications socio-politiques et, plus spécialement, sur les réflexions qu’elles peuvent susciter au sujet de la démocratie.
2Les premières grandes recherches sur la structure du web qui ont effectuées par des physiciens ont été publiées à la fin des années 90. Ces recherches ont débouché sur l’élaboration d’une science des réseaux (Network Science), qui s’est voulue nouvelle, par sa mise en lumière des distributions statistiques propres au web, conçu comme un graphe gigantesque constitué d’un ensemble de nœuds reliés par des liens hypertextuels. Elles ont pu montrer (ce qui a été souvent confirmé ensuite) que, loin d’être constitué de nœuds dont la plupart auraient un nombre de liens proche d’une certaine moyenne (on aurait alors une représentation de la distribution en forme de cloche), le réseau du web est, au contraire, formé de nœuds dont certains, très nombreux, n’ont que très peu de liens, voire aucun, alors que d’autres (des super-nœuds), en petit nombre, en ont beaucoup ou même énormément (Broder et al., 2000). Plus précisément, il est apparu qu’un tel réseau est connecté suivant une loi de puissance : on constate que la probabilité qu’un nœud ait k liens est inversement proportionnelle à ce nombre k élevé à la puissance n, la valeur de cet exposant n variant entre 2 et 3. C’est à partir de cette constatation que les travaux se sont multipliés, en portant sur d’autres réseaux que le web et en visant à fournir des modélisations de leur développement. Ils ont pu mettre en évidence, d’une part, que les réseaux de ce genre existent en grand nombre et, d’autre part, qu’ils se différencient nettement des réseaux aléatoires : il s’agit en fait de réseaux « sans échelle caractéristique » (scale-free), cette propriété étant liée à la présence de distributions statistiques dont on peut rendre compte par une loi de puissance. La modélisation de base, proposée par Barabasi et al. (2000), revient à considérer que le fonctionnement de ces réseaux suppose l’existence de deux caractéristiques qui, lorsqu’elles sont appliquées au web , se traduisent par une première hypothèse, selon laquelle le réseau de pages est en expansion continuelle, et par une seconde hypothèse, selon laquelle une nouvelle page inclura des liens vers des pages déjà existantes avec une probabilité proportionnelle au degré entrant de ces pages. Il s’agit là de ce que l’on appelle un attachement préférentiel, qui est la traduction d’une tendance à ce que « les riches deviennent plus riches » (Barabasi et al., 1999).
3Un tel type de modélisation, issu de la physique statistique, a suscité de nombreux correctifs, ainsi que de nombreuses propositions concurrentes au cours des dernières années (propositions plus ou moins éloignées de la proposition initiale), qu’il s’agisse de son application au web en général ou de son application aux réseaux de courrier électronique, de messagerie instantanée et de systèmes peer-to-peer. Il reste qu’elle est un bon exemple d’essai pour rendre compte de l’évolution d’un réseau appartenant à la catégorie des réseaux complexes. C’est sans doute la raison pour laquelle elle peut être réutilisée plus largement dans l’étude d’autres réseaux, artificiels ou naturels, qui sont complexes dans la mesure où ils résultent, comme le web, d’une évolution décentralisée et non planifiée (Barrat et al., 2006). Cependant, l’idée fondamentale est bien celle qui a été soulignée par Barabasi (2002) : c’est l’idée que les pages web auxquelles on préfère se connecter ne sont pas des nœuds ordinaires (ce sont des plaques tournantes, qui ont d’autant plus de liens qu’elles sont mieux connues). Ce qui veut dire que, alors même que les comportements individuels sont largement imprévisibles, ceux des groupes observent des règles strictes. Il apparaît donc que l’on a là un réseau qui n’est absolument pas un réseau aléatoire. La deuxième caractéristique fondamentale est que ce réseau, parce qu’il établit des différences entre les nœuds, ne peut effectivement pas être qualifié de démocratique. La loi de l’attachement préférentiel est subtile, selon Barabasi, mais implacable et elle s’ajoute à celle de la croissance, tout aussi fondamentale, bien évidemment, dans le cas du web. C’est l’occasion de rappeler qu’il ne suffit pas d’employer le terme de « réseau » pour caractériser le web. En effet, celui-ci a une structure spécifique qui est en fait mal connue au sein des sciences humaines et sociales. Ce défaut de connaissance a comme conséquence de limiter la pertinence des analyses qui font référence aux potentialités du web en matière de communication et plus particulièrement de délibération. En particulier, la nouvelle science des réseaux a effectivement le mérite d’avoir montré que, sur le web, « les riches deviennent plus riches » et que la tendance décentralisatrice qui lui est souvent attribuée rencontre en fait des limites structurelles.
4Il n’est donc pas étonnant que le développement des blogs ait suscité chez les amateurs de ce type de sites web une réflexion à propos des effets de la loi de puissance sur leurs pratiques. D’où des interventions d’observateurs et d’acteurs de la blogosphère, qui s’inspirent largement des travaux provenant de la physique (qui ont été souvent vulgarisés), mais qui expriment aussi leur forte sensibilisation, issue de leurs pratiques mêmes, aux implications socio-politiques de ces travaux. Rapidement, les blogueurs ont vérifié que la blogosphère, quoique constituée de sites web un peu particuliers, est bien soumise à une loi de puissance. Alors même qu’ils ont pu avoir le sentiment d’appartenir à une organisation sociale marquée par la liberté et l’égalité, ce qui leur est apparu, c’est que tout le monde ne peut pas participer à toutes les discussions, que tout le monde ne peut pas être entendu, que certains blogs deviennent plus connectés que d’autres, etc. Il en est ressorti notamment que se manifestaient ainsi les effets d’une contrainte incontournable, à savoir que la diversité alliée à la liberté de choix engendre l’inégalité et que cette inégalité est d’autant plus extrême que la diversité est plus grande (Shirky, 2003). Dans ces conditions, la thèse selon laquelle l’internet améliore le fonctionnement de l’espace public a pu susciter un certain scepticisme de la part des chercheurs les plus proches de la science des réseaux.
5Pourtant, c’est sur la validité même de ce scepticisme que Benkler (2006), notamment, a voulu se pencher : il pense, en effet, que les travaux aussi bien empiriques que théoriques qui ont porté sur la topologie des réseaux permettent, en fait, de répondre aux appréciations négatives des conséquences de la structure du web. Il est vrai qu’un très grand nombre de dispositifs présents sur le web constituent de véritables plates-formes de débat qui présentent l’intérêt d’échapper aux contraintes et à l’hégémonie des médias commerciaux. Ces dispositifs sont ouverts à quiconque dans le monde souhaite introduire un point de vue personnel sur l’environnement social et politique, indépendamment des grandes organisations médiatiques, et ils donnent la possibilité d’intervenir véritablement dans l’espace public au lieu d’être confiné dans la passivité. C’est ainsi que se met en place, selon Benkler, un espace public en réseau dont les propriétés démocratiques, bien réelles, n’ont jamais existé avant que le web se développe. Certes, l’utilisation du web implique fondamentalement l’usage d’un moteur de recherche et des parcours de lien en lien, ce qui accorde à la distribution des liens un poids très inquiétant quant au fonctionnement démocratique. En conséquence, si l’internet autorise n’importe qui à afficher ses opinions, il ne garantit en rien que les opinions en question seront connues au-delà d’un tout petit nombre de personnes. Et Benkler rappelle que c’est ce que Barabasi a mis en évidence par l’affirmation selon laquelle le web est dépourvu de tout caractère démocratique. C’est aussi ce qui peut amener à se demander si la distribution des liens recréée une concentration comparable à celle des médias traditionnels. En fait, l’espace public connecté bénéficie, selon lui, de deux avantages : d’une part, il autorise une diffusion généralisée, sans pourtant aboutir à la cacophonie ; d’autre part, il exerce une fonction de filtrage et de mise en lumière, sans entraîner une concentration médiatique. On sait maintenant que le web est effectivement marqué, à tous les niveaux, par un certain ordre qui fait que certains sites sont plus visibles que d’autres, mais également que cet ordre n’empêche pas que les informations et les opinions puissent emprunter différents chemins, redondants les uns par rapport aux autres, qui vont d’un nombre énorme de sites à un nombre tout aussi énorme d’autres sites.
6Ce sont de tels débats qui semblent avoir poussé certains chercheurs à aborder une problématique de l’amélioration du « réseau des réseaux ». L’exemple le plus célèbre en est sans doute celui du physicien Tim Berners-Lee, qui, après avoir été le principal artisan de l’élaboration du web à la fin des années 80, cherche, depuis quelques années, à installer durablement la science du web (Web Science) dans le paysage académique. Cette entreprise intellectuelle incorpore les résultats fournis par la science des réseaux, mais propose aussi des pistes de réflexion assez différentes. En particulier, elle accepte et défend la thèse suivant laquelle le web est capable de favoriser un fonctionnement démocratique de l’espace public. Fondamentalement, les chercheurs rattachés à la science du web considèrent que le web est démocratique dans la mesure où il n’existe pas de centralisation ou de coordination centrale concernant l’établissement de liens, mais ils sont sensibles aussi aux défauts éventuels de l’absence de contrôle (Berners-Lee et al., 2006). Ils attirent donc l’attention sur le fait qu’il est impossible d’être sûr que des décisions ayant un sens pour un individu ne pourront pas aller à l’encontre des intérêts de l’ensemble des autres usagers. Une réflexion sur la confiance apparaît alors à deux niveaux : confiance à l’égard du système dans son entier, qui doit forcer les acteurs à être honnêtes ; confiance à l’égard des individus, qui sont censés avoir un comportement correct. Du coup, les préoccupations socio-politiques sont présentées comme faisant nécessairement partie de la recherche au sein de la science du web. Le web peut apparaître comme démocratique dans la mesure où il n’y a pas de coordination centrale de la structure hypertextuelle ; encore faut-il que cette création se fasse correctement (Berners-Lee et al. 2006). De nombreux travaux portant sur le web tendent à présenter celui-ci comme soumis à une constante évolution qu’il serait vain d’entreprendre de contrôler. Certes, les créateurs du web ont voulu un fonctionnement décentralisé et, effectivement, ceux qui participent à son élaboration depuis sa création n’exercent aucun contrôle sur sa structure globale. Cela ne signifie pas que le web constitue une « soupe » de pages liées entre elles. Les méthodes qui ont été utilisées pour étudier la répartition des liens ont été tout à fait efficaces et ont permis une bonne compréhension de cette structure générale, qu’il s’agisse d’un niveau macroscopique ou d’un niveau microscopique. Il reste cependant un énorme travail à réaliser : par exemple, il s’agirait de préciser les modalités de l’évolution du web, étant donné que ses propriétés peuvent se modifier en fonction de son expansion ; de même, il serait nécessaire de repérer les caractéristiques des intranets, plus ou moins différentes de celles du web dans son ensemble. Cependant, dans l’optique de la science du web, c’est d’abord la nature fractale du web (c’est-à-dire le fait qu’il s’agit d’un réseau scale-free) qui donne une indication sur la manière dont il assure le compromis entre la stabilité et la diversité. Un nombre à peu près constant de connexions aux différents niveaux aurait apparemment pour conséquence une communication plus efficace (Berners-Lee, 1998/2010) : il semblerait donc qu’on ait là un bon équilibre entre stabilité et diversité, même s’il n’existe pas de théorie mathématique permettant de valider cette idée.
7Il n’en reste pas moins que, dans la perspective d’une meilleure connaissance de l’évolution du web, la question de la prégnance plus ou moins grande de la topologie du web est nécessairement relancée : la science du web est désormais présentée comme devant amener à comprendre que, si les comportements sur le web sont déterminés par la topologie de celui-ci, cette topologie est elle-même affectée par les comportements sur le web (McCabe et al., 2011). Il s’agit d’une co-évolution dont on peut rendre compte en utilisant certains outils de la science des réseaux, plus spécialement ceux qui relèvent de la théorie des réseaux adaptatifs, dont l’intérêt est manifeste pour la science du web. Dans certains cas, les règles topologiques déterminent l’évolution topologique : il en est ainsi du fait que, sur les réseaux numériques, les amis de quelqu’un deviennent eux-mêmes amis et que le degré d’un nœud est suffisant, par application de l’attachement préférentiel, pour évaluer la probabilité de l’apparition des nouveaux liens. Inversement, l’idée que les gens puissent avoir tendance à établir des liens avec ceux qui coopèrent et les rompre avec ceux qui ne coopèrent pas apparaît comme une règle qui porte sur la manière dont un comportement détermine la topologie. On a bien un réseau adaptatif, puisque l’évolution topologique du web dépend de comportements, qui sont à leur tour dépendants de la topologie créée, et ainsi de suite. De même, il est nécessaire de souligner que la phase d’ascension vers la popularité pour une page web constitue une étape relativement fragile. Si l’on comprend bien que la popularité acquise à un certain moment donne la possibilité d’obtenir une popularité encore plus grande ensuite, il demeure que l’acquisition initiale d’une position favorable est marquée par la précarité et susceptible de rencontrer de multiples facteurs de risque. Une façon de le souligner est d’imaginer que l’histoire puisse être « rejouée » (Easley, Kleinberg, 2010). Si elle l’était plusieurs fois, il est probable que, à chaque fois, on rencontrerait une distribution de la popularité obéissant à une loi de puissance, mais il n’est pas du tout évident que cette popularité s’attacherait aux mêmes objets.
8Des questions de ce type permettent de mieux saisir les enjeux de la relation entre la science des réseaux et la science du web. On peut, en effet, penser, dans un sens, que la science du web est un sous-ensemble de la science des réseaux et, dans un autre, que la science des réseaux est un sous-ensemble de la science du web (Wright, 2011). Les partisans du premier point de vue estiment que le web n’est qu’un réseau parmi d’autres, avec lesquels il partage un ensemble de propriétés. Pour ceux qui adoptent le second point de vue, le web est fondamentalement différent des autres réseaux parce qu’il implique des préoccupations proprement humaines qui ne se retrouvent pas dans les autres réseaux. Cela se traduit dans les objectifs : ceux des premiers relèvent plutôt du souci d’analyser un certain fonctionnement ; ceux des seconds relèvent plutôt du souci d’améliorer ce fonctionnement. Cette dualité des objectifs explique en grande partie que l’intégration, évidemment nécessaire, à la science du web des résultats les plus marquants de la science des réseaux ait, comme on l’a vu, nécessité la réaffirmation du caractère démocratique du web. En face des multiples analyses qui ont mis en lumière le caractère profondément inégalitaire de sa structure réticulaire, il a ainsi fallu rappeler, en reprenant notamment les propos de Berman et Weitzner (1997), que le web possédait un potentiel de participation démocratique lié à l’absence de centralisation et à la diversité des opinions véhiculées. Plus récemment, ce sont les revendications de la science sociale informatisée, elles-mêmes dérivées, au moins en partie, de celles formulées par la science des réseaux, qui peuvent paraître difficiles à intégrer. Quand, par exemple, Anderson (2008) considère que, désormais, dans l’étude des comportements humains, « les quantités massives de données et les mathématiques appliquées remplacent tous les autres outils qui pourraient être utilisés » et que « les chiffres parlent d’eux-mêmes », on peut douter que la science du web puisse adopter sans nuance cette position. Elle a, en effet, souligné fréquemment la valeur qu’elle accordait à un travail véritablement pluridisciplinaire qui ferait place aux différentes sciences sociales. Mais, en même temps, il s’agit bien, dans la perspective de l’élaboration d’un web de données, de tabler sur les progrès que celui-ci pourrait apporter.
9La présentation la plus étendue du projet (Berners-Lee et al., 2006) soulignait clairement que le web devait être un espace dédié à la circulation de l’information et que cette circulation était une bonne chose puisqu’elle était au fondement de la démocratie. Les auteurs de cette présentation se référaient alors explicitement à une vision libérale et individualiste du monde (en citant Locke, Mill et Rawls). Mais, à partir d’une volonté d’amélioration de la communication, les derniers développements de la science du web reflètent peut-être également une tendance à l’imposition d’un consensus. En effet, dans les projets de web sémantique et de web de données (même si certains textes semblent montrer que le second est moins ambitieux que le premier, d’autres attestent de leurs niveaux d’exigence comparables), le développement d’une impressionnante abstraction documentaire est parfaitement visible. Ainsi, les données, comme le souligne Salaün (2012), « ne sont plus simplement des éléments factuels permettant de conforter ou d’infirmer la rhétorique des textes, mais bien les unités textuelles de base ». C’est alors la référence à une sorte de neutralité, apparente mais contestable, qui se met en place largement, qu’il s’agisse d’ignorer les conditions de recueil et de traitement des données ou de se fier à l’impartialité des algorithmes. Sur fond d’un oubli des processus d’interprétation, le rapport que la science du web établit avec le monde peut, dans certaines circonstances, se traduire par un biais politique aux effets mal mesurés. Il est vrai que des critiques à l’égard des gouvernements et des entreprises qui cherchent à contrôler et à limiter les utilisations de l’internet et du web sont fréquemment formulées. Berners-Lee et Halpin (2012) en arrivent même à considérer que, ces utilisations faisant désormais partie des caractéristiques de la pensée humaine et de la vie sociale, il faut absolument assurer leur protection. Mais cette vigilance n’a pas d’équivalent en ce qui concerne les conflits qui peuvent marquer la production de sens : les données sont vues comme autorisant des points de vue divers, mais non comme pouvant dépendre elles-mêmes des points de vue adoptés. La difficulté n’est pourtant pas négligeable, étant donné que la mise en œuvre d’un web sémantique ou de données passe par un travail qui ne peut certainement pas échapper, comme c’était le cas pour le web de documents des origines, à toute centralisation.