1L’approche critique des TIC passe, le plus souvent, par une interrogation sur les transformations des modalités pratiques et des effets théoriques (notamment sur la notion d’espace public) de l’exercice même du régime démocratique dans nos sociétés du grand nombre (Desrosières 1993). Il s’agit alors de savoir si l’avènement d’internet, en particulier, offre de nouvelles opportunités à l’expression démocratique à moins qu’il ne modifie l’architecture et les modes de fonctionnement même de l’espace public. Ce type de questionnement est tout à fait légitime et pertinent. Ce n’est pas, cependant, celui que nous avons privilégié depuis une bonne quinzaine d’années maintenant. Nous avons préféré, en effet, problématiser des logiques peut être moins visibles, mais qui n’en structurent pas moins le développement de nos sociétés démocratiques du grand nombre. Nous en avons identifié trois : la logique qui structure nos représentations sociales, que j’appelle l’impensé informatique et des TIC, la logique qui structure le mode d’existence du politique lui-même, que je renvoie à la notion de glissement de la prérogative politique (GPP), et celle, enfin, qui structure le mode de fonctionnement de nos organisations, publiques comme privées, et que je nomme la « gestionnarisation » et qui, désormais, déborde sur toutes nos activités. Ces trois logiques ne sont pas indépendantes, elles évoluent en interaction : car l’impensé autorise socialement le déploiement de la logique du GPP, qui, à son tour facilite l’irrigation de notre société par celle de la gestionnarisation, qui en vient également, nous le verrons, à nourrir l’impensé. Ce sont ces trois logiques, qui ont déjà fait l’objet de plusieurs livres et articles, que je vais présenter maintenant de manière synthétique.
2J’ai analysé de nombreux corpus de presse dans et depuis ma thèse (Robert 2012). Or, on peut lire des centaines d’articles sur les TIC sans en savoir beaucoup plus après qu’avant. On s’enfonce seulement un peu plus dans le maelstrom des événements technico-économiques, sans mieux comprendre réellement ce qui se passe. Ce qui signifie que ce discours permet moins de construire de véritables cadres d’intelligibilité (ou est moins le reflet de cadres préexistants) qu’il ne parvient à soustraire l’informatique à un questionnement véritablement critique. Ce qui veut dire que l’informatique se retrouve dans la posture d’une sorte d’auto-justification (elle est là, présente et doit être acceptée sous peine d’archaïsme) qui ouvre la voie à une logique de l’évidence.
3Ce travail est ainsi aussi une contribution à une sociologie de l’évidence — comment la société parvient à imposer des « objets », qui pourtant, sont des construits sociaux, comme des évidences. Est évident ce qui est mis en position de ne pas être interrogé, et/ou ce dont le questionnement n’est pas/plus légitime, ce qui est donc retiré des épreuves de justification (Boltanski et Thévenot 1991).
- 1 Idéal de « bonne gestion » critiqué par les travaux désormais classiques de V. de Gaulejac (Gauleja (...)
4Par impensé, j’entends ainsi le travail de stratégies discursives qui évitent de soumettre l’informatique aux épreuves de justification politiques. Elle n’est pas questionnée et devient de plus en plus difficile à questionner. Si l’informatique est « déjà là » par exemple, seulement munie d’une histoire ou d’un futur dans les deux cas « inévitables », alors tout est dit et il n’y a donc plus rien à dire. Si la sécurité technique permet de protéger la vie privée, alors la technique est une solution, pas un problème. Si une « bonne » société, c’est une société « bien gérée » alors l’outil technique de cette gestion ne peut être questionné, sauf à récuser l’idéal de bonne gestion qui devient ainsi une véritable instance de vérité1. On ne problématise pas, on ne renvoie pas non plus l’écho d’une problématisation qui aurait lieu ailleurs, on participe à la construction d’évidences. D’évidences et non pas d’un savoir.
5Autrement dit, l’impensé participe à poser une dichotomie singulièrement dommageable pour notre démocratie, entre une informatique technique qui se fait à l’abri de tout questionnement, et une logorrhée médiatique intellectuellement stérile. Internet ne change pas grand-chose à l’affaire, puisqu’on y retrouve les deux grandes options, à ceci près que les tenants du libre, de la communication horizontale ou de la démocratie directe croient fermement que le problème ce n’est pas l’informatique (la technique est neutre), mais seulement la manière d’en faire…ce que l’on ne cesse de répéter depuis les années 70 (avec la CFDT ou le B. Lussato de la dialectique des « petits et des grands chaudrons »)…alors que la micro-informatique communicante n’a jamais été aussi présente dans tous les instants de notre vie, intensifiant d’autant le potentiel de gestion non seulement des activités professionnelles, mais également transactionnelles et désormais domestiques et relationnelles. Cependant cette répétition n’est pas le signe d’une mémoire, mais bien plutôt celui de l’incapacité à faire mémoire, d’où ce bégaiement à chaque émergence d’une nouvelle technologie.
6Je vais détailler deux exemples. Le premier, ponctuel, date du début des années 2000, il concerne ce Bogue dont on nous a rebattu les oreilles à l’époque…et que l’on a bien oublié depuis. L’autre, renvoie à un mode de présentation de l’informatique et des TIC beaucoup plus trivial et structurel, celui des revues de micro-informatique. Les deux, nous allons le voir, participent néanmoins pleinement de l’impensé.
7Le bogue de l'an 2000 (Robert 2000), à la puissante résonance médiatique fin des années 90, aurait pu donner lieu au développement d’une attitude critique face à ce que j’appelle l'impensé dans la mesure où il aurait fonctionné comme un révélateur de la vulnérabilité de notre société à l’égard de la technologie ; une vulnérabilité qui aurait pu interpeller cette technologie et pas seulement la société : mais cela a-t-il été réellement le cas ? L'analyse précise des suppléments du journal Le Monde de l’époque montre qu’il n’en est rien :
8Un effet de dramatisation a transformé ce qui aurait pu être une réelle question (celle de la vulnérabilité) en un révélateur du risque que l'on encourt à ne pas y répondre suffisamment rapidement et avec suffisamment de moyens financiers et techniques efficaces ;
9Cette même dramatisation a plus stigmatisé les services publics qui auraient à souffrir des dysfonctionnements ou à leur faire face, que la technique en tant que telle ;
-
- 2 Nous avons déjà rencontré cet « homme » lors des années 70, Cf. Robert (2012), chapitre 3.
Le « facteur humain », isolé donc de la technique, facteur référé à l'irrationnel et au millénarisme, a fait l’objet d’un dossier spécifique ; un « homme » que l'on montre à la fois inconséquent et néanmoins chargé de la responsabilité de ce qui peut advenir de fâcheux2 ;
-
Contre la vulnérabilité, aujourd'hui comme hier, la réponse supposée pertinente a consisté à blinder des systèmes ; autrement dit, elle réside dans la technique elle-même -l'homme n'étant intéressant et utile que sous la figure de l'expert ;
-
- 3 Cf. Robert (2012), chapitre 9.
À la marge de la technique, la seule réponse pertinente a été la communication -où nous retrouvons une idéologie de la communication balbutiante dès les années 703 ;
-
La responsabilité revient à l'homme, aux politiques, à l'étranger (les pays mal préparés, tels que les PVD ou l’ex-URSS), mais jamais à la technique.
10Bref, ce discours fonctionnait sur un mode quelque peu paradoxal, puisqu’il prétendait que l’heure n’était plus au discours mais à la technique, c’est-à-dire à l’action. La technique n’était pas un problème, mais une solution, et la plus efficace (avec la communication). Autrement dit, la seule bonne réponse consistait en toujours plus de technique (et de communication). Le problème était, quant à lui, lié aux facteurs non-techniques (humains, politique etc.). La technique était ainsi a priori dédouanée de toute responsabilité, voire de toute relation causale. Elle ne pouvait susciter que la confiance et non le doute. Or, sans doute, pas de réflexion, mais de l’évidence, donc de l‘impensé.
11Les revues de micro-informatique jouent-elles un jeu qui, d’une manière ou d’une autre, permettrait de subvertir la logique de l’impensé ? (Robert 2011(a)) Ce sont, après tout, des lieux importants de socialisation à l’informatique, mais, cependant, bien peu souvent interrogés. Elles ne sont pas, a priori, un support critique, mais cela ne nous dit pas pour autant comment elles fonctionnent. Elles méritaient donc d’être regardées de près. Cette focalisation nous a permis de mettre en évidence les deux logiques qui structurent ce mode de fonctionnement : la logique de l’Exposition et celle du test de performance.
12La technique peut être véritablement mise en scène dans une logique de « salon » (type salon de l’auto), logique de l’Exposition ; l’informatique est alors donnée à voir, rutilante et brillante. Cette technique — entre évidence et désir — semble ne pas pouvoir trahir, ce qui est une manière de produire de la confiance…mais on va néanmoins la tester, à travers une pratique d’évaluation (de la puissance, de la vitesse etc.) pour être sûr qu’elle ne trahira vraiment pas ou savoir que le degré de probabilité qu’elle le fasse reste faible (renforcement de la confiance). Ici on exhibe, on évalue mais on ne questionne pas ; on exhibe et on évalue peut-être pour ne pas questionner.
13La logique du test épure la technique de tout ce qui n’est pas technicien et la soustrait par là même à toute autre justification : le test travaille sur de la technique pure et vise à l’épurer — dans un laboratoire (pureté) qui trie entre la bonne et la mauvaise technique. L’Exposition exhibe, mais autrement, une technique elle-même épurée du social et de l’humain (et qui n’a toujours pas à se justifier face à eux, puisqu’ils sont absents), une technique quasiment exclusivement technicienne, une image technique de la technique. La technique devient, dans les termes de la sémiotique narrative et discursive, un adjuvant pur (c’est-à-dire épuré) et un pur adjuvant qui, par définition, ne peut occuper la position de héros, mais produit de l’évidence et de la confiance.
14L’impensé se concrétise enfin dans l’évacuation de la question des enjeux politiques comme tels : ils sont ramenés à des questions purement techniques (la solution technique est supposée intrinsèquement politique comme lorsque l’horizontalité du P2P tend à l’assimiler à la logique démocratique), à moins qu’ils ne renvoient qu’à des questions purement pratiques (le droit, comme loi, cadre avec lequel il faut faire — d’où un jeu de questions-réponses pratiques — et qui doit se comporter comme une technique auxiliaire de la technique). La revue, comme intercesseur, produit par là même une culture technique de la technique qui ne participe en rien à problématiser les enjeux politiques (et donc économiques, gestionnaires et sociétaux) de la technique. Elle un outil des plus efficaces de déploiement de la logique de l’Impensé.
15Les représentations sociales de l’informatique et des TIC ne produisent en rien un imaginaire, comme on aimerait bien souvent le croire aujourd’hui, mais un macro-techno-discours (MTD) qui, à travers des stratégies discursives spécifiques, porte l’opération de soustraction des TIC aux épreuves de justification politiques et produit un impensé informatique. La notion d’imaginaire ne permet ni de véritablement problématiser, puisqu’elle s’offre comme un cadre a priori, ni d’adopter une posture critique, car quel nom évoquer pour la soutenir : tout un chacun, après tout, n’a-t-il pas le droit d’avoir son imaginaire ? À l’inverse la notion d’impensé permet de pleinement conserver la perspective critique. Puisqu’il semblerait que nous ne disposions pas de solides cadres d’intelligibilité des TIC, n’est-ce pas, dès lors, le « devoir » du chercheur que d’essayer d’en construire ? C’est ce que j’ai essayé de faire à travers deux autres ouvrages, La logique politique des TIC et Mnémotechnologies, une théorie générale critique des technologies intellectuelles.
- 4 Sur l’évolution de l’État cf. Suleiman (2003) ; sur les politiques publiques cf. Lascoume et Le Gal (...)
16Nous faisons l’hypothèse que les TIC sont porteuses d’une logique politique qui leur est propre, ou plutôt qu’elles s’offrent comme le vecteur logistique d’une logique politique qui, sans leur être totalement exclusive, ne pourrait pas se développer sans leur recours. En effet les TIC favorisent ce que j’appelle le glissement de la prérogative politique (GPP) (Robert 2005). Par GPP j’entends la possibilité, pour un acteur aux intérêts privés, de remplir de facto une fonction politique sans avoir à payer le coût d’accès au système politique démocratique (investissement électoral) et en contournant l’état4 (parfois avec sa complicité, voire en mettant l’état à son service). Les TIC ne sont bien évidemment pas le seul facteur d’un mouvement qui en mobilise également d’autres d’ordre juridico-économique, comme la déréglementation, ou idéologique, comme le libéralisme, mais elles constituent le véhicule technique privilégié de ce mouvement, ce qui est loin d’être négligeable dans une société fortement technicisée comme la nôtre. Nous allons revenir un peu plus en détail sur deux exemples, la dissuasion et la frontière.
17La notion de dissuasion fleure bon le deuxième xxe siècle. Un monde dont nous sortons à peine, mais que nous avons déjà en grande partie oublié, semble-t-il. La dissuasion était à la fois le symbole et l’outil essentiel de la tension bipolaire Est/Ouest. Elle n’était accessible qu’à des États aux ressources technico-scientifiques et financières les plus considérables. On en craignait la prolifération, qui ne fut contenue que par des couts d’entrée pour le moins élevés et confinée à certains états qui faisaient alors preuve d’une implacable volonté politique, pour des raisons idéologiques et stratégiques (Israël, Corée du Nord etc.).
18La dissuasion ne s’arrête pourtant pas à sa seule forme nucléaire. Il en existe au moins deux autres modalités, celle du « fleet in being » et celle de la « discipline ». Dès la fin du xviiie siècle et a fortiori au xixe siècle, la Grande-Bretagne étend son empire sur toute la surface du globe. Comment tenir, en termes de maîtrise politique, un tel espace ? Il faut un vecteur efficace qui assure une présence potentielle de sa puissance. C’est pourquoi elle invente le principe du « fleet in being » (Virilio 1977). Comme la flotte britannique ne peut pas, de fait et malgré sa puissance, être présente partout, elle laisse croire qu’elle peut néanmoins toujours surgir, faire irruption, même et surtout là où on l’attend le moins. Bref, elle réintroduit de l’incertitude dans l’exercice de son pouvoir : car, si l’on ne peut être certain qu’elle soit là (ce qui laisse, a priori, une marge de manœuvre), on ne peut pas plus être certain qu’elle ne sera pas là (ce qui retient l’action et donc dissuade de faire). Autrement dit, le pouvoir s’exerce moins dans son actualisation (par sa présence) que dans une suspension (de fait, une absence) qui laisse croire qu’elle n’a pas lieu ou qu’elle peut être comblée très rapidement à tout moment. Ce qui abaisse considérablement le coût de déploiement de ce pouvoir. Il en va ainsi d’une sorte d’automatisation (non machinique, quoiqu’équipée techniquement) du pouvoir qu’avait bien mise en évidence le Michel Foucault de Surveiller et Punir (Foucault 1975). Car, ce qu’il appelle la « discipline », dont la logique s’exprime de manière privilégiée dans la procédure de l’examen et le dispositif du panoptique, ne renvoie à rien d’autre qu’à la logique de la dissuasion. Car, ici, le pouvoir s’exerce certes, mais moins dans sa pression directe, que par l’intermédiaire de ces procédures et dispositif qui en porte l’efficacité au-delà de lui-même. Autrement dit, le pouvoir n’a plus besoin d’être présent pour s’imposer, il délègue à des écritures et à une technique de prise de vue discontinue, sa mise en œuvre décontextualisée.
19La capacité à mobiliser la logique de la dissuasion relevait jusque-là de l’État (au sens large, incluant les collectivités territoriales), de l’échelle macro — satellitaire — à l’échelle micro de la vidéo-surveillance. Or, les choses changent. Car le principe de la dissuasion peut désormais être porté par les TIC, Zuboff (Zuboff 1988) et Lyon (Lyon 1994) l'ont montré avant nous. Que les TIC deviennent l’un des vecteurs et peut-être aujourd’hui le vecteur privilégié de la dissuasion n’a, au fond, rien d’étonnant : car la dissuasion exige depuis toujours de l’information. Le fleet in being repose sur une forme de publicité autour de la flotte britannique, comme puissance potentielle qui peut frapper partout sans que l’on sache jamais où elle se trouve véritablement ; la discipline n’existe pas sans une logique documentaire lourde bien soulignée par M. Foucault ; la dissuasion nucléaire s’exhibait dans ses vecteurs, mis en scène par les médias et/ou dans d’imposants défilés. Les TIC ne font que généraliser, radicaliser et automatiser (cette fois avec les machines) cette logique.
- 5 Surveillance qui s’annonce, se publicise pour fonctionner, alors que le contrôle vise à son propre (...)
20Mais les TIC possèdent une caractéristique singulière qui les différencie des formes traditionnelles de la dissuasion : leurs coûts et leur taille diminuent considérablement, au point de les rendre accessibles, certes, toujours à la puissance publique, mais également et de plus en plus, aux intérêts privés. Ce qui signifie qu’elles ne peuvent plus faire l’objet d’un monopole d’État comme formes de la violence légitime (à l’instar des dissuasions nucléaire ou disciplinaire). C’est pourquoi la logique de la dissuasion informationnelle se diffuse largement. Ainsi, de nombreuses technologies de travail collaboratif développées dans les entreprises et plus globalement dans les organisations relèvent-elles de la logique de la dissuasion informationnelle, dans deux sens d’ailleurs opposés : car d’un côté les collaborateurs sont souvent dissuadés de jouer un jeu qui se traduit par un surcroît de transparence, comme ils sont dissuadés, de l’autre, de ne pas jouer -ce qui se voit- sous peine de sanction ; double contrainte qui ne peut que se traduire par des tensions psychosociologiques lourdes. Je ne dis, bien évidemment, pas que l’État, comme organisation et comme régisseur de l’espace public serait en reste. Je souligne qu’il est inévitablement débordé et qu’il en va (à l’échelle macro — satellites, cartographie du monde — ou micro vidéo-surveillance) d’une véritable prolifération de la dissuasion informationnelle et plus particulièrement l'ouverture de la possibilité d'un exercice par des acteurs privés d'une fonction politique, celle de la surveillance5, dans une logique qui relèverait plus de l'état de fait que de l'État de droit. C'est exactement cela que je nomme le glissement de la prérogative politique.
- 6 Pour une réflexion récente sur la question de la frontière en générale, Cf. Debray (2010).
21La frontière, le fait de faire frontière, ce que j’appelle la fonction-frontière, est historiquement le fait de l’État, ou à tout le moins d’une autorité publique, de l’octroi à la frontière nationale6. On a souvent dit — ce qui participe de l’Impensé — que les TIC favorisaient la fin des frontières, qu’elles étaient, en quelque sorte, intrinsèquement des outils d’effacement de la frontière. Or, à y regarder de plus près, loin de toute posture qui suppose posséder la réponse avant d’avoir posé (c’est-à-dire élaboré) la question, on s’aperçoit que le traitement de l’information a toujours fait partir intégrante de la fonction frontière, des cartes géographiques aux cartes d’identité (livrets variés, passeports etc..)…jusqu’aux TIC d’aujourd’hui. Car de nos jours, la fonction frontière est techniquement très équipée (vidéo-surveillance, télécommunications satellitaires, fichiers multiples etc.) au service de l’état…ce qui ne nourrit certes pas le mouvement du GPP, mais relativise fortement la proposition idéologique de la fin des frontières.
- 7 Sur la privatisation des espaces publics, on peut consulter Rifkin (2005) chapitre 7.
22C’est sur la base de cette réévaluation que l’on peut néanmoins comprendre le mouvement du GPP. Car, en effet, cet équipement peut désormais être mobilisé par des intérêts privés pour « faire frontière » et l’on voit ainsi se multiplier au sein des espaces nationaux des espaces privés fermés, sous vidéo-surveillance notamment, qui font frontière au sein même de l’espace public7, le cloisonnant et le définissant en quelque sorte en creux (il n’est plus que ce qui reste de non privatisé). Autrement dit, comme il y avait un monopole de la violence légitime par l’État, il y avait un monopole de la fonction-frontière par l’État…ce qui n’est plus le cas aujourd’hui. Ainsi, des entreprises ont également recours à ces technologies pour produire des effets frontières en quelque sorte horizontaux. Elles effacent les frontières nationales mais ce n’est que pour mieux reconstruire des frontières entre la multinationale et le reste du monde, en créant un espace interne de flux qui tend à s’autonomiser des règles de droit nationales ou à tout le moins à ruser avec elles.
23La crise de 2008 nous a montré avec vigueur que le monde de la finance actuel repose largement sur une logique auto-référentielle qu’il doit, pour l’essentiel, à la logistique informationnelle (Robert 2005) des réseaux financiers informatisés qui en forme l’ossature, la mémoire et l’interface. Ces réseaux, qui ne sont pas accessibles à monsieur tout le monde, forment ainsi un univers relativement clos qui, de facto, « fait frontière » par rapport, non seulement au politique, mais à la société en général et même à l’état réel des entreprises. Pouvoir financier désormais dominant qui marque son espace propre et donc, encore une fois, sa frontière grâce aux TIC : nous sommes pleinement dans la logique du GPP.
24Enfin, on a souvent loué l’espace d’internet comme un espace de pur flux qui, tout naturellement, faisait sauter les frontières, sans forcément se rendre compte que cet espace peut tout aussi bien permettre de reconstituer des « effets frontière », des effets de fermeture sur un centre d’intérêt, un type de jeu ou un jeu, ou un espace de transaction payant, une « communauté », etc. Facebook, on en fait partie ou pas : n’est-ce pas un effet frontière majeur pour un dispositif technique qui se veut un réseau « social » ?
- 8 Car des pays totalitaires comme la Chine pratiquent volontiers un filtrage d’internet.
25Bref, ce que l’on voit perdre du terrain, sur un mode relatif8, c’est la fonction frontière incarnée par l’État-nation, alors même que l’on voit croître sa concrétisation dans de micro effets frontière au bénéfice d’intérêts privés. L’Impensé informatique et des TIC favorise, bien évidemment, le développement et l’imposition de la logique du GPP, puisqu’elle n’est ni reconnue, ni questionnée ou seulement de manière extrêmement marginale. Cette idéo-logique de l’impensé s’offre comme une sorte de parapluie global sous lequel la logique pratique et locale de la gestionnarisation peut alors se développer sans encombre.
26Comme le disait Perec, « que me demande-t-on au juste ? Si je pense avant de classer ? Si je classe avant de penser ? Comment je classe ce que je veux penser ? Comment je pense quand je veux classer ? » (Perec 1985, p154).
- 9 Cette réflexion en termes de gestionnarisation converge avec celle de Pezet (2010) sur la société m (...)
27Penser/classer : deux activités complémentaires (mais asymétriques, car si l’on ne peut penser sans classer on peut toujours classer sans — trop — penser) qui peuvent s’effectuer, certes, à l’aide de notre seul cerveau mais que l’on a aussi depuis longtemps équipées techniquement. Cet équipement relève de ce que l’on appelle les technologies intellectuelles (TI). J’en ai proposé une théorie générale (Robert 2010) qui peut, me semble-t-il, nous offrir une perspective de long terme pour réfléchir à un mouvement qui sous-tend l’évolution récente de notre société et qui risque de peser gravement sur notre démocratie, à savoir ce que je nomme le processus de « gestionnarisation » (Robert 2004, 2009 et 2011(b))9.
28Nous allons d’abord revenir sur ce que j’entends par technologies intellectuelles ; puis nous nous intéresserons aux rapports qu’elles entretiennent à ces deux registres fondamentaux de la connaissance dans notre société, que sont la connaissance scientifique (théorique) et la connaissance gestionnaire (pratique) ; pour finir nous aborderons les enjeux politiques de leur informatisation, qui débouche sur le processus de « gestionnarisation ».
29Les TI sont des technologies, il est donc tentant de les réduire à leurs seules dimensions techniques. Dès lors, seul le discours technique devient légitime. Il peut être, à l’inverse, tout aussi tentant de rejeter ce déterminisme technique pour lui substituer un déterminisme sociologique. Nous avons adopté une démarche que nous qualifions de modélisation conceptuelle, qui vise à échapper à ces deux excommunications. Il s’agit, dès lors, de pouvoir dire la technique dans des catégories qui ne sont pas les siennes (ce que Yves Jeanneret et Emmanuel Souchier (2002) font par exemple avec la notion d’architexte ou ce que je propose avec celle de Motif — moteur d’inférence et de gestion de formes (Robert 2000-2001 et 2010). Mais ces catégories ne campent pas en face de la technique, elles visent explicitement à en parler, mais dans un autre langage que le sien. Un langage qui n’est pas pour autant celui du sociologue (de l’usage) qui, lui, reste justement en face de la technique, du seul coté des hommes. Bref, il s’agit de proposer un jeu de catégories complémentaires qui permettent de dire la technique au plus près d’elle-même, sans être des catégories techniques, et de dire les enjeux de pouvoir qui travaillent toujours ces technologies, sans relever pour autant de la sociologie (de l’usage). Ce qui signifie d’ailleurs que ces catégories se révèlent compatibles aussi bien aux catégories techniques qu’à celles de la sociologie (de l’usage). Elles n’en récusent pas la validité elles cherchent seulement à construire un autre espace, non encore investi, où peut s’exprimer l’originalité d’une certaine manière de faire des sciences de l’information et de la communication.
30L’élaboration de la notion de technologies intellectuelles est liée au développement d’une branche de la sociologie des techniques qui, à la suite des travaux de B. Latour notamment, a décidé de regarder autrement la production du savoir scientifique. Les épistémologues voyaient de la science, alors que Latour veut voir des pratiques et des instruments (Latour 1985 et 1989). Il rejoint les travaux du père fondateur de la réflexion sur ces questions, l’anthropologue britannique J. Goody qui, dès les années 70 (Goody 1979), s’était intéressé au poids des outils de communication — écrits à l’instar de la liste — dans la production et la transmission du savoir et de la connaissance.
31Par technologies intellectuelles j’entends donc les outils qui permettent la réflexion (Dagognet 1999), les outils qui permettent de construire un savoir scientifique notamment mais également gestionnaire —car les deux ne sont historiquement jamais loin, en tout cas bien moins éloignés qu’on ne le croit.
32Ces technologies intellectuelles se déclinent autour de trois grandes raisons :
-
la raison graphique — qui transcrit les événements du monde sur des surfaces (2D) —,
-
la raison classificatrice qui travaille sur des volumes (3D),
-
la raison simulatrice qui opère avec des machines (4D, car elles jouent sur et avec le mouvement).
33Chaque raison correspond à un jeu autour d’une dimension privilégiée à travers les principes du Traitement (T) (de D à D + 1), de la Navigation (N) (de D à D) et de la Modélisation (M) (de D + 1 à D) :
34RG = 2D (1D à 2D = T (diagrammes) ; 2D à 2D = N (cartes) ; 3D à 2D = M (dessins techniques),
35RC = 3D (2D à 3D = T (livres imprimés) ; 3D à 3D = N (classeurs) ; 4D à 3D = M (encyclopédie)),
36RS = 4D (3D à 4D = T (mécanographie) ; 4D à 4D = N (Vidéos) ; ND à 4D = M (informatique)),
37Le travail sur les dimensions (de 1 à 2 ou 3 à 4 par exemple), je l’appelle la « conversion des dimensions ». Toute technologie intellectuelle repose sur un document qui va transcrire ce travail de conversion des dimensions, qu’il soit mis en scène par un support d’argile (tablette), un parchemin, du papier ou un support informatique. Le support n’est en rien neutre en l’affaire. Enfin, toute technologie intellectuelle transforme l’événement en document par un enregistrement qui constitue une mémoire structurée — ce que j’appelle sa régulation, effectuée par tout un ensemble d’outils dans l’outil (ex : le livre et son découpage en chapitres, ses notes de bas de pages etc..). Au final nous pouvons remarquer que je n’ai pas retenu l’écriture comme technologies intellectuelles : car l’écriture et l’image sont des conditions sine qua non de l’avènement de toute technologie intellectuelle — elles sont des méta-technologies intellectuelles.
38On l’aura compris les technologies intellectuelles constituent un véritable équipement de la mémoire scientifique, gestionnaire et politique (d’où le titre du livre, Mnémotechnologies). Grâce au document elles autorisent un travail de décontextualisation qui permet de transporter dans l’espace et de transmettre dans le temps une information structurée/structurante. Toute technologie intellectuelle doit, bien évidemment, être servie par un personnel compétent, à la formation lente et difficile. Logique de l’expert (à l’instar du scribe) qui lui offre un rare pouvoir. Autrement dit, ces technologies intellectuelles ont partie liée au pouvoir et singulièrement au pouvoir politique qui, pendant longtemps, a été le seul à porter le développement de la science et de la gestion.
39On a tendance à opposer ce qui relève de la science et ce qui relève de la gestion. Or, à bien y regarder, les instruments de l’une comme de l’autre se ressemblent étrangement. Autrement dit, ils possèdent une base commune, celle des technologies intellectuelles. Pour renverser les choses, les technologies intellectuelles sont à la fondation aussi bien de notre science que de notre gestion moderne et même antique.
40Ainsi, J. Goody (Goody 1979 et 1986) montre que dans l’antiquité mésopotamienne déjà, la liste est un outil scientifique (notamment en matière médicale) ; c’est aussi un outil gestionnaire (en matière économique et singulièrement de comptabilité). Les deux types de listes sont développées dans le cadre d’une économie matérielle et de la connaissance qui dépend à la fois du temple et de l’état — les deux fortement liés-, c’est-à-dire de conditions de possibilité politiques.
41De même, à la suite de F. Dagognet (Dagognet 1979), on peut montrer que le tableau constitue également à la fois un outil scientifique (avec par exemple le célèbre tableau de classification des éléments de Mendeleïev) et gestionnaire (avec cette statistique qui se développe d’abord aux xvii-xviiie comme une science de l’état et qui vise à dresser un inventaire des richesses d’un état et d’une nation, de l’inventer en en faisant le portrait descriptif par chiffres et textes). M. Foucault (1975) montre que la logique de la discipline s’incarne dans les procédures de l’examen, qui se déploient à l’hôpital à travers un savoir médical et un savoir gestionnaire — et les deux sont liés.
42Troisième exemple, peut être un peu moins évident, celui de la bibliothèque (Baratin 1996). Car la bibliothèque, on a un peu trop tendance à l’oublier aujourd’hui, a été (et reste) à la fois un formidable outil scientifique et l’un des plus coûteux et un lieu d’innovations gestionnaires — parce que la bibliothèque exige les outils de sa « régulation », on y invente toute une logique du classement et de la classification, dès le 17e avec G. Naudé, qui sera reprise et étendue par l’État et plus tard par les entreprises. Ainsi, un M. Dewey travaille à la fin du xixe siècle aussi bien à l’élaboration de la classification décimale pour les bibliothèques qu’à la mise au point d’un système de gestion par fiches (card index) destiné aux entreprises (Fayet-Scribe 2000 ; Gardey 2008).
43Nous ne confondons pas pour autant science et gestion, mais nous soulignons néanmoins leurs outils communs. Car il est vrai que gestion des ressources humaines et sociologie ou psychologie partagent des outils…qui permettent parfois des glissements.
44Il y a des technologies intellectuelles qui semblent pencher a priori presque exclusivement du côté de la Science… quoique. Quoique, parce que le livre est, en effet, plutôt un outil scientifique semble-t-il, mais lorsqu’il devient manuel il devient aussi un outil de gestion du savoir (et non de production de la connaissance)…sans oublier que la gestion comptable parle de livre de compte (objet relié structuré/structurant). La carte est également un outil qui est bien à la fois un outil scientifique — dans sa construction- et, ne l’oublions pas, un outil de gestion (aménagement d’un territoire) qui est tout en même temps un geste politique (tracer des frontières est toujours un geste politique). Même l’Encyclopédie, qui semble exclusivement verser du côté scientifique peut être vue comme un outil de gestion de la vulgarisation scientifique (par synthèse de savoirs fragmentés dans leur exposition)… Quant à l’informatique, nouveau support plus que technologies intellectuelles en soi — mais la notion de technologies intellectuelles permet d’y réfléchir —, ne soutient-elle pas aussi bien des activités scientifiques que gestionnaires et désormais de communication ?
45Cependant, ce changement de support va peut-être entraîner des bouleversements autrement plus considérables que nous allons aborder dans notre dernier point.
- 10 Sans parler de gestionnarisation, j’avais souligné dès 1995, un principe d’équivalence des TIC à la (...)
- 11 Des sociologues comme S. Craipeau et JL. Metzger ont repris en 2007 cette notion en faisant référen (...)
46Ce dernier mouvement soutient une thèse qui mérite, me semble-t-il, d’être discutée : l’informatisation des technologies intellectuelles tend à faire glisser l’équipement de la science et de la gestion vers la logique de la « gestionnarisation10 » (Robert 2004, 2009 et 2011)11.
47De quoi s’agit-il ? Nous entendons par « gestionnarisation » un mouvement de fond de notre société qui entraîne une reconfiguration gestionnaire d’un nombre de plus en plus considérable d’activités auxquelles s’appliquait déjà une logique gestionnaire, mais beaucoup moins systématique et beaucoup moins normative, et surtout une reconfiguration gestionnaire d’activités qui ne relevaient pas jusque-là de la logique gestionnaire : il ne s’agit plus seulement d’effectuer pratiquement et de manière concrètement efficace ces activités, mais de les insérer dans un ensemble de procédures et de diagrammes (des technologies intellectuelles, aujourd’hui informatisées) susceptible de produire une méta-information tant sur l’activité en question que sur ceux qui l’exercent. Cette méta-activité en vient à proférer une véritable injonction à la reconfiguration de ces activités à l’aune des procédures et outils de gestion qui les calibrent et qui en viennent à en dire, suppose-t-on, la vérité.
- 12 Sur le recours aux chiffres cf. Desrosières (2014) et Fauré et Gramaccia (2006).
48La gestionnarisation, c’est donc la reconfiguration, à l’aune des critères de gestion (ratio, procédures, normes, évaluation etc.), d’activités déjà gérées, mais c’est également la mise en forme gestionnaire d’une activité autrefois informelle. Comprenons qu’il ne s’agit plus, dès lors, d’accompagner sur le mode gestionnaire une activité, mais de la réagencer à l’aune des outils de gestion informatisés, ce qui signifie que ceux-ci deviennent premiers et que l’activité doit s’y plier. Ce qui compte aujourd’hui, c’est moins que telle ou telle activité soit exécutée selon les valeurs d’un « travail bien fait » mais qu’elle suive un ensemble de procédures « objectivées/objectivantes » susceptibles de produire une information de gestion qui va prendre la forme d’un traitement quantitatif/statistique12 informatisé qui concerne à la fois cette activité et les hommes qui l’assument.
49La méta-information gestionnaire se traduit bien évidemment par un emploi massif des Technologies intellectuelles informatisées :
-
pas d’information sans un cadre susceptible de lui donner forme (procédures, diagrammes etc.), qui sont toujours des technologies intellectuelles,
-
l’informatisation permet d’automatiser cette production d’informations, de la rendre pléthorique et de l’enregistrer massivement.
50Cette logique entraîne à nos yeux au moins trois risques :
-
la gestionnarisation de la science — notamment des Sciences sociales — risque d’asphyxier la créativité scientifique, qui, par définition, ne trouve pas sa place dans les cases déjà prévues ; d’où la survalorisation du « même » — ou comme le disait P. Watzlawick, du « toujours plus de la même chose », mais d’autant plus difficile à critiquer que la logique gestionnaire prétend incarner le réel (sur la gestionnarisation de la recherche cf. Goussard et Tiffon) ;
-
la gestionnarisation des activités relationnelles risque d’étouffer la spontanéité (voire la créativité) sociale (à l’instar des infirmières qui écrivent de plus en plus — la coordination rentre ainsi dans le cadre de la Qualité- mais ont de moins en moins le temps de parler au malade) (voir par exemple Joannidès et Jaumier 2013) ;
-
la gestionnarisation des organisations ne risque-t-elle pas d’enrayer leur fonctionnement en haussant considérablement le coût de la coordination et en démotivant (par manque de confiance) les troupes ? Elle tendrait ainsi à « engluer » la gestion elle-même dans des ratios, des normes et des procédures qui deviendraient, plus que des moyens, de véritables fins en soi (découplées de la réalité dont elles ne rendent plus compte mais qu’elles asservissent). Et cette gestion, qui se veut efficacité, en deviendrait alors paradoxalement moins efficace, voire inefficace. La gestionnarisation se retournerait alors contre la gestion elle-même (dans le domaine des organisations on peut lire, entre beaucoup d’autres : sur l’université Ogien (2009) et Chevalier (2008), sur la santé Bonneville (2007), sur les bibliothèques Peyrelong et Lépine).
51Au total la gestionnarisation — appuyée sur les TIC — correspond à ce moment où la gestion devient :
-
l’aune de définition comme réelle de toute activité, elle devient ainsi l’instance de vérité,
-
autrement dit, elle devient une véritable fin en soi qui pervertit à la fois la science et la gestion elle-même (comme accompagnement au service d’une activité),
-
elle pervertit enfin les technologies intellectuelles qui concourent, dès lors, moins à la production de la connaissance qu’au contrôle et à la dissuasion.
52Nouvelle logique politique des technologies intellectuelles informatisées, au service non plus d’un encadrement d’activités de connaissance scientifique ou gestionnaire mais d’un carcan a priori qui en vient à totalement reconfigurer ces activités à son aune… l’écart peut paraître faible il est fondamental, car c’est celui qui sépare la construction rationnelle d’un « réel » ouvert sur une pluralité d’options avec un délire rationalisant qui ferme sur la seule figure qui est censée véritablement incarner le réel (celle d’une gestion pour la gestion) et qui n’accepte plus aucune critique — ce qui est pour le moins dangereux en démocratie. Cette gestionnarisation crée les conditions pratiques de l’imposition du GPP, dès lors qu’elle est supposée être portée de manière privilégiée, comme « bonne pratique » gestionnaire, par le privé : si le public, à travers le NPM (new public management), veut être à la page, il doit l’adopter. Ce devoir-être, cette injonction à laquelle on doit obéir sans discuter, c’est exactement la mise en œuvre pratique et non plus seulement discursive et idéologique de l’impensé informatique et des TIC.
53La question politique que portent les TIC, est, dès lors, moins celle des formes de la démocratie ou des modalités de fonctionnement de l’espace public, que celle du jeu de ce tryptique gestionnarisation-GPP-impensé qui mine, à la fois en termes idéologiques et pratiques, les conditions mêmes de l’exercice de la démocratie. Car, dès lors que la gestionnarisation s’installe, la décision ne relève plus d’un choix politique et démocratique, mais de la seule logique supposée incontournable « des choses » telles qu’elles sont saisies par les technologies intellectuelles informatisées ; car dès lors que le GPP est dopé par la gestionnarisation, le privé devient le modèle de toute « bonne gestion », sans alternative possible ; car dès lors que la gestionnarisation et le GPP se déploient de concert, l’impensé se leste, au-delà de sa dimension discursive, du poids de pratiques qui s’imposent, à travers une évidence elle-même pratique, comme « bonnes » (quels que soit les résultats), ce qui, en retour, vient considérablement renforcer le barrage critique qu’il édifiait. Ce n’est pas que du « jeu » n’existe plus, mais que la liberté tactique (pour employer les catégories de De certeau (1990)) se réduit considérablement sous l’effet de la stratégie imposée par les trois logiques de l’impensé, du GPP et de la gestionnarisation.