Navigation – Plan du site

AccueilNuméros138VariaL’enfermement dans les pratiques ...

Varia

L’enfermement dans les pratiques de big data : une interprétation par la théorie sociale critique

Big data practices entrapment: a critical social theory interpretation
Frantz Rowe et Ojelanki Ngwenyama

Résumés

Les géants du capitalisme numérique exploitent des pratiques de big data reposant sur la datafication de nos comportements, sur l’accès permanent à ces données et sur leur traitement par apprentissage automatique. Nous nous enfermons dans ces pratiques et les plateformes associées sans en être pleinement conscients. Cet article propose une théorie de la dynamique causale de cet enfermement représentée à la fois par des boucles de renforcement et synthétisée par trois propositions. L’idéologie de la technique (Marcuse, 1968) conduit le développement d’une fausse conscience (Heidegger, 1954) qui conditionne l’enfermement numérique et conduit à des marchandages faustiens. Tant la fausse conscience, que cet enfermement et les marchandages faustiens sont l’objet de boucles causales de renforcement délétères et inter-reliées constituant une explication plausible de la diminution des libertés des utilisateurs du numérique.

Haut de page

Texte intégral

Nous remercions vivement Philippe Pinson pour sa relecture attentive

Introduction

1Pour le capitalisme de surveillance (Zuboff, 2020), l’accumulation des richesses repose sur l’accumulation des données, sur l’absence de notre libre consentement, sur les lacunes du droit et sur les technologies du Big Data Analytics. Certes, nous sommes plus ou moins conscients de certains aspects du phénomène d’enfermement lié à cette surveillance, mais la focalisation des recherches empiriques sur tel ou tel dark pattern ne permet pas de comprendre la globalité du phénomène et d’en expliquer la persistance. Nous soutenons ici que les pratiques séductrices du big data ont précipité le phénomène émergent d’enfermement numérique. Nous théorisons l’enfermement comme un conditionnement psychosociologique de notre rapport à la réalité qui conduit à appréhender celle-ci d’une certaine façon et diminue nos capacités cognitives et épistémiques à la comprendre et à la respecter. L’enfermement numérique, notamment dans les pratiques de big data, résulte de la construction sociale de la réalité produite par A) l’idéologie du numérique sous l’action constante de ses promoteurs ; B) par nos comportements et la fausse conscience que cette idéologie développe en nous du fait des pratiques de big data. Nous caractérisons ces dernières comme la combinaison de, premièrement, la datafication de l’individu, deuxièmement, de l’accès aux données en temps réel grâce aux technologies cloud et à Internet, et troisièmement, de l’apprentissage automatique.

2L’objectif de cet article est d’analyser philosophiquement le problème social constitué par cet enfermement afin d’informer la recherche sur ce phénomène et les solutions potentielles. Nous esquissons ici une théorie du problème, c’est-à-dire un argument précisant ses éléments conceptuels et ses relations, et le résumons par des propositions. En tant que théoriciens critiques, nous nous intéressons à la manière dont l’utilisation quotidienne et irréfléchie des technologies numériques limite nos choix rationnels et nous enferme dans un réseau de pratiques sociales exploitantes (Rosen, 2016). Dans la théorie sociale critique (TSC), il est courant d’utiliser le terme « nous » pour attirer l’attention sur les structures sociales individuelles et partagées (idéologie, normes considérées comme allant de soi, etc.) qui conditionnent les actions sociales (Habermas, 1973 ; Rosen, 2016). Le « nous » employé dans cet article désigne l’individu et la société ordinaires.

3Les technologies du big data sont présentées comme la panacée pour résoudre tous les problèmes de société : pandémies, croissance économique, pauvreté, changement climatique, criminalité, soins de santé, éducation, etc. (Corsi, et. al., 2020 ; Holloway, 2020 ; Kuch, et. al., 2020 ; Calvo, 2020). Le changement de paradigme vers le « numérique d’abord » ou le « numérique par défaut » (Schou et Pors, 2019 ; Baskerville, Myers et Yoo, 2020) illustre une pseudo-rationalité numérique qui conduit à la colonisation non critique de nos systèmes sociaux par l’infrastructure numérique (Rowe, et. al., 2020). À l’heure actuelle, il n’existe pratiquement aucun aspect de nos activités quotidiennes qui ne soit pas soumis à la numérisation par le biais d’applications, de plateformes ou d’Internet des objets, et manipulé par des algorithmes d’intelligence artificielle (IA). Au cœur de nos vies personnelles et professionnelles, il nous est difficile d’éviter les pratiques de big data. Même si le droit est formellement respecté par ces pratiques, les entreprises collectent nos données dans les smartphones, les médias sociaux et les plateformes d’expérience des employés (Microsoft Viva) à l’insu ou sans le consentement des utilisateurs dans le but explicite de suivre et de manipuler leur comportement et de les exploiter à des fins lucratives grâce à des algorithmes de plus en plus puissants (Birch, 2020 ; Couldry et Mejias, 2019).

  • 1 Nous utilisons le terme de géants numériques car ce sont souvent des entreprises géantes de technol (...)

4Pour faciliter l’adoption et une utilisation massive, les interfaces des applications sont conçues pour rendre l’utilisation des big data phénoménologiquement transparentes (en arrière-plan et sans interruption), tandis que la conception persuasive est employée pour créer des comportements addictifs d’utilisation (Fogg, 2009). Alors que les technologies numériques recèlent un potentiel sociotechnique d’améliorations de la vie sociale et de la société, nous sommes pris au piège dans un réseau de plus en plus large de pratiques de big data qui exploitent nos traces quotidiennes afin d’accumuler des richesses pour les géants du numérique (Zuboff, 2020 ; Ravenelle, 2019)1. Cela soulève deux questions fondamentales pour la société. Comment les pratiques de big data contribuent-elles à l’enfermement numérique ? Pourquoi est-il difficile de reconnaître cet enfermement et d’y échapper ?

5Dans cet article, nous nous appuyons sur la critique ontologique d’Heidegger (1954) et sur la TSC (Marcuse, 1968 ; Habermas, 1973) pour révéler les conflits de valeurs et les relations sociales dysfonctionnelles des technologies numériques qui donnent lieu au problème social de l’enfermement numérique. En utilisant les concepts d’arraisonnement et d’enfermement (Heidegger, 1954), qui résultent d’une fausse conscience (Heidegger, 1954 ; Marcuse, 1968), et de marchandages faustiens (Marlowe, 1604/2009), nous interrogeons les structures socio-matérielles et les dynamiques relationnelles des pratiques du big data intégrées dans les technologies numériques couramment utilisées. Les courants de recherche sur « l’émergence », le « bricolage », la « complexité », les « effets involontaires » et la « théorie de la structuration » ont rejeté le déterminisme technologique. Cependant, ils n’ont pas été assez critiques pour remettre en question les structures actuelles de pouvoir et la façon dont nous interagissons avec elles.

6Ces courants ont certes éclairé des dynamiques complexes, mais c’était à une époque où il n’y avait pas de géants numériques (Marjanovic et al. 2021) et où nous pouvions penser que l’État ou les innovateurs pouvaient toujours intervenir et remédier aux abus. Aujourd’hui, nous nous rendons compte que nous sommes confrontés à un problème sociétal et politique plus dangereux et que nous devons adopter un discours plus critique. Comme le note Rosen (2016), lorsque la conscience est conditionnée par l’idéologie et d’autres structures de domination, nos décisions et actions quotidiennes sont souvent contraires à nos propres intérêts. L’objectif des TSC est d’exposer les structures de domination pour permettre des choix individuels et des actions collectives rationnels. Dans cet article, nous soutenons que la dynamique induite par notre fausse conscience de la technologie et son image comme vecteur du progrès social et de l’expansion des richesses est au cœur du problème de l’enfermement numérique, la prison ouverte de la révolution du big data.

7L’article se déroule comme suit. Nous présentons une esquisse des thèmes clés du discours émergent sur les pratiques en matière de big data. Puis, nous exposons les concepts clés sur lesquels repose notre explication de l’enfermement présentée ensuite. Nous répondons enfin à la deuxième question avant de conclure.

Discours émergent en sciences sociales sur les pratiques de big data

8D’une manière croissante, les sciences sociales reconnaissent que les pratiques du big data conduisent à toujours plus d’exploitation et d’atteintes à la liberté humaine (Coeckelbergh, 2018 ; Ravenelle, 2019). La concurrence féroce pour accumuler et patrimonialiser les données en vue de générer des richesses donne lieu à des pratiques d’exploitation du big data avec de graves conséquences pour les individus qui y participent (Birch, 2020). Ainsi, Zuboff (2020) examine comment les pratiques capitalistes en matière de données transforment la relation historique entre les marchés et les démocraties et créent de nouvelles logiques d’hégémonie numérique dans la société. De nombreux commentateurs soulignent les défis auxquels les valeurs démocratiques sont désormais confrontées du fait que les algorithmes agissent comme des agents sociaux hybrides (donc peu identifiables !) régissant nos pratiques sociales quotidiennes. Que nous donnions ou non notre consentement, lorsque nous laissons une grande plateforme accéder à nos données, ses pratiques de big data induisent des effets négatifs d’externalité de réseau de données, par exemple « des externalités dinformation et des défaillances de coordination des utilisateurs dans lesquelles la décision de certains utilisateurs de partager leurs informations personnelles peut permettre au contrôleur de données de déduire davantage dinformations sur les non-utilisateurs » (Choi et al., 2019, p. 113).

9La datafication des personnes les profile comme individus à partir de leurs données (vocales, textes, vidéos), résume leurs comportements et permet de suivre leurs « empreintes » numériques (Lycett, 2013 ; DeMoya et Pallud, 2020). Le suivi panoramique des individus nécessite un accès aux données aussi proche que possible du temps réel pour comprendre et prédire les comportements et proposer ce qui est dans l’intérêt de ceux qui ont accès à ces données. L’Internet, les communications à haut débit et les architectures en nuage facilite la collecte et le stockage d’un énorme volume et d’une grande variété de données en constante évolution, offrant la possibilité d’un micro-contrôle des activités et la surveillance des comportements (Newell et Marabelli, 2015 ; Zuboff, 2020). Les technologies big data utilisent l’apprentissage automatique pour traiter ces données. Ces IA et l’accès croissant aux données donnent lieu à des effets de réseau de données qui créent de la valeur pour les fournisseurs de services et certains utilisateurs (Gregory et al., 2021), tout en augmentant notre exposition aux dommages sociaux (Gal et al., 2020). Plus on collecte de données, meilleure est la prévision et donc le service rendu et son attractivité. Mais cela pousse aussi à l’uniformisation des services pour être capable de collecter le même type de données partout (McIntyre et al., 2021). L’offre de services elle-même pousse les individus à faire des choix de court terme néfastes à leurs besoins de long terme, en préférant des services plus standards, mais plus efficaces car reposant sur plus de données, à des services plus personnalisés, plus proches de leurs besoins, mais moins efficaces. Par exemple, le navigateur français Qwant est moins adopté, notamment car il ne conserve pas nos données de recherche une fois la requête effectuée et se trouve donc moins efficace.

10Dans la littérature sur l’IA éthique, la théorie critique est rare et les dommages écologiques peu abordés (Koukouvinou et Holmström, 2022). Alors que certains parlent de pollution algorithmique (Marjanovic et al., 2021) pour souligner que le préjudice social est diffus et peut être associé à l’idée de pollution, d’autres proposent que les assistants d’IA soient conçus pour émanciper les utilisateurs (Kane et al., 2021). Généraliser les résultats de l’apprentissage automatique sans tenir compte des spécificités des pratiques du domaine et des limites des données d’apprentissage conduit à des résultats non valides et à une IA inutilisable (Lebovitz et al., 2021). Finalement, la technologie n’est ni bonne, ni mauvaise, ni neutre en soi, car elle est intégrée dans des contextes sociaux qui interagissent avec les intérêts de ses promoteurs ou concepteurs (Kane et al., 2021).

  • 2 Nous entendons ici : soutenues par les intérêts des acteurs et leurs stratégies.

11Les pratiques du big data sont puissantes car elles créent la compréhension des phénomènes qu’elles sont censées décrire (Jones, 2019, p. 10). Comme toute technologie, elles sont avant tout politiques2 et liées à des valeurs (Rowe, 2018) et donc susceptibles d’être manipulées. Certains phénomènes liés aux pratiques du big data, tels que les chambres d’écho (Kitchens et al., 2020), ou la dissimulation des connaissances (Ghasemaghaei & Turel, 2021), ont été documentés. Une préoccupation critique constante identifiée dans la littérature des humanités numériques est la violation des droits de propriété des données individuelles (Sadowski, 2019), notamment par les capitalistes de surveillance (Zuboff, 2020).

Concepts centraux

  • 3 Et par « con-sommation » par Michel Haar car nous serions sommés par la technique d’exploiter la na (...)

12Dans Question sur la technique, Heidegger (1954) développe les concepts de « Ge-stell » (traduit par « arraisonnement » dans l’édition française d’André Préau (Heidegger, 1958) ou enframing en anglais) 3et d’enfermement (piégeage ou entrapment en anglais) pour interroger ce qu’il considère comme notre adhésion non critique à la technique. Pour lui, nous arraisonnons la nature et la réquisitionnons, la mettons en demeure de produire, de se dévoiler selon les fins que nous lui assignons. Bien qu’il ait développé ces concepts à l’époque des balbutiements de l’informatique, son analyse est prémonitoire pour notre ère numérique et peut aider à éclairer la dynamique et les risques potentiels de l’enfermement numérique. Pour Heidegger (1954), l’enfermement est profondément lié à notre fausse conscience des effets de la technique. Elle découle de notre idéologie de la technique, qui reproduit une relation non critique avec la technique, nous rendant susceptibles de conclure des accords imprudents et dangereux avec la technologie et ceux qui la fournissent. Les concepts d’arraisonnement et de fausse conscience font référence à des schémas routiniers de pensée qui désactivent nos capacités épistémiques critiques, tout en légitimant les idéologies dominantes et les relations de pouvoir (Rosen, 2016 ; Thompson, 2015). Ainsi Heidegger et Marcuse saisissent l’illusion du monde moderne que la technique nous libère de la condition humaine (Feenberg, 2005). Tandis qu’Heidegger insiste sur l’inauthenticité de notre rapport au monde et le voit comme un problème ontologique, Marcuse rejoint Adorno pour souligner que les inégalités structurelles de pouvoir servent aux acteurs dominants à maintenir cette illusion. C’est le terrain sur lequel les régimes d’exploitation et de manipulation sont construits (Adorno, 2006).

13Les régimes d’exploitation font référence à des programmes systématiques à grande échelle qui utilisent l’asymétrie de pouvoir pour extraire et accumuler des richesses en s’appropriant les actifs précieux (travail, terres, données, etc.) d’individus moins puissants (Sindzingre, 2018), tandis que les régimes de manipulation font référence à des programmes systématiques à grande échelle visant à influencer les décisions et les actions d’une classe d’individus dans l’intérêt d’un groupe privilégié (Adorno, 2006). Le concept de marchandage faustien (Marlowe, 1604/2009) met en lumière la dynamique de la manipulation lorsqu’en tant qu’individus, nous concluons des « marchandages » imprudents et dangereux avec des géants du numérique dont l’intention est d’exploiter nos données à leur profit. Les États et les organisations publiques peuvent également conclure des accords faustiens lorsqu’ils négocient des infrastructures numériques essentielles avec des géants du numérique qui disposent d’un avantage asymétrique en matière d’information (Rowe et al., 2020 ; Ngwenyama, Henriksen et al., 2023). Ce concept provoque une interrogation critique sur ces marchandages pour se servir des techniques numériques. Notre principal intérêt est de développer une compréhension de la dynamique de l’enfermement numérique des pratiques de big data en éclairant les rôles joués par la fausse conscience, l’enfermement et les marchandages faustiens.

La fausse conscience

14Heidegger considère l’arraisonnement comme une condition psychologique et sociale de l’enfermement, résultant d’une relation non critique et idéologique avec la technique. Notre idéologie de la technique motive des schémas de pensée et d’action routiniers et non critiques qui forment un habitus numérique, un ensemble de modèles mentaux à partir desquels nous imaginons et appréhendons les potentialités de nos sociétés.

15Cette idéologie nourrit également une rationalité technologique, c’est-à-dire un système de pensée et de pratiques qui privilégie une représentation technologique du monde social (Heidegger, 1954), susceptible de produire un système de contrôle social totalitaire et de domination (Marcuse, 1968). Ce système entretient la fausse conscience que la technique est premièrement le destin de notre époque... un cours inévitable et inaltérable de l’humanité ; deuxièmement, n’est rien d’autre que des moyens pour atteindre les fins que nous désirons ; et troisièmement, en tant qu’inventeurs, nous sommes ses maîtres et elle fera ce que nous voulons.

16Cette fausse conscience nous empêche d’appréhender de manière critique les dangers potentiels de la technique ; nous ne voyons que ses avantages à court terme, alors que les risques sont difficiles à évaluer, incertains, opaques et différés (Feenberg 2005). Le calcul coûts-bénéfices sur la protection de nos données privées pose le même problème. Nous déclarons que nous sommes très sensibles aux risques sur nos données privées, mais nous les valorisons peu et les divulguons aisément pour accéder dans l’immédiat à un service (Hahn et al., 2007 ; Kolokakis, 2017). Heidegger nous exhorte à affronter cet arraisonnement qui conduit à l’aliénation et à la domination de notre rationalité par une fausse conscience de la technique.

L’enfermement numérique

17Heidegger (1954) définit l’enfermement technologique comme notre comportement frénétique et non critique consistant à transformer le monde et les êtres humains en un fonds disponible (dépôt d’actifs) à des fins d’exploitation. Obtenir, transformer, sécuriser et diriger ce fonds équivaut pour notre sujet à des pratiques d’acquisition, de surveillance et d’archivage des données que les capitalistes de données (Birch, 2020, Sadowski, 2019) transforment en actifs pour eux.

18Cet enfermement se déguise en ce qu’il « se déploie dans la mise à disposition [..] de la totalité de létant réduit à être fonds disponible [..] , quil sy installe et domine en tant que tel » (Heidegger, 1976, p. 309).

19« [Dès] que le non-caché nest plus un objet pour lhomme, mais quil le concerne exclusivement comme fonds, alors […] au bord du précipice, il va lui-même vers le point où il ne doit plus être pris que comme fonds » (Heidegger, 1958, p. 36). Cependant « il ny a rien de démoniaque dans la technique » (Ibidem, p. 37) ; le problème est notre fausse conscience : dans la mesure où nous mythifions la technique pour ses pouvoirs civilisateurs et négligeons son potentiel de résultats multiples.

Les marchandages faustiens

20L’allégorie faustienne nous aide à établir un lien entre la fausse conscience et les régimes de manipulation et d’exploitation issus des pratiques du big data, ainsi que leurs implications pour les individus et la société. Dans la pièce de Marlowe (1604), le Dr Faust est un universitaire moderne et brillant, lassé de sa réussite académique et qui recherche la magie dans le but d’acquérir de la richesse et du pouvoir.

21Faust rêve d’un monde utopique semblable à la société numérique mondiale dépeinte par Meta et Amazon ; il imagine qu’il pourrait sommer les esprits de lui apporter de la nourriture exotique ou l’or du bout du monde. Dans notre monde numérisé, les plateformes technologiques offrent de tels pouvoirs « magiques » (Stahl 1995). On nous dit que nous pouvons avoir le monde au bout des doigts, communiquer avec n’importe qui et acheter n’importe quoi de n’importe où grâce à nos appareils numériques, mais la nature du compromis n’est souvent pas claire. 
Faust, fasciné par les pouvoirs qu’il imagine déjà posséder pour étonner ses amis et connaissances, est prêt à prendre de grands risques. Au milieu de ses rêveries, des anges bons et mauvais apparaissent. Le mauvais ange l’encourage dans sa décision et lui rappelle la gloire et la richesse qu’il va acquérir. Le bon ange l’implore de ne pas risquer son âme et le met en garde contre le danger qu’il encourt s’il conclut un contrat avec Lucifer. Tout comme nous avons tendance à écarter les risques potentiels et à accepter des contrats de services numériques (Whatsapp, Alexa, etc.), Faust écarte ses doutes et convoque Méphistophélès pour signer. Il a vendu son âme pour constater finalement qu’il a été berné !

Théorie du problème et illustration

La dynamique de l’enfermement

22La figure 1 est une illustration graphique adaptée de notre théorie du problème de l’enfermement numérique dérivée de l’analyse critique précédente (Ngwenyama et al., 2023). La TSC permet d’abord de faire apparaître les structures sociomatérielles qui déshumanisent, manipulent et exploitent les utilisateurs en sapant leurs droits, leur liberté et leur dignité en matière de données ; ensuite, d’expliquer théoriquement la dynamique de l’enfermement numérique du point de vue de la causalité constitutive (Markus et Rowe, 2018) ; puis, de montrer la pertinence de la pensée heideggerienne et de son extension par Marcuse sur le dilemme des valeurs sociales auquel nous sommes confrontés dans le cadre de la numérisation de la société.

  • 4 Les flèches bleues désignent des influences positives (par exemple, plus l’idéologie est forte, plu (...)

Figure 1 : L’enfermement dans les pratiques de big data4

Figure 1 : L’enfermement dans les pratiques de big data4

23Décrivons ici la première boucle de rétroaction de la fausse conscience. La promotion du numérique par les géants du secteur façonne notre idéologie sur le rôle de ces technologies dans la société. La promotion et la conception de leurs produits nous socialisent dans un habitus numérique et une fausse conscience par lesquels nous associons cognitivement les technologies numériques à la performance, au bien-être et à la « bonne vie » que nous désirons (Flick, 2016). Si nous arrivons dans une nouvelle ville et que nous voulons découvrir les lieux d’intérêt, le premier réflexe est de questionner Google. Quelles que soient nos activités (prendre le tram, trouver un restaurant), elles sont médiées par le numérique. L’habitus numérique et la fausse conscience nous poussent non seulement à nous identifier comme homo digitalis, c’est-à-dire à définir ce que nous sommes et ce que nous faisons par nos comportements et les indicateurs numériques (nombre d’amis, de citations) qui nous mesurent, mais aussi à considérer nos « relations » sociales et économiques comme étant d’abord numériques (Prainsack, 2020). L’habitus numérique, ses scripts et ses schémas de pensée donnent lieu à une rationalité technologique qui restreint notre vision du monde, supprime la rationalité sociale (Habermas, 1973) et limite les potentialités de nos pratiques sociales, culturelles et politiques à ce qui est technologiquement faisable (Marcuse, 1968). Lorsque je veux contrôler ma consommation énergétique, je compte sur le numérique et ses compteurs intelligents. La correction autocontrôlée de mes comportements renforce sa légitimité. Ainsi, la rationalité technologique renforce l’idéologie de la technologie. Cette dynamique n’épargne pas les gouvernements eux aussi sujets à la fausse conscience, leurs solutions aux problèmes sociétaux étant désormais « numériques par défaut » (Schou et Pors 2020, Rowe et al. 2020). Et nous relayons l’action des promoteurs du numérique par l’adhésion à cette idéologie qui peut aller jusqu’à accepter l’idée que la mesure par le numérique de ce que nous sommes et de ce que nous faisons peut suffire à nous définir.

24Nous participons ainsi, dans un schéma constructiviste, à la constitution pas à pas mais néanmoins causale (Markus et Rowe, 2018) de la fausse conscience qui nous enferme alors dans des régimes d’exploitation des promoteurs fondés sur leurs innovations techniques et leurs modèles d’affaires, qui eux-mêmes s’appuient sur nos consentements d’homo digitalis (seconde boucle de la Figure 1). Ces régimes font le lit des effets négatifs des réseaux de données (Ngwenyama et al., 2023) dont nous ne nous rendons très peu compte et d’une datafication renforcée de nos comportements. Ces effets et ces régimes d’exploitation conduisent à un affaissement systémique de nos droits sur nos données (Fig 1), d’autant plus fort que les régimes de manipulation passent par de fausses promesses et des contrats coercitifs que l’on lit et comprend trop tard (troisième boucle).

Le renforcement de l’enfermement dans les plateformes : le cas Viva

  • 5 Version d’Office 365 équipée d’une IA donnant des conseils sur l’usage (avec qui, quand, combien) d (...)
  • 6 Pour une illustration plus systématique des concepts apparaissant dans les bulles, voir (Ngwenyama (...)
  • 7 Par exemple, il est difficile d’expliquer l’addiction au travail par l’addiction à des applications (...)

25Dans leur article perspicace sur le design émancipatoire, Kane et al. (2021) envisagent un déséquilibre de pouvoir entre ceux qui gèrent l’infrastructure de contrôle du comportement et ceux qui l’habitent (pp. 373). Nos observations du cas Viva5 illustrent les concepts6 de notre théorie et révèlent comment dans sa plateforme Office365, Microsoft intègre des pratiques d’exploitation et de manipulation des big data dans des outils de travail quotidiens, sans notre consentement éclairé (Ngwenyama et al., 2023). Vendu comme une plateforme pour une GRH numérique « éclairée », Viva intègre des capacités de surveillance et de datafication des utilisateurs (Gal et. al., 2020 ; Ngwenyama et al., 2023). Il est commercialisé comme offrant « liberté et sécurité », « un meilleur équilibre entre vie professionnelle et vie privée et un bien-être général » aux utilisateurs. Bref, il suit le discours de l’empowerment (Labarthe et Trainoir, 2019). Mais comment un modèle d’Intelligence artificielle peut-il légitimement donner des recommandations pour notre bien-être sur la simple connaissance, fût-elle totale, de nos usages de sa suite bureautique ? Les comportements au travail sont très complexes à analyser7. La promotion de Viva constitue une utilisation stratégique de communications fausses et trompeuses qui manipulent les utilisateurs (Ngwenyama et al., 2023). Viva représente une idéologie distincte d’autogestion quantifiée et de contrôle managérial par la datafication du travail. Viva plaira aux managers qui veulent des mesures simples pour évaluer, gérer et contrôler les employés. Cependant, il suscite des dérives de directeurs des ressources humaines ou de managers autoritaires (Gal et. al., 2020).

26Mais tant que je crois au discours paternaliste de Microsoft Viva, je reste enfermé dans son usage. Si mon usage persiste c’est que ce discours me semble anodin, m’offrant même peut-être apparemment l’extension de capacités d’action (par exemple flexibilité, autonomie et performance à l’instar du cas Uber (Möhlmann et al., 2021)). Cependant, l’enfermement reste nuisible, procédant d’une surveillance constante avec peu de transparence et déshumanisant aux yeux des employés (Möhlmann et Hendfridsson, 2019 ; Kloepper, 2023) qui résistent à l’homo digitalis. De tels systèmes érodent la confiance et peuvent d’autant plus donner aux employés l’envie de quitter l’entreprise lorsqu’ils apprennent que les managers peuvent accéder ainsi à plus de données sur leurs comportements qu’eux-mêmes (Kloepper et Rowe, 2024).

Une synthèse théorique de l’enfermement

27La première proposition de notre théorie de la dynamique de l’enfermement dans les plateformes numériques des Gafam (cf. Figure 1) peut être formulée synthétiquement comme suit :

28P1 : L’idéologie technologique dominante, systématiquement entretenue par les géants du numérique, façonne l’habitus numérique et favorise une fausse conscience par laquelle nous nous identifions en tant qu’homo digitalis et devenons susceptibles d’être de plus en plus enfermés par les pratiques de big data des plateformes numériques.

29Notre théorie peut être complétée par deux autres propositions. Pour comprendre la seconde, considérons plus en détail les stratégies utilisées par les Gafam. L’asymétrie d’information entre les plateformes et les utilisateurs peut être utilisée par la plateforme pour les enfermer davantage ou se servir de l’information contre leurs intérêts. L’apprentissage sur plateforme offre la possibilité de concevoir des stratégies qui nous maintiennent attachés à l’univers numérique : le microciblage (Bakir, 2020), la construction de nos préférences (Susser et al., 2019) et un design persuasif pour manipuler nos comportements d’utilisation et les exploiter (Fogg, 2009 ; Flick, 2016). Notamment, l’apprentissage automatique pour la personnalisation des services peut empiéter sur la capacité des individus à faire des choix rationnels autonomes, à moins qu’ils ne soient explicables, transparents et responsables (Susser et al., 2019 ; Kane et al., 2021). Si Gregory et al. (2021) reconnaissent que l’utilisation des plateformes numériques peut poser des problèmes de protection de la vie privée, ils ne discutent pas des pratiques en matière de big data ni des conditions qui entraînent de tels effets négatifs sur le réseau de données.

30Associés à des contrats de services numériques coercitifs, ces effets négatifs constituent un mécanisme de renforcement privant les utilisateurs de leurs droits à la propriété des données et à la vie privée (Sadowski, 2019), tout en indemnisant les géants du numérique contre les préjudices subis par les utilisateurs (Crowther, 2012). En outre, même avec des avancées telles que le GDPR européen et les lois européennes plus récentes sur les marchés et services numériques, les utilisateurs sont toujours confrontés à des abus de la part des fournisseurs de plateformes numériques (Geradin, et al., 2021). Les propriétaires de plateformes mettent souvent en œuvre des stratégies pour contraindre les utilisateurs à accepter leurs politiques en matière de cookies afin d’accéder aux services. Ainsi :

31P2 : Les géants du numérique emploient des régimes d’exploitation et de manipulation fondés sur les pratiques du big data qui vont à l’encontre des intérêts des individus qu’ils conditionnent à considérer les plateformes numériques comme essentielles dans le monde moderne.

  • 8 Pour une belle réflexion sur ce concept voir (Rosen 2016).

32Les pratiques technologiques hégémoniques des Gafam sont panoramiques et intensives (Zuboff, 2020), conçues pour assurer la servitude involontaire8 des utilisateurs moins puissants. En outre, les géants du numérique exercent de fortes pressions sur les gouvernements pour qu’ils ne réglementent pas leurs pratiques en matière de big data, de sorte qu’elles s’intègrent structurellement dans nos systèmes sociaux. D’où notre troisième proposition :

33P3 : Les géants du numérique réussissent souvent à faire de leurs plateformes des infrastructures sociales et organisationnelles, rendant ainsi les employeurs et les organisations du secteur public complices de la promotion de l’idéologie de la technologie et des régimes d’exploitation et de manipulation.

De la difficulté de reconnaître le problème et d’y échapper

34En théorie, les utilisateurs ont la possibilité d’accepter ou de rejeter la datafication de leur vie professionnelle et sociale et de leur identité. Lorsque les médias rapportent et dénoncent avec insistance le fait que certaines plateformes comme Twitter ou Facebook laissent passer n’importe quel contenu, nous pouvons et sommes invités à quitter ces plateformes car, en dépit de leur médiatisation, elles n’ont pas toujours un rôle d’infrastructure dans nos vies et des alternatives existent. Mais la datafication reste omniprésente et phénoménologiquement transparente. Pour d’autres systèmes, imposés par des politiques d’entreprises où nous travaillons (cas de Viva), ou les systèmes d’exploitation de nos smartphones par lesquelles passent tant de nos applications préférées, le choix est plus difficile. Il existe un déséquilibre de pouvoir entre les propriétaires de l’infrastructure numérique, les employeurs et les utilisateurs. Les géants du numérique fournissent des infrastructures sociétales et imposent ou suggèrent des normes de relations sociales et économiques qui soutiennent leurs intérêts tout en réduisant notre libre arbitre individuel (Kreps et Rowe 2021, Zuboff, 2020). Nous pouvons rejeter l’institutionnalisation de leur ordre social en défendant nos droits et en affirmant notre volonté. En pratique, difficile de nous débarrasser de la datafication ! Nous ne pouvons que la désapprouver, à moins de mobiliser une action collective pour changer la donne et la réguler en inventant d’autres modes de gouvernance (Broca, 2021) ou de quitter le système oppresseur (Kloepper et Rowe, 2024).

35Mais la fausse conscience nous rattrape. La technique est présentée comme un fait accompli, comme inévitable, comme garante du progrès, de l’efficacité et de l’innovation. En tant qu’individus, nous utilisons les techniques numériques (smartphones, trackers de fitness, médias sociaux, moteurs de recherche, guides de marche, etc.) pour notre confort personnel ou pour notre santé. Mais plus nous intégrons ces technologies dans notre vie quotidienne, plus elles nous enferment dans les plateformes que nous utilisons. Plusieurs explications de ce phénomène sont possibles. Notre interprétation ici est que ce cercle vicieux se produit parce qu’en tant qu’individus, nous sommes conditionnés dans une fausse conscience des techniques numériques et ne reconnaissons pas pleinement la puissance de la dynamique et les multiples causes de notre enfermement numérique auquel nous participons. À la source, l’idéologie veut nous faire croire que la technique est supérieure car elle nous connaît ou finira par nous connaître mieux que nous-mêmes (Anders, 1956). Une explication alternative considère que nous sommes lucides devant l’asymétrie de pouvoir, mais déclarons notre impuissance ou notre découragement devant les efforts nécessaires pour changer. Participer aux plateformes numériques est vu comme la condition pour ne pas être économiquement ou socialement exclu. Une troisième explication, utilitariste, est que nous acceptons notre dépendance de certaines plateformes pour nos activités routinières et professionnelles car nous croyons que nous bénéficions ou bénéficierons ultimement des plateformes numériques et que les dommages qu’elles peuvent causer peuvent être atténués par un meilleur contrôle algorithmique complété par une modération humaine. Plus naïvement, nous pouvons aussi considérer que ces dommages ne sont pas le résultat d’une conception et d’une gouvernance délibérées de ces plateformes mais de nos propres erreurs. En d’autres termes, dans ces dernières explications utilitaristes ou centrés sur nos comportements, les dommages sociétaux causés par la technique sont perçus comme un événement exceptionnel plutôt que comme une caractéristique de conception (ou un « dommage collatéral » connu et accepté par les géants du numérique).

36Notre explication rejoint celle de Zuboff qui notait (2020, p. 29)) : 

« Cette logique [des pratiques de Big data ] transforme la vie ordinaire en remake quotidien du pacte faustien, version XXIe siècle. "Faustien" parce quil est presque impossible dy échapper, malgré le fait que ce que nous devons donner en retour détruira la vie telle quon la connaît [...] Notre dépendance est au cœur du projet commercial de surveillance [...]. Ce qui nous dispose à rationaliser la situation avec un cynisme résigné, à inventer des excuses qui fonctionnent comme des mécanismes de défense [..], ou à trouver dautres moyens de faire lautruche, en choisissant lignorance par frustration et impuissance ».

  • 9 Le réalisme critique et le constructivisme social ne sont pas contradictoires entre eux ou avec la (...)
  • 10 Nous renvoyons le lecteur à nouveau à la note 6.

37Mais notre explication théorique y ajoute des boucles d’auto-renforcement et donne un poids majeur à l’argument de la fausse conscience qui fait le lit du reste en s’appuyant sur l’idéologie de la technologie. Épistémologiquement, notre argument issu de la TSC, peut être à la fois qualifié de constructiviste, car il ne tient qu’avec nos croyances qui assurent notre participation, volontaire ou non, mais aussi de réaliste critique9 car il pointe comment les actions des acteurs et notamment le discours marketing de géants du numérique, qui sont des discours observables dans le réel10, produisent l’acquisition de systèmes numériques dangereux, à partir de mécanismes psycho-sociologiques difficiles à observer (fausse conscience, enfermement, marchandages faustiens), ces derniers nous concernant directement et se situant à un autre niveau ontologique de la réalité selon le réalisme critique.

Conclusion

38Nous signons des contrats numériques sans comprendre les conséquences pour notre liberté. Alors que les innovations numériques partent souvent d’un idéalisme et d’intentions nobles, l’effet d’entraînement et la concurrence féroce conduisent à l’adoption de pratiques d’exploitation des données massives. L’analyse suggère que les pratiques de big data des géants du numérique sont conçues pour assurer la servitude involontaire d’utilisateurs moins puissants. Pour casser la dynamique auto-entretenue de cet enfermement, la prise de conscience, l’action collective et la régulation sont nécessaires (Ngwenyama et al., 2023).

39Nous espérons que notre théorisation rend plus visibles les structures et la dynamique des pratiques de big data qui ont le potentiel d’institutionnaliser la prison ouverte. Elle met en lumière la question négligée et insuffisamment théorisée des effets négatifs de réseaux de données (perte économique, préjudice social et atteinte à la vie privée) qui découlent pour les individus de l’apprentissage par les plateformes et de l’accumulation patrimoniale de données.

40Poser le problème de l’enfermement numérique et questionner ses racines doit ouvrir le discours scientifique et sociétal sur les pratiques délétères qui remettent en question les valeurs humaines de liberté et de dignité (Leidner et Tona, 2021). Nous nous déshumanisons avec de telles pratiques de numérisation parce que nous ne considérons pas cet enfermement comme un problème ou parce que nous n’en sommes pas conscients. Prendre conscience des structures et de la dynamique de celui-ci est une condition préalable nécessaire au développement d’une nouvelle rationalité sociale du numérique pour rejeter les valeurs antisociales des géants du numérique et la logique dominante de leurs pratiques de big data qui sont les fondements de la Prison Ouverte. Dévoiler ses fondements est nécessaire pour retrouver un nouveau chemin de liberté et de responsabilité.

Haut de page

Bibliographie

Abbasi, A., Sarker, S., Chiang, RH. (2016) Big data research in information systems : Toward an inclusive research agenda. Journal of the Association for Information Systems 17(2) : i-xxxii.

Adorno, T. (2006) Minima Moralia : Reflections from damaged life, (Verso, London).

Anders, G. (1956). L’obsolescence de l’homme. Editions de l’encyclopédie des nuisances.

Bakir, V. (2020) Psychological operations in digital political campaigns : Assessing Cambridge Analytica’s psychographic profiling and targeting. Frontiers in Communication 5(67).

Baskerville, RL., Myers, MD., Yoo, Y. (2020) Digital first : The ontological reversal and new challenges for information systems research. MIS Quarterly 44(2) :509–523.

Birch, K. (2020) Automated neoliberalism ? The digital organisation of markets in technoscientific capitalism. New Formations 100(100-101) :10-27.

Broca, S. (2021) Communs et capitalism numérique : histoire d’un antagonisme et de quelques affinités électives. Terminal 130 : 15 :31.

Calvo, P. (2020) The ethics of Smart City (EoSC) : moral implications of hyperconnectivity, algorithmization and the datafication of urban digital society. Ethics and Information Technology 22(2) :141-149.

Coeckelbergh, M. (2018) Scientific Suspects, Romantic Witnesses ? Magic Technologies, Alienation, and Self-Destruction in the Anthropocene. Glimpse 19 :39–45.

Choi, JP., Jeon, DS., Kim, BC. (2019) Privacy and personal data collection with information externalities. Journal of Public Economics, 173 :113-124.

Corsi, A., de Souza, FF., Pagani, RN., Kovaleski, JL. (2020) Big data analytics as a tool for fighting pandemics : a systematic review of literature. Journal of Ambient Intelligence and Humanized Computing 12(10) :9163-9180.

Couldry, N., Mejias, UA. (2019) The Costs of Connection : How Data Are Colonizing Human Life and Appropriating It for Capitalism. Stanford University Press.

Crowther, BT. (2012) (Un) reasonable expectation of digital privacy. BYU L. Rev., 343.

DeMoya, JF., Pallud, J. (2020) From panopticon to heautopticon : A new form of surveillance introduced by quantified self practices. Information Systems Journal 30(6) :940-976.

Feenberg, A. (2005) Critical theory of technology : An overview. Tailoring Biotechnologies 1(1) : 47-64.

Fleetwood, S. (2005). Ontology in organization and management studies : A critical realist perspective. Organization12(2), 197-222.

Frederiksen, D. J., & Kringelum, L. B. (2021). Five potentials of critical realism in management and organization studies. Journal of Critical Realism20(1), 18-38.

Flick C (2016) Informed consent and the Facebook emotional manipulation study. Research Ethics 12(1) :14-28.

Fogg, BJ. (2009) Creating persuasive technologies : an eight-step design process. In Proceedings of the 4th international conference on persuasive technology (pp. 1-6).

Gal, U., Jensen, TB., Stein, MK. (2020) Breaking the vicious cycle of algorithmic management : A virtue ethics approach to people analytics. Information and Organization 30(2) :100301.

Geradin, D., Karanikioti, T., Katsifis, D. (2021) GDPR Myopia : how a well-intended regulation ended up favouring large online platforms-the case of ad tech. European Competition Journal 17(1) :47-92.

Ghasemaghaei, M., Turel, O. (2021) Possible negative effects of big data on decision quality in firms : The role of knowledge hiding behaviours. Information Systems Journal31(2) : 268-293.

Giddens, A. (1984). The constitution of society : Outline of the theory of structuration. Univ of California Press.

Gregory, R., Henfridsson, O., Kaganer, E., Kyriakou, SH. (2021) The role of artificial intelligence and data network effects for creating user value. Academy of Management Review, 46(3) :534–551.

Habermas, J. (1973) La technique et la science comme ’idéologie.’ Paris : Gallimard.

Habermas, J. (2021). The tasks of a critical theory of society. In Modern German Sociology (pp. 187-212). Routledge.

Hann, IH., Hui, KL., Lee, SYT., Png, IP. (2007) Overcoming online information privacy concerns : An information-processing theory approach. Journal of Management Information Systems, 24(2), 13-42.

Heidegger, M. (1954) The question concerning technology. Technology and values : Essential readings. 3–35. (*« La Question de la technique », Essais et conférences, trad. André Préau, préface Jean Beaufret, Paris, Gallimard, 1958, p. 9-48.)

Heidegger, M. (1976) Le tournant, in Question III et IV. Paris : Gallimard.

Holloway, J. (2020) Teacher Accountability, Datafication and Evaluation : A Case for Reimagining Schooling. education policy analysis archives, 28(56).

Honneth, A. (2014) Disrespect : The normative foundations of critical theory. John Wiley & Sons, New York, NY.

Jones M (2019) What we talk about when we talk about (big) data. The Journal of Strategic Information Systems28(1) : 3-16.

Kane, GC., Young, AG., Majchrzak, A., Ransbotham, S. (2021) Avoiding an Oppressive Future of Machine Learning : A Design Theory for Emancipatory Assistants. MIS Quarterly 45(1) :371-396.

Kitchens, B., Johnson, SL., Gray, P. (2020) Understanding echo chambers and filter bubbles : The impact of social media on diversification and Partisan shifts in news consumption, MIS Quarterly, 44(4) :1619-1649.

Kitchin, R. (2014) Big Data, new epistemologies and paradigm shifts. Big data & society1(1), 2053951714528481.

Kokolakis, S. (2017) Privacy attitudes and privacy behaviour : A review of current research on the privacy paradox phenomenon. Computers & Security, 64(C), 122–134.

Koukouvinou, P., Holmström, J. (2022) AI Management beyond the narratives of dystopian nightmares and utopian dreams : a systematic review and synthesis of the literature, European Conference on Information Systems, Timisoara : Roumania.

Kloepper, M. (2023). Every break you take, every click you make – empirical : Insights on employees’ perception of people analytics, European Conference on Information Systems

Kloepper, M., Rowe, F. (2024). People analytics, trust erosion and intention to leave, Working paper.

Kreps, D., Rowe, F. (2021). Free Will in Philosophy and in IS research : where do we stand and where do we want to be ? ICIS 2021 Proceedings. 5.

Kuch, D., Kearnes, M., Gulson, K. (2020) The promise of precision : datafication in medicine, agriculture and education. Policy Studies 41(5) :527-546.

Labarthe, F., Tranoir, M. (2019). Explorer les déclinaisons de l’empowerment en régime numérique. Terminal,125-126.

Lebovitz, S., Levina, N., Lifshitz-Assaf, H. (2021). Is AI ground truth really true ? The dangers of training and evaluating AI tools based on Experts’ know-what. MIS Quarterly, 45(3), 1501-1525.

Leidner, DE., Tona, O. (2021) The CARE Theory of Dignity Amid Personal Data Digitalization. MIS Quarterly, 45(1) :343-370.

Lycett, M. (2013) ’Datafication’ : making sense of (big) data in a complex world. European Journal of Information Systems22(4) :381-386.

Marcuse, H. (1968) L’homme unidimensionnel : Essai sur l’idéologie de la société industrielle avancée (Editions de Minuit, Paris).

Marjanovic, O., Cecez-Kecmanovic, D., Vidgen, R. (2021) Algorithmic pollution : Making the invisible visible. Journal of Information Technology, 36(4) :391-408.

Markus, ML., Rowe, F. (2018) Is IT changing the world ? Conceptions of causality for IS theorizing. MIS Quarterly 42(4) :1255-1280.

Marlowe, C. (1604) The Tragical History of the Life and Death of Doctor Faustus (Legacy Collection Digital Museum). Plain English E-Book http://proxy.yphs.tp.edu.tw/~ypi/hpclasssample/6information/6_5_06/0027.pdf and The Project Gutenberg e-Book https://www.gutenberg.org/files/779/779-h/779-h.htm (accessed 2019-12-15).

McIntyre, David, P., Arati, Srinivasan. (2017). Networks, platforms, and strategy : Emerging views and next steps. Strategic Management Journal 38 (1) :141-160.

Miller, P., & Rose, N. (2008). Governing the present : Administering economic, social and personal life. Polity Press, Cambridge : UK.

Möhlmann, M., Zalmanson, L., Henfridsson, O., Gregory, RW. (2021) Algorithmic Management of Work on Online Labor Platforms : When Matching Meets Control. MIS Quarterly45(4) :1999-2021.

Möhlmann, M., Henfridsson, O. (2019) What people hate about being managed by algorithms, according to a study of Uber drivers. Harvard Business Review30(August), 1-7.

Newell, S., Marabelli, M. (2015) Strategic opportunities (and challenges) of algorithmic decision-making : A call for action on the long-term societal effects of ’datification’, The Journal of Strategic Information Systems, 24(1) :3-14.

Ngwenyama, O., Henriksen, HZ., Hardt D (2023). Public management challenges in the digital risk society : A critical analysis of the public debate on implementation of the Danish NemID. European Journal of Information Systems, 32(2) :108-126.

Ngwenyama, O., Rowe F., Klein, S., Henriksen H., The open prison of the big data revolution : false consciousness, digital entrapment and faustian bargains. Information Systems Research.

Prainsack, B. (2020) The political economy of digital data : Introduction to the special issue. Policy Studies 41(5) :439-446.

Ravenelle, AJ. (2019) “We’re not uber :” control, autonomy, and entrepreneurship in the gig economy. Journal of Managerial Psychology, 34(4) : 269-285.

Reed, M. (2005). Reflections on the ’realist turn’ in organization and management studies. Journal of Management studies42(8), 1621-1644.

Rosen, M. (2016) On voluntary servitude : False consciousness and the theory of ideology (John Wiley & Sons, New York, NY).

Rowe, F. (2018) Being critical is good, but better with philosophy ! From digital transformation and values to the future of IS research. European Journal of Information Systems 27(3) : 380–393.

Rowe, F., Ngwenyama, O., Richet, JL. (2020). Contact tracing apps and alienation in the age of covid-19. European Journal of Information Systems. 29(5), 1–18.

Rowe, F., Wolff, FC., Daniel, C., (2023) Does addictive pleasure at work and building a personal IS on one’s smartphone lead to smartphone dependency ? Journal of Global Information Management, 31(5), 1-25.

Sadowski, J. (2019) When data is capital : Datafication, accumulation, and extraction. Big Data & Society 6(1) : https://0-doi-org.catalogue.libraries.london.ac.uk/10.1177/2053951718820549

Schou, J., Pors, AS. (2019) Digital by default ? A qualitative study of exclusion in digitalised welfare. Social Policy & Administration 53(3) :464–477.

Sindzingre, A-N. (2018) Can the concept of exploitation be associated with that of inferiorisation ? A critical analysis. Cahiers d’economie Politique (2) : 203-226

Stahl, WA. (1995) Venerating the black box : Magic in media discourse on technology. Science, technology, & human values 20(2) : 234–258.

Susser, D., Roessler, B., Nissenbaum, H. (2019) Technology, autonomy, and manipulation. Internet Policy Review, 8(2) :1–22.

Thompson, MJ. (2015) False consciousness reconsidered : A theory of defective social cognition. Critical Sociology 41(3) : 449-461.

Zuboff, S. (2020). L’age du capitalisme de surveillance, Zulma.

Haut de page

Notes

1 Nous utilisons le terme de géants numériques car ce sont souvent des entreprises géantes de technologie numérique qui s’engagent dans de telles pratiques de big data.

2 Nous entendons ici : soutenues par les intérêts des acteurs et leurs stratégies.

3 Et par « con-sommation » par Michel Haar car nous serions sommés par la technique d’exploiter la nature. http://expositions.modernes.biz/etudes/dispositif/dispositif-et-ge-stell/ (consulté le 24.1 2023). L’arraisonnement détourne les bateaux et leur cargaison, mais étymologiquement il s’agit d’une suspension (ar-) de la raison chère à Heidegger.

4 Les flèches bleues désignent des influences positives (par exemple, plus l’idéologie est forte, plus l’habitus digital se renforce), tandis que les rouges désignent des influences négatives (plus les contrats sont coercitifs, moins les droits sur nos données individuelles sont protégés).

5 Version d’Office 365 équipée d’une IA donnant des conseils sur l’usage (avec qui, quand, combien) des logiciels d’Office.

6 Pour une illustration plus systématique des concepts apparaissant dans les bulles, voir (Ngwenyama et al., 2023). Il est capital de noter que cette illustration caractérise bien la stratégie d’enfermement de Microsoft, mais que cette illustration ne porte pas directement sur notre participation à cette stratégie, c’est-à-dire sur les concepts centraux de fausse conscience, d’enfermement numérique et de marchandage faustien, plus difficiles à observer empiriquement. Cependant, nous considérons que le fait que des systèmes comme Viva soient toujours vendus est un signe que nous ne sommes pas pleinement conscients des risques qu’ils présentent et donc que la fausse conscience (des risques) du numérique est bien une réalité. Tant que nous croyons à certaines promesses des Gafam qui nous cachent les fondements de leurs modèles d’affaires (Zuboff, 2020), nous sommes sujets à l’enfermement numérique et à des marchandages faustiens.

7 Par exemple, il est difficile d’expliquer l’addiction au travail par l’addiction à des applications numériques et réciproquement (Rowe et al., 2023).

8 Pour une belle réflexion sur ce concept voir (Rosen 2016).

9 Le réalisme critique et le constructivisme social ne sont pas contradictoires entre eux ou avec la TSC. Le réalisme critique cherche à savoir comment les structures/mécanismes influencent les actions sociales (Miller et Rose 2008) et leur conséquences sociales (réalité sociale manifeste). Tant le réalisme critique que la théorie sociale critique (TSC) voient les structures/mécanismes comme socialement construits et maintenus par des actions et des processus sociaux (Giddens, 1984; Fleetwood, 2005; Reed, 2005; Frederiksen et Kringelum, 2021). Ce sont deux types de constructivismes. Cependant, la TSC vise à révéler les structures de domination (idéologie, normes sociales, etc.) qui inhibent les choix rationnels et la liberté humaine (Habermas, 2021; Honneth, 2014).

10 Nous renvoyons le lecteur à nouveau à la note 6.

Haut de page

Table des illustrations

Titre Figure 1 : L’enfermement dans les pratiques de big data4
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/terminal/docannexe/image/10011/img-1.png
Fichier image/png, 49k
Haut de page

Pour citer cet article

Référence électronique

Frantz Rowe et Ojelanki Ngwenyama, « L’enfermement dans les pratiques de big data : une interprétation par la théorie sociale critique »Terminal [En ligne], 138 | 2024, mis en ligne le 17 septembre 2024, consulté le 09 novembre 2024. URL : http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/terminal/10011 ; DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/12dkk

Haut de page

Auteurs

Frantz Rowe

Nantes Université, IAE de Nantes* et LEMNA,
Institut Universitaire de France

*Chemin de la Censive du Tertre, BP66232, 44322 Nantes Cedex 3, France
Frantz.rowe@univ-nantes.fr

Ojelanki Ngwenyama

Toronto Metropolitan University, Ted Rogers School of Management and University of Cape Town
ojelanki@torontomu.ca

Haut de page

Droits d’auteur

Le texte et les autres éléments (illustrations, fichiers annexes importés), sont « Tous droits réservés », sauf mention contraire.

Haut de page
Rechercher dans OpenEdition Search

Vous allez être redirigé vers OpenEdition Search