Navigation – Plan du site

AccueilNuméros19-1ArticlesConcevoir pour des activités inst...

Articles

Concevoir pour des activités instrumentées par des chatbots

Apports d’une approche de l’activité située et médiatisée pour la conception
Designing for chatbot-instrumented activity. Contributions of a situated and mediated activity approach to design
Marion Gras Gentiletti, Gaëtan Bourmaud, Myriam Fréjus et Françoise Decortis

Résumés

En quoi les chatbots constituent-ils de nouvelles ressources pour les humains ? Quelles en sont les conditions d’appropriation ? Comment transforment-ils l’activité humaine ? Pour y répondre, ce papier propose un regard sur les conditions d’insertion et d’appropriation de quatre chatbots en entreprise à partir de l’activité réelle. Nous montrons d’abord que la démarche de conception actuelle ne tient pas suffisamment compte de l’activité réelle et de ses multiples déterminants, ainsi que du point de vue des sujets sur leur activité. Ces dispositifs interactifs viennent pourtant prendre part à un système sociotechnique préexistant composé d’une diversité de sujets engagés dans des activités aux finalités multiples. Nous proposons donc d’identifier, à travers le prisme des genèses instrumentales, en quoi ces chatbots peuvent constituer des aides ou des empêchements à l’activité afin de documenter dans une visée de conception les conditions favorisant l’émergence d’usages des chatbots. À l’issue d’une présentation synthétique des résultats empiriques, nous discutons de la pertinence de l’approche instrumentale pour caractériser les apports et les limites des chatbots. Enfin, nous arguons qu’une perspective de conception soutenant le postulat de l’asymétrie humain-machine est prolifique pour soutenir une démarche de conception davantage tournée vers le pouvoir d’agir des humains que vers l’innovation.

Haut de page

Plan

Haut de page

Texte intégral

Introduction

  • 1 Enquête réalisée en ligne auprès de 310 professionnels issus des directions générales, des services (...)
  • 2 Un assistant vocal est un appareil qui s’appuie sur la reconnaissance vocale du langage naturel afi (...)
  • 3 Un callbot est un logiciel programmé pour recevoir ou émettre des messages lors d’un appel téléphon (...)

1Considérés par les multinationales du domaine de l’informatique comme une révolution semblable à l’arrivée du Web, les chatbots (ou « agents conversationnels ») rencontrent depuis le début des années 2010 un véritable succès, notamment du fait des récents progrès en intelligence artificielle (IA). Composés d’algorithmes de traitement automatique du langage naturel, les chatbots sont des programmes informatiques destinés à dialoguer avec un usager ou une usagère sous la forme textuelle et ce de manière autonome. L’engouement est tel qu’en 2016, lorsqu’un réseau social a mis à disposition de ses utilisateurs et utilisatrices une plateforme pour créer leurs propres chatbots, plus de 30 000 dispositifs y ont été lancés dans l’année (Brandtzæg & Følstad, 2017). Une autre entreprise a imaginé un chatbot pour aider les utilisateurs et utilisatrices à explorer des possibilités en matière de nourriture et de cuisine. Un groupe de prêt-à-porter international a de son côté mis en place un chatbot pour fournir des conseils de mode personnalisés (James, 2016). Les récents résultats d’une enquête1 de l’observatoire des chatbots (2019) confirment l’intérêt croissant des industriels pour les chatbots : 78 % des directeurs d’innovation considèrent l’avènement des agents conversationnels comme inéluctable et plus d’un tiers des entreprises (31 %) en ont déjà déployés, avec une prédominance de chatbots (63 %) par rapport aux assistants vocaux intelligents2 (29 %) ou aux callbots3 (8 %).

  • 4 Par souci de confidentialité, cette entreprise sera désignée tout au long du papier comme « l’Entre (...)

2Malgré l’enthousiasme fulgurant qui entoure les chatbots, peu de travaux existent aujourd’hui sur leur utilisation réelle par les usagers et usagères. Nous proposons dans cet article de revenir sur une étude réalisée en 2018 au sein d’une grande entreprise française4 dans le cadre d’une thèse de doctorat en ergonomie. L’objectif de ce papier est de montrer les intérêts d’une analyse de l’activité réelle, notamment via le prisme de l’approche instrumentale, pour alimenter la conception de chatbots. Pour ce faire, nous avons étudié les conditions d’insertion et d’appropriation des chatbots en considérant l’ensemble des sujets participants du système sociotechnique. La première partie du papier présente le contexte industriel et académique au sein duquel émergent les projets de conception de chatbots dans l’entreprise afin de comprendre les objectifs de recherche. La seconde partie revient sur l’épistémologie constructiviste qui a conduit à s’emparer du cadre de l’approche instrumentale pour mener à bien cette étude. La troisième partie comprend une présentation synthétique de nos résultats empiriques. Ces résultats sont discutés dans la dernière partie.

L’émergence des chatbots : un enjeu industriel en devenir

Un intérêt industriel grandissant pour les chatbots

3Une série de motifs ont porté ces dernières années les chatbots au-devant de la scène. Disponibles 24 h/24 et 7 j/7, les chatbots constitueraient tout d’abord des canaux d’interaction favorables à la relation client (Dale, 2016 ; Le Corf, 2017). En stockant les données à partir desquelles ils apprennent, les chatbots seraient en mesure d’élaborer une connaissance des utilisateurs et des utilisatrices et leur offriraient des services toujours plus personnalisés, qu’il s’agisse d’accès à l’information, d’exploration de contenus ou de divertissement (Brandtzæg & Følstad, 2017). Dans ce contexte, les chatbots apparaissent comme une véritable manne d’opportunités pour les industriels. L’Entreprise, au sein de laquelle se déroule notre enquête, parie depuis plusieurs années sur la mise en œuvre de ces dispositifs techniques interactifs et en a déployé une quinzaine, destinés notamment aux relations internes du groupe.

4Largement présentés sur le plan de leur « intelligence » et de leur capacité à dialoguer de manière autonome, les chatbots témoigneraient en outre de la capacité des entreprises à innover (Følstad & Brandtzæg, 2017 ; Transparency Market Research, 2020). Du reste, l’emballement pour l’intelligence artificielle ces dernières années est tel qu’il justifie parfois à lui seul l’investissement des industriels dans des projets estampillés « IA » (Lussier-Lejeune, 2020). Le sociologue Ferguson (2019) révèle à titre d’exemple l’orientation d’une grande entreprise vers la mise en place de dispositifs à base d’IA pour moderniser ses entités avant que ne soient identifiés les besoins initiaux réels. La « hype scientifique » introduirait ainsi une course au développement de solutions technologiques avant même d’en identifier les usages possibles (Rajan, 2007). L’IA apparaît alors comme l’unique moyen d’accéder à un état futur amélioré que les constructeurs seuls permettraient d’atteindre en développant leur solution technique (Joly, 2015 ; Quet, 2012 ; Rip et al., 2010).

5De plus, la réduction de la masse salariale promise par le déploiement des chatbots ne saurait être passée sous silence dans les motivations de cette exaltation industrielle. Le tournant pris en direction de l’IA répond à des enjeux socioéconomiques, en vertu d’un contexte national et international fortement concurrentiel. L’automatisation des tâches par des dispositifs techniques autonomes peut alors apparaître comme la voie inéluctable dans une logique de réduction des coûts et, par voie de conséquence, des effectifs humains (Bradshaw et al., 2013).

6Enfin, la popularité des assistants vocaux à base d’IA a pu conduire les entreprises à vouloir se saisir de nouveaux canaux d’interaction (Budiu, 2018). Massivement déployés dans les différentes sphères de la vie privée, les dispositifs conversationnels vocaux prennent place dans les foyers et constituent les formes les plus abouties de dispositifs techniques à base d’intelligence artificielle destinés au grand public (Velkovska & Zouinar, 2018). Devillers (2019) rappelle d’ailleurs qu’en 2017, deux ans après sa mise sur le marché, l’assistant vocal d’un grand groupe américain était dans 20 % des foyers américains. Dans ce contexte, l’Entreprise, principal producteur et fournisseur d’électricité en France et en Europe, parie à son tour depuis plusieurs années sur le développement de chatbots.

L’émergence des chatbots dans l’Entreprise : un primat de l’innovation

7Au sein d’un marché résolument concurrentiel et d’un contexte socioéconomique épineux, l’innovation est plus que jamais au centre du discours de l’Entreprise. Elle en fait même un levier majeur de sa stratégie tant dans le développement des services client que dans sa transformation interne. Les nombreux prix récompensant l’innovation ou encore les newsletters relatives à ce sujet dans l’entreprise témoignent d’ailleurs d’une volonté d’encourager les initiatives et les projets inscrits dans une « vision du futur ». Dans ce contexte, les différentes entités de l’Entreprise sont mises à contribution pour prendre part à la dynamique de transformation et participer ainsi à la conservation d’un titre de leader mondial dans un secteur industriel en pleine mutation. La digitalisation des services est à ce titre largement encouragée et amène les directions de groupe à se réinventer et à repenser l’organisation du travail sous le prisme des nouvelles technologies (direction de la communication, 2018).

8L’introduction des chatbots dans l’Entreprise est caractéristique de ce contexte de transformation numérique. Des procédures d’appel d’offres, en vue de collaborer avec des prestataires autour de chatbots, sont d’ailleurs mises en place avant même d’identifier les cas d’usage de ces futurs dispositifs (document interne, 2019). Cette démarche de transformation des entités conduit finalement à la valorisation des chatbots comme solutions techniques en tant que telles avant d’en identifier les services portés.

9Dans ce contexte, une quinzaine de chatbots ont été déployés depuis 2018 ou sont en cours de déploiement dans le groupe, et ce à toutes les strates de l’entreprise. Par exemple, un chatbot « conseiller commercial » est mis en place pour répondre aux questions relatives aux factures, aux modalités de contrat ou encore aux changements d’offres en matière d’énergie électrique. D’autres chatbots, déployés en interne, s’adressent aux personnes salariées de l’entreprise. C’est par exemple le cas du chatbot lié aux Ressources humaines (RH). Il vise à fournir des informations aux travailleurs et travailleuses du groupe sur les questions de gestion des contrats de travail, de retraite ou encore de fiches de paie.

Des chatbots peinant à s’insérer dans les pratiques réelles des usagers et usagères

10De manière générale, malgré un enthousiasme retentissant de la part des industriels, les chatbots peinent à s’insérer durablement dans les pratiques quotidiennes des usagers et usagères (Simonite, 2017). Plusieurs raisons pourraient expliquer ce constat. Des auteurs et autrices ont par exemple souligné qu’un des freins à l’adoption des chatbots réside dans la difficulté de ces derniers à identifier le contexte de la conversation (Ho & Intille, 2005 ; Coniam, 2014 ; Q. V. Liao et al., 2016). Divers travaux récents ont d’autre part révélé le fossé existant entre les attentes des utilisateurs et utilisatrices et l’expérience réelle d’utilisation, tant au niveau de l’« intelligence » du dispositif (Budiu, 2018 ; Luger & Sellen, 2016) que de son interface (Thies et al., 2017). D’autres encore ont mis en évidence le rôle clé de la forme du chatbot dans l’expérience de l’interaction humain-chatbot. Sur ce dernier point, il est vrai que malgré l’intérêt croissant de l’industrie pour rendre les chatbots plus faciles à utiliser, les interfaces n’ont pas évolué (Brandtzæg & Følstad, 2017). L’anthropomorphisation de l’agent conversationnel pourrait par exemple influencer la manière dont il est sollicité (De Angeli et al., 2001 ; Holtgraves et al., 2007). Potdevin et al. (2018) considèrent quant à eux que les usagers et usagères délaissent aujourd’hui les chatbots parce qu’ils ne manifestent que peu de compétences sociales.

11De manière générale, ces multiples travaux consistent à repenser la conception « centrée utilisateur » de ces dispositifs techniques interactifs, notamment en adaptant les méthodes pour comprendre et évaluer leurs conditions d’appropriation. Ces études mènent à des recommandations visant à documenter l’utilisabilité des chatbots, la qualité de l’interaction, l’engagement des utilisateurs et utilisatrices ou encore leurs attentes. Elles se déroulent néanmoins souvent dans des situations expérimentales où il est demandé à un sujet de réaliser une tâche particulière au sein de laquelle l’unité d’analyse est réduite à l’interaction humain-chatbot (Jain, Kumar et al., 2018 ; C. Liao et al., 2009).

12D’autre part, ces études ne tiennent pas compte de l’« envers » du décor, celui de l’intervention humaine nécessaire au bon fonctionnement des chatbots. En effet, les algorithmes actuels ne permettent pas encore à ces derniers d’évoluer de manière totalement autonome. L’intelligence artificielle pourrait aujourd’hui être un levier pour créer des agents conversationnels plus performants dotés d’un système d’analyse du langage naturel (Natural Language Processing), visant notamment à identifier l’intention de l’utilisateur (Rosenfeld et al., 2001). Il est vrai que les progrès de la modélisation conversationnelle laissent penser que les prédictions basées sur les réseaux neuronaux seront un jour plus performantes que la modélisation conversationnelle basée sur des règles (Vinyals & Le, 2015). En attendant, nombre de chatbots de première génération fonctionnent selon des règles déclaratives simples : si un mot est identifié dans la requête de l’utilisateur, le chatbot répond par un ou plusieurs résultats prédéfinis (Brandtzæg & Følstad, 2017). Dans ce contexte, des humains doivent donc intervenir pour assurer l’amélioration continue des chatbots (Dejoux & Léon, 2018), et de manière générale pour animer de nombreux dispositifs présentés comme « intelligents » (Casilli, 2017). Des travaux soulignent justement l’insuffisance de la prise en compte des usagers et des usagères qui sont en quelque sorte de l’autre côté du miroir et qui alimentent, entraînent ou supervisent l’intelligence artificielle. C’est par exemple l’objet des travaux de Dubois et al. (2019) qui portent sur les effets de l’introduction des chatbots commerciaux sur les conseillères qui récupèrent des demandes client auxquelles les chatbots n’ont pas su répondre. Dejoux et Léon (2018) révèlent quant à eux, dans un autre contexte professionnel, que le personnel outillé par les chatbots doit maintenant fournir les connaissances et l’expertise aux agents conversationnels. Pour ce faire, les personnes salariées doivent apprendre à problématiser afin d’entraîner l’IA. Les dispositifs techniques visant à prendre en charge les tâches humaines relèvent donc d’un paradoxe. Pour réaliser des tâches de manière pertinente, adéquate, efficace, ces dispositifs requièrent des formes de coordination avec l’humain qui les supervisent et les encadrent. Il convient donc d’appréhender la conception des dispositifs techniques à base d’IA en termes de conception d’une situation au sein de laquelle un dispositif à base d’IA agit de manière adaptée en cohabitant dans un monde peuplé d’humains. Enfin, les travaux consacrés aux chatbots se concentrent souvent sur l’implémentation initiale des dispositifs techniques et ne tiennent pas compte de leur inscription à plus long terme au sein des pratiques humaines (Jain, Kota et al., 2018).

13Une étude sociologique réalisée en 2019 dans l’Entreprise où se déroule notre enquête révèle par ailleurs un écart entre une vision portée par les institutionnels et les concepteurs et une vision portée par les usagers (Ferguson, 2019). Le déploiement d’assistants virtuels est par exemple décrit par les acteurs et actrices de la conception du management comme un apport pertinent pour recentrer les personnes salariées sur les tâches à valeur ajoutée, alors même que ces dernières craignent une surcharge cognitive occasionnée par l’augmentation de ces tâches, ainsi qu’une perte de compétences liée à la suppression de tâches routinières. Cet écart témoigne finalement des limites d’un modèle de l’activité ne tenant pas suffisamment compte de l’activité réelle et de ses multiples déterminants, ainsi que du point de vue des sujets sur leurs propres activités.

Objectifs de recherche

14Dans ce contexte et afin d’améliorer l’acceptabilité de ces chatbots, la Direction des services informatiques et télécoms (DSIT) nous sollicite en 2018 afin de conduire une intervention ergonomique pour répondre aux questions suivantes : quel est l’impact de l’insertion des chatbots sur les personnes salariées du groupe ? Quelles sont les conditions d’appropriation des chatbots ? Quels en sont les freins ? Quels sont les bénéfices des chatbots dans les activités existantes ?

15L’inscription des chatbots dans le paysage sociotechnique de l’entreprise depuis plusieurs mois au moment de l’étude (près d’un an pour certains d’entre eux) permet de documenter empiriquement leurs effets sur l’activité des sujets. De plus, si un certain nombre d’études commence à traiter des assistants vocaux « intelligents » en contexte sociodomestique, rares sont celles qui concernent des assistants textuels (les chatbots) en situation professionnelle. Lorsqu’elles le font, ces études sont souvent circonscrites à l’interaction humain-chatbot et se déroulent dans des conditions expérimentales où il est demandé à un utilisateur ou à une utilisatrice de réaliser une tâche spécifique (Budiu, 2018 ; Hill et al., 2015 ; Jain, Kota et al., 2018 ; Jain, Kumar et al., 2018 ; C. Liao et al., 2009).

16Ces dispositifs interactifs viennent pourtant prendre part à un système sociotechnique préexistant composé d’une diversité de sujets engagés dans des activités aux finalités multiples. Nous proposons donc d’aborder les situations de travail médiatisées par des chatbots, ce qui permet de sortir d’une unité d’analyse circonscrite à l’interaction entre le sujet et le dispositif excluant les autres déterminants de l’activité et notamment les autres sujets. Nous souhaitons en particulier explorer les situations au sein desquelles sont déployés les chatbots afin de comprendre comment ils sont intégrés à l’activité, depuis le point de vue de celles et ceux qui les mobilisent. L’objectif in fine est d’identifier en quoi ces chatbots peuvent constituer des aides ou des empêchements à l’activité afin de documenter pour la conception les conditions favorisant l’émergence d’usages des chatbots. La section suivante vise à décrire l’ancrage épistémologique et théorique sur lequel s’appuie ce travail.

Concevoir à partir de l’activité instrumentée par les chatbots

17Nos travaux s’inscrivent dans une épistémologie socioconstructiviste dans la mesure où ils abordent les humains comme des sujets se développant au sein d’un contexte situé socialement et culturellement. Les méthodes de l’ergonomie francophone, inscrites plus largement dans la tradition des théories de l’activité (Vygotski, 1934/2019 ; Leontiev, 1965 ; Engeström, 1999), s’appuient sur l’analyse de l’activité, et ce du point de vue intrinsèque des sujets. Cette section vise à étayer cet ancrage épistémologique et théorique.

Le postulat de l’asymétrie humain‑machine

18Inscrire notre travail dans une épistémologie constructiviste revient à assumer pleinement le postulat de l’asymétrie humain-machine, en considérant le sujet comme capable d’accorder et de construire du sens depuis son expérience du réel (Le Moigne, 2007). L’humain est alors considéré comme un sujet en mouvement qui construit sa connaissance du monde en se construisant lui-même à partir de son expérience du réel, des expériences « qu’il vit dans son environnement, au départ de ce qu’il y a déjà vécu et à travers les interactions avec les autres » (Jonnært, 2009). Piaget (1963) décrit l’intelligence de ce sujet comme sa capacité à se construire en construisant, en reconstruisant, en structurant et en restructurant logiquement son environnement. En ce sens, l’épistémologie constructiviste considère toute connaissance comme construite : elle émerge de la manière dont le sujet entraperçoit son environnement (Bachelard, 1938). La connaissance ne peut alors faire l’impasse sur le point de vue du sujet et se construire sans ce dernier. Considérer l’asymétrie entre l’humain et la machine a donc des implications sur la manière d’appréhender la conception d’un dispositif technique et sur la définition de ce que peut être un dispositif « intelligent » du point de vue du sujet. Cette approche nous conduit en outre à aborder les dispositifs techniques comme des aides à l’activité du sujet agissant, et non pas comme des prothèses cognitives (Theureau & Jeffroy, 1994) ou des béquilles (Rabardel, 1995) visant à pallier d’hypothétiques limites humaines.

Le postulat de l’activité médiatisée

  • 5 L’objet de l’activité correspond à ce vers quoi cette dernière est tournée.

19L’approche de l’action humaine comme résultant d’une signification construite par l’humain au gré des situations apparaît aussi dès les années 1920/1930 dans la pensée de la psychologie soviétique. Après la révolution bolchévique de 1917, la psychologie soviétique évolue vers une nouvelle approche inspirée du marxisme qui porte naturellement sur la nature sociale de l’esprit humain. L’approche repose sur la conviction d’un esprit humain intrinsèquement relié aux situations d’interactions entre les humains et le monde qui les entoure. Le rapport de l’humain au monde est médiatisé par la culture qu’il partage et chaque action de cet humain ne peut être comprise sans être appréhendée au sein de cet environnement socioculturel. Par conséquent, une analyse de l’esprit devrait inclure une analyse de l’interaction entre les humains et le monde qui les entoure. L’autre idée est que l’esprit humain est essentiellement social. Selon Vygotski (1934/2019), la culture est constitutive de l’esprit humain et nécessite donc d’élaborer une approche développementale et historique. Il envisage dès lors l’activité humaine comme médiatisée par l’emploi d’outils (matériels et symboliques) transformant les fonctions psychologiques. Selon lui, le développement cognitif est tiré par l’extérieur et s’appuie donc sur l’appropriation de ces « outils médiateurs » construits socialement (comme le langage). À la suite de ces travaux, Leontiev (1975) précise que ces outils sont constitués socialement et s’inscrivent dans l’histoire d’une culture que les personnes contribuent à renouveler au fil du temps. L’activité est alors à envisager selon trois pôles au sein desquels les outils médiatisent les rapports du sujet au monde : le sujet, l’objet de l’activité5 et les outils socioculturels (procédures, langage, formes d’organisation…).

Un cadre théorique pour étudier l’activité médiatisée par les chatbots : l’approche instrumentale

  • 6 « La distinction entre objets artificiels et objets naturels paraît à chacun de nous immédiate et s (...)

20De nombreux auteurs et autrices affirment que la technologie seule n’a aucune signification (Alter, 2015 ; Rabardel, 1995 ; Carroll et al., 2003 ; Orlikowski, 1992). Une fois créée et introduite dans les situations de vie et de travail, la technologie reste « non animée » jusqu’au moment où elle prend du sens dans l’usage et est manipulée directement ou indirectement par les sujets. Dans cette veine, l’approche instrumentale (Rabardel, 1995) s’intéresse à la manière dont les sujets vont mobiliser les dispositifs techniques, les reconstruire, les réinventer et excluent l’appréhension d’une technologie comme donnée a priori. Cette approche propose en particulier de conceptualiser le rôle du sujet créateur à travers les genèses instrumentales. L’instrument renvoie alors à une entité mixte composée d’un artefact (matériel ou immatériel) et d’un schème (figure 1). L’artefact correspond au « produit de l’art », c’est-à-dire à un produit résultant de la main de l’Homme6 (Monod, 1970). Piaget et Inhelder (1966, p. 11), dont les travaux inspirent l’approche instrumentale, définissent quant à eux le schème comme « la structure ou l’organisation des actions telles qu’elles se transfèrent ou se généralisent lors de la répétition de cette action en des circonstances semblables ou analogues ». Pour illustrer ce point, Rabardel (1995) donne l’exemple du schème « frapper » qui peut être associé à une paire de tenailles et qui la constitue alors en un instrument, le temps d’une situation, de même fonction qu’un marteau.

Figure 1. L'instrument : une entité mixte composée d'un artefact et d'un schème. 
Figure 1. The instrument: a composite entity made up of both an artifact and a scheme

Figure 1. L'instrument : une entité mixte composée d'un artefact et d'un schème.  Figure 1. The instrument: a composite entity made up of both an artifact and a scheme

21L’appropriation d’un artefact se caractérise chez le sujet par un processus d’instrumentation qui se décline au travers de la construction de représentations pour l’action (Weill-Fassina et al., 1993), la transformation et la réorganisation de schèmes en relation avec les situations réelles sur lesquelles l’instrument va permettre d’agir (Rabardel, 1995). Dans le modèle quadripolaire sujet-instrument-objet-autres sujets de Rabardel (1995) (figure 2), l’instrumentation est orientée vers le sujet. Dans la mobilisation de l’instrument au gré de son activité, le sujet accommode ses propres schèmes ou en fait émerger de nouveaux (Rabardel, 1995 ; Poisson, 2019). D’autre part, le sujet construit des schèmes mobilisables autour de différents artefacts. Ce dernier processus d’assimilation peut être lié à l’appropriation de schèmes existants dans son histoire et sa culture personnelle (Piaget, 1947 ; Rabardel, 1995 ; Vergnaud, 2001 ; Poisson, 2019).

Figure 2. Modèle quadripolaire des situations d'activités instrumentées (Rabardel, 1995). 
Figure 2. Quadripolar model of instrumented activity situations (Rabardel, 1995)

Figure 2. Modèle quadripolaire des situations d'activités instrumentées (Rabardel, 1995).  Figure 2. Quadripolar model of instrumented activity situations (Rabardel, 1995)

22D’autre part, le processus de genèse instrumentale s’accompagne au sein de l’artefact de transformations, qui peuvent être locales ou globales, temporaires ou plus durables (Bourmaud, 2006). L’instrument constitué devient alors une ressource pour l’activité dans d’autres classes de situations : c’est l’instrumentalisation (Rabardel, 1995 ; Bourmaud, 2007). Des « fonctions constituées » sont alors attribuées à l’artefact par le sujet lui-même (Rabardel, 1995), différentes des « fonctions constituantes » définies et introduites par les constructeurs.

23En somme, le processus de genèse instrumentale implique un double mouvement de l’activité du sujet orienté vers l’artefact (instrumentalisation) et vers le sujet lui-même (instrumentation) (Trouche, 2007). En fonction de la situation, chaque sujet développe ainsi son propre « système de ressources individuellement constitué » (Bourmaud, 2006).

24L’approche instrumentale offre ainsi un cadre pour appréhender l’activité humaine sous l’angle de la diversité des moyens et des ressources utilisés par les sujets, mais aussi pour spécifier la nature des médiations instrumentales mobilisées dans l’activité, et ce depuis le point de vue intrinsèque des sujets. Dans le modèle quadripolaire des situations d’activités instrumentées (Rabardel, 1995), les médiations permises par les instruments prennent plusieurs formes :

  • Des médiations épistémiques du sujet à l’objet (orientées vers la prise de connaissances de l’objet de l’activité) ;

  • Des médiations pragmatiques du sujet à l’objet (orientées vers l’action sur l’objet de l’activité) ;

  • Des médiations interpersonnelles entre sujets (dirigées vers les autres sujets, que l’activité soit individuelle ou collective) ;

  • Des médiations réflexives du sujet à lui-même (orientées vers le sujet lui‑même).

25Il faut enfin rappeler que ces médiations instrumentales s’inscrivent dans des activités à la fois productives et constructives (Rabardel & Pastré, 2005). Par la dimension productive de l’activité, le sujet agissant transforme le réel : ses activités sont orientées vers la réalisation de tâches, l’accomplissement de projets, l’atteinte de buts, en situation (Samurçay & Rabardel, 2004). Par la dimension constructive de l’activité, le sujet se développe, construit, ajuste ou s’approprie des ressources, accroît ses compétences ainsi que sa professionnalité (Pastré, 2011b ; Folcher, 2010).

26L’approche instrumentale offre donc une perspective développementale pour la conception en documentant les activités réelles sur la base de situations de référence et en élaborant ainsi des connaissances sur le développement des genèses instrumentales liées à l’introduction d’un type de dispositif technique, ici les chatbots.

Constitution et traitement des données

Présentation des chatbots sélectionnés pour l’étude

  • 7 Les quatre chatbots ont été rebaptisés pour des raisons de confidentialité.

27Dans une perspective de conception d’instruments favorisant le développement des sujets, il paraît pertinent d’identifier des processus de genèses instrumentales à travers une collection de situations de référence, et ce au travers d’une diversité de sujets (Bationo-Tillon & Rabardel, 2015 ; Lahoual, 2017). Pour ce faire, il est important pour nous d’accéder à une diversité de situations instrumentées par des chatbots, tant sur le plan de la maturité des chatbots que de leur domaine d’application. Dans cette optique, quatre chatbots de l’Entreprise ont été sélectionnés7 : le « juriste virtuel », le « conseiller Ressources humaines virtuel (CRH) », le « conseiller virtuel pour les déplacements professionnels » et le « chercheur virtuel » :

28Le « juriste virtuel » est un chatbot destiné aux connaissances juridiques. Il apparaît dans un contexte de transformation numérique de la direction juridique, dans lequel la volonté de modernisation entraîne l’introduction de dispositifs innovants. Les hypothèses qui sous-tendent l’insertion du chatbot sont l’amélioration de la performance des juristes et, dans le même temps, l’augmentation de la satisfaction des personnes salariées.

29Le « CRH virtuel » vise à accompagner les personnes salariées depuis leur arrivée dans l’entreprise jusqu’à leur retraite sur toutes les questions relatives au domaine des ressources humaines (RH). Le chatbot vise principalement à prendre en charge des questions dites récurrentes, appelées « questions de premier niveau ». Le chatbot « CRH virtuel » est ouvert à l’ensemble des personnes salariées du groupe concernées par les questions RH, c’est-à-dire à environ 100 000 personnes. Il comporte des informations relatives aux contrats de travail, au télétravail, au temps de travail, à la rémunération ou encore aux évolutions professionnelles.

30Le « conseiller virtuel pour les déplacements professionnels » a pour but de répondre aux questions des voyageurs professionnels de l’entreprise (contrats de location de véhicule, hôtellerie, sécurité des déplacements, moyens de paiement, agence de voyages…). Il a été mis en place au sein de l’équipe alors que celle-ci subissait une réduction d’effectif et cherchait à optimiser les réponses faites aux nombreuses questions reçues.

31Le « chercheur virtuel » fait partie des chatbots « sages » visant à capitaliser des connaissances d’un domaine d’expertise. Il est intégré dans une équipe du département de recherche et développement (R&D) préoccupée depuis 2014 par le départ à la retraite de certains experts.

Sujets participant à l’étude

32Les différentes situations de travail instrumentées par des chatbots ont été appréhendées de manière holistique, et ce depuis le point de vue de toutes les parties prenantes. L’étude s’est donc concentrée sur les différentes catégories de sujets gravitant autour de ces chatbots, qu’une étude exploratoire a permis de classer en quatre groupes distincts : commanditaires, « experts » métier, superviseurs/superviseuses, utilisateurs/utilisatrices.

33Les commanditaires sont les personnes à l’origine de la demande de chatbot au sein de leur équipe (chefs de projet, managers, cheffes de groupe…) et sont porteurs de la volonté du projet ;

34Les « experts » métier (juristes, conseillères RH, conseillères « déplacements professionnels », chercheurs et chercheuses) concernent les personnes dont le chatbot vise à prendre en charge une partie de l’activité ;

35Les superviseurs/superviseuses des chatbots correspondent aux personnes chargées d’assurer le bon fonctionnement des chatbots sur le long terme, notamment en analysant les conversations menées entre le chatbot et l’utilisateur ou l’utilisatrice ;

36Les utilisateurs/utilisatrices sont les personnes sollicitant les services du chatbot. Il s’agit par exemple d’une cheffe de projet qui souhaite connaître une information juridique et qui va solliciter le « juriste virtuel » pour tenter d’obtenir des réponses à ses questions.

37Après avoir identifié ces catégories, nous avons rencontré le manager de l’équipe (chef de groupe) ayant participé à l’introduction du chatbot « chercheur virtuel ». Un salarié retraité (celui dont l’expertise a été introduite dans le chatbot « chercheur virtuel ») a également été interrogé. Une rencontre collective a ensuite été organisée avec les développeurs et développeuses de la DSIT, chargés d’assurer la faisabilité technique des projets chatbots, à l’occasion d’une restitution des premiers résultats de l’étude. De plus, nous avons rencontré la cheffe d’équipe des développeurs et développeuses de la DSIT en amont de l’étude afin d’identifier, de son point de vue, les finalités et le processus de développement des chatbots.

  1. Concernant le chatbot chercheur (« chercheur virtuel »), nous avons rencontré 13 personnes : le commanditaire du projet chatbot, le chef de groupe, 5 « experts » métier, l’« expert » métier retraité, deux superviseurs et 3 utilisateurs et utilisatrices.

  2. Concernant le chatbot juridique (« juriste virtuel »), nous avons rencontré 8 personnes : le commanditaire du projet chatbot, 2 « experts » métier, le superviseur et 4 utilisateurs et utilisatrices.

  3. Concernant le chatbot RH (« CRH virtuel »), nous avons rencontré 5 personnes : 1 « expert » métier, la superviseuse et 3 utilisateurs et utilisatrices.

  4. Concernant le chatbot voyage (« conseiller virtuel pour les déplacements professionnels »), nous avons rencontré 2 personnes : 1 « expert » métier et la superviseuse.

38Les superviseurs et superviseuses rencontrés représentent l’ensemble exhaustif des personnes chargées de la supervision de ces chatbots. La répartition par genre est relativement équilibrée avec 13 femmes et 15 hommes rencontrés dont 3 superviseurs/2 superviseuses et 5 utilisateurs/5 utilisatrices. Les utilisateurs et utilisatrices participants sont pour la plupart « novices » dans l’utilisation du chatbot, ce qui correspond aux statistiques d’utilisation fournies par les superviseurs et superviseuses (document interne, 2018). Une utilisatrice rencontrée se déclare utilisatrice régulière. Enfin, nous avons pu rencontrer une utilisatrice au moment de sa première utilisation.

Techniques de recueil

39Le recueil s’est articulé autour d’entretiens individuels semi-directifs compréhensifs d’une heure auprès des 28 sujets participants. Des récits d’expérience vécue ont été recueillis, par le biais d’entretiens resituants (Cahour et al., 2016) afin de recueillir des situations d’utilisation réelle vécues. L’observation de 3 situations réelles d’utilisation a été réalisée. D’autre part, une enquête documentaire a été conduite à partir d’un corpus comprenant : les forums d’utilisateurs de l’entreprise, la documentation structurant le processus de conception, le back-office des chatbots comprenant notamment les statistiques d’utilisation des chatbots, la documentation interne et externe de l’entreprise présentant les chatbots.

Méthodologie de traitement et d’analyse des données

40L’ensemble des entretiens a été transcrit, conduisant à un total de près de 300 pages de transcription (Arial, police 12, interligne 1,5). Le matériau a fait l’objet d’un codage multithématique consistant en un quadrillage réalisé à partir d’une hétérogénéité de thèmes (Ayache & Dumez, 2011). L’analyse par codage multithématique vise à appréhender le matériau tout en faisant des allers-retours avec la théorie : c’est de ce mouvement qu’émergent des thèmes. Les premiers thèmes émergent du matériau lui-même à partir d’une lecture par attention flottante. L’attention flottante, telle que définie par Freud (1912/2013), vise à laisser émerger des thèmes non identifiés au départ, permettant ainsi d’éviter de « ranger » trop prématurément le matériau dans des boîtes conceptuelles prédéfinies. Cette analyse par codage multithématique se situe à l’intersection de la théorisation ancrée (Glaser & Strauss, 2010) et du codage théorique (Böhm, 2004). Aux frontières de ces deux méthodes, elle permet de sortir la chercheuse d’un schéma conceptuel préétabli tout en lui permettant de « découper le réel » et donc de maîtriser la densité de données. Cette approche permet non seulement de ne pas s’enfermer dans des catégories a priori qui pourraient biaiser la lecture des données et en empêcher les découvertes, mais aussi de déborder de ces concepts et plus globalement des cadres théoriques. À ce titre, elle nous semble la méthode la plus adéquate pour un travail de recherche qualitative. Les données recueillies par entretien ont été triées et classées de manière systématique dans un tableau afin d’identifier des thèmes récurrents et permettre ainsi une mise en série des données facilitant l’analyse.

41D’autre part, notre objectif était d’éclairer finement l’organisation de l’activité instrumentée par les chatbots selon les objets de l’activité visés par les sujets, notamment afin de comprendre la mobilisation réelle de ces derniers dans le cours naturel de l’activité. Pour ce faire, nous avons extrait de notre corpus de données 10 récits d’activités instrumentées par un chatbot afin de les constituer en unités d’analyse. Il s’agit d’activités suffisamment explicitées lors des entretiens resituants (7) et des situations observées (3) (tableau 1).

Tableau 1. Recensement des situations constituées en unités d’analyse. 
Table 1. Identification of situations constituted in units of analysis

Tableau 1. Recensement des situations constituées en unités d’analyse.  Table 1. Identification of situations constituted in units of analysis

42L’approche instrumentale a été mobilisée pour organiser les activités autour des pôles sujet, instrument, objet de l’activité, autres sujets du modèle quadripolaire des situations d’activité instrumentée (Rabardel, 1995, p. 255). Ce découpage a ensuite permis d’organiser la diversité des situations singulières rencontrées en classes de situations. Les classes de situations étaient ensuite rassemblées à l’aide des familles d’activité, regroupant des activités ayant un même type de finalité générale (Bourmaud, 2006 ; Bationo-Tillon & Rabardel, 2015).

43D’autre part, il nous a semblé important d’étudier l’activité instrumentée par les chatbots dans sa dimension temporelle. Ce point consiste principalement à contextualiser les situations observées dans un empan plus large et de manière holistique. Dans cette visée, nous avons donc formalisé les situations observées en chroniques d’activité. La chronique d’activité vise à mettre en forme le relevé d’observation. Pour ce faire, nous nous sommes appuyés sur les commentaires d’activité des sujets observés.

44La section suivante présente une synthèse des résultats empiriques issus de l’étude. Elle vise à illustrer le type de résultats obtenus à partir d’une approche de l’activité instrumentée par les chatbots.

Une analyse de l’activité instrumentée par des chatbots

Des chatbots : quels instruments possibles ?

Des chatbots non pensés dans leurs rapports aux artefacts existants

45Tout d’abord, notre étude révèle que les chatbots ne sont pas adaptés aux contextes d’utilisation dans lesquels ils sont déployés. Nous présentons ici plusieurs démonstrations afin d’illustrer ce point.

46Pour commencer, les chatbots ne sont pas correctement intégrés dans les artefacts existants mobilisés par les sujets pour rechercher de l’information d’entreprise, ce qui limite voire empêche l’émergence de genèses instrumentales :

« Je suis allée justement sur [le portail d’entreprise], j’ai tapé “chatbot” sur la barre de recherche. Au lieu de sortir l’appli, il m’a sorti des articles qui, eux, me renvoyaient sur des pages vides. Là, je suis revenue sur la Home du [portail d’entreprise], et dans le menu à gauche, déroulant, vous avez les chatbots. (…) C’est pas possible de me sortir les articles. J’ai autre chose à faire que de chercher dans les articles. »
(Entretien 17, Utilisatrice, sujet 2, CB juridique)

47La chronique d’activité ci-dessous illustre à ce titre l’activité d’un sujet souhaitant effectuer une recherche d’informations juridiques pour la première fois via le chatbot. La chronique d’activité dresse l’enchaînement des actions opérées par le sujet pour accéder au chatbot juridique : il en réalisera en tout 37, consistant principalement en une succession d’ouvertures d’onglets et de consultations de contenu pour tenter d’accéder à l’interface du chatbot.

Figure 3. Chronique d’activité de recherche d’accès au chatbot juridique. 
Figure 3. Chronicle of legal chatbot access activity

Figure 3. Chronique d’activité de recherche d’accès au chatbot juridique.  Figure 3. Chronicle of legal chatbot access activity

48Dans la même veine, les « experts » métier chargés de l’organisation des déplacements professionnels évoquent la confusion des usagers et usagères entre le chatbot (pour rechercher des informations) et l’interface de réclamations sur laquelle ils peuvent solliciter le traitement personnalisé d’un dossier problématique. Le chatbot, en anonymisant les conversations, ne permet pas à l’équipe support de traiter une réclamation qui aurait été faite par un usager. Ce cas souligne l’absence de prise en compte des artefacts existants (ici, l’outil en ligne de réclamation) afin d’ajuster le rôle, la forme ou encore la pertinence même du chatbot.

Des chatbots non accessibles aux personnes en situation de handicap

49De plus, les chatbots ne sont pas dotés d’outils normatifs pour les sujets en situation de handicap. Ils empêchent en particulier l’accès à leurs contenus pour les sujets salariés du groupe en situation de handicap visuel (cécité, trouble de la vision, daltonisme, achromatopsie) et ne proposent pas de dispositifs d’accès alternatifs. Par exemple, les chatbots n’offrent pas d’alternatives de contrastes ou la possibilité d’ajuster la taille de la police. Cette absence de prise en compte de la diversité d’usagers empêche toute forme d’instrumentalisation des chatbots par les utilisateurs et utilisatrices en situation de handicap du groupe :

« Bonjour, étant très mal voyant, je me disais qu’il serait plus simple de poser une question en tapant du texte dans ce petit robot… Je vois deux difficultés à l’usage par mes collègues très mal voyants. A) L’application s’ouvre dans une fenêtre, en fait une fenêtre virtuelle du navigateur… Cette fenêtre est très difficile à atteindre pour des outils utilisés par les personnes très malvoyantes n’ayant plus un reste visuel suffisant pour travailler qu’avec la vue… D’autre part, la retranscription des réponses est au-dessus de la fenêtre des questions, ce qui permet a priori pas aux outils adaptés type synthèse de parole ou plage braille de restituer les réponses… »
(Commentaire issu de la collection de récits d’expérience)

50Ici, le sujet concerné exprime une volonté d’étendre les propriétés du chatbot à des artefacts qui, habituellement, lui offrent la possibilité d’accéder à des contenus du Web (synthèse vocale, plage braille). Or, les chatbots empêchent actuellement la constitution par le sujet de ce type de fonctions.

Des chatbots interférant dans les médiations aux sujets « experts » métier

51Enfin, il ressort de notre étude la nécessité pour les utilisateurs et utilisatrices de pouvoir continuer à s’adresser à un humain « expert » métier. Or, l’arrivée des chatbots freine l’accès aux humains. La direction juridique demande par exemple aujourd’hui aux juristes de renvoyer directement les sujets vers le chatbot :

« L’opérationnel va directement appeler le juriste alors que le juriste sait que la réponse est sur le chatbot. Le juriste va dire “La réponse est sur le chatbot, je vous invite à consulter le chatbot. La réponse est déjà rentrée dessus” (…) C’est ce qu’on essaye d’inciter à faire parce que c’est comme ça qu’on instaurera un vrai usage par les utilisateurs du chatbot. »
(Entretien 21, Commanditaire, CB juridique)

52Il est intéressant de voir alors que les sujets instrumentalisent le chatbot pour tenter d’accéder à un contact humain, en exprimant textuellement la demande : « où trouver les coordonnées de mon accueil téléphonique RH ? ». Ils instrumentalisent en outre d’autres espaces pour tenter d’adresser un message aux « experts » métier, en passant notamment par les forums du portail d’entreprise. La médiation du sujet vers l’objet de son activité est alors soutenue par d’autres ressources que par les chatbots.

Des chatbots ne permettant pas la remobilisation de schèmes existants

53Les chatbots ne permettent pas aux sujets de mobiliser des schèmes existants, ce qui freine l’émergence de genèses instrumentales. Les concepteurs et commanditaires ont par exemple une idée précise de la manière dont doit être utilisé le chatbot avec une « vraie » question, c’est-à-dire formulée par une phrase grammaticalement correcte :

« Les utilisateurs ne devraient pas poser les questions par mots-clés car cela va à l’encontre du principe du chatbot qui doit répondre à des questions plus complètes. »
(Entretien 21, Commanditaire, CB juridique)

54Or, la consultation du back-office des chatbots ainsi que les entretiens avec les superviseurs et superviseuses laissent apparaître une autre tendance : celle de l’usage massif des requêtes par mots-clés. Cette invariance témoigne à notre sens de la créativité des sujets en situation, mais aussi de la robustesse des schèmes existants. Ce phénomène, à première vue anodin, est intéressant lorsque l’on sait qu’une large communication est opérée pour inciter les sujets à « faire des phrases, comme s’ils parlaient à un humain ». Nous sommes ici face à un processus d’assimilation puissant, au cours duquel l’ensemble des sujets mobilisent un schème existant associé à l’artefact « barre de recherche ». L’instrument qui en résulte – les requêtes par mot-clé – est le fruit d’une genèse instrumentale émergente et culturellement partagée.

55Autre exemple : les chatbots ne permettent pas l’archivage des informations qu’ils communiquent aux sujets. Or, nous avons observé chez certains sujets la prégnance d’un schème d’archivage d’informations, pouvant par ailleurs être assimilé à différents artefacts. Il faut en effet souligner que les sujets rencontrés manifestent un intérêt à archiver les informations récoltées lors des recherches d’informations, peu importe les ressources mobilisées pour effectuer cette recherche. Les « experts » métier chercheurs vont ainsi réaliser des impressions, constituer des piles de dossiers ou encore mettre de côté des informations dans des fichiers informatiques. Ces informations sont stockées et classées en vue d’être consultées à court, moyen ou long terme. Or, les chatbots actuels ne permettent pas de mobiliser ce schème. La chronique d’activité ci-dessous présente une situation dans laquelle le sujet opère une tentative d’archivage d’informations.

Figure 4. Chronique d’activité d’archivage de l’information. 
Figure 4. Chronicle of information archiving activity

Figure 4. Chronique d’activité d’archivage de l’information.  Figure 4. Chronicle of information archiving activity

56Nous observons d’abord que le temps passé par le sujet à l’archivage est plus important que celui passé à effectuer une recherche d’informations. D’autre part, alors que le sujet n’effectue que 2 actions pour la recherche d’informations, il en réalise 5 pour archiver le résultat consulté. Enfin, l’essentiel du temps est passé à identifier un moyen d’archivage. En effet, le sujet n’identifie pas tout de suite l’icône en haut et à droite de l’interface du chatbot permettant de s’envoyer par courriel le résultat fourni par le chatbot. Le sujet clique dessus et doit encore renseigner son adresse électronique. Lorsqu’il reçoit le mail, la formule apparaît dans un format .png (sous forme d’image). Le sujet ne pourra par conséquent pas exploiter directement l’information. Dans cette situation, nous voyons donc se succéder une série de problématiques qui limitent voire empêchent l’instrumentalisation du chatbot autour du schème d’archivage.

57Enfin, l’observation d’une situation (#S6_Jur) permet d’observer l’émergence chez le sujet de schèmes qui ne semblent pas adaptés à l’artefact chatbot. Sur l’interface du chatbot juridique, un lien est mis en saillance (souligné, rouge) (Figure 5). Il suscite chez l’utilisatrice un schème robuste de cliquage : le sujet tente une dizaine de cliquages et finit par s’énerver :

« Alors, déjà, le “Cliquez” ici. Moi, ça m’énerve. Ça me rend ouf. (…) C’est-à-dire qu’il mélange des codes couleurs et, comment dire, des typos. (…) Par rapport à la norme qui se fait sur tout Internet, et bah [l’Entreprise] fait tout l’inverse. Ça, ça me rend ouf. Je ne sais pas quoi, mais j’ai envie de cliquer dessus. (…) Là, je m’attends à cliquer. J’ai envie de cliquer dessus. »

Figure 5. Capture de l’écran de l’interaction textuelle avec le chatbot. 
Figure 5. Screenshot of text interaction with the chatbot

Figure 5. Capture de l’écran de l’interaction textuelle avec le chatbot.  Figure 5. Screenshot of text interaction with the chatbot

58Le processus d’instrumentalisation est ici empêché : la situation devient inconfortable pour le sujet qui va devoir transformer et réorganiser ses schèmes afin de répondre à cette nouvelle situation.

Des formes de travail supplémentaire

59Les chatbots entraînent en outre des formes de travail supplémentaire pour les « experts » métier alors même qu’ils sont mis en avant par l’entreprise comme capable de décharger le travail en prenant en charge une partie des activités. Les sujets pourraient ainsi solliciter les chatbots dès lors qu’ils requièrent une information (figure 6).

Figure 6. Modélisation du rapport sujet-chatbot promis par l’entreprise. 
Figure 6. Model of subject-chatbot relationship promised by the company

Figure 6. Modélisation du rapport sujet-chatbot promis par l’entreprise.  Figure 6. Model of subject-chatbot relationship promised by the company

60Ces chatbots, ainsi décrits comme des leviers de performance, vont en réalité devoir être alimentés par les humains eux-mêmes (figure 7). Les processus de conception de chacun des chatbots sont similaires : en théorie, le dispositif se présente sous la forme d’une base de connaissances que les « experts » métier doivent nourrir. Ces connaissances sont ainsi mises à jour, augmentées, remplacées par les « experts » métier au fil des utilisations, notamment grâce à une « une console d’administration ne requérant aucune compétence en développement et permettant de créer, gérer, suivre et mesurer les conversations » (DYDU, 2020).

Figure 7. Modélisation du rapport sujet-chatbot réel. 
Figure 7. Model of the real subject-chatbot relationship

Figure 7. Modélisation du rapport sujet-chatbot réel.  Figure 7. Model of the real subject-chatbot relationship

61En réalité, l’intégration de ces connaissances requiert des compétences de problématisation et d’analyse des besoins, ainsi que des capacités à traduire une terminologie professionnelle en langage accessible au plus grand nombre. Ces interventions humaines, non prévues et non attendues par les « experts » métier, sont source de désenchantement face à un outil présenté jusqu’alors comme en rupture totale avec l’existant :

« Je m’attendais à ce qu’il y ait de l’IA dans la création même du chatbot (…) Le chatbot se débrouillait pour avaler ces compétences et qu’on ait plus qu’à l’interroger. »
(Entretien 9, « Expert » métier, sujet 3, CB chercheur)

62Cette activité de création de connaissances peut être d’autant plus mal vécue qu’elle est fortement prescrite par les commanditaires chargés de l’intégration des chatbots dans les équipes. Ces injonctions peuvent être malvenues pour des « experts » métier qui peinent en plus à identifier le bénéfice futur de l’outil pour leur activité :

« Je savais que personne ne poserait jamais ces questions [au chatbot] car c’est un domaine trop spécifique, mais il fallait faire un maximum de questions rapidement. Alors j’ai listé des définitions. »
(Entretien 19, Expert « métier », sujet 2, CB juridique)

63De plus, les utilisateurs et utilisatrices qui vont solliciter le chatbot, s’ils parviennent à avoir des résultats satisfaisants de la part du chatbot, vont parfois vouloir demander confirmation aux humains. Une utilisatrice interrogée raconte le courriel envoyé à une juriste après une situation d’utilisation du chatbot juridique :

« “J’ai tapé ça sur le chatbot, voici la réponse, est-ce tu me confirmes bien que si demain je fais un film pour Commerce, comme y a une utilisation commerciale derrière, il faut demander l’autorisation ?” Je redemande confirmation et moi je fais pas confiance au moteur. »
(Entretien 17, Utilisatrice, sujet 2, CB juridique)

64Il est intéressant de voir ici que malgré une médiation sujet-objet a priori correctement soutenue par le chatbot, le sujet souhaite s’inscrire dans un rapport aux autres sujets (ici, l’« expert » métier) pour faire valider l’information fournie par le chatbot.

L’évolutivité des chatbots mise à mal par l’absence de médiations interpersonnelles entre catégories de sujets

65Pour mener à bien l’activité de supervision, les superviseurs et superviseuses vont mobiliser les conversations utilisateurs-chatbots comme une matière première à polir pour faire évoluer les dispositifs. Les superviseurs et superviseuses sont alors chargés d’analyser les conversations pour améliorer les connaissances de ces derniers et les rendre plus adéquates aux besoins des utilisateurs et des utilisatrices. L’analyse des questions posées auxquelles le chatbot n’a pas su répondre va contribuer à enrichir progressivement les connaissances de ce dernier. Cette analyse permet également d’identifier les besoins et d’ajuster l’ajout de nouveaux contenus afin de couvrir au maximum les besoins récurrents des usagers et usagères. L’évolutivité des chatbots est donc directement liée à ce travail d’analyse des conversations et d’élaboration de nouvelles connaissances qui en découle. Néanmoins, il est important de souligner que l’analyse des conversations se concentre exclusivement sur les conversations « en échec » du point de vue de la machine, c’est-à-dire les questions auxquelles le dispositif n’a pas réussi à associer de réponses (figure 8) :

Figure 8 : Illustration de conversation « en échec ». 
Figure 8: Illustration of a “failed” conversation

Figure 8 : Illustration de conversation « en échec ».  Figure 8: Illustration of a “failed” conversation

66Les conversations « réussies », toujours du point de vue de la machine, constituent quant à elles des interactions durant lesquelles les chatbots sont parvenus à associer une question avec une ou plusieurs connaissances. En réalité, du point de vue des usagers et des usagères, cette capacité du dispositif à rattacher une requête à une réponse n’est pas un gage de conversation satisfaisante.

67Une utilisatrice observée durant notre étude a réalisé une requête auprès du chatbot juridique. Elle s’interroge sur les démarches légales à suivre pour déposer une marque. Suite à sa requête, le chatbot associe cinq réponses. C’est donc, du point de vue de la machine, une conversation « réussie. » Or, l’usagère exprime un avis mitigé sur les réponses apportées par la machine : ce sont des réponses en lien avec sa question, « pas inintéressantes », mais n’apportant aucune réponse précise. Dans l’une des réponses, le chatbot invite par exemple l’usagère à contacter la Direction juridique. Elle commente :

« (…) Disons qu’il m’a quand même orientée. Mais je m’en doutais… Il m’a quand même bien orientée vers la DJ [Direction juridique]. (…) Par rapport à la DJ, je me doute puisque je suis sur le chatbot juridique… »
(Extrait d’observation, commentaire de l’utilisatrice, segment #S6_Jur)

68Son appréciation est donc nuancée : le chatbot a donné des réponses correctes, soit, mais n’a pas répondu au besoin réel de l’usagère. Ici, si le critère d’évaluation est la qualité de la réponse apportée et son adéquation aux besoins réels de l’usagère, alors la conversation a échoué. Du point de vue de la machine, en revanche, la conversation est considérée comme « réussie. »

69À la fin de cet échange, l’usagère souhaite pouvoir exprimer un avis sur cet échange, contextualiser cette requête et partager un ressenti. Elle se retrouve pourtant face à un choix binaire : « Êtes-vous satisfait ? » lui demande le chatbot, « OUI ou NON. » Son expérience est nuancée : elle n’est ni pleinement satisfaite ni complètement insatisfaite. Elle décide de quitter la page sans donner d’avis. Sans informations sur le contexte de cet échange et sur le point de vue réel de l’usagère, le superviseur du chatbot considérera cette conversation comme « réussie. » La conversation ne sera donc pas analysée pour faire évoluer le chatbot.

La dimension constructive de l’activité instrumentée par les chatbots

70Dans ce dernier axe, nous avons souhaité observer et analyser la dimension constructive de l’activité afin de mettre en relief la créativité du sujet dans l’usage des chatbots. Nous avons précisé que nous conceptualisons l’humain comme sujet capable en devenir qui se développe, agit, accroît ses compétences et sa professionnalité (Pastré, 2011a ; Samurçay & Rabardel, 2004).

Des prémisses de genèses instrumentales pour différentes catégories de sujets

71Tout d’abord, nous avons identifié des motifs amenant les sujets à se saisir des chatbots malgré les limites qu’ils présentent. Il faut d’ores et déjà noter que ces motifs concernent tout à la fois les utilisateurs ou utilisatrices et les « experts » métier. Il est important de le souligner, car le processus de conception oriente actuellement les chatbots à l’intention des sujets utilisateurs et utilisatrices uniquement.

72Côté utilisateurs et utilisatrices, les chatbots apparaissent tout d’abord comme une nouvelle possibilité d’avoir de l’information de premier niveau très rapidement (7/10 sujets). Par exemple, les utilisateurs et utilisatrices du chatbot juridique perçoivent un intérêt dans un chatbot susceptible de traduire la complexité du domaine juridique par une information de premier niveau, et ce à n’importe quelle heure de la journée. Cette caractéristique est particulièrement intéressante pour les personnes ayant des horaires atypiques, comme un préventeur sécurité en travail posté que nous avons rencontré. Le chatbot constitue donc un premier filtre guidant vers des réponses ne nécessitant pas de précisions particulières. Sur ce point, l’interface du chatbot limite l’ampleur du contenu fourni. Ses réponses courtes peuvent d’ailleurs provoquer chez l’utilisateur ou l’utilisatrice de la frustration. Néanmoins, le chatbot peut tirer parti de cette caractéristique, notamment par rapport à des bases de données vastes (moteur de recherche, base de données interne) où les connaissances semblent très étendues et pour lesquelles le chatbot, lui, n’en « met pas des tartines ». Ici, le chatbot peut agir en guide vers des sources d’information filtrées :

« (…) Parce qu’entre accueillir quelqu’un avec une armada de docs sans connaître la teneur, la profondeur, la qualité, c’est là où le temps est… Avoir fait ce filtre et dire quel est le chemin le plus efficace pour monter en compétence, c’est la plus‑value. »
(Entretien 3, Utilisatrice, sujet 1, CB chercheur)

73Dans cette veine, les chatbots sont aussi identifiés comme des outils filtrant de l’information estampillée par l’Entreprise et donc fiabilisée (6/10 sujets). Les documents et informations fournis y sont considérés comme fiables (contrairement à ceux trouvés sur le Web, par exemple) :

« Les communicants (…) ils disent “OK, c’est pas juste la lubie (…), c’est un doc qui vient de l’équipe juridique par le chatbot !” »
(Entretien 17, Utilisatrice, sujet 2, CB juridique)

74Si cet aspect est un vrai bénéfice à valoriser, il est à contrebalancer avec le frein que peut constituer le manque de confiance lié à la méconnaissance de la valeur du contenu. Les personnes ne vont actuellement pas oser s’en contenter, faute de pouvoir identifier la valeur réelle du contenu proposé par les chatbots. Elles vont diversifier leurs sources d’informations, notamment en sollicitant les « experts » métier dans le but de conforter les résultats proposés par les chatbots. Connaître valeur et origine participe à l’émergence d’une confiance nécessaire au processus de genèse instrumentale.

75Une autre caractéristique du chatbot émerge à travers les premières utilisations effectuées par les utilisateurs et utilisatrices : sa capacité à suggérer de l’information annexe à la demande initiale formulée par les sujets (3/10 sujets). En effet, le chatbot autosuggère des contenus connexes à la demande formulée, par association de mots-clés. Dans cette veine, les sujets peuvent être amenés à « déambuler » dans le chatbot, de résultat en résultat, pour glaner des thématiques voisines au sujet de recherche en cours :

« Et puis finalement avec un mot-clé simple, j’ai eu plein de suggestions. Du coup, ça a été plutôt une ouverture sur des informations qu’il y avait dans le chatbot. (…) J’ai détourné l’usage. Je me suis mis à l’utiliser un peu comme un livre en disant “Tiens, qu’est-ce qu’il y a là-dedans à ce sujet-là ? Qu’est-ce que [l’expert] a entré dans le chatbot et si je parcourais ?” »
(Entretien 1, Utilisateur, sujet 2, CB chercheur)

76Le chatbot est en outre perçu comme un outil de contournement des ressources existantes pour opérer des demandes de manière anonyme (2/10 sujets). Lors de nos observations, un sujet nous explique être gêné à l’idée de contacter directement une personne, dont il vient de retrouver le contact, pour accéder à une information juridique. Un autre aspect est lié à la gêne pouvant être occasionnée par le fait de « trop » solliciter les collègues. Le chatbot apparaît alors comme un moyen de gagner en autonomie vis-à-vis de ses pairs (8/10 sujets). Par exemple, un jeune chercheur nouvellement arrivé peut sentir de la gêne à solliciter les individus.

77Le chatbot apparaît enfin comme un outil d’harmonisation collective, notamment pour accéder à une information centralisée et mise à jour (3/10 sujets). C’est par exemple le cas des chercheurs et chercheuses qui perçoivent dans le chatbot un outil plus pertinent que les fiches numérisées qu’ils mobilisaient jusqu’à présent. Consultées de manière indépendante par les uns et les autres, ces dernières pourraient devenir obsolètes :

« Le danger des fiches, on le connaît, c’est que chacun a sa propre version dans six mois… (…) et du coup, si elles ne sont pas mises à jour régulièrement, ça va finir par ne plus être utilisé. »
(Entretien 1, Utilisateur, sujet 2, CB chercheur)

78Ici, l’outil chatbot propose une centralisation des informations, et donc une base sur laquelle chacun dispose individuellement de connaissances partagées et actualisées. Aussi, l’évolutivité potentielle du chatbot est clairement identifiée par les chercheurs et les chercheuses comme l’apport principal du dispositif.

79Pour les « experts » métier, le chatbot est mobilisé pour stocker et centraliser de la documentation mise à jour (6/9 sujets), notamment pour améliorer la transmission des documents aux salariés. Ainsi, des « experts » métier vont parfois se saisir du chatbot pour rechercher une information qu’ils transmettront eux-mêmes, par courriel par exemple, aux utilisateurs et utilisatrices. Le chatbot permet en outre d’homogénéiser les réponses délivrées aux utilisateurs et utilisatrices (4/9 sujets). L’accès à cette information homogénéisée va alors consister à se protéger en s’assurant de la fiabilité de l’information :

« Parfois, le droit, on a tendance à l’interpréter. Il y a des pratiques qui différencient d’un site à l’autre comme dans toutes les entreprises. C’est très sécurisant pour les RH. (…) Il apporte les mêmes réponses à un nombre de personnes très important. Que je sois à Angers, à Paris ou à Toulouse, j’aurai la même réponse. »
(Entretien 26, « Expert » métier, CB RH)

80Il est important de souligner ici en conclusion que les chatbots ne sont à aucun moment identifiés par les sujets (utilisateurs/utilisatrices et « experts » métier) comme de potentielles sources de gain de temps et de diminution de la charge de travail, contrairement aux motifs d’introduction mis en avant dans la communication de l’entreprise.

Les élaborations instrumentales au fil de l’utilisation

  • 8 Nous déjeunions à la cantine de l’entreprise lorsqu’une salariée a évoqué le besoin d’une recherche (...)

81Face aux chatbots, les sujets ont des attentes qui résultent de situations analogues qu’ils opèrent au quotidien avec d’autres artefacts présentant des propriétés similaires et dont ils ont incorporé des types d’utilisation à travers des schèmes mobilisables (Rabardel, 1995). Dans le cadre de notre étude, nous avons pu observer une première expérience d’utilisation du chatbot8. Cette situation est intéressante car elle constitue une première expérience d’utilisation du sujet et permet d’observer comment la mobilisation de schèmes existants vise pour lui à se familiariser avec le chatbot. Elle témoigne ainsi d’une genèse instrumentale à l’œuvre, notamment à travers un processus d’instrumentation. Dès le début de la situation observée, le sujet réfléchit à la manière de formuler sa requête et convoquent des représentations pour l’action qui se traduisent par des « paris » sur le fonctionnement futur du dispositif :

« Ah, comment je vais poser la question ? Qu’est-ce qui fait que je vais reformuler ? Parce que j’anticipe que la question n’est pas générique. Je suppute que la question n’est pas générique. »
(Extrait d’observation, commentaire de l’utilisatrice sur son activité)

82La formulation d’hypothèses sur le fonctionnement du chatbot témoigne d’une élaboration épistémique orientée vers la prise de connaissance de l’objet (comment poser ma question pour obtenir une réponse pertinente ?). Dès lors, il est intéressant de constater que cette construction épistémique est portée par une analogie aux ressources existantes du sujet. Le sujet évoque la manière dont il effectuerait sa demande d’information « par mail », « à l’oral » ou dans le moteur de recherche du portail d’entreprise. Le sujet s’appuie donc ici sur des connaissances antérieures ; il fait en quelque sorte un « inventaire » des schèmes mobilisables, mais c’est dans cette dernière analogie (moteur de recherche) que le sujet vient puiser un schème existant lui permettant d’effectuer une première tentative de requête avec le chatbot. Ici, le processus d’instrumentation conduit le sujet à faire émerger un schème de requête par mots-clés qui lui semble pertinent pour interagir avec le chatbot.

83Le sujet poursuit sa réflexion épistémique sur le fonctionnement du chatbot, mais cette fois en tâchant de circonscrire les capacités de ce dernier : « Pour moi, il y a un niveau d’analyse dessus qu’un chatbot ne peut pas traiter. » Dès lors, le sujet sait que l’élaboration d’une nouvelle représentation pour l’action va émerger par tâtonnement, en essayant et en ajustant ses requêtes : « Je verrai comment il répond et en fonction… » Le sujet fait des essais de formulations et élabore peu à peu un schème d’utilisation, inscrivant son activité dans un double processus développemental orienté tout à la fois vers l’artefact (instrumentalisation du chatbot par la mobilisation de différents schèmes existants) et vers lui (instrumentation par l’élaboration d’un schème adapté pour interagir avec le chatbot). Cette élaboration instrumentale se poursuivra progressivement jusqu’à la fin de cette activité de recherche d’informations.

84De manière générale, les attentes mises à mal, les surprises, les inattendus participent au façonnement d’une compréhension du dispositif, à condition néanmoins que les actions du chatbot soient homogènes. Ici, le sujet découvre les propriétés intrinsèques du chatbot au fil de l’activité et actualise ses propres schèmes. Il est intéressant de noter que le processus d’instrumentation est le fruit d’une construction de représentations pour l’action du dispositif qui s’actualise au fil de l’activité. Il vient remettre à jour des connaissances antérieures, élaborées lors de l’utilisation de dispositifs techniques similaires. En somme, l’observation fine de cette activité nous permet d’explorer un processus de genèse instrumentale en cours, notamment du point de vue de la dimension constructive de l’activité. Il est en particulier intéressant d’observer que le sujet fait appel à des connaissances antérieures – notamment des représentations pour l’action – qui peuvent parfois ne pas s’avérer appropriées, ce qui met le sujet en difficulté voire peut empêcher l’activité, mais le conduit à élaborer, au travers de processus d’instrumentation, de nouvelles représentations et schèmes plus adaptés :

« [Elle clique sur un lien] Donc là, implicitement, je me dis que ça va télécharger, que ça ne va pas changer ma page. »
(Extrait d’observation, commentaire de l’utilisatrice sur son activité)

Conclusion-Discussion

L’approche instrumentale : un cadre efficient pour souligner les apports et les limites des chatbots en situation

85Notre travail propose un nouvel éclairage sur l’activité instrumentée par les chatbots en contexte professionnel en mettant en lumière les limites et les apports des chatbots actuellement déployés à travers le prisme des genèses instrumentales. Cette approche permet de caractériser les processus d’appropriation (ou de rejet) des chatbots en tenant compte du tissu social, matériel et culturel dans lequel ils s’insèrent. Les résultats empiriques issus de cette étude ont par ailleurs donné lieu à 15 grands axes de recommandations pour la conception de chatbots instrumentalisables favorisant le développement des sujets (Gras Gentiletti, 2022).

86Nous avons ainsi pu montrer que les chatbots actuels peinent à soutenir les objets de l’activité, notamment parce qu’ils ne sont pas correctement intégrés aux artefacts utilisés aujourd’hui par les sujets ou qu’ils ne permettent pas de mobiliser des schèmes existants. D’autre part, nous avons pu révéler l’existence des processus d’instrumentalisation empêchés par des prescriptions d’usage. Dans le même temps, l’analyse de l’activité instrumentée par les chatbots permet d’éclairer les apports de tels artefacts lorsqu’ils sont mobilisés dans le cours naturel des situations de travail. En effet, des prémisses de genèses instrumentales mettent en évidence les potentiels des chatbots en tant que solution technique, notamment sur ce qui pouvait apparaître à première vue comme des limites. Par exemple, s’ils constituent des canaux d’informations relativement étroits, ils mettent l’accent sur une information de premier niveau validée par l’Entreprise, contrairement au Web, et en facilitent donc la prise d’informations par le sujet.

  • 9 Pour rappel, les « fonctions constituées » sont attribuées à l’artefact par le sujet lui-même (Raba (...)

87Mais l’apport principal d’une étude de l’activité instrumentée par les chatbots à travers le prisme des genèses instrumentales est de mettre en exergue la pertinence de l’IA et de faire surgir concrètement les interstices de l’activité où les capacités techniques d’apprentissage pourraient être pertinentes pour l’activité du sujet. En effet, les genèses instrumentales qui émergent dans l’usage des chatbots invitent à interroger la pertinence de l’IA, par exemple lorsqu’une des fonctions constituées9 par les sujets est le stockage de documentation. Sur ce point, les chatbots reproduisent des fonctionnalités déjà disponibles dans les applications métier de l’Entreprise. D’un autre côté, des fonctions constituées mettent directement en relief la nécessité d’intégrer aux chatbots des techniques d’apprentissage. C’est par exemple le cas de la fonction d’autosuggestion, qui ouvre un pan d’activité pour les utilisateurs et les utilisatrices et qui augmente en ce sens leur pouvoir d’agir. Cet aspect attire en particulier notre attention, car il pourrait bien jouer un rôle sur l’évolution progressive des objets de l’activité durant le cours de l’activité. Enfin, cela signifie de notre point de vue que la pertinence de l’IA doit être discutée sur le plan des fonctions plutôt qu’à l’échelle du dispositif technique global. Ce point est important, car il permet de repositionner l’innovation vers le pouvoir d’agir des sujets plutôt que vers les performances techniques des outils.

Une approche centrée sur lecollectifs de sujets

88D’autre part, l’approche instrumentale intègre nécessairement une vision systémique grâce à laquelle il est possible de sortir de l’unité d’analyse circonscrite à l’interaction entre le sujet et le dispositif technique. L’un des apports de notre étude est notamment la mise en lumière d’une diversité de sujets. La pluralité d’utilisateurs et d’utilisatrices autour d’un même dispositif technique n’est pas nouvelle et a déjà été documentée à de nombreux égards pour d’autres types de dispositifs techniques. Néanmoins, les travaux centrés sur les chatbots sont généralement traités à partir de l’analyse de l’activité de la catégorie « utilisateur final » (Brandtzæg & Følstad, 2017 ; Budiu, 2018 ; Skjuve & Brandzæg, 2018 ; Thies et al., 2017). Nous pensons à ce titre que notre étude vient compléter l’état de l’art existant en proposant d’articuler la pluralité de sujets gravitant autour des chatbots. Nous avons ainsi montré qu’une pluralité de catégories de sujets gravite autour des dispositifs techniques. Dans le cas de dispositifs techniques évolutifs, il est nécessaire de soutenir les médiations entre ces catégories de sujets. En effet, ces espaces, tournés vers l’« interorganisation orientée objet » selon Engeström (2005), laissent entrevoir l’articulation des genèses instrumentales qui se joue à la frontière des systèmes d’activité de chacun. Ce regard holistique permet de comprendre comment l’artefact chatbot va être instrumentalisé individuellement pour soutenir un objet commun visant l’amélioration du dispositif technique d’amélioration du chatbot. Ce dernier point semble faire écho aux travaux de Casilli (2019, p. 74‑80) sur les plateformes numériques, infrastructures mettant « en relation de dépendance des groupes d’individus ». Nous pensons ici que les médiations entre sujets offrent justement des espaces pour saisir les tensions et les régulations autour du chatbot qui favorisent ou empêchent la coordination entre différentes catégories de sujets.

89En ce sens, nous avons recommandé à l’issue de notre étude de renforcer les médiations épistémiques collectives qui permettraient à l’ensemble du collectif de prendre connaissance des activités de supervision individuelle. D’autre part, nous avons montré la manière dont superviseurs et superviseuses pouvaient se saisir des traces de l’activité des utilisateurs et utilisatrices. Dans ce cas, il est nécessaire de soutenir les médiations interpersonnelles entre catégories de sujets, parce qu’elles garantissent une évolutivité des dispositifs techniques basée sur les préoccupations réelles et collectives.

Concevoir à partir du postulat de l’asymétrie humain‑machine

90L’approche holistique de cette étude confirme en outre le postulat de l’asymétrie humain-machine en mettant en exergue l’existence du fossé entre la perspective humaine et la perspective machine concernant ce qui caractérise une conversation « réussie ». Ce résultat permet notamment aujourd’hui de nuancer les recommandations formulées par les équipes de recherche Human Computer Interaction de Microsoft, qui préconisent aux acteurs et actrices de la conception de rectifier le comportement d’un système IA lorsque celui-ci se trompe (Amershi et al., 2019). Nos résultats conduisent à recommander des rectifications lorsque le système se trompe, mais aussi lorsqu’il ne fait a priori pas d’erreurs. Nous avons en effet montré qu’une conversation « réussie » du point de vue du chatbot pouvait être considérée comme insatisfaisante du point de vue des sujets.

91Face à ce constat, une approche développementale de l’activité est pertinente pour considérer l’ampleur du défi de la supervision continue et de l’amélioration itérative du chatbot. Ce que pointe en fait ce résultat, c’est que l’« intelligence » du chatbot est finalement progressivement façonnée par un collectif de sujets en interaction gravitant autour de lui et que cette interaction doit être soutenue, en tenant compte des médiations interpersonnelles dans la conception, pour faire évoluer le chatbot dans le sens des préoccupations des sujets.

S’inscrire dans une approche de conception pour et dans l’usage

92Afin de concevoir des instruments favorisant le développement des sujets, Samurçay & Rabardel (2004) proposent de documenter l’activité constructive dans laquelle le sujet se transforme lui-même tout en transformant le réel. Dans le cas de notre étude, ce qui nous a intéressés était de comprendre les moments de difficulté, d’incompréhension et de rupture au sein desquels le sujet élabore peu à peu une manière « adéquate » et pertinente au regard de la situation qu’il vit d’utiliser le chatbot pour répondre aux finalités de son activité.

93En ce sens, l’approche instrumentale offre justement une perspective développementale pour la conception en documentant les activités réelles et en élaborant ainsi des connaissances sur le développement des genèses instrumentales liées à l’introduction d’un type de dispositif technique, ici les chatbots. La proposition de conception de l’approche instrumentale est alors de saisir les genèses instrumentales comme des ressources puissantes pour la conception, en articulant par allers-retours les processus de conception dans l’usage (par les sujets) et les processus de conception pour l’usage (par les concepteurs) (Rabardel, 1995 ; Folcher, 2010 ; Béguin, 2007), dans un processus distribué d’apprentissage mutuel (Béguin, 2004). Ainsi, le dispositif technique conçu n’est autre qu’une proposition artefactuelle qui est projetée dans l’usage, améliorée et largement enrichie par les sujets eux-mêmes au regard de leurs activités (Béguin & Rabardel, 2000 ; Béguin, 2004 ; Folcher, 2010). À l’issue de notre enquête, nous avons par exemple recommandé de rendre possibles les requêtes par mots-clés, et plus généralement de permettre une diversité et une alternance de modes opératoires compatibles. Cette flexibilité permettra de mieux rendre compte de la diversité des sujets et de la variabilité des situations qu’ils rencontrent.

94D’autre part, pour épouser plus largement une conception pour et dans l’usage – et reconnaître la créativité des sujets à travers la dimension constructive de leurs activités – nous avons préconisé de déployer les prototypes de chatbots à des stades précoces afin qu’ils puissent rapidement accumuler des données issues de situations d’interaction réelles et être développés pour répondre au mieux aux besoins des sujets. Le risque est alors de freiner les usagers et usagères qui, face à un dispositif « en cours de conception », délaissent le chatbot et ne réitèrent pas l’expérience d’utilisation. Cela doit donc s’accompagner d’une mise en visibilité des capacités (et des limites) techniques des chatbots, notamment sur leur caractère évolutif, mais aussi d’une valorisation du rôle de sujet‑concepteur.

Une démarche de conception tournée vers le pouvoir d’agir plutôt que vers l’innovation

95L’une des raisons ostensibles de l’introduction des chatbots dans l’entreprise est la réduction des effectifs humains (Bradshaw et al., 2013). Pour les industriels, les enjeux financiers et stratégiques relatifs à la mise en œuvre des chatbots sont extrêmement élevés (Budiu, 2018) : non seulement les chatbots constitueraient des solutions techniques susceptibles d’optimiser les gains en matière de temps et d’argent, mais ils sont aussi le signe d’une entreprise tournée vers l’avenir et l’innovation. Ces enjeux industriels ne doivent cependant pas faire l’impasse sur l’apport des chatbots pour l’activité des sujets. L’analyse de l’activité médiatisée par le chatbot propose de repositionner ces dispositifs techniques interactifs en posant la question de l’aide à l’activité humaine. Il est alors possible de voir que les chatbots ne suppriment pas l’activité des « experts » métier, mais qu’ils la transforment et introduisent de nouvelles tâches « invisibles », comme l’ont déjà montré des travaux sur l’automation (Bradshaw et al., 2013 ; Dekker & Woods, 2002) et plus particulièrement sur les agents conversationnels (Lahoual & Fréjus, 2019 ; Velkovska & Zouinar, 2018).

96Dans ce contexte, remettre l’activité des sujets au cœur du processus de conception est urgent, car les organisations, animées par une vision déformée de l’automatisation des tâches, continuent de réduire les ressources humaines. Il semble nécessaire de reconsidérer les chatbots comme des moyens de soutenir l’activité humaine, notamment en fondant la conception sur les processus de genèses instrumentales, et ce, en incluant tous les membres du système sociotechnique dans le processus de conception dès le début du projet de mise en œuvre des chatbots. Un tel changement peut constituer un levier pour mieux comprendre la pertinence de l’IA en la présentant comme une contribution positive aux activités des divers sujets du système sociotechnique. Ce même décalage amènera en outre les entreprises à rompre avec une démarche de conception tournée vers l’innovation en vertu d’une démarche orientée vers le pouvoir d’agir des humains.

Haut de page

Bibliographie

Alter, N. (2015). L’innovation ordinaire. Paris : Presses universitaires de France.

Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., Suh, J., Iqbal, S., Bennett, P. N., Inkpen, K., & others. (2019). Guidelines for human-AI interaction. In Proceedings of the 2019 CHI conference on human factors in computing systems (pp. 1‑13). Glasgow (Scotland, UK) : May 4‑9, 2019. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/3290605.3300233.

Ayache, M., & Dumez, H. (2011). Le codage dans la recherche qualitative une nouvelle perspective ? Le Libellio d’AEGIS, 7(2-Eté), 33‑46. https://hal.archives-ouvertes.fr/hal-00657490.

Bachelard, G. (1938). La formation de l’esprit scientifique. Paris : J. Vrin. https://gastonbachelard.org/wp-content/uploads/2015/07/formation_esprit.pdf.

Bationo-Tillon, A., & Rabardel, P. (2015). Chapitre 5. L’approche instrumentale : Conceptualiser et concevoir pour le développement. In F. Decortis (Eds.), L’ergonomie orientée enfants (pp. 109‑145). Paris : Presses universitaires de France. https://0-doi-org.catalogue.libraries.london.ac.uk/10.3917/puf.decor.2015.01.0109.

Béguin, P. (2004). Mondes, monde commun et versions des mondes. Bulletin de Psychologie, 57(469), 45‑48.

Béguin, P. (2007). Innovation et cadre sociocognitif des interactions concepteurs-opérateurs : Une approche développementale. Le travail humain, 70(4), 369‑390. https://0-doi-org.catalogue.libraries.london.ac.uk/10.3917/th.704.0369.

Béguin, P., & Rabardel, P. (2000). Designing for instrument-mediated activity. Scandinavian Journal of Information Systems, 12(1), (pp. 173‑190). https://aisel.aisnet.org/cgi/viewcontent.cgi?article=1098&context=sjis.

Böhm, A. (2004). Theoretical coding: Text analysis in grounded theory. In U. Flick, E. von Kardorff, & I. Steinke (Eds), A companion to qualitative research (pp. 270‑275). London (UK) : Sage.

http://www.sxf.uevora.pt/wp-content/uploads/2013/03/B%C3%B6hm_2004.pdf.

Bourmaud, G. (2006). Les systèmes d’instruments : Méthodes d’analyse et perspectives de conception. Thèse de doctorat d’ergonomie. Université Paris VIII Vincennes – Saint-Denis. https://tel.archives-ouvertes.fr/tel-00109046/document.

Bourmaud, G. (2007). L’organisation systémique des instruments : Méthodes d’analyse, propriétés et perspectives de conception ouvertes. In Actes du Colloque de l’Association pour la Recherche Cognitive-ARCo’07 : Cognition-Complexité-Collectif (pp. 61‑76), Annecy : Novembre 2007. https://hal.inria.fr/inria-00191128/document.

Bradshaw, J. M., Hoffman, R. R., Woods, D. D., & Johnson, M. (2013). The seven deadly myths of “autonomous systems”. IEEE Intelligent Systems, 28(3), 54‑61. DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.1109/MIS.2013.70.

Brandtzæg, P. B., & Følstad, A. (2017). Why people use chatbots. In I. Kompatsiaris et al. (Eds), Internet Science. INSCI 2017 (pp. 377‑392). Lecture Notes in Computer Science, vol 10673. Cham (Switzerland) : Springer. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1007/978-3-319-70284-1_30.

Budiu, R. (2018). The user experience of chatbots. Nielsen Norman Group. Consulté le 05 janvier 2022 sur https://www.nngroup.com/articles/chatbots/.

Cahour, B., Salembier, P., & Zouinar, M. (2016). Analyzing lived experience of activity. Le travail humain, 79(3), 259‑284. https://0-doi-org.catalogue.libraries.london.ac.uk/10.3917/th.793.0259.

Carroll, J., Howard, S., Peck, J., & Murphy, J. (2003). From adoption to use: the process of appropriating a mobile phone. Australasian Journal of Information Systems, 10(2), 38‑48. DOI: https://0-doi-org.catalogue.libraries.london.ac.uk/10.3127/ajis.v10i2.151.

Casilli, A. (2017). “Workers are the Heart of the Algorithm”, interview by Roberto Ciccarelli. Il Manifesto. Italie. Consulté le 18 janvier 2022 sur https://ilmanifesto.it/antonio-casilli-i-robot-non-rubano-il-lavoro-siamo-noi-il-cuore-dellalgoritmo/.

Casilli, A. (2019). En attendant les robots. Enquête sur le travail du clic. Paris : Seuil.

Coniam, D. (2014). The linguistic accuracy of chatbots: Usability from an ESL perspective. Text & Talk, 34(5), 545‑567. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1515/text-2014-0018.

Dale, R. (2016). The return of the chatbots. Natural Language Engineering, 22(5), 811‑817. DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.1017/S1351324916000243.

De Angeli, A., Johnson, G. I., & Coventry, L. (2001). The unfriendly user: Exploring social reactions to chatterbots. In Proceedings of The International Conference on Affective Human Factors Design (pp. 467‑474). London (UK) : ASEAN Academic Press.

Dejoux, C., & Léon, E. (2018). Métamorphose des managers… : à l’ère du numérique et de l’intelligence artificielle. London (UK) : Pearson.

Dekker, S. W., & Woods, D. D. (2002). MABA-MABA or abracadabra? Progress on human–automation co-ordination. Cognition, Technology & Work, 4(4), 240‑244. DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.1007/s101110200022.

Devillers, L. (2019). Le dialogue Homme-machine. Futuribles, 433, 51‑61.

Dubois, C., Salotti, J. M., Seminel, D., & Simonazzi, N. (2019). Le chatbot : un outil de la relation aux clients. Hermes, La Revue, 2, 95‑97. https://0-doi-org.catalogue.libraries.london.ac.uk/10.3917/herm.084.0095.

DYDU. (2020). Notre logiciel : Une techno boostée à l’IA. Consulté le 20 décembre 2021 sur https://www.dydu.ai/technologie/.

Engeström, Y. (1999). Activity theory and individual and social transformation. In Y. Engeström, R. Miettinen, & R. Punamäki (Eds.), Perspectives on Activity Theory (Learning in Doing: Social, Cognitive and Computational Perspectives (pp. 19‑38). Cambridge : Cambridge University Press. DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.1017/CBO9780511812774.003.

Engeström, Y. (2005). Developmental Work Research: Expanding Activity Theory in Practice (Vol. 12). Hägendorf (Suisse) : Lehmanns Media.

Ferguson, Y. (2019). Chapitre 1. Ce que l’intelligence artificielle fait de l’homme au travail. Visite sociologique d’une entreprise. In F. Dubet (Eds), Les mutations du travail (pp. 23‑42). Paris : La Découverte. https://0-doi-org.catalogue.libraries.london.ac.uk/10.3917/dec.dubet.2019.01.0023.

Folcher, V. (2010). Développement des hommes et des techniques, perspectives de conception pour et dans l’usage. Habilitation à diriger des recherches. Université Paris VIII Vincennes – Saint‑Denis.

Følstad, A., & Brandtzæg, P. B. (2017). Chatbots and the new world of HCI. Interactions, 24(4), 38‑42. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/3085558.

Freud, S. (2013). Conseils au médecin dans le traitement psychanalytique. In S. Freud, La technique psychanalytique (pp. 71‑80). Paris : Presses universitaires de France.

Glaser, B. G., & Strauss, A. L. (2010). La découverte de la théorie ancrée : Stratégies pour la recherche qualitative. Paris : Armand Colin.

Gras Gentiletti, M. (2022). Soutenir la dimension constructive de l’activité instrumentée par des dispositifs techniques à base d’intelligence artificielle : Une approche développementale de la conception centrée sur le modèle du sujet capable. Thèse de doctorat en ergonomie. Université Paris VIII Vincennes – Saint‑Denis.

Hill, J., Ford, W. R., & Farreras, I. G. (2015). Real conversations with artificial intelligence: A comparison between human–human online conversations and human–chatbot conversations. Computers in human behavior, 49, 245‑250. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1016/j.chb.2015.02.026.

Ho, J. & Intille, S. S. (2005). Using context-aware computing to reduce the perceived burden of interruptions from mobile devices. In Proceedings of the SIGCHI ’05: Conference on Human Factors in Computing Systems (pp. 909–918). New York (NY, USA) : Association for Computing Machinery. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/1054972.1055100.

Holtgraves, T. M., Ross, S. J., Weywadt, C., & Han, T. (2007). Perceiving artificial social agents. Computers in human behavior, 23(5), 2163‑2174.

Jain, M., Kota, R., Kumar, P., & Patel, S. N. (2018). Convey: Exploring the use of a context view for chatbots. In Proceedings of CHI’18: the 2018 chi conference on human factors in computing systems (Paper 468, pp. 1–6). New York (NY, USA) : Association for Computing Machinery. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/3173574.3174042

Jain, M., Kumar, P., Kota, R., & Patel, S. N. (2018). Evaluating and informing the design of chatbots. In Proceedings of DIS’18: the 2018 Designing Interactive Systems Conference (pp. 895‑906). Hong Kong (China) : June 9–13. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/3196709.3196735.

Joly P. B (2015). Le régime des promesses technoscientifique. In Audétat, M., Barazzetti, G., Benaroyo, L., Bovet, E., Glassey, O., Panese, F., & Pidoux, V. (Eds), Sciences et technologies émergentes : pourquoi tant de promesses ? Paris : Hermann. https://hal.archives-ouvertes.fr/hal-01282561.

Jonnært, P. (2009). Compétences et socioconstructivisme : Un cadre théorique. Rome (Italie) : Armando Editore.

Lahoual, D. (2017). Conceptualiser les activités constructives et le développement du sujet capable : le cas de la médiation à l’art orientée jeune public dans un musée d’art moderne et contemporain. Thèse de doctorat d’ergonomie. Université Paris VIII Vincennes – Saint‑Denis.

Lahoual, D., & Fréjus, M. (2019). When Users Assist the Voice Assistants: From Supervision to Failure Resolution. In Extended Abstracts of CHI EA ’19: the 2019 CHI Conference on Human Factors in Computing Systems (Paper CS08, pp. 1–8). New York (NY, USA) : Association for Computing Machinery. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/3290607.3299053

Le Corf, J. (2017). L’organisation homme-machine de la communication automatisée d’entreprise dans le capitalisme : le cas des robots conversationnels. Communication & management, 14(2), 35‑52. https://0-doi-org.catalogue.libraries.london.ac.uk/10.3917/comma.142.0035.

Le Moigne, J.-L. (2012). Repères historiques pour l’entendement des épistémologies constructivistes. In J.‑L. Le Moigne (Eds), Les épistémologies constructivistes (pp. 39‑66). « Que sais-je ? », Paris : Presses universitaires de France.

Leontiev, A. (1965). L’homme et la culture. Recherches internationales à la lumière du marxisme, 46. Paris : Éditions sociales internationales.

Leontiev, A. (1975). Activities, Consciousness, and Personality. Englewood Cliffs (N.J., USA) : Prentice-Hall. https://www.marxists.org/archive/leontev/works/1978/activity-consciousness-personality.pdf.

Liao, C., Palvia, P., & Chen, J.-L. (2009). Information technology adoption behavior life cycle: Toward a Technology Continuance Theory (TCT). International Journal of Information Management, 29(4), 309‑320. https://isiarticles.com/bundles/Article/pre/pdf/1535.pdf.

Liao, Q. V., Davis, M., Geyer, W., Muller, M., & Shami, N. S. (2016). What Can You Do?: Studying social-Agent Orientation and Agent Proactive Interactions with an Agent for Employees. In Proceedings of DIS ’16: the 2016 ACM conference on designing interactive systems (264–275). New York (NY, USA) : Association for Computing Machinery. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/2901790.2901842.

Luger, E., & Sellen, A. (2016). “Like Having a Really Bad PA” The Gulf between User Expectation and Experience of Conversational Agents. In Proceedings of CHI’16: the 2016 CHI Conference on Human Factors in Computing Systems (pp. 5286–5297). New York (NY, USA) : Association for Computing Machinery. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/2858036.2858288.

Lussier-Lejeune, F. (2020, octobre 2). Le rôle des promesses technoscientifiques dans la trajectoire de l’intelligence artificielle au Canada. Séminaire-midi, UQAM, CIRST. https://www.cirst.uqam.ca/nouvelles/2020/le-role-des-promesses-technoscientifiques-dans-la-trajectoire-de-lintelligence-artificielle-au-canada-disponible-en-ligne/.

Monod, J. (1970). Le hasard et la nécessité. Essai sur la philosophie naturelle de la biologie moderne. Paris : Seuil.

Orlikowski, W. J. (1992). The duality of technology: Rethinking the concept of technology in organizations. Organization science, 3(3), 398‑427. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1287/orsc.3.3.398.

Pastré, P. (2011a). Chapitre 4. Sujet capable et construction identitaire. In La didactique professionnelle (pp. 117‑148). Paris : Presses universitaires de France. https://0-www-cairn-info.catalogue.libraries.london.ac.uk/la-didactique-professionnelle--9782130585466-p-117.htm.

Pastré, P. (2011b). Situation d’apprentissage et conceptualisation. Recherches en éducation, 12. https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/ree.5085

Piaget, J. (1947). La psychologie de l’intelligence. Paris : Armand Colin.

Piaget, J. (1963). La naissance de l’intelligence chez l’enfant (Vol. 968). Neuchatel-Paris : Delachaux et Niestlé.

Piaget, J., & Inhelder, B. (1966). La Psychologie de l’enfant. Vendôme : Presses Universitaires de France.

Poisson, C. (2019). Concevoir pour le développement de la conduite automobile : Contribution pour la compréhension de l’activité et des genèses instrumentales des sujets et du véhicule autonome. Thèse de doctorat en ergonomie Université Paris VIII Vincennes – Saint‑Denis.

Potdevin, D., Clavel, C., & Sabouret, N. (2018). Virtual Intimacy, this little something between us: A study about Human perception of intimate behaviors in Embodied Conversational Agents. In Proceedings of the 18th International Conference on Intelligent Virtual Agents (IVA). Sydney (Australia) : 2018. DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/3267851.3267884.

Quet, M. (2012). La critique des technologies émergentes face à la communication promettante. Contestations autour des nanotechnologies. Réseaux, 3, 271‑302.

Rabardel, P. (1995). Les hommes et les technologies ; approche cognitive des instruments contemporains. Paris : Armand Colin.

Rabardel, P., & Pastré, P. (2005). Modèles du sujet pour la conception : dialectiques activités développement. Toulouse : Octarès.

Rajan, K. S. (2007). Biocapital as an emergent form of life: Speculations on the figure of the experimental subject. In S. Gibbon & C. Novas (Eds.), Biosocialities, genetics and the social sciences (pp. 167‑197). London (UK) : Routledge.

Rip, A., Joly, P. B., & Callon, M. (2010). Reinventing innovation. In M. J. Arentsen, W. van Rossum & A. E. Steenge (eds.), Governance and innovation (pp. 19‑32). Cheltenham (UK) : Edward Elgar. https://www.researchgate.net/profile/Arie-Rip/publication/281803484_Re-inventing_Innovation/links/5678024908aebcdda0eba66c/Re-inventing-Innovation.pdf.

Rosenfeld, R., Olsen, D., & Rudnicky, A. (2001). Universal Speech Interfaces. Interactions, 8(6), 34‑44. https://www.researchgate.net/publication/220383406_Universal_speech_interfaces.

Samurçay, R., & Rabardel, P. (2004). Modèles pour l’analyse de l’activité et des compétences, propositions. In Samurçay, R., Pastré, P. (Eds.), Recherches en didactique professionnelle. (pp. 163‑180). Toulouse : Octarès.

Simonite, T. (2017). Facebook’s Perfect, Impossible Chatbot. MIT Technology Review. https://www.technologyreview.com/2017/04/14/152563/facebooks-perfect-impossible-chatbot/.

Skjuve, M., & Brandzæg, P. B. (2019). Measuring User Experience in Chatbots: An Approach to Interpersonal Communication Competence. Internet Science. INSCI 2018 International Workshops, St. Petersburg, Russia, October 24–26, 2018. Revised Selected Papers (issue 11551, pp. 113‑120). Springer. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1007/978-3-030-17705-8_10.

Theureau, J., & Jeffroy, F. (1994). Ergonomie des situations informatisées : la conception centrée sur le cours d’action des utilisateurs. Toulouse : Octarès.

Thies, I. M., Menon, N., Magapu, S., Subramony, M., & O’Neill, J. (2017). How do you want your chatbot? An exploratory Wizard-of-Oz study with young, urban Indians. In Actes des 16th IFIP INTERACT: Conference on Human-Computer Interaction (pp. 441‑459), Bombay (India) : Sep 2017. DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.1007/978-3-319-67744-6_28. Hal-01676175.

Transparency Market Research. (2020). Chatbot Market. Consulté le 15 janvier 2021 sur https://www.transparencymarketresearch.com/chatbot-market.html.

Trouche, L. (2007). Environnements informatisés d’apprentissage : quelle assistance didactique pour la construction des instruments mathématiques ? Dans R. Floris & F. Conne (Eds), Environnements informatiques, enjeux pour l’enseignement des mathématiques : intégrer des artefacts complexes, en faire des instruments au service de l’enseignement et de l’apprentissage (pp. 19‑38). Louvain-la-Neuve : De Boeck Supérieur. https://0-doi-org.catalogue.libraries.london.ac.uk/10.3917/dbu.flori.2007.01.0019.

Velkovska, J., & Zouinar, M. (2018). The illusion of natural conversation: Interacting with smart assistants in home settings. In Proceedings of CHI’18: the 2018 CHI Conference on Human Factors in Computing Systems. Montreal QC (Canada) : April 21–26 April. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1145/3170427.3170619.

Vergnaud, G. (2001). Piaget visité par la didactique. Intellectica, 33(2), 107‑123.

Vinyals, O., & Le, Q. (2015). A neural conversational model. http://arxiv.org/abs/1506.05869.

Vygotski, L. (1934). Pensée et langage. Paris : La Dispute [2019].

Weill-Fassina, A., Rabardel, P., & Dubois, D. (1993). Représentation pour l’action. Toulouse : Octarès.

Haut de page

Notes

1 Enquête réalisée en ligne auprès de 310 professionnels issus des directions générales, des services Systèmes d’Information (SI), Recherche & Développement (R&D), Marketing ou Innovation.

2 Un assistant vocal est un appareil qui s’appuie sur la reconnaissance vocale du langage naturel afin de permettre à son utilisateur ou utilisatrice d’effectuer une recherche ou une commande par la voix (« Assistant vocal : savoir le choisir et connaître les risques », 2020, en ligne : https://www.journaldunet.fr/web-tech/dictionnaire-de-l-iot/1440654-assistant-vocal-savoir-le-choisir-et-connaitre-les-risques/).

3 Un callbot est un logiciel programmé pour recevoir ou émettre des messages lors d’un appel téléphonique (DYDU, 2020).

4 Par souci de confidentialité, cette entreprise sera désignée tout au long du papier comme « l’Entreprise », à l’instar des travaux de Ferguson (2019).

5 L’objet de l’activité correspond à ce vers quoi cette dernière est tournée.

6 « La distinction entre objets artificiels et objets naturels paraît à chacun de nous immédiate et sans ambiguïté. Rocher, montagne, fleuve ou nuage sont des objets naturels ; un couteau, un mouchoir, une automobile sont des objets artificiels, des artefacts » (Monod, 1970, p. 11).

7 Les quatre chatbots ont été rebaptisés pour des raisons de confidentialité.

8 Nous déjeunions à la cantine de l’entreprise lorsqu’une salariée a évoqué le besoin d’une recherche d’informations juridiques relatives au dépôt de marque. Une de ses collègues lui a suggéré de rechercher l’information sur le chatbot juridique. Témoin de la scène, nous avons demandé à la personne si nous pouvions venir observer cette situation.

9 Pour rappel, les « fonctions constituées » sont attribuées à l’artefact par le sujet lui-même (Rabardel, 1995) et se distinguent donc des « fonctions constituantes » définies et introduites par les constructeurs.

Haut de page

Table des illustrations

Titre Figure 1. L'instrument : une entité mixte composée d'un artefact et d'un schème.  Figure 1. The instrument: a composite entity made up of both an artifact and a scheme
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-1.jpg
Fichier image/jpeg, 57k
Titre Figure 2. Modèle quadripolaire des situations d'activités instrumentées (Rabardel, 1995).  Figure 2. Quadripolar model of instrumented activity situations (Rabardel, 1995)
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-2.png
Fichier image/png, 125k
Titre Tableau 1. Recensement des situations constituées en unités d’analyse.  Table 1. Identification of situations constituted in units of analysis
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-3.png
Fichier image/png, 52k
Titre Figure 3. Chronique d’activité de recherche d’accès au chatbot juridique.  Figure 3. Chronicle of legal chatbot access activity
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-4.png
Fichier image/png, 53k
Titre Figure 4. Chronique d’activité d’archivage de l’information.  Figure 4. Chronicle of information archiving activity
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-5.png
Fichier image/png, 231k
Titre Figure 5. Capture de l’écran de l’interaction textuelle avec le chatbot.  Figure 5. Screenshot of text interaction with the chatbot
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-6.png
Fichier image/png, 433k
Titre Figure 6. Modélisation du rapport sujet-chatbot promis par l’entreprise.  Figure 6. Model of subject-chatbot relationship promised by the company
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-7.png
Fichier image/png, 183k
Titre Figure 7. Modélisation du rapport sujet-chatbot réel.  Figure 7. Model of the real subject-chatbot relationship
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-8.png
Fichier image/png, 98k
Titre Figure 8 : Illustration de conversation « en échec ».  Figure 8: Illustration of a “failed” conversation
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/docannexe/image/7428/img-9.png
Fichier image/png, 306k
Haut de page

Pour citer cet article

Référence électronique

Marion Gras Gentiletti, Gaëtan Bourmaud, Myriam Fréjus et Françoise Decortis, « Concevoir pour des activités instrumentées par des chatbots »Activités [En ligne], 19-1 | 2022, mis en ligne le 15 avril 2022, consulté le 22 janvier 2025. URL : http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/activites/7428 ; DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/activites.7428

Haut de page

Auteurs

Marion Gras Gentiletti

Université Paris 8 – 2 rue de la Liberté 93200 Saint-Denis
mgrasgentiletti@gmail.com

Articles du même auteur

Gaëtan Bourmaud

Université Paris 8 – 2 rue de la Liberté 93200 Saint-Denis
gaetan.bourmaud@univ-paris8.fr

Articles du même auteur

Myriam Fréjus

EDF Recherche & Développement – 7 Boulevard Gaspard Monge 91120 Palaiseau
myriam.frejus@edf.fr

Articles du même auteur

Françoise Decortis

Université Paris 8 – 2 rue de la Liberté 93200 Saint-Denis
francoise.decortis@univ-paris8.fr

Articles du même auteur

Haut de page

Droits d’auteur

CC-BY-NC-ND-4.0

Le texte seul est utilisable sous licence CC BY-NC-ND 4.0. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.

Haut de page
Rechercher dans OpenEdition Search

Vous allez être redirigé vers OpenEdition Search