1Alain Supiot énonce que « le droit ne saurait se prononcer en faveur de l’instauration d’une vérité scientifique artificielle, assortie d’une interdiction des opinions contraires » (Supiot, 2014 : 81). Autrement dit, il ne devrait jamais revenir au droit d’apporter une vérité ou une définition là où la science n’a pas su en fournir. Il serait tout de même mal avisé de laisser une technologie aussi instable telle que l’intelligence artificielle sans garde-fous. De même que la liberté d’entreprendre ne permet pas d’enrichir de l’uranium chez soi, si l’on veut que le droit reste un outil de cohésion sociale, il ne faut pas que soit permis « de pouvoir enrichir de l’uranium binaire grâce à son ordinateur personnel » (Poinas, 2019 : 17).
- 1 L’échelle pyramidale de classement par niveau de risque des événements nucléaires INES (Internation (...)
2La comparaison avec l’uranium n’est pas anodine, l’intelligence artificielle suit un parcours de normalisation qui n’est pas novateur en droit des sciences et des risques technologiques. Le procédé est très similaire à celui qui a été développé pour l’encadrement des risques dans les milieux industriels ou pour les centrales nucléaires1.
3Généralement présentée comme une bénédiction, il est de plus en plus évident que les systèmes d’intelligence artificielle possèdent leurs parts de problématiques qu’il est urgent d’assumer. Le caractère mouvant et rapide de l’évolution numérique et algorithmique est un enjeu nouveau pour le droit positif. Alors qu’il a fallu quasiment un siècle pour embrasser le risque nucléaire, on demande au droit de fournir des ripostes sécuritaires équivalentes en à peine dix ans. Dans ces conditions, comment le juriste ou le législateur pourraient-ils apporter des réponses à des questions qui sont encore en débat parmi les scientifiques de la discipline (Cardon, Cointet et Mazières, 2018) ?
- 2 Définition du deep learning donné par le professeur Vincent Barra.
4Le principal danger provient de systèmes d’intelligence artificielle bien particuliers. Effectivement, certaines briques d’intelligence artificielle fonctionnent de manière « autonome », c’est-à-dire sans nécessiter d’intervention humaine. Bien que cette affirmation soit partiellement vraie, « peu importe l’autonomie d’un système d’intelligence artificielle, ce dernier repose toujours sur des données et des principes mathématiques généraux donnés par un humain à la machine » (Barra, 2018 : 44-47)2. Ce que l’on cherche à démontrer, c’est que le processus, mis en place au terme d’activités humaines, dispose malgré tout d’une faculté d’autoapprentissage. Grâce au machine learning et au deep learning : les algorithmes utilisés permettent, sur la base d’immenses bases de données, d’établir non seulement des corrélations qu’il aurait été impossible de faire apparaître avec nos cerveaux humains, mais également de prendre des décisions et d’effectuer des prédictions.
5C’est de cette manière que les systèmes développés s’éloignent des instructions de départ du concepteur. Les dispositifs d’intelligence artificielle reposent sur la mise en œuvre et l’identification de corrélations quasiment infinies au sein d’une multitude de données, de mégadonnées.
- 3 Trois en l’occurrence.
- 4 Il existe également des militants d’une solution hybride entre réseaux de neurones et logiciels exp (...)
- 5 Aussi appelé Hiver de l’intelligence artificielle.
6Le présent article ne s’attardera pas sur l’historique technique et politique bien maîtrisé du développement de l’intelligence artificielle (Meceneur, 2020). Il n’est cependant pas anodin d’observer – comme l’ont très bien rappelé Dominique Cardon, Jean-Philippe Cointet et Antoine Mazières (2018) – que si la littérature scientifique relative à l’intelligence artificielle a connu différents âges d’or3, elle a également pâti et continue de souffrir d’un manque de consensus entre les spécialistes de la matière. Le débat tenace entre les partisans du connexionnisme (réseaux de neurones et systèmes d’intelligence artificielle non supervisés) et les défenseurs des logiciels experts (les modèles supervisés)4 a provoqué un flou scientifique. Cette confusion s’est soldée par plusieurs périodes de disette pour ceux qui cherchaient à financer des solutions d’intelligence artificielle5. Tant et si bien que le dernier hiver de l’intelligence artificielle (1995-2007) avait quasiment renvoyé la matière au domaine du fantasme, du mythe et de la science-fiction.
7Notre propos a pour objectif d’analyser le champ conceptuel dit du « droit de l’intelligence artificielle » (Bourcier, Assier et Roquilly,1994). Aspiration ambitieuse, mais nécessaire. De cette façon, les différents chemins, qui sont en train d’apparaître dans le processus de création normative et sur lesquels est engagée l’intelligence artificielle tendent à réduire le voile entre science et droit. Il s’agira donc d’évaluer l’impact qu’a pu avoir le manque de stabilisation scientifique sur la production normative. Puis, il faudra procéder à une tentative de clarification des différents régimes juridiques qui commencent à apparaître.
8L’apparition de la notion juridique d’intelligence artificielle a été entravée par le manque de cohérence scientifique. Néanmoins, cela n’a pas empêché deux régimes potentiels d’apparaître, ces derniers s’appuyant sur des références et traditions juridiques solides ; ils peuvent, les deux, prétendre à un encadrement de l’objet technique.
9C’est en 1994 qu’il est possible de découvrir le premier document juridique français officiel traitant de l’intelligence artificielle. Précurseur, cet ouvrage fait référence pour la première fois au « droit de l’intelligence artificielle » (Bourcier, Assier et Roquilly,1994). Notons que le droit a mis beaucoup de temps à se saisir du corpus et des problématiques relatives à l’intelligence artificielle (Merabet, 2018 : 224).
- 6 A ce sujet, voir l’appel de 14 pays européens à l’Union européenne pour des solutions juridiques no (...)
10Il aura fallu en effet presque vingt ans après la publication de cet ouvrage pour que l’intelligence artificielle devienne un véritable sujet pour les juristes. La jeunesse de ce sujet n’est pas surprenante, l’intelligence artificielle et l’informatique de façon plus globale ne sont pas des matières très anciennes. Même si le droit anglo-saxon a pris un peu d’avance sur le droit français (Rissland, 1990 : 1957-1981) dans ce domaine, on peut affirmer que ce droit est encore à ses débuts. Les premières législations n’en sont qu’à l’état de rapports et les projets en cours sont dépouillés au fur et à mesure des avancées de leurs forces contraignantes pour des raisons de coûts et de souveraineté6.
- 7 Le Règlement n°2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l’égar (...)
- 8 Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.
11Il existe bien évidemment des textes qui visaient les systèmes dits automatiques, comme la loi du 6 janvier 1978 dite « Informatique et libertés », aujourd’hui modifiée par le Règlement européen pour les données personnelles 2016 (RGPD)7, ou encore la loi du 7 octobre 2016 pour une République numérique, qui se concentrait sur les systèmes automatisés utilisés par les pouvoirs publics8 tels que l’algorithme APB.
- 9 En ce sens, voir le développement de Samir Merabet (2018 : 48) sur l’échec du critère de matérialit (...)
12Néanmoins, dans aucun de ces textes il n’est fait de référence directe à l’intelligence artificielle. On parle alors de systèmes automatisés, d’algorithmes, de mégadonnées, de logiciels, tous des mots qui ont un temps été associés à l’intelligence artificielle sans pour autant rendre compte de la complexité et de l’entièreté de la technologie9 (Merabet, 2018 : 48). Par exemple, si le terme robot est souvent relié à l’intelligence artificielle, il s’agit dans les faits d’un contresens sémantique. Selon une définition récente, un robot « est un système construit qui fait preuve d’une agence physique et mentale, mais qui n’est pas vivant au sens biologique » (Richards et Smart, 2016 : 13). Un robot est une coquille, une enveloppe, qui pour « sentir son environnement, traiter les informations qu’il détecte, et pour agir directement sur son environnement » (Calo, 2012 : 18) a besoin des ressources de l’intelligence artificielle, supervisée ou profonde. Cet élément matériel a d’ailleurs été reconnu comme tel juridiquement.
- 10 ISO 8373 2012 ou ISO TC 299.
- 11 Des références ont été faites à « Appareil automatique de distribution de carburant » CA Douai, 8 n (...)
- 12 Cass. com., 28 juin 1994, n° 92-19.275, inédit.
13Le terme robot est peu, voire jamais utilisé par les professionnels du droit. Dès lors, aucun texte, de nature tant législative que réglementaire ne le consacre, si ce n’est une norme ISO tout au plus10. Le « droit du robot » (Bensoussan, 2019 : 1640) a cependant connu un enthousiasme doctrinal certain, voire quasi philosophique. En effet, la doctrine a opéré un glissement sémantique de la science-fiction à des applications plus communes et s’est emparée de cette notion sans controverse sans pour autant avoir été suivie par la jurisprudence. Le juge a su garder sa réserve et a été de son côté beaucoup plus prudent et à raison : certes c’est un concept utilisé depuis longtemps au fond, mais sans cohérence11. La jurisprudence n’a, à aucun moment, précisé la nature ou les fonctions du robot en question. Il a donc fallu se rattacher à des éléments matériels connus et préciser au mieux la notion, quitte à laisser l’imaginaire de côté. La Cour de cassation sera d’ailleurs encore plus vigilante en ne faisant usage que du terme « machine », ou en ayant recours à des périphrases12. La notion juridique de robot fait partie de ce florilège de faux synonymes auxquels on a bien voulu associer l’intelligence artificielle. Il faut dire que le vocable d’intelligence artificielle lui-même est contesté ; la réflexion qui a été envisagée par Alan Turing ou la conception développée lors de la conférence de Dartmouth tient plus du caractère théologique que scientifique.
14Encore une fois, ce qui est mal établi scientifiquement l’est également juridiquement. Le terme même d’intelligence artificielle est encore en débat chez les scientifiques et il l’est également chez les juristes. L’idée d’intelligence pour des raisons liées à la discrimination et à la condition humaine (Delage, 2013 : 176) ne saurait faire de différence en droit alors que ce terme peut avoir des interprétations multiples. C’est aussi vrai pour l’emploi du mot artificiel qui, s’il n’a pas de définition juridique spécifique, peut faire référence à une multiplicité d’interprétations dans le langage courant. Nous nous retrouvons donc avec une dénomination technique, qui n’a pas d’existence propre dans le domaine juridique, et qui est contestée sur le plan scientifique.
15Cette opposition entre pratique du droit et volonté exploratoire doctrinale est assez récurrente et bénéfique à la matière. Par exemple, le débat récent relatif à la personnalité juridique de l’intelligence artificielle qui fut porté jusque dans les rapports de l’Union européenne. Que l’on soit d’accord ou non avec l’idée d’une personnalité juridique pour un objet technique, il est intéressant d’observer qu’elle a eu le mérite de remettre au gout du jour un débat qui n’était pas apparu depuis un certain temps.
- 13 « La division du droit en branche est un produit relativement récent de la dogmatique juridique, p (...)
- 14 La personne morale en serait l’exemple absolu.
16En effet, les arguments qui sont avancés par les défenseurs de la personnalité nient la transcendance de l’opposition entre les choses et les personnes au sein des différentes branches du droit13 (Supiot, 2015 : 22). Ils considèrent qu’en raison de l’existence de précédents arguant que le voile de la summa divisio serait devenu plus fin et que la personnalité juridique serait « utilitaire », elle permettrait d’accéder à des biens et des services14. Ils affirment ainsi que la summa divisio du droit privé n’a historiquement pas toujours signifié que la personnalité juridique ne devrait être accordée qu’à la personne humaine. Ainsi, ont pu être donnés les exemples : de l’esclavage, du statut de l’embryon ou encore de la personne décédée. Encore une preuve que la démonstration scientifique ne concourt pas toujours avec l’éthique. L’exemple inverse, celui de la personnification de la chose fut également avancé, tel que les modèles de la juridicisation de la nature ou le statut de l’animal.
17Toutes ces situations ont bien évidemment appelé à des démonstrations inverses et plus mesurées par la doctrine dominante. Il fut avancé que donner une personnalité juridique à l’intelligence artificielle reviendrait à « déresponsabiliser les concepteurs » (Loiseau, 2019 : 3). Ensuite, sur le point de la véracité historique : les êtres humains ont une personnalité juridique absolue reconnue à la naissance et cela à la différence des personnes morales qui ont une personnalité relative et des droits résiduels. Pour finir, et comme cela a été dit plus haut, l’intelligence n’est et ne saurait être un critère d’accès à la personnalité juridique.
- 15 Appel de plusieurs pays à ne pas légiférer trop durement pour ne pas brider l’innovation.
18Ces débats ont permis de faire apparaître un nouveau champ juridique, mais ont également retardé la bonne compréhension du sujet. L’attentisme n’est cependant pas une solution. L’intelligence artificielle fait partie de ces pratiques qui, quand on les laisse se développer, peuvent acquérir une autorité de fait si importante que le droit peut être impuissant à les remettre en cause. Ce fut le cas pour les différentes législations sur les données. En effet, lorsque l’on examine le RGPD, bien que la démarche soit de grande envergure et doit être louée, on sent bien que ce règlement est « loin de répondre à l’ensemble des enjeux posés par l’évolution et le partage de la donnée en ligne » (Merabet, 2018 : 47). Ce même manque d’anticipation s’éprouve également pour les projets de législations en cours sur l’intelligence artificielle. Entre références à des invraisemblances juridiques comme la « personnalité juridique de l’intelligence artificielle » (Bensoussan, 2017 : 2044) ou les occasions manquées de construire un authentique droit de l’intelligence artificielle pour des raisons économiques15, on peut se demander si le législateur ne comptait pas plus sur l’effet d’annonce pour provoquer de bonnes pratiques plutôt que sur un véritable processus de normalisation.
19Faire d’un objet technique une notion juridique revient à nommer cet objet, à lui donner une définition cohérente qui permet à tous les acteurs voulant y avoir recours de posséder les mêmes garanties sur le plan juridique. Ainsi, l’emploi d’une dénomination commune permet une qualification appropriée et assure la sécurité juridique. Sur ce point particulier, il semble que le droit européen commence à se positionner après de multiples concertations et nous offre une définition qui conviendrait autant aux différents pays membres qu’aux représentations professionnelles.
20La deuxième étape consiste à choisir une forme de gouvernance pour le droit en question, autrement dit un régime. Le choix du régime, c’est le choix du mode d’action. Deux voies semblent se dessiner aujourd’hui dans le droit de l’intelligence artificielle :
211° Une voie qui partirait du droit pour aller vers la technique (Céline Castets-Renard, 2020 : 225). C’est-à-dire que l’on prendrait la règle de droit existante pour la comparer aux défis que pourrait faire naitre l’objet sociotechnique naissant.
222° Une autre voie qui partirait de la technique pour aller vers le droit16. Plus souple, plus influencée par la technique (Savatier, 1959 : 49). On pourra effectivement y trouver des passerelles avec l’ingénierie, la sociologie et l’économie. Ce régime qui est finalement peut-être plus « effectif » (Crozier, 1980 cité par Chevallier, 1996 : 69) permettrait de faire apparaître de nouveaux droits afin d’appréhender rapidement la technologie pour lui donner un régime neuf et adapté. Il permettrait également surtout d’éviter ce que Valérie Lasserre appelle la « peur du vide » (juridique) (Lasserre, 2015 : 17).
23La première méthode est un choix positiviste, conservateur. Il s’agit d’appréhender l’intelligence artificielle avec les instruments traditionnels du droit français. La seconde méthode est plus moderne. Elle se nourrit de ce droit souple qui émerge depuis les années 1980 et qui est depuis, la première forme de normalisation à émerger lorsqu’un nouvel objet technique apparaît dans le champ juridique. Cette forme de normalisation est très présente dans le champ juridique attaché aux sciences, notamment médical et environnemental (Barbier, 2019 : 15). Ces deux domaines sont en effet précurseurs en matière d’éthique juridique moderne et ont demandé une approche technique particulière pour encadrer les risques qui y sont affiliés. Cette approche par les risques, présente depuis le début du 20e siècle, apparaît clairement en droit des risques technologiques, comme pour le nucléaire ou les accidents du travail en milieux industriels. Il ne faut cependant pas voir ces deux gouvernances, ces deux régimes naissants comme des oppositions doctrinales farouches, elles s’affrontent autant qu’elles se développent en parallèle.
- 17 Il invite notamment le juriste à ne pas confondre statisme et immobilisme du droit.
24Les partisans du conservatisme vont avoir tendance à relativiser la technique et son évolution. On peut par exemple citer le doyen Ripert (1995 : 27), jamais avare de mises en garde quant aux changements trop brusques de l’ordre établi17, ou le doyen Hauriou qui en 1919 expliquait que le temps juridique n’était pas celui de la technique, qu’il (le temps juridique) demeurait comme figé :
Nous commençons à nous rendre compte que la vie morale des hommes, et par conséquent leur vie sociale, n’est pas sujette à tant de nouveauté, qu’elle reste au contraire singulièrement identique à elle-même, qu’elle repose sur un petit nombre de thèmes dont le fond ne varie pas. On remonte du Code civil à la loi de XII tables, et de celle-ci au code Hammourabi comme on remonte de Racine à Euripide ou de la Fontaine à Phèdre et de Phèdre à Ésope (Hauriou, 1919 : 25).
25Ainsi, il semblerait que peu importe le changement, celui-ci devrait toujours être mis dans le contexte d’un processus normatif plus long qui aurait déjà les outils pour répondre aux enjeux de demain.
26Appliquée à l’intelligence artificielle, cette démarche consisterait en l’admission d’une forme de renouvellement du droit positif, sans en changer les fondations. Cette vision n’est pas illusoire, elle est notamment celle qui nous a protégés de l’idée déraisonnable d’une personnalité juridique de l’intelligence artificielle. En effet, si l’on fait application du paradigme qui gouverne le droit positif, autrement dit si l’on fait d’une part référence à la subjectivité inhérente à la personne humaine tout en concédant, d’autre part, à l’occasion à l’élaboration de nouvelles règles, alors une évolution normative visant à briser le voile de la Summa divisio entre les personnes et les choses serait la caractéristique d’une « dérive incontrôlée de la modernité voire d’un retour à l’archaïsme » (Oppetit, 1998 : 113). Et ce même pour une technologie que des promesses théologiques présentent comme potentiellement autonome. Les appels à « percevoir l’intelligence artificielle comme une métamorphose du droit civil au sens où l’entendait Savatier » (Merabet, 2018 : 34) sont prématurés et sont des atteintes à la formidable « capacité inépuisable d’absorption et d’assimilation » du droit positif français (Terré, 2007 : 349).
- 18 Com.6 déc.2005, Bull. civ. IV, n°240. La Cour faisait ici référence à une décision du Conseil de la (...)
27Ces régimes s’ils semblent avoir une application plus ancienne que l’apparition de l’intelligence artificielle ont déjà su créer des passerelles entre eux ainsi que des liens étroits. Par exemple, il est aujourd’hui possible de faire la preuve de la souplesse du droit positif, accusé bien souvent « d’être une autorité toute puissante qui imposerait d’en haut une décision unilatérale à des sujets par la crainte de la sanction » (Demier, 2009 : 113). La loi au sens classique du terme n’est plus cette entité abstraite en haut de la pyramide qui se voulait inaccessible. De nos jours, la loi est ouverture, consultation, négociation, participation, dialogue, co-construction. De plus, que dire du processus jurisprudentiel ? Ainsi la méthode de raisonnement du juge européen intègre les conséquences économiques, sociales des enjeux juridiques. La Cour de cassation derrière ses syllogismes judiciaires tient elle aussi compte de données non juridiques18. Enfin, le juge du fond possède un formidable pouvoir de souplesse dans l’appréciation de ses jugements (Bacache, 2019). Le droit positif est bien plus souple qu’il ne l’était autrefois même s’il est peut-être plus parlant de le démontrer avec des exemples concrets.
28Si l’on remarque que le régime conservateur se pare aisément d’une forme de souplesse très moderne, le régime moderne à l’inverse part des caractéristiques de l’objet sociotechnique pour créer de nouveaux droits et finalement trouve sa source dans une tradition tout à fait conservatrice.
- 19 On se souvient de la déclaration de John Perry Barlow le 8 février 1996, A declaration of Independe (...)
29En effet, il est simple et compréhensible de dire qu’une approche normative serait novatrice, dès lors qu’elle embrasse simultanément la technique et les enjeux socio-économiques sans pour autant rentrer dans les spécificités « au risque de créer une législation rapidement obsolète ». Après tout, le champ de recherches des sciences humaines appliqué aux algorithmes et à l’intelligence artificielle est récent. Le terme Algocracy apparaît en 2009 (Aneesh, 2009 : 53) et celui de régulation des algorithmes (O’Reilly, 2013 : 45) en 2013 en même temps que celui de gouvernance algorithmique. La compréhension des dangers de l’algorithme est récente et fait suite à une période d’engouement et de totale liberté pour celui qui conceptualise et crée de tels outils en ligne ou par ordinateur19. Pour autant, la dystopie a rattrapé aujourd’hui l’utopie. Les chercheurs comme le législateur essayent d’apporter des réponses dans l’urgence en utilisant de nouvelles sources de normativités ex ante telles que la certification, l’audit, l’éthique par conception. Ces nouvelles sources permettent aux institutions de transférer la gestion et le contrôle de la technologie directement aux producteurs et aux concepteurs techniques, tout en assurant qu’ils rendent compte au contrôleur institutionnel sur une base régulière.
30Ces nouveaux droits semblent s’inscrire dans cette tradition que l’on voudrait bien croire moderne de la scientifisation du droit et d’un « refus de la légalité et du légalisme » (Legendre, 1999 : 172). En effet, dès 2007, la commissaire européenne à la Société́ de l’information, Viviane Reading, plaidait déjà pour une absence de régulation concernant l’Internet des objets (Forest, 2009 : 45). Cette position n’a pas varié depuis et s’est étendue au niveau national. En France, l’éthique s’est ainsi rapidement imposée comme le mutatis mutandis des ministres du numérique : d’Axelle Lemaire et son plan national sur l’intelligence artificielle à Cédric O et Mounir Mahjoubi et leurs « nouvelles modalités de régulation » basées sur « l’autorégulation, la co-régulation, la supervision… » (Moragues, 2018) Tous ont apporté́ une nouvelle preuve que l’éthique et l’autorégulation devaient faire foi à la place des normes « classiques ».
31L’éthique offre aux grands acteurs du numérique pour reprendre les mots de Laurent Cohan-Tanugi un véritable « sur-mesure juridique » (1990 : 2). Par exemple, la certification est l’une des manières les plus efficaces d’allier éthique et droit (Guiraud, 2019 : 33). Elle permet également de pallier « la confrontation entre normativités juridique et technique » (Forest, 2017 : 38). Définies à l’article L 115-27 du Code de la consommation, ce sont des « procédures de vérification de la conformité d’un produit, d’un service, à certaines caractéristiques prédéfinies » (Pontier, 1996 : 356). La certification est sans nul doute l’expression la plus juste de cette « modernité normative » (Pontier, 1996 : 356) et le meilleur moyen d’assurer un contrôle ex ante de la technique.
32Le législateur, s’inspirant grandement de la production universitaire, a parallèlement su faire apparaître de nouveaux droits comme « l’intellegibilité » et « l’explicabilité ». Ces deux termes – qui ne sont pas encore reconnus par le dictionnaire d’un logiciel de traitement de texte et dont la définition n’est pas encore fixée – ne trouvent « pas leur origine dans l’éthique biomédicale » (Barbier, 2019 : 15). Ils s’affilient à cette logique dite d’accountability très présente en droit de la gouvernance. Ils peuvent être associés à cette logique de « rendre compte » qui guide une grande partie du droit européen et du droit de la gouvernance.
33Il existe deux régimes qui offrent plusieurs possibilités pour encadrer la notion d’intelligence artificielle : le régime conservateur et le régime post-moderne (Chevallier, 2017 [2003]). Le premier entendra faire appel à une conception ex post et coercitive en cas de dommage survenu lors de l’utilisation d’un système d’intelligence artificielle. Tandis, que le second voudra créer des droits ex ante et peut être moins contraignants afin de ne pas entraver le bon fonctionnement de l’objet technique.
- 20 Article 1384 alinéa 1 du Code civil.
34Prenons l’exemple de la responsabilité du concepteur de briques d’intelligences artificielles et soumettons-le au régime conservateur. Le droit de la responsabilité fonde le principe que « toute personne est responsable des choses qu’il a sous sa garde »20, il est un des piliers du droit français. Néanmoins, même les principes les plus établis peuvent être amenés à évoluer. Sans rentrer dans les nombreux changements qui ont parsemé le droit de la responsabilité, il est important de comprendre que les incertitudes scientifiques et technologiques rendent de plus en plus difficile l’établissement du droit et donc des responsabilités. Le professeur L. Josserand (1897 : 6-7) nous rappelle qu’au 19e siècle la mouvance des pratiques industrielles et la pratique de la responsabilité pour faute ont empêché la bonne application de la responsabilité, et permettait aux employeurs d’échapper aux condamnations pour les dommages subis par l’ouvrier en raison des machines.
35Le débat qui embrasse l’établissement de la responsabilité lors d’un accident technologique n’est donc pas nouveau et il n’est d’ailleurs toujours pas résolu aujourd’hui. Dans son rapport annuel de 2012, la Cour de cassation nous explique que non seulement l’établissement de la responsabilité devient de plus en plus opaque, alors que par ailleurs le seuil d’acceptabilité des risques de la part des sociétés contemporaines devient lui de plus en plus bas (voir notamment Moury, 2012 : 79 et s.). Autrement dit, nous demandons plus de sécurité avec moins de moyens, étrange paradoxe pour ce qu’Ulrich Beck appelait la « société du risque » (Beck, 1986 : 22).
- 21 À l’image des catastrophes de Three Mile Island aux États-Unis d’Amérique (1979), de Bhopal en Inde (...)
36Le manque de réponse juridique et la multiplication des accidents technologiques21 nous prouvent que la responsabilité n’est pas « toujours “imputable” à des conduites individuelles ; elle émerge dès lors au niveau global, et tend à se dissoudre au niveau individuel » (Mazeau, 2014 : 40). Tous les systèmes qu’ils soient de common law ou civilistes font face à cet enjeu et cherchent des manières toujours plus innovantes d’adapter le droit de la responsabilité aux nouvelles pratiques.
37La question de la responsabilité de l’intelligence artificielle intervient donc dans un contexte d’incertitude des risques pour les nouvelles technologies. Néanmoins, l’intelligence artificielle fait preuve de certaines caractéristiques que les autres techniques ne présentent pas.
38La principale de ces caractéristiques est l’autonomie. Il n’existe aucune autre technologie qui peut actuellement se targuer d’une telle liberté de choix dans ses décisions et son comportement. Liberté certes tout à fait relative, notamment en raison de la nécessité d’y implémenter un jeu de données et de lui donner certaines directives avant et pendant son utilisation. Cette technologie peut faire apparaître et prendre des choix que ni son concepteur professionnel ni un profane n’auraient su faire apparaître. C’est cette potentielle autonomie qui amène un nouveau précédent dans l’acceptation du risque. Le degré de fiabilité d’une technologie classique est automatiquement lié à son concepteur et à la personne qui la manipule. Or ici, pour la première fois, la machine peut faire apparaître une décision de son seul fait et la faire appliquer au travers de son pouvoir de suggestion. C’est ce pouvoir de suggestion qu’A. Rouvroy appelle la « gouvernementalité algorithmique » (Rouvroy et Berns, 2013 : 163). Si les profils que peut faire apparaître un système d’intelligence artificielle sont constitués de données du passé, ces profils constituent une vérité bien actuelle et « incontestable » pour ceux qui utilisent les corrélations créées à partir de ces données. Le raisonnement de l’algorithme se base sur de simples rapprochements de faits sans aucune logique humaine et de manière quasi aléatoire :
Si, par exemple, A et B se retrouvent fréquemment co-présents, on peut dire que A cause B, mais tout aussi bien que B cause A ou encore que C qui était resté inaperçu cause A et B. Mais il se peut encore qu’en raison de la mauvaise qualité des données, la détection ne soit pas valide, ou encore, en raison de la trop grande masse de données, que la corrélation existante entre A et B soit le pur fruit du hasard et ne puisse servir de base fiable à la décision (Rouvroy et Berns, 2013).
- 22 C’est le cas pour tous les traitements de données par système automatisé soumis au RGPD ou à la Loi (...)
39Ainsi, même lorsque la présence humaine dans le processus d’application finale de la décision par système automatisé est obligatoire22, il se peut tout à fait que la personne humaine responsable de la décision soit influencée par la vérité mathématique servie par le système. L’utilisateur d’un système d’intelligence artificielle n’aura pas forcément les compétences nécessaires pour remettre en cause le résultat ou n’en aura juste pas la volonté. Il devient donc vital d’être en mesure d’assurer la chaine de responsabilités en cas de données biaisées ou d’algorithme défaillant dans sa conception voir contre tout autre aléa qui pourrait survenir avant, pendant et après la décision automatisée.
40L’intelligence artificielle est donc une technologie qui s’inscrit dans un temps de déstabilisation de la notion de responsabilité et qui présente des caractéristiques propres qui peuvent amener le législateur à demander une refonte totale du système de responsabilité lui-même. Ce n’est pas ce qui sera défendu dans cet article et ce n’est pas non plus ce qui est défendu par le courant doctrinal proche du conservatisme juridique, ni même par un grand nombre d’institutions (Bacache, 2019 : 72). Bien entendu, comme le souligne le professeur Loiseau « des aménagements sont effectivement nécessaires » (Loiseau, 2019). Cependant, « une refonte des règles n’apparaît pas utile en l’état actuel des perspectives » (Loiseau, 2019), et cela pour plusieurs raisons.
41La première raison nous est rappelée par le Conseil d’État qui estime que
ces nouvelles difficultés peuvent être résolues de manière prétorienne en mobilisant les règles des différents régimes de responsabilité existante et qu’il serait prématuré d’élaborer dès à présent de nouveaux régimes de responsabilité (Conseil d’État, 2018).
42Effectivement, nous l’avons rappelé plus haut, la technologie est loin d’être stabilisée et il n’existe pas de définition unanime de l’intelligence artificielle. De plus, la séparation faite entre les systèmes dits « faibles », qui permettent à l’outil de « comprendre les ordres, d’obéir aux indications qu’il reçoit et de les appliquer » et celles dites « fortes » qui peuvent voir ses « capacités cognitives progresser au travers des techniques de machine learning ou d’apprentissage automatiques » (Bacache, 2019 : 71), ne permettent pas encore la mise en place d’un régime juridique stabilisé.
43La deuxième de ces raisons est liée à l’idée que les principes traditionnels qui gouvernent le droit commun de la responsabilité en font « un instrument d’une infinie souplesse et d’une flexibilité sans fin » (Bacache, 2019 : 71). Il semble fondamental de se remémorer que les principes traditionnels de la responsabilité civile sont tournés vers une certaine ouverture. Par exemple, la réparation n’est conditionnée ni par la nature du générateur ni par celle du préjudice subi. Par ailleurs, dans la continuité de ce que nous avons vu pour le juge de la Cour de cassation, le juge du fond joue un rôle essentiel puisqu’il a toute liberté pour qualifier de fautifs toute sorte de comportements grâce à la découverte de nouveaux « devoirs généraux ». Il peut également demander réparation pour toute sorte de préjudices, quelle que soit la nature de l’intérêt lésé. Cette souplesse permet l’adaptation rapide du régime de responsabilité aux différentes évolutions de la société en étant le plus proche possible des nouveaux besoins d’indemnisation. De cette façon, le régime commun reste encore la meilleure approche pour qualifier le dommage qu’il soit une atteinte aux droits de la personnalité (à travers l’usage abusif des données à caractères personnels) ou de simples dommages corporels, matériels, patrimoniaux et ex-patrimoniaux.
44La troisième raison est l’assurance offerte par les différents régimes spéciaux qui composent le droit de la responsabilité. Il serait en effet imprudent de traiter juridiquement une atteinte faite par une intelligence artificielle médicale de la même manière qu’un préjudice causé par une voiture autonome. Les régimes spéciaux existent pour encadrer des pratiques bien particulières que le droit commun ne saurait appréhender. Par exemple, le droit de la santé possède un régime qui fait énormément d’emprunts à l’éthique et qui reconnait des termes comme la bienfaisance, la non-malfaisance et la transparence (Barbier, 2019 : 15). Tandis qu’une voiture autonome doit de son côté tenir compte des réalités du code de la route, des grandes lois concernant les accidents de la circulation ou encore des traités internationaux sur le rôle du conducteur au volant (voir à ce sujet, Marraud des Grottes, 2020). Proposer un régime commun pour toutes les implémentations de systèmes d’intelligence artificielle sans tenir compte des réalités sectorielles risquerait de rendre un tel régime totalement inapplicable, voire dangereux pour l’individu. La souplesse du droit commun de la responsabilité et la multiplicité des régimes spéciaux sont-elles des raisons suffisantes de ne pas proposer de modifications substantielles des régimes existants ? Bien sûr que non.
45Si la souplesse est une garantie d’adaptation d’une vision du droit plutôt conservatrice au champ des nouvelles technologies, cela ne veut pas dire pour autant que le domaine du droit de la responsabilité est totalement prêt à accueillir l’intelligence artificielle. Il reste encore plusieurs questions doctrinales à élucider et des choix dans l’édiction de la norme avant de pouvoir avancer qu’il est certain qu’il y aura toujours quelqu’un pour payer en cas de dommage.
- 23 Cass. civ. 1re, 19 juin 2013, n° 12-17.591, préc.
- 24 Cass. civ. 2e., 26 juin 1953, D.1953, P.181, note R. Savatier, JCP 1953, II, 7801, Note R. Rodière (...)
- 25 Cass. Civ. 2e., 11 juin 1975, N° 73-12112, Bull.civ II, n°173 (fumée).
- 26 Art. 1243, al. 1.
46L’un des débats tient à la notion de la responsabilité du fait des choses dont le principe de 1986 expose que « l’on a la responsabilité des choses dont on a la garde ». Le principe est plutôt aisé à comprendre bien qu’il y soit normalement attaché un critère de matérialité afin de définir la chose. Ainsi, un débat qui est encore en suspens pose la question de l’application de ce principe aux choses incorporelles. Nous savons que la Cour de cassation a abandonné le critère de matérialité avec la définition de la notion de l’algorithme dans l’arrêt Google Suggest23 et nous savons que l’intelligence artificielle ne peut être rattachée uniquement à un critère matériel comme c’est le cas pour le robot. Il est donc primordial dans le cas où l’on aurait la possibilité de rattacher l’intelligence artificielle à un critère immatériel, que la responsabilité du fait des choses puisse bien lui être appliquée. S’il est reconnu un critère de protection maximale à l’égard des victimes (il doit y avoir un responsable, peu importe le dommage), la question de l’application du principe à des choses immatérielles s’est déjà posée pour des questions liées à des liquides corrosifs24 ou de la fumée25. Chaque fois la jurisprudence semble aller dans le sens d’un rattachement du critère immatériel à la chose, alors que le législateur semble exclure le critère de l’immatérialité dans le projet de réforme de la responsabilité de 201726. Il faudra donc éclaircir ce point avant de confondre le régime de droit commun de la responsabilité à l’objet sociotechnique qu’est l’intelligence artificielle.
- 27 CE, dir. 85/374/CEE, 25 juil. 1985.
- 28 Le législateur français avait adopté ce qui était alors considéré comme une option d’application of (...)
47La méthode conservatrice consiste à faire un état de l’art où l’on expose le principe. Par exemple, si nous prenons le cas du régime spécial de la responsabilité pour les produits défectueux issus de la directive européenne de 198527, transposée en 1998, qui dispose à l’article 1245-3 qu’« un produit est défectueux lorsqu’il n’offre pas la sécurité à laquelle on peut légitimement s’attendre » alors on se rend compte que c’est un principe encore une fois très général . Il a d’ailleurs fallu à la fois l’intervention du législateur, de la Commission européenne et de la Cour de justice de l’Union européenne pour en préciser le sens, notamment sur le point le plus problématique : la notion de risque de développement (voir Berg, 1996 sur cette notion). Effectivement, si celle-ci est gardée dans sa forme actuelle, notamment en France28 , elle pourrait empêcher la bonne application du projet de réforme de la directive à l’aune de l’intelligence artificielle. Il serait ainsi objectivement inenvisageable qu’un concepteur puisse s’exonérer de sa responsabilité en justifiant uniquement de sa méconnaissance des capacités réelles de sa technologie.
48Il ne faut cependant pas se leurrer, la volonté d’intégrer les problématiques entourant l’intelligence artificielle à la directive sur les produits défectueux n’est pas simplement une option de facilité, elle procède d’un changement normatif bien plus grand : celui de l’intégration de plus en plus prédominante de l’expertise, de la technique et des sciences à la construction normative.
49Depuis la fin du 19e siècle, le rôle de l’expertise affecte la responsabilité civile. Le développement de la responsabilité pour risque et de l’assurance est allé de concert avec la « scientificisation » du droit (Lasserre, 2015 : 20). Ce terme, qui n’est pas une référence au débat doctrinal sur la question de la légitimité du droit à figurer dans le champ scientifique, fait plutôt référence à l’impact croissant de l’empire des sciences et des techniques sur le système juridique. En effet, du point de vue de la théorie classique des sources « seules les sources classiques du droit réagissent encore à la technicité des problèmes » (Riper, 1955 : 31). En témoigne l’évolution de la loi et de la jurisprudence sous l’impact des nouvelles technologies. L’omniprésence de la technique est particulièrement mise en valeur par le droit de la responsabilité des produits défectueux. Cette directive crée une relation entre les opérateurs économiques et les consommateurs, elle symbolise la rencontre du consumérisme et de l’État de droit.
50L’expertise concerne tous les produits de consommation (produits non alimentaires, alimentaires dont agricoles, médicaments, etc.) et toutes les industries. Ainsi, la directive de 1999 établit « une juste répartition des risques inhérents à une société moderne caractérisée par un haut degré de technicité » (Borghetti, 2004 : 10). Cette directive est le symbole du brouillard de la causalité qu’il devient de plus en plus difficile de faire disparaitre. La pression des expertises se mêlant de plus en plus au droit de la responsabilité, on peut se demander si la « causalité juridique est superposable à la causalité scientifique » (Brun, 2007 : 15). Ce flou juridique laisse la voie à une demande de plus en plus forte pour de nouveaux droits, plus souples, plus effectifs. L’intelligence artificielle est une technologie qui peut être illisible pour ses concepteurs et qui sans une structure d’étude importante peut avoir bien du mal à expliquer le processus décisionnel de la technologie. Le chemin normatif qui part du droit pour englober la technique reste très pertinent, mais l’addition d’une technicisation du droit croissante à un manque de lisibilité de la causalité provoque un manque d’effectivité et décrédibilise la possibilité d’un recours ex post. L’intérêt pratique nous oblige à nous demander si une approche plus moderne, plus pragmatique et ex ante ne pourrait pas venir pallier les manques laissés par le régime conservateur.
- 29 Règlement (UE) 2016/679 du 27-4-2016, art. 24.
- 30 « La transparence est appréhendée comme un principe directeur de la gouvernance, que celle-ci empru (...)
51Ce mode de comptabilité est la première forme de la responsabilité commerciale. En effet, c’est avec l’apparition des cités-États italiennes que la lex mercatoria a glissé́ petit à petit des mains des corporations marchandes vers celles des gouvernants. La loi marchande imposant aux commerçants de s’assurer en cas de faillites, de pouvoir prouver la bonne gestion de leurs affaires et par la même occasion celle de leurs négoces (Braudel, 1979). Les Institutions de l’époque ont donc très rapidement vu l’intérêt de s’approprier les mathématiques afin de mieux organiser leurs sociétés. Ce lien se ressent encore aujourd’hui avec le Règlement européen pour les données personnelles de 2016. En effet, le RGPD29 exige, dans un souci de transparence et de responsabilité que les responsables de traitement puissent rendre des comptes aux personnes concernées de leurs données personnelles. Ce principe suppose que la transparence doit être « appréhendée comme un principe directeur de la gouvernance » des activités commerciales d’une entreprise30. L’intellegibilité ferait ainsi référence à ce devoir du concepteur de l’algorithme d’être en mesure de comprendre le fonctionnement de sa création, et donc un devoir d’information à destination de la recherche et du monde professionnel. Tandis que l’explicabilité serait un droit pour la personne qui a fait l’objet d’un traitement par intelligence artificielle, de comprendre le cheminement décisionnel (dans un langage courant) qui a amené l’algorithme à telle ou telle décision le concernant (Pégny et Ibnouhsein, 2018 : 42).
52La législation européenne dans ses derniers rapports et dans sa dernière proposition31 de règlement semble momentanément s’inspirer de ce qui est déjà proposé en matière de risque technologique. En divisant les intégrations de briques d’intelligence artificielle de façon sectorielle tout en y accolant une approche par les risques, l’Union européenne applique un schéma normatif qui a déjà fait ses preuves tout en garantissant aux États membres que serait exclue de facto la possibilité d’un moratoire pour un système d’intelligence artificielle à « haut risque ». Comme pour le nucléaire, l’intelligence artificielle au-delà de toute considération juridique, reste une technologie hautement politique et un enjeu de souveraineté internationale. Cette notion de « hauts risques » laisse l’interprète sur sa faim, en raison des critères encore trop vagues qui y sont repris : transparence, responsabilité, absence de biais, discrimination, intellegibilité.
- 32 Sandra Wachter, Brent Mittelstadt et Chris Russell démontrent qu’il sera très complexe de mettre en (...)
53L’apparition de ces nouveaux droits si elle est louable laisse encore une place trop importante à la discussion. Et ce n’est pas un hasard s’ils trouvent pour la plupart leur origine dans le domaine de l’éthique, de la corégulation ou des droits fondamentaux qui sont encore pour beaucoup libre d’interprétation selon le pays où l’on se trouve32 (Wachter, Mittelstadt et Russel, 2020 : 50). Habermas lui-même, alors théoricien de l’éthique de la discussion, avait reconnu qu’accorder une trop grande place à la co-régulation ne pouvait être « le chemin d’un droit véritablement humain » (Goyard-Fabre, 2002 : 40) car cela participerait à la disparition de la responsabilité et que sans l’intériorisation des normes, le droit risquait d’être dépourvu de son efficacité.
54Pour conclure, la démarche de plusieurs pays de l’Union européenne, fin 2020, qui appelait à moins de coercition que ce que propose les rapports du Parlement, est le signe que le développement de l’intelligence artificielle ne doit pas se faire sans une forme de vigilance de la part de la société civile autant que du monde universitaire. Il est capital de travailler à un véritable droit de l’intelligence artificielle ou le constructivisme ne l’emporte pas obligatoirement sur le positivisme. Les références aux droits humains et à l’éthique ne doivent pas nous faire perdre de vue que l’intelligence artificielle dépend aussi d’une logique de marché et qu’il faut comme pour les autres secteurs industriels être attentif quand il est envisagé de réguler plutôt que de réglementer. Le droit dans sa forme actuelle offre de véritables solutions au législateur et au juriste dans son appréhension de la technique, mais il serait tout aussi risqué d’enfermer une technologie qui pose autant de défis novateurs dans de vieux dogmes. Il faut également faire confiance à ceux qui essayent d’accélérer l’intégration des systèmes d’intelligence artificielle au champ juridique sans pour autant être naïf sur ce que cela sous-entend. Plus que jamais il est important de faire travailler les opinions et les intelligences de concert afin de donner au conservatisme cette dose de souplesse dont il a besoin pour perdurer et au modernisme cette touche de normativité dont il a besoin pour être reconnu.