L’IA, une nécessaire réglementation
Plan
Haut de pageTexte intégral
1L’Intelligence Artificielle (IA) est aujourd’hui au cœur des priorités de recherche et développement pour les gouvernements de nombreux pays et les grandes entreprises mondiales, notamment les géants de la technologie (Gafam). Les succès de l’IA se sont multipliés depuis les années 2010, que ce soit dans le tri automatique du courrier, l’analyse d’images, la détection de formes, ou encore les victoires aux jeux d’échecs et de go. ChatGPT a même passé avec succès le « test de Turing », rendant difficile pour un observateur de distinguer si son interlocuteur est un être humain ou un robot. Les avancées de l’IA dans le traitement du langage naturel ont conduit à des applications impressionnantes, notamment la capacité de répondre à des questions, de produire des textes et des analyses qui ont stupéfié même les experts les plus sceptiques. Certains ont même craint que les logiciels d’IA ne développent une forme de conscience de soi, mettant ainsi en péril l’humanité.
2Cependant, un survol de l’histoire de la recherche en IA devrait tempérer cet enthousiasme et rassurer ceux qui appellent à un moratoire, voire à l’arrêt de ces travaux. L’histoire de l’IA peut être divisée en trois grandes phases, chacune est marquée par la création de laboratoires, l’augmentation des financements et des présentations élogieuses d’applications telles que les systèmes experts destinés à résoudre des problèmes spécifiques. Dans les années 1980, le Japon a même envisagé la création d’ordinateurs de cinquième génération spécialisés dans la manipulation de symboles et de règles de calcul logique. Cependant, il est rapidement devenu évident que ces systèmes, limités à la résolution de problèmes logiques, étaient incapables de traiter des données non structurées. Les financements se sont taris, les laboratoires ont changé de direction de recherche, marquant ainsi le début du premier « hiver de l’IA ».
La voie du connexionnisme
- 1 Quand la machine apprend, La révolution des neurones artificiels et de l’apprentissage profond, Yan (...)
3Depuis les débuts de l’IA, une autre approche, basée sur les réseaux de neurones artificiels, avait été proposée. Critiquée par les tenants de l’IA symbolique, elle a eu des difficultés à s’imposer. Une percée importante a été le développement de réseau multicouche en ajustant les poids des connexions entre les couches grâce aux algorithmes de « rétro propagation du gradient » appliquées à des données d’entraînement. Elle a permis ainsi le développement d’applications capables d’apprentissage automatique. Ces applications ont été efficaces pour des tâches telles que la reconnaissance de motifs dans des images, notamment dans le tri du courrier postal grâce à la reconnaissance des chiffres manuscrits1. Cependant, elles ont l’inconvénient majeur de ne pas pouvoir expliquer leurs résultats, ce qui est essentiel dans des domaines comme la médecine. Ces logiciels sont donc considérés comme des « boîtes noires » en raison de la complexité de leurs réseaux. Là encore, ces technologies issues du connexionnisme ont montré leurs limites.
4Dans les années 2010, l’augmentation de la puissance de calcul des processeurs et la disponibilité massive de données ont donné naissance à une catégorie dérivée de l’IA fondée sur l’apprentissage profond, à la base des succès actuels en vision par ordinateur, analyse d’images, compréhension du langage naturel et jeux (échecs, go, etc.). Elle repose sur des réseaux de neurones artificiels avec de nombreuses couches cachées spécialisées dans l’extraction des caractéristiques hiérarchiques à partir des données.
5Aujourd'hui, l’IA est largement utilisée dans divers domaines tels que la santé, la finance, la robotique, l’automobile, la recommandation de contenu, la sécurité, et bien d’autres. Cependant, des défis subsistent, notamment en ce qui concerne la transparence et l’interprétabilité des modèles d’IA, ainsi que les questions éthiques et de responsabilité qui y sont associées.
Faut-il avoir peur de l’IA ?
6ChatGPT a montré qu’il pouvait réussir le « test de Türing » en imitant les humains, remplaçant l’analyse du contexte, l’expérience et la compréhension du monde propres à la démarche humaine par une analyse d’ordre statistique sur des masses de données textuelles récupérées sur Internet. Les textes obtenus sont souvent convaincants, mais parfois parsemés d’erreurs grossières, voire d’inventions pures et simples. Cela signifie que ces systèmes n’ont pas une compréhension réelle des problèmes soulevés, du moins au sens où un être humain l’a. Aussi le débat sur la menace que ferait courir à l’humanité une prise de pouvoir par des IA devenues conscientes me paraît de la mauvaise science-fiction. À l’heure actuelle, les IA comme ChatGPT sont mises en œuvre par des humains qui leur fournissent les données d’apprentissage et les questions et les problèmes auxquels ils veulent des réponses. Et puis comme par le passé, on surestime une fois de plus les capacités de ces dernières. Un seul exemple, la conduite automobile autonome qui devait se généraliser dès 2010, puis dès 2020 et aujourd’hui pour 2030. La conduite dans une ville comme Paris soit le matin, soit en fin d’après-midi me semble hors de portée des techniques actuelles.
7Mais il nous faut rester vigilants. Car ne nous y trompons pas : si la conduite automobile reste un problème difficile pour un robot, la mise en œuvre d’armes « intelligentes » devient d’actualité. Les véhicules blindés, les drones seront sans doute dans l’avenir pilotés par des IA. Le sort des populations civiles n’en sera sans doute pas rendu meilleur.
Le projet de règlement de l’Union européenne
- 2 https://www.europarl.europa.eu/news/fr/headlines/society/20230601STO93804/loi-sur-l-ia-de-l-ue-prem (...)
8Dans le cadre de sa stratégie sur le numérique, l’Union européenne souhaite réglementer l’IA pour garantir de meilleures conditions de développement et d’utilisation de cette technologie innovante2. En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l’UE pour l’IA. Il propose que des systèmes d’IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction des niveaux de risques qu’ils présentent pour les utilisateurs. C’est la première tentative de réglementation au monde de l’IA.
9Le Parlement européen est allé dans le même sens. Il a repris à son compte les niveaux de risques proposés par l’UE en complétant la liste des systèmes d’IA considérés comme une menace pour les personnes (et qui seront interdits) par les systèmes d’identification biométrique telle la reconnaissance faciale en temps réel comme la Chine l’expérimente pour noter et classer les comportements sociaux des individus.
10Les IA générant des textes à l’instar de ChatGPT doivent indiquer que leur contenu a été généré par une IA et que certaines sources ou données utilisées peuvent être protégées par le droit d’auteur.
11Le débat est maintenant porté avec les pays de l’UE au sein du Conseil. Le gouvernement français bien qu’il ne soit guère favorable à une telle réglementation qui cherche à contraindre les applications de ces systèmes, a fini par la voter. Il y voit avant tout un élément clef de l’économie future et encourage un certain nombre de villes françaises à profiter des JO pour expérimenter de tels systèmes.
Notes
1 Quand la machine apprend, La révolution des neurones artificiels et de l’apprentissage profond, Yann Le Cun, Odile Jacob, 2019.
2 https://www.europarl.europa.eu/news/fr/headlines/society/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle
Haut de pagePour citer cet article
Référence électronique
Jacques Vétois, « L’IA, une nécessaire réglementation », Terminal [En ligne], 137 | 2023, mis en ligne le 20 mars 2024, consulté le 03 décembre 2024. URL : http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/terminal/9350 ; DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/terminal.9350
Haut de pageDroits d’auteur
Le texte et les autres éléments (illustrations, fichiers annexes importés), sont « Tous droits réservés », sauf mention contraire.
Haut de page