Navigation – Plan du site

AccueilNuméros3DossierCalculer les images. Photographie...

Dossier

Calculer les images. Photographie et intelligence artificielle

Sabine Süsstrunk en conversation avec Estelle Blaschke et Davide Nerini
Computing Images. Photography and Artificial Intelligence. Sabine Süsstrunk in conversation with Estelle Blaschke and Davide Nerini
Sabine Süsstrunk, Estelle Blaschke et Davide Nerini
p. 106-110

Résumés

Le lien entre la photographie numérique et l’informatique est en passe de changer profondément la façon dont les images sont créées, utilisées et perçues. Dans un entretien avec Estelle Blaschke et Davide Nerini, Sabine Süsstrunk, chercheuse en sciences numériques, aborde l’évolution non linéaire vers la « photographie computationnelle » et la vision par ordinateur, cette dernière ayant été alimentée par une production photographique sans précédent et des avancées spectaculaires dans le champ de l’intelligence artificielle.

Haut de page

Texte intégral

1. L’algorithme « Deep Feature Factorization (DFF) » permet de reconnaître différentes parties d’une image, indépendamment de l’échelle, de la perspective et des transformations plus complexes affectant l’image cible ; tiré de Edo Collins, Radhakrishna Achanta et Sabine Süsstrunk, « Deep Feature Factorization for Concept Discovery », in Vittorio Ferrari et al. (dir.), Computer Vision. ECCV 2018, 15th European Conference. Proceedings, actes du colloque (8-14 sept. 2018, Munich), Cham, Springer International Publishing, 2018, p. 353.

1. L’algorithme « Deep Feature Factorization (DFF) » permet de reconnaître différentes parties d’une image, indépendamment de l’échelle, de la perspective et des transformations plus complexes affectant l’image cible ; tiré de Edo Collins, Radhakrishna Achanta et Sabine Süsstrunk, « Deep Feature Factorization for Concept Discovery », in Vittorio Ferrari et al. (dir.), Computer Vision. ECCV 2018, 15th European Conference. Proceedings, actes du colloque (8-14 sept. 2018, Munich), Cham, Springer International Publishing, 2018, p. 353.

© Edo Collins et Sabine Süsstrunk

Sabine Süsstrunk, vous êtes une spécialiste de la vision par ordinateur et de l’intelligence artificielle. Au cours des trois dernières décennies, vous avez développé une connaissance approfondie des enjeux techniques liés au traitement des photographies. Avant d’entrer dans le détail de vos activités, ainsi que des bouleversements qui les ont accompagnées ces dernières années, nous aimerions savoir, de façon plus générale, à quel type d’information correspond la photographie de votre point de vue.

Il me faut tout d’abord préciser que le terme d’« information » recoupe plusieurs concepts. Un bon point de départ pour l’approcher serait de s’interroger sur le degré de conformité de l’information photographique à la réalité. L’appareil photographique permet de capturer l’image d’un objet ayant une réalité tangible. L’image ainsi produite semble contenir énormément d’informations, voire plus d’informations que celles perçues à l’œil nu. Or, l’image photographique contient uniquement la lumière réfléchie par un objet donné à un instant précis, durant un certain temps d’exposition. Autrement dit, l’appareil ne capture qu’un fragment de ce qui est réellement perçu par notre œil. Mais attention, le fonctionnement de la vision humaine est également très difficile à cerner. D’un point de vue physiologique, notre œil est composé de quelque 120 millions de neurones – des cônes et des bâtonnets – qui réagissent à la lumière, mais seuls un million de ceux-ci environ sont réellement connectés au cerveau. En d’autres termes, une réduction des informations de deux ordres de grandeur se produit dans notre œil, sans compter la perte d’information induite dans le processus de traitement cérébral de la mémoire, du mouvement et des émotions. Nous pouvons donc poser une question plutôt classique : où se trouve exactement dans notre cerveau cet « écran » qui représente ce que nous voyons à un instant précis ?

En ce qui concerne les informations portées par les images, comment expliqueriez-vous la différence entre la photographie analogique et la photographie numérique ?

Le numérique nous permet de capturer et de visualiser beaucoup plus de données que l’analogique ne nous l’a jamais permis. Cela repose sur le fait que l’analogique, par sa nature, ne peut que reproduire le monde donné. Les rayons de lumière voyagent grosso modo en lignes droites ; la photographie analogique consiste à capturer ces rayons sur un support filmique de manière spatialement cohérente, ce qui n’est plus nécessaire pour le numérique. La possibilité de traiter des images à l’ordinateur rend le numérique bien plus polyvalent. Si le film analogique est très performant sur le plan de la résolution, de la sensibilité et de la gamme dynamique – aspects pouvant, encore aujourd’hui, s’avérer problématiques avec le numérique –, la photographie numérique permet de fusionner facilement les images avec un spectre plus large d’éléments. Citons par exemple le travail du professeur Shree K. Nayar, de la Columbia University : les objectifs qu’il fabrique déforment la photographie capturée jusqu’à la rendre illisible, et ce n’est qu’à travers un traitement par ordinateur que l’image peut ensuite être rétablie. Il s’est servi de cette technique pour réaliser des captations panoramiques à 360 degrés avec un objectif unique et un seul appareil photo.

Durant les vingt années qui ont suivi l’invention du premier appareil photo numérique par Steven Sasson en 1975, les fabricants ont tenté de rendre cette technologie aussi performante que l’analogique. Ils ont cherché à en augmenter la résolution, à améliorer le rendu de la couleur, du grain ou de la gamme dynamique, afin de rendre l’image numérique aussi richement descriptive que l’analogique. Cette ambition a été tellement prépondérante qu’elle a longtemps caché aux yeux de la branche ce qui était à mon avis son objectif véritable : non pas imiter l’analogique, mais le dépasser. Je dirais qu’au cours des quinze dernières années, nous avons atteint cet objectif sur bien des plans. L’apparition de l’appareil photo sur les téléphones portables a contribué à ce changement de paradigme. Même si la qualité était loin d’être satisfaisante au départ, une chose devenait claire : la fonction de prise de vue pouvait être intégrée à n’importe quel appareil et il devenait possible de réfléchir non plus seulement en termes de reproduction d’un aspect du monde, mais aussi d’élaboration d’images nouvelles à partir de perspectives multiples. Dans la mesure où l’image numérique est de l’information constituée de chiffres, et où ces chiffres permettent toute opération mathématique, on peut atteindre de nouveaux résultats. On l’aura compris : l’idée d’une approche computationnelle des images est ici fondamentale. Aussi fondamentale qu’elle a induit le remplacement de l’appellation « photographie numérique » par celle de « photographie computationnelle [computational photography] ».

Un autre aspect qui distingue le numérique de l’analogique réside dans le fait que dans le monde analogique, la moindre image coûtait cher. Vous vous souvenez peut-être de ces appareils jetables équipés d’un petit objectif en plastique, au prix de 12 francs suisses ? Ils étaient très bon marché et produisaient des photos de qualité décente, mais encore fallait-il prévoir les frais de développement. En outre, chaque boîtier était limité à 36 images uniquement. Aujourd’hui, on trouve des appareils numériques à un prix dérisoire, mais sans limite d’images désormais. Nous sommes passés d’instruments bon marché à utilisation onéreuse, à des appareils bon marché avec des frais d’utilisation quasiment nuls et des possibilités de photographier sans limites, puisque le capteur électronique est composé d’un matériel photosensible, le silicone, qui en tant que métal semi-conducteur ne se dégrade pas. Si nous prenons aujourd’hui tant de photographies, ce n’est pas qu’elles soient de meilleure qualité, qu’elles aient plus de sens ou contiennent davantage d’informations, mais bien parce que cela ne coûte plus rien.

Si le capteur ne se dégrade pas, peut-on dire la même chose des images qu’il produit ? S’agit-il de « meilleurs » documents du point de vue de l’archivage et de la conservation ?

En réalité, c’est exactement le contraire, même si peu de monde s’en est rendu compte. La raison pour laquelle le numérique n’est pas pérenne réside tout d’abord dans le fait que les données sont écrites sur des supports analogiques, tels que des bandes magnétiques ou des disques durs, qui sont loin d’être permanents. Les bandes magnétiques peuvent facilement se démagnétiser et les constituants des disques durs se dégradent au fil du temps. Par conséquent, pour en sauvegarder le contenu, il convient de modifier le format et de migrer régulièrement les fichiers sur d’autres supports. Par ailleurs, les formats dans lesquels les données sont enregistrées deviennent obsolètes après un certain temps, rendant leur lecture impossible. Si le JPEG semble échapper à cette tendance dans la mesure où il s’agit d’un format open source très largement répandu, d’autres, comme certains formats RAW de marque déposée, peuvent rapidement tomber en désuétude et il est fort probable que plus personne ne sera capable de les lire dans un futur proche. Il y a une vingtaine d’années, les sociétés n’ont pas cherché à rendre les logiciels compatibles avec les anciens formats parce que cela représentait des coûts supplémentaires. La situation s’est légèrement améliorée, mais le problème reste considérable.

Or, songeons à toutes les photographies du XIXe siècle conservées jusqu’à nous. Malgré les rayures et la dégradation de leur émulsion, on peut encore distinguer l’image parce que le support analogique est lisible à l’œil nu, ce qui n’est pas le cas des fichiers numériques. Des projets intéressants sont actuellement menés, notamment à l’université de Bâle, pour réinscrire du contenu numérique sur du film analogique, qui reste le support le plus facilement archivable. J’estime que l’archivage numérique est un problème non résolu qui va exploser dans les cinq prochaines années. Prenez, par exemple, le cas des archives des institutions culturelles : pour elles, il s’agissait jusqu’à peu de trouver un local adéquat, de s’assurer que la qualité de l’air et de l’emballage était correcte, et c’était à peu près tout. Cela n’est absolument pas le cas avec le numérique. Il faut constamment dupliquer et migrer les archives, ce qui demande autant d’argent que de temps. Bien évidemment, on pourrait se contenter de copier les images dans le cloud, mais si l’on se penche sur les conditions d’utilisation de ces services – ce que personne ne fait –, aucune responsabilité n’est engagée si les données sont perdues.

En même temps, ces sociétés s’octroient le droit de conserver nos photographies même si l’on souhaite les effacer…

Exactement, la quantité d’informations contenues dans les photographies personnelles, y compris celles que l’on considère comme ratées, est bien supérieure à ce que ces sociétés pourraient obtenir de vous par d’autres moyens. Cela nous renvoie au changement de paradigme induit par l’essor de la photographie computationnelle et de l’apprentissage automatique. Il est fort possible que les compagnies se mettent à investir dans l’amélioration de la durabilité des formats numériques non pas pour vous aider à conserver vos précieux souvenirs d’enfance, mais bien pour exploiter commercialement vos données personnelles.

Quels développements technologiques survenus ces dernières années vous ont le plus étonnée ?

Le pas de géant auquel je ne m’attendais pas a été celui de la vision par ordinateur, à savoir l’identification automatique d’objets et de formes dans les images. Pour que cela se produise, cependant, il a fallu deux choses. C’est d’abord l’avènement de l’intelligence artificielle dite neuronale, idée qui a déjà émergé au début des années 1990, mais qui n’a été développée que récemment parce qu’elle était extrêmement coûteuse. La linguistique informatique, qui existe depuis plusieurs décennies, permettait déjà d’analyser et d’interpréter du texte, mais uniquement parce que sur le plan des pixels et des bits, le texte, avec ses 26 lettres en français, contient bien moins d’informations qu’une image, où chaque pixel peut être encodé dans seize millions de variantes rendant compte des nuances infinies de la lumière et de la couleur. Cette immense palette de variantes a longtemps rendu toute analyse ou extraction d’informations d’une image très difficile.

En 2008, nous avons pu franchir cette barrière grâce aux processeurs graphiques développés par l’industrie vidéoludique, cette dernière ayant énormément investi afin d’augmenter la puissance de calcul graphique des ordinateurs. Depuis, ces processeurs graphiques très performants ont été intégrés dans nos travaux sur la vision par ordinateur, en particulier dans les opérations de reconnaissance et de classification.

Il ne faut pas oublier que nous menons tous nos recherches en ligne avec des mots, et non avec des images. Nous disons ou écrivons « maison » quand nous voulons voir des images de maisons. Les techniques de vision par ordinateur permettent d’extraire d’une image ce concept, donnant aux moteurs de recherche la capacité d’afficher en fin de compte des images de maisons. En 2012 cependant, AlexNet, un réseau neuronal convolutif de nouvelle génération, dépassait les méthodes classiques de reconnaissance visuelle. Cette extraction de métadonnées est désormais possible avec une qualité et une vitesse auxquelles je ne m’attendais pas. Les progrès observés au cours des six dernières années dans la reconnaissance d’objets ainsi que dans l’extraction de données sont tout à fait prodigieux.

Quelles en sont les limites ?

La vision par ordinateur ne permet pas encore de reconnaître des concepts abstraits comme les émotions ou les sentiments. L’algorithme ne peut pas identifier, par exemple, une image qui vous rendrait heureux. Nous en sommes encore très loin. Toutefois, si un éditeur photo indique que ladite image rend les gens heureux, et si cette opération est répétée pour une quantité suffisante d’images, l’ordinateur peut « apprendre » le choix de l’éditeur. Il peut donc imiter la personne qui a annoté les données, mais il ne peut pas déduire des émotions lui-même. Ceci dit, aujourd’hui, les machines apprennent mieux et plus vite. Elles peuvent dépasser les humains dans la reconnaissance de formes parce qu’elles sont capables d’analyser un million d’images, là où nous ne pouvons probablement traiter qu’une centaine d’images de manière efficace.

Cela transparaît également dans l’article de Jeff Guess publié dans ce numéro. Il y indique que l’annotation des images, fondement de l’apprentissage automatique, est souvent, pour des questions de coûts, sous-traitée ailleurs, notamment en Inde, où les employés ne partagent peut-être ni la langue ni les concepts propres au contexte culturel d’exploitation de ces données, ce qui peut rendre les annotations très ambiguës.

Pour que les machines apprennent l’indexation, il faut leur donner ce qu’on appelle une « réalité de terrain [ground truth] ». Ces données de base peuvent effectivement être créées en Inde, par exemple, à travers l’annotation manuelle d’un million de photographies. Ce travail permet ensuite d’indexer automatiquement et sans intermédiaires des millions de nouvelles images sur la base des critères établis pour le premier million. Dans ce cas, l’algorithme apprend ainsi le mode d’annotation utilisé par les employés indiens. La méthode d’apprentissage automatique n’est pas plus intelligente, elle apprend de cette indexation première : « ceci est un verre, une tasse de café, une bouteille », etc. Les Indiens buvant surtout du thé, si la tasse est toujours étiquetée comme une tasse à thé et jamais comme une tasse à café, elle sera par la suite identifiée par l’ordinateur comme une tasse à thé. Le système ne décèlera pas le fait qu’en Suisse, par exemple, on ne boit pas autant de thé qu’en Inde. Mais au-delà du problème posé par les spécificités linguistiques et culturelles, nous devons aussi nous questionner sur les implications liées à l’emploi massif de main-d’œuvre mal payée pour le développement de ces technologies. Qu’adviendra-t-il de toutes les personnes qui annotent les images une fois l’algorithme suffisamment « instruit » ?

Pour aller plus loin dans les implications éthiques, nous pourrions aussi évoquer le fait qu’étant conçus par des compagnies privées, ces systèmes reflètent en fin de compte des objectifs commerciaux. Est-ce que cela serait différent si leur développement était pris en charge par une institution publique à but non lucratif ?

Absolument. Les sociétés commerciales ne sont pas intéressées par les photographies en tant que telles, mais par ce que celles-ci leur indiquent de vos déplacements, de vos activités, de vos fréquentations et préférences. Or, cette masse d’informations permet d’établir un profil qui peut être ensuite communiqué à d’autres sociétés, qui pourront elles aussi l’exploiter. Votre assurance maladie pourrait par exemple vous pénaliser après avoir constaté que vous prenez beaucoup de photos dans des bars – nous n’en sommes pas loin. D’un point de vue législatif, nous sommes très en retard sur le plan de la protection des données. Chacun de nous doit aussi se demander combien de fois il ou elle s’est contenté de cliquer sur un « je suis d’accord » sans vérifier comment un logiciel ou une application utilisait ses données. La situation est meilleure en Europe, mais les firmes établies aux États-Unis ou en Chine agissent trop librement.

Sur quels projets travaillez-vous en ce moment ?

Ils sont nombreux, mais pour vous donner un exemple, nous travaillons sur un projet d’apprentissage automatique, qui est mené d’un point de vue plus théorique, parce que l’une des choses extrêmement frustrantes pour ceux et celles qui, comme moi, sont impliqués dans la recherche, est de ne pas vraiment savoir pourquoi ces réseaux de neurones artificiels fonctionnent si bien. Je m’explique. Pour la reconnaissance du contenu visuel, les réseaux fonctionnent en couches, et à chaque couche s’applique une transformation mathématique de l’image. On procède ensuite à ce qu’on appelle des opérations de régularisation : certaines informations sont conservées et d’autres sont écartées. On répète cette opération pour toutes les autres couches. Au début des années 1990, on employait des « réseaux peu profonds [shallow networks] », constitués de quelques couches uniquement, mais leur performance n’était pas optimale. Ils ne pouvaient pas effectuer de calcul sur plusieurs couches puisque la puissance de calcul n’était pas suffisante. Aujourd’hui, nous pouvons avoir des réseaux composés de milliers de couches, et les résultats sont extraordinaires. Mais que font-ils exactement ? Et pourquoi avons-nous besoin d’en avoir autant ? Quand nous les analysons, nous voyons que les premières couches contiennent ce que nous appelons des caractéristiques de bas niveau, des lignes, des courbes et des orientations, similaires aux premières étapes de traitement du système visuel humain. Ensuite, dans les couches de profondeur moyenne, le système commence à apprendre à reconnaître des parties d’objet. Pour l’image d’un visage, par exemple, l’algorithme apprend à identifier l’œil gauche ou les narines, des parties de la bouche, etc. La véritable reconnaissance d’objet, ou de visage, n’intervient ensuite que dans les couches les plus profondes. Mais comment et pourquoi cela fonctionne-t-il exactement ? De nombreux éléments fondamentaux nous échappent encore. Nous savons par exemple que dans des conditions particulières, l’algorithme est capable d’identifier avec succès des objets qu’il n’a jamais rencontrés auparavant. Or, s’il est vrai que la machine ne peut apprendre que de la réalité de terrain, comment cela est-il possible ? La communauté de chercheurs et de chercheuses qui travaille actuellement sur l’apprentissage automatique a encore beaucoup à découvrir.

Quelle serait la conséquence d’une véritable compréhension de ces processus d’automatisation ?

Une fois que l’on comprendra ces réseaux, on pourra accéder aux couches les plus profondes pour manipuler un élément afin d’améliorer le résultat désiré. En toute honnêteté, cela présente aussi un danger évident : puisque nous sommes en mesure de manipuler les informations dans les couches, nous pouvons créer des images qui ressemblent à des photographies et que l’on pourrait considérer comme fidèles à la réalité. Dans l’industrie cinématographique, on utilise un concept esthétique appelé la « vallée de l’étrange [uncanny valley] », selon lequel plus un personnage fictif est proche de l’apparence humaine, plus il paraîtra monstrueux à nos yeux. C’est ainsi que dans les films pour enfants, les traits des personnages sont généralement exagérés, les yeux sont trop gros, les personnages ne sont pas humains. C’est une démarche volontaire, destinée à les rendre « mignons » et à éviter ainsi toute réaction de rejet. Jusqu’ici, nous n’avons pas totalement dépassé cette vallée de l’étrange dans la synthèse d’images par ordinateur, mais si c’était le cas, et si ces algorithmes continuaient à s’améliorer, nous pourrions alors synthétiser une apparence réaliste de tout ce que nous souhaitons, et cela pourrait à mon avis poser problème.

Est-on vraiment en train d’arriver à cela ?

Il me semble que nous nous en rapprochons de très près et très vite, parce que le domaine avance à grands pas et que beaucoup de personnes intelligentes y travaillent, même s’il nous faudra du temps pour surmonter véritablement le dernier obstacle, les dix pour cent restants. Nous sommes toutefois déjà en mesure de générer une photographie assez simple de façon réaliste. Il est ainsi possible de contrefaire des images de radar policier, par exemple. On peut fabriquer une image de vous passant au feu rouge telle qu’elle serait enregistrée par une caméra de surveillance ; on peut également falsifier les métadonnées qui suggéreraient que vous étiez là, qu’il s’agissait bien de vous. Les données GPS, qui rappelons-le ne peuvent pas être supprimées de nos smartphones, laissent une trace des chemins empruntés. L’application santé de l’iPhone, par exemple, est bien évidemment associée au GPS. Elle sait exactement où vous vous êtes rendu et à quelle heure vous avez effectué vos dix mille pas quotidiens. Le système sait donc où vous êtes passé et à partir de là, il peut générer une image d’apparence réaliste. Aujourd’hui, nous pouvons déjà produire de très bonnes fausses images en remplaçant uniquement quelques éléments. La problématique dépasse toutefois la simple question photographique ou technique, elle est de savoir si l’utilisation est bienveillante ou non. C’est une question simple, mais le nœud du problème se résume souvent à elle.

Quelles démarches de précaution pouvez-vous développer ou développez-vous pour contrer la possibilité de générer ou de falsifier des images ? Comment pourrons-nous à l’avenir distinguer les vraies informations des fausses ?

De nombreux efforts sont déjà entrepris puisqu’il s’agit aujourd’hui d’un vrai problème. Des chercheurs se penchent sur la détection de différents types de contrefaçons. Certaines de ces méthodes sont relativement simples. On observe différentes parties de l’image et on évalue la cohérence du bruit numérique entre elles. Il existe également des méthodes plus sophistiquées qui vérifient notamment le reflet dans les yeux des personnes présentes sur une photographie pour déterminer si elles regardaient vraiment la même chose. Aujourd’hui, des appareils photo permettent également d’introduire au moment de la capture un motif visant à détecter des éléments copiés ou supprimés de l’image après-coup. Si la demande s’impose, ces moyens technologiques seront développés. Je ne serais pas surprise qu’à l’avenir, les agences de presse adoptent cette technologie, dans un contexte où le soupçon de fake news devient omniprésent.

Haut de page

Table des illustrations

Titre 1. L’algorithme « Deep Feature Factorization (DFF) » permet de reconnaître différentes parties d’une image, indépendamment de l’échelle, de la perspective et des transformations plus complexes affectant l’image cible ; tiré de Edo Collins, Radhakrishna Achanta et Sabine Süsstrunk, « Deep Feature Factorization for Concept Discovery », in Vittorio Ferrari et al. (dir.), Computer Vision. ECCV 2018, 15th European Conference. Proceedings, actes du colloque (8-14 sept. 2018, Munich), Cham, Springer International Publishing, 2018, p. 353.
Crédits © Edo Collins et Sabine Süsstrunk
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/transbordeur/docannexe/image/1657/img-1.jpg
Fichier image/jpeg, 481k
Haut de page

Pour citer cet article

Référence papier

Sabine Süsstrunk, Estelle Blaschke et Davide Nerini, « Calculer les images. Photographie et intelligence artificielle »Transbordeur, 3 | 2019, 106-110.

Référence électronique

Sabine Süsstrunk, Estelle Blaschke et Davide Nerini, « Calculer les images. Photographie et intelligence artificielle »Transbordeur [En ligne], 3 | 2019, mis en ligne le 01 octobre 2024, consulté le 17 février 2025. URL : http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/transbordeur/1657 ; DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/12gyg

Haut de page

Auteurs

Sabine Süsstrunk

Sabine Süsstrunk est professeure titulaire à l’EPFL, où elle dirige le Images and Visual Representation Lab de la faculté d’Informatique et communications. Ses domaines de recherche sont l’image et la photographie computationnelles, le traitement d’images couleur et la vision par ordinateur, ainsi que la qualité de l’image et l’esthétique algorithmique. Elle est membre de l’IEEE et de l’IS&T, et a reçu le prix IS&T/SPIE Electronic Imaging Scientist of the Year 2013.
Sabine Süsstrunk is a full professor at the École Fédérale Polytechnique de Lausanne, where she is in charge of the Images and Visual Representation Lab in the School of Computer and Communication Sciences. Her research areas are computational imaging and computational photography, colour image processing and computer vision, as well as image quality and computational aesthetics. She is a Fellow of IEEE and IS&T, and received the 2013 IS&T/SPIE Electronic Imaging Scientist of the Year Award.

Estelle Blaschke

Articles du même auteur

Davide Nerini

Articles du même auteur

Haut de page

Droits d’auteur

CC-BY-NC-ND-4.0

Le texte seul est utilisable sous licence CC BY-NC-ND 4.0. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.

Haut de page
Rechercher dans OpenEdition Search

Vous allez être redirigé vers OpenEdition Search