Navigation – Plan du site

AccueilNuméros66ArticlesL’anglais de spécialité en LEA à ...

Articles

L’anglais de spécialité en LEA à la croisée des domaines : étude de l’acquisition du lexique spécialisé

Julie McAllister et Sophie Belan
p. 41-59

Résumés

Cet article propose d’étudier l’acquisition du lexique spécialisé dans le cadre d’un dispositif hybride d’enseignement-apprentissage de l’anglais des affaires dans la filière LEA. Après une brève exposition du contexte et de la méthodologie de la recherche, il présente les résultats d’une étude qualitative et quantitative menée à partir d’un corpus de productions écrites d’étudiants de Licence 1 LEA. L’objectif de l’étude était de montrer comment la fluidité, la précision et la complexité lexicale et syntaxique de la production écrite évoluent dans le cadre du dispositif hybride proposé. Les résultats obtenus montrent une évolution statistiquement significative de la fluidité, de la précision et de la complexité lexicale des productions, à des degrés divers en fonction du niveau des étudiants.

Haut de page

Texte intégral

Introduction

1Plusieurs communications et articles proposés dans le cadre des travaux du GERAS (Groupe d’étude et de recherche en anglais de spécialité) ont souligné le caractère hybride de la filière LEA (Langues étrangères appliquées), dont les étudiants ne sont ni spécialistes d’une langue en particulier, comme on l’entend en LLCE (langues, littératures et civilisation étrangères), ni spécialistes d’un domaine spécifique, comme le sont les étudiants du secteur LANSAD (Crosnier 2008 ; Narcy-Combes, M.-F. 2008 ; Tee Anderson 2010). Il n’en demeure pas moins que les étudiants de LEA ont des besoins spécifiques liés à la dimension professionnalisante de leur formation et à ses débouchés. Multidomaine par les diverses matières d’application qui y sont enseignées, la formation en LEA intègre également des enseignements de langues, et notamment d’anglais de spécialité. Si l’on ne peut réduire l’enseignement d’une langue de spécialité à celui d’un lexique spécialisé ou d’une terminologie d’un domaine cloisonné (Delagneau 2008), l’une des approches possibles est celle du lexique, où s’exprime la spécialité.

2Cette étude s’intéresse à l’acquisition du lexique spécialisé dans le cadre d’un dispositif d’apprentissage hybride de l’anglais des affaires combinant l’enseignement à distance et en présentiel. Mis en place à l’Université de Nantes pour la première année de licence en LEA (LEA 1 désormais), le dispositif est construit dans une perspective socio-constructiviste sur l’approche par les tâches. En partant de l’hypothèse selon laquelle l’approche par les tâches favoriserait les acquisitions langagières, une évaluation des apprentissages par pré-test et par post-test a été mise en place sous la forme de production écrite pour permettre de déceler les évolutions de l’interlangue des apprenants entre le début et la fin de la formation. Au total, 285 étudiants ont passé ces tests en 2010 et 312 en 2011.

3En considérant que la langue spécialisée est enracinée dans la langue générale (Cabré 1998 ; Resche 1999), la manière dont la fluidité, la complexité et la précision des productions écrites a évolué entre le pré-test et le post-test a été examinée grâce à une analyse quantitative du contenu d’un échantillon des productions de quinze apprenants. La présente étude s’inscrit dans le cadre de cette évaluation globale des acquisitions langagières (McAllister 2013). Plus spécifiquement, pour évaluer le développement du lexique spécialisé entre le pré-test et le post-test, une analyse qui inclut deux catégories de mesures (Skehan 2009) a été effectuée : des mesures de rareté (Read 2000, 2005) et de diversité lexicale (Malvern & Richards 2002 ; Richards & Malvern 2007). Pour ce faire, différents logiciels ont été utilisés. L’article rend compte des mesures appliquées, explique la préparation des données ainsi que la démarche d’analyse adoptée et présente les résultats. Pour appuyer ces résultats, quelques extraits des productions des apprenants mettant en évidence les évolutions observées sont présentés.

1. Présentation du contexte et de la recherche

4Le dispositif hybride que nous présentons dans cet article a été mis en place dans le cadre d’un cours intitulé « Langue de spécialité et traduction », élément constitutif d’une unité d’enseignement d’anglais obligatoire à tous les niveaux de la filière LEA nantaise. Toutefois, à ce jour, il ne concerne que le deuxième semestre de la Licence 1 et de la Licence 3. Le projet est né du constat de problèmes de terrain récurrents : effectifs lourds, taux d’abandon et d’absentéisme élevés, niveaux hétérogènes et besoin d’harmoniser les enseignements de langue de spécialité à chaque niveau (McAllister, Narcy-Combes & Starkey-Perret 2012 ; Narcy-Combes 2008 ; Narcy-Combes & McAllister 2011).

5Le programme est fondé sur une alternance de séances en présentiel et de périodes de travail collaboratif à distance. L’approche choisie est l’approche par les tâches, qui permet de faire travailler les étudiants sur leurs compétences langagières à l’écrit et à l’oral. Les regroupements hebdomadaires durent deux heures, dont une heure en classe entière et une heure par groupes de quinze étudiants. La séance plénière permet d’aborder des points généraux sur la langue ou la méthodologie, de travailler la compréhension de l’oral ou la traduction. Les temps en classe réduite sont consacrés à la rétroaction sur les productions écrites remises par les étudiants chaque semaine ou à la restitution et à l’évaluation des tâches orales qu’ils ont préparées en collaboration : présentations ou jeux de rôle.

6Pour la partie à distance, les étudiants travaillent sur des ressources accessibles sur une plate-forme de type Moodle. Ils y retirent, sur un espace dédié, les fichiers nécessaires à la réalisation des tâches et ont accès à des documents complémentaires déposés par les membres de l’équipe pédagogique. Un centre de ressources virtuel créé dans un second espace Moodle propose un ensemble d’activités d’entraînement ou de remédiation (micro-tâches).

7En cohérence avec les théories qui fondent le dispositif hybride, l’approche par les tâches a été adoptée pour élaborer la situation d’évaluation selon les principes d’un test de performance (Brindley 2009 ; McNamara 2000 ; Norris et alii 2009). Celle-ci mettait l’apprenant en action dans le rôle d’un journaliste et l’amenait à mobiliser ses connaissances sur les thématiques rencontrées lors des phases d’apprentissage, ainsi que ses compétences linguistiques et pragmatiques pour rédiger un article à partir d’une série d’images. Le temps pour cet exercice de production écrite était limité à une heure.

2. Questions de recherche et hypothèses

8Les concepteurs du dispositif hybride avaient émis l’hypothèse qu’il assurerait les acquisitions en favorisant l’activité des étudiants grâce à la réalisation régulière de macro- et de micro-tâches. F. Demaizière et J.-P. Narcy-Combes (2005) définissent les macro-tâches comme des tâches complexes et réalistes menant à une production écrite ou orale, et les micro-tâches comme des tâches moins réalistes, plus spécifiques, ciblant des points linguistiques ou pragmatiques particuliers.

9Notre questionnement au début de la mise en place du dispositif hybride portait sur le potentiel du dispositif pour l’acquisition de la langue cible. Ensuite, il a été envisagé de mesurer de manière plus précise les changements de l’interlangue. Selon de nombreux chercheurs en acquisition des langues (Ellis 2003 ; Skehan 1998 ; Ellis & Barkhuizen 2005), le développement de la compétence langagière peut être appréhendé au moyen des notions de fluidité (« fluency »), de précision (« accuracy ») et de complexité (« complexity »). La question de recherche a alors été affinée : comment la fluidité, la précision et la complexité lexicale et syntaxique de la production écrite d’apprenants d’anglais évoluent-elles dans le cadre du dispositif hybride proposé (McAllister 2013) ?

3. Définition des paramètres et des mesures de la performance langagière

10Les définitions opérationnelles de ces trois paramètres qui sous-tendent la compétence en L2 et qui permettent d’étudier la production en L2 sont explorées dans un premier temps, puis les mesures associées sont présentées. La présente étude s’intéresse plus particulièrement aux notions de fluidité et de complexité lexicale et à l’interrelation entre ces deux paramètres.

11La fluidité fait référence à la notion de temps de réaction ou d’exécution. Rod Ellis & Gary Barkhuizen (2005 : 138) mettent en avant la capacité de l’apprenant à gérer la communication en temps réel, autrement dit, à produire un énoncé sans hésitations ou pauses excessives. Pour P. Skehan (1996), la fluidité est fondamentalement liée au contrôle de l’apprenant sur sa connaissance linguistique en L2, ce qui s’exprime par la rapidité et par l’efficacité avec lesquelles il a accès à l’information pertinente en L2 afin de communiquer des opinions en temps réel. Ces définitions s’appliquent principalement à la production orale. Quant à la production écrite, il est fait référence à la définition de Wolfe-Quintero, Inagaki & Kim (1998 : 4), qui met l’accent sur la rapidité de traitement de l’output, et plus spécifiquement sur la quantité d’informations rédigées par l’apprenant dans le temps alloué pour une tâche : « second language learners write more fluently, or write more in the same amount of time, as they become more proficient ».

12C’est la notion de rapidité qui revient le plus souvent dans ces définitions. Celle-ci est étroitement liée à celle de l’automatisation (DeKeyser 2001). L’auteur distingue « l’automaticité », qui désigne une performance sans avoir à fournir d’effort physique ou mental, et le processus d’« automatisation » qui la permet. C’est donc le degré d’automatisation qui permet la fluidité. J.- P. Narcy-Combes (2005) et N. Ellis (2001) précisent que l’automaticité et la fluidité dépendent d’un fonctionnement par blocs lexicalisés (« chunks » ou « formulaic sequences ») : la mémorisation de blocs lexicalisés permet de gagner du temps et de réduire la charge cognitive, dans la mesure où ceux-ci évitent analyse et construction internes. F. Demaizière et J.-P. Narcy-Combes (2005) décrivent les blocs lexicalisés comme « des instances d’utilisation, sortes de modèles tout faits en lien avec leurs contextes d’emploi ». A. Wray (2002 : 9) souligne cette notion de modèle préfabriqué en définissant un bloc lexicalisé comme :

A sequence, continuous or discontinuous, of words or other elements, which is, or appears to be, prefabricated: that is, stored and retrieved whole from memory at the time of use, rather than being subject to generation or analysis by the language grammar.

13Selon P. Skehan (1996), la précision fait référence à la qualité de la langue produite par rapport aux normes de la langue cible et se conjugue avec la réduction du taux d’erreurs (Skehan & Foster 1997 ; Wolfe-Quintero, Inagaki & Kim 1998). La complexité, quant à elle, correspond au degré de sophistication de la langue produite et à la variété syntaxique et lexicale (Ellis & Barkhuizen 2005 ; Wolfe-Quintero, Inagaki & Kim 1998).

14P. Foster et P. Skehan (1996) ont montré que ces trois paramètres (fluidité, complexité, précision) peuvent entrer en concurrence au moment de l’exécution d’une tâche, car les ressources attentionnelles et la capacité de mémoire de travail chez les apprenants de L2 sont limitées. P. Skehan (2009) souligne les tensions entre, d’un côté, la forme (impliquant à la fois la complexité et la précision) et, de l’autre, la fluidité. Ensuite, la forme elle-même se caractérise par des tensions entre la complexité et la précision. Il explique ces tensions par la « Trade-off Hypothesis », qui suppose que le fait de focaliser son attention sur l’une de ces dimensions de la performance en L2 va nuire à la performance des autres :

[...] if performance in each of these areas, complexity, accuracy, and fluency (CAF), requires attention and working memory involvement, then committing attentional resources to one may have a negative impact on others. (Skehan 2009 : 511)

15Pour rendre ces concepts opérationnels, les méthodes et des mesures de la linguistique appliquée (Norris & Ortega 2009 ; Ortega 2003 ; Skehan 2009 ; Wolfe-Quintero, Inagaki & Kim 1998) permettent d’analyser le contenu des productions écrites des apprenants.

16Suivant L. Ortega (2003), il faut calculer le nombre total des mots d’un texte pour mesurer la fluidité, ce qui donne une indication sur le degré d’automatisation du discours de l’apprenant, comme le soulignent K. Wolfe-Quintero, S. Inagaki et H.-Y. Kim (1998 : 14) : « fluency means that more words and more structures are accessed in a limited time, whereas a lack of fluency means that only a few words or structures are accessed ».

17P. Skehan (2009) et J. Norris et L. Ortega (2009) soulignent la nature multidimensionnelle de la performance et prônent la prise en compte de mesures précises du lexique. P. Skehan (2009) distingue les mesures internes au texte des mesures externes. Dans le premier cas, le texte suffit pour servir de base de calcul, comme par exemple pour quantifier la diversité lexicale d’un texte et, dans le deuxième, il est nécessaire de faire appel aux sources externes pour évaluer la complexité lexicale, par exemple. Pour ces deux mesures, dans le cadre de cette étude, deux logiciels ont été utilisés.

18La diversité lexicale est définie par le nombre de mots différents dans un texte. La mesure établit un rapport entre le nombre de mots différents contenus dans un texte (« types ») et le nombre total de mots (« tokens »), ce qui donne lieu à un ratio comme l’indice traditionnel de « type-token ratio ». Cependant, cet indice est fortement influencé par la longueur du texte de l’échantillon considéré : plus le texte est long, plus le ratio diminue. C’est pour éviter ce biais que D. Malvern et B. Richards (2002) ont élaboré un modèle statistique, appelé la statistique « D ». C’est une mesure plus sophistiquée de la diversité lexicale qui neutralise cet effet de l’impact de la longueur du texte en donnant une estimation probabiliste de la diversité lexicale, selon un algorithme d’échantillonnage appliqué au texte. Nous avons utilisé le logiciel D-Tools conçu par P. Meara et I. Miralpeix (2004) pour analyser la valeur « D » d’un texte. Ce logiciel prend des échantillons de mots du texte de manière aléatoire pour trouver une correspondance avec le modèle statistique.

19La complexité lexicale, pour sa part, mesure la densité de mots rares ou de basse fréquence dans un texte. Dans cette perspective, plus les mots utilisés sont rares, plus la complexité du texte sera élevée. À l’instar de P. Skehan (2009), nous avons employé le logiciel P_Lex, conçu par P. Meara et H. Bell (2001). Ce logiciel analyse les textes en se référant à un corpus d’écrit de 2 000 mots de haute fréquence en anglais (d’après les listes de Laufer & Nation 1995). Selon ce dictionnaire interne, les mots du texte de l’apprenant sont codifiés en fonction de trois catégories de fréquence. Les mots considérés comme « faciles » (« easy ») sont codifiés soit « 0 », qui désigne les 1 000 mots les plus fréquents dans la langue cible et correspondrait, selon les auteurs, à 50 % du total des occurrences de mots dans les textes écrits en anglais, soit « 1 », qui correspond aux 1 000 mots suivants les plus fréquents dans la langue. Les mots absents de ce dictionnaire interne sont vérifiés à l’aide de la liste du British National Corpus1 pour l’écrit, dans le but d’établir leur rang (> 2000 = code « 2 »). Ces mots sont considérés comme étant « complexes » (« hard ») car de basse fréquence ou rares. Les chiffres et les noms propres sont codifiés « 1 ». Ensuite, le logiciel divise le texte de l’apprenant en segments de dix mots et pour chaque segment, il calcule le nombre de mots « complexes » en se fondant sur la codification que nous venons de présenter.

20Une fois le profil du texte établi, le logiciel calcule la valeur lambda λ à partir d’une distribution de probabilité suivant la loi de Poisson, ce qui représente le meilleur ajustement de la distribution du nombre de mots « complexes » dans le texte.

4. Corpus et méthodologie du recueil de données et de l’analyse

21Une évaluation des acquisitions a été menée en 2010 et 2011 par le biais d’un pré-test et d’un post-test fondés sur la réalisation d’une macro-tâche réaliste donnant lieu à une production écrite. Le pré-test a été passé par les étudiants dans leurs groupes de TD respectifs lors de la première séance du second semestre et le post-test a eu lieu pendant l’avant-dernière séance, soit après onze semaines de formation. Une grille d’évaluation critériée construite à partir des descripteurs du CECRL a été utilisée par les enseignants pour évaluer les productions écrites ainsi obtenues (McAllister 2013).

22L’évaluation par le pré-test et le post-test a montré que le dispositif hybride a permis l’évolution de l’interlangue pour environ un tiers des étudiants au cours du semestre (McAllister 2013 ; Narcy-Combes 2012 ; Narcy-Combes & McAllister, 2011). Le corpus a été constitué en choisissant de manière aléatoire 10 % des productions des étudiants qui sont passées du niveau A2 au niveau B1 (désormais A2 → B1) et du niveau B1 au niveau B2 (désormais B1 → B2) en 2010 et 2011, ce qui concerne sept et huit étudiants respectivement. Le corpus ainsi obtenu se compose d’un pré-test et d’un post-test par étudiant, soit un total de trente productions écrites provenant des quinze étudiants en question. Des étudiants provenant de différents groupes de travaux dirigés de Licence 1 ont été sélectionnés afin d’éviter un éventuel biais statistique lié à la sélection d’étudiants d’un seul groupe. Au total le corpus contient environ 7 155 mots, soit 3 136 mots pour les pré-tests et 4 019 mots pour les post-tests (McAllister 2013).

23Pour exploiter ce corpus, qui à l’origine était composé de documents manuscrits, la retranscription des productions écrites des apprenants dans un fichier numérique au format .txt a été effectuée. L’utilisation de ces logiciels a nécessité une préparation des productions en amont, par exemple, la correction d’erreurs d’orthographe pouvant créer des doublons dans le même texte (ex. which /witch ; environmental/environnemental ; expensive/expansive, etc.), le traitement des noms propres comme une seule unité (ex. World Health Organisation devient World_Health_Organisation) et enfin la séparation des formes contractées (it’ll – it ’ll).

24Après la préparation des données du corpus, les mesures sur les productions écrites des apprenants ont été appliquées, comme décrit plus haut. Une fois tous les résultats obtenus, les moyennes et les écarts types ont été calculés pour les deux groupes d’apprenants (A2 → B1 et B1 → B2) pour chaque critère évalué, ce qui a permis de dégager les tendances concernant l’évolution de l’interlangue. Un test statistique (« 2-tailed paired-samples t-test »2) a ensuite été effectué afin de comparer dans un même groupe de sujets la performance obtenue à deux reprises. Il s’agit donc de comparer les moyennes du pré-test et du post-test afin de savoir si la différence observée entre ces tests est statistiquement significative ou simplement due au hasard (Brown & Rodgers 2002 ; Dörnyei 2007).

5. Résultats

5.1. Évolution de la fluidité

25La quasi-totalité des productions de cet échantillon a connu une évolution positive en termes de fluidité selon l’indice fondé sur le nombre total de mots du texte. À l’exception d’un étudiant (E7), tous ont rédigé des textes plus longs lors du post-test qu’au cours du pré-test. En effet, le t-test révèle que la fluidité des productions écrites des apprenants des deux groupes est significativement plus élevée lors du post-test que lors du pré-test (cf. tableau 1). Les moyennes croissent de manière significative : pour les A2 → B1, l’augmentation du nombre de mots produits est de 21,6 %, avec un niveau de confiance de 95 % (p = 0,017) et pour les B1 → B2, elle est de 34,6 %, avec un niveau de confiance de 99 % (p = 0,007). La fluidité a incontestablement progressé pendant la durée du dispositif.

26Si l’on considère la variabilité intra-groupe, le nombre de mots a augmenté de façon assez variable allant de +4 % à +45 % pour les A2 → B1 et de +5 % à +67 % pour les B1 → B2. Les écarts types montrent qu’il y a moins de variabilité pour les A2 → B1, car la dispersion autour de la moyenne est de 20 mots au pré-test et de 29 pour les post-tests, tandis que pour les B1 → B2 ces valeurs sont plus importantes : 36 mots pour le pré-test et 74 pour le post-test. Les résultats confirment l’hypothèse de départ selon laquelle le dispositif hybride a permis une évolution positive de la fluidité des productions langagières des apprenants, mais la taille réduite de l’échantillon ne permet pas d’en tirer des conclusions définitives. Par ailleurs, nous ne pouvons pas affirmer que les apprenants B1 → B2 écrivent plus que les A2 → B1, car la différence du nombre de mots entre les deux groupes est statistiquement non significative et aucune corrélation n’a été identifiée par le test khi² entre le niveau CECRL et la fluidité.

Tableau 1. Résultats de l’analyse de la fluidité des productions écrites des apprenants (nombre de mots)

Niveau CECRL

Pré-test

Moyenne

Pré-test

Écart type

Post-test

Moyenne

Post-test

Écart type

Valeur-t

Degrés de liberté

ddl

Probabilité*

(p)

A2 → B1

(n = 7)

187,5

20,7

228

29,7

3,26

6

0,017

B1 → B2 (n = 8)

224,8

36,3

302,7

74,1

3,7860

7

0,01

* Two-tailed t-test

5.2. Évolution de la diversité lexicale (valeur D)

27De manière générale, la valeur D de la diversité lexicale calculée par le logiciel D-Tools peut varier entre 0 et 90. Les valeurs élevées de D correspondent à un haut niveau de diversité lexicale, tandis que les valeurs basses signifient qu’il y a un niveau élevé de répétition de mots dans le texte. Les moyennes pour la valeur D sont quasiment identiques pour les deux groupes d’apprenants à la fois pour le pré-test et pour le post-test (cf. tableau 2). Bien que positives, les évolutions constatées ne sont pas statistiquement significatives (p = 0,10). On note très peu, voire pas du tout, de variabilité intergroupe pour cette mesure, même si l’on aurait pu s’attendre à ce que les apprenants aux niveaux avancés du CECRL produisent une plus grande variété de mots que les apprenants des niveaux moins avancés. En revanche, la variabilité intra-groupe est très marquée pour les deux groupes, comme le montrent les écarts types : la dispersion autour de la moyenne est importante sauf pour le post-test des A2 → B1. Ces résultats rejoignent les conclusions d’études similaires (Read 2005 ; Banerjee, Franceschina & Smith 2007).

Tableau 2. Résultats de l’analyse de la diversité lexicale

des productions écrites des apprenants

Niveau CECRL

Pré-test

Moyenne

Pré-test

Écart type

Post-test

Moyenne

Post-test

Écart type

Valeur-t

Degrés de liberté

ddl

Probabilité*

(p)

A2 → B1 (N = 7)

69,5

11,45

76,96

5,23

1,88

6

0,10

B1 → B2 (N = 8)

69,49

15,3

80,23

12,7

1,8928

7

0,10

* Two-tailed t-test

5.3. Évolution de la complexité lexicale (lambda)

28Les valeurs lambda calculées par le logiciel P_Lex peuvent varier de 0,5 à 4,5. Plus la valeur est élevée, plus le texte comprend un pourcentage élevé de mots rares, ou de basse fréquence, qui sont considérés comme étant complexes. Le tableau 3 montre que le critère de la complexité lexicale différencie les apprenants A2 → B1 des B1 → B2 au moins pour le pré-test : la différence entre les deux moyennes est significative à un seuil de confiance de 95 % selon un t-test effectué dans le logiciel Sphinx qui compare les moyennes avec le total (t = 2,07, p = 0,048). Ainsi, lors du pré-test, les B1 → B2 ont utilisé un vocabulaire plus riche et plus complexe que les apprenants moins avancés. Cependant, cette différence s’estompe lors du post-test, comme le montre le tableau 3. En effet, cinq apprenants A2 → B1 sur sept acquièrent de nouvelles connaissances lexicales et enrichissent leur vocabulaire au cours du semestre, comme en témoignent les augmentations de l’ordre de 46 % (E1) à 255 % (E7). Cette évolution est significative à une probabilité inférieure à 10 % (p = 0,08). O. Martin (2009) rappelle que la valeur seuil de risque en statistiques (p) pour une étude donnée peut être définie à un niveau soit inférieur à 10 % (p < 0,10), soit inférieur à 5 % (p < 0,05) selon les exigences du sociologue. Pour un statisticien, le seuil habituel de 5 % est jugé plus fiable, car plus la probabilité est faible, plus les résultats sont significatifs. Dans le cas où est adopté l’usage d’une probabilité inférieure à 5 %, les résultats pour la complexité lexicale des étudiants A2 → B1 ne sont plus statistiquement significatifs, mais puisque cette valeur est inférieure à 10 %, on pourra la considérer comme tendancielle. On parlera alors d’un seuil marginal.

Tableau 3. Résultats de l’analyse de la complexité lexicale des productions écrites des apprenants

Niveau CECRL

Pré-test

Moyenne

Pré-test

Écart type

Post-test

Moyenne

Post-test

Écart type

Valeur-t

Degrés de liberté

ddl

Probabilité*

(p)

A2 → B1

(N = 7)

1,13

0,4

1,7

0,5

2,1

6

0,08

B1 → B2

(N = 8)

1,71

0,2

1,83

0,4

0,61

7

0,5

* Two-tailed t-test

29Cependant, l’examen approfondi des résultats individuels montre qu’il existe parmi l’échantillon une valeur extrême : E4. Tous les autres apprenants montrent une tendance à l’augmentation, tandis que le sujet E4 montre une tendance à la diminution de l’ordre de -47 %, ce qui peut avoir un effet sur le résultat global étant donné la faible taille de l’échantillon, et donc expliquer pourquoi le seuil de signifiance (p < 0,05) n’a pas été atteint. En effet, si le t-test est fait sans inclure E4 dans l’échantillon, un tout autre résultat est obtenu, pour lequel la probabilité est à moins de 1 % (p = 0,0069). Dans ce cas, les résultats pour la complexité lexicale des A2 → B1 sont donc significatifs. Il est nécessaire d’avoir un échantillon de productions plus important pour en tirer des conclusions.

30Comme mentionné plus haut, l’analyse par le logiciel P_Lex distingue des mots complexes ou de basse fréquence dans chaque production, dont quelques exemples sont cités dans le tableau 4. Il s’agit essentiellement soit du lexique emprunté aux thématiques des tâches et des tâches préparatoires, soit du lexique lié au domaine de l’entreprise et au monde des affaires, qui recouvre les domaines d’application de la langue de spécialité de LEA, c’est-à-dire l’économie, la gestion et le commerce international.

Tableau 4. Exemples de mots complexes/de basse fréquence employés par les apprenants

Mots complexes identifiés dans le pré-test

Mots complexes identifiés dans le post-test

Noms communs : community, famine, population, organisation, consortium, deforestation, pollution, opposition, territory, stress, panic, shame, poverty, environment, threat, construction, ozone, climate, consequences, risk, contamination, pipeline, tribe

Noms communs :

domaine de l’entreprise : campaign, brands, expansion, economy, consumer, client, customer, slogan

en lien avec tâches préparatoires/tâche : counterfeiting, fake, cosmetics, copyrights, risk, consequences, drugs, patent, copycat, trademark

Adjectifs : remote, risky, indigenous, exploited, healthy

Adjectifs : fake, luxury, worthy, risky, counterfeited, economic, genuine, artistic

Verbes : contaminate, combat, protect, involve, exploit, engender, create

Verbes : react, afford, warn, expand, protect, be aware

31Pour illustrer l’évolution du lexique entre le pré-test et le post-test, on peut prendre l’exemple d’un apprenant A2 → B1, qui a vu sa valeur lambda augmenter de 0,89 pour le pré-test à 2,28 pour le post-test, soit +156 %. Une analyse de quelques extraits de chaque production nous permet d’apprécier l’évolution de cet apprenant (cf. tableaux 5 et 6). Les mots surlignés sont ceux identifiés par le logiciel comme étant complexes.

Tableau 5. Extrait du pré-test de l’apprenant E7

Valeur lambda : 0,89 pour la totalité de son texte

Mots rares / complexes codifiés « 2 » dans le logiciel P_Lex

What’s more, there is some troubles for people and animals who are living in the forest. Families with parents and some children are living on the river for instance. Thos tribes eat fish from the river and the forest is their house. But Camisea pipeline constructions cause them disagrements: their house can be destroyed by the workers who don’t pay attention to them; they smell gas pipeline. This is not very healthy. The river is contaminated but they need to eat fishs. The indigenous communities worry about their forest.

Tableau 6. Extrait du post-test de l’apprenant E7

Valeur lambda : 2,28 pour la totalité de son texte

Mots rares / complexes codifiés « 2 » dans le logiciel P_Lex

However, there are means used to stop counterfeiting. First, there are legally rights to protect genuine products: patents for inventions, copyrights for artistic works and softwares, and trademarks for words, pictures and symbols. If these rights are not respected, companies can use the legal system by taking copycats factories to court. Next, there is the awareness advertising campaigns which are useful to warn customers about the risks of buying counterfeiting. It uses slogan and pictures which takes attention of the customers in order to make them aware of the current situation.

32Les résultats obtenus grâce au logiciel montrent que les segments du texte du pré-test sont composés majoritairement de mots appartenant aux catégories « 0 » et « 1 » dans P_Lex, c’est-à-dire les 2 000 mots les plus fréquents en anglais considérés comme « faciles », tandis que le deuxième texte se caractérise par des segments ayant 2, 3, voire 4 mots « complexes » de la catégorie « 2 ». Le deuxième extrait présente ainsi plus de mots rares que le premier et une des raisons peut être liée au sujet des tests. En effet, le sujet du pré-test peut susciter un taux plus important de mots fréquents, par exemple « people », « animals », « forest », « fish », « children », « eat », « parents », etc., dans la mesure où les images du test font appel à ces mots directement tandis que les images du post-test sont plus abstraites, ce qui peut favoriser la complexification du lexique. Toutefois, cela n’explique pas pourquoi les B1 → B2 n’ont pas vu leur complexité lexicale évoluer.

33L’analyse par le logiciel P_Lex distingue des mots isolés dans chaque production comme complexes ou de basse fréquence (cf. tableau 4). Par exemple dans le post-test, nous distinguons : « counterfeiting », « legal », « genuine », « copycat », « campaigns », « aware », etc. Une deuxième lecture de cet extrait montre qu’il s’agit en effet de blocs lexicalisés (« chunks ») auxquels les apprenants ont été confrontés dans le cadre du dispositif hybride, tel que : « means used to stop counterfeiting », «legal rights », « legal system », « protect genuine products », « copycat factories », « taking copycats to court », « the risks of buying counterfeits », « awareness advertising campaigns », « make them aware », etc. Lors du post-test, les blocs lexicalisés sont plus nombreux que lors du pré-test et souvent plus longs et plus complexes au niveau syntaxique. En effet, dans le pré-test (voir tableau 5), nous ne distinguons que quelques blocs lexicalisés simples : « pipeline construction », « gas pipeline », « the river is contaminated », « indigenous communities ». Dans les deux cas, il s’agit essentiellement de blocs lexicalisés empruntés aux thématiques des tâches et des tâches préparatoires ou tirés des documents utilisés lors des cours.

34On constate que les blocs lexicalisés complexes employés par l’étudiant E7 coexistent dans sa production avec des structures simples témoignant d’un décalage entre ses deux types de productions, l’une à partir des séquences préfabriquées et l’autre liée à l’état actuel des connaissances de l’apprenant, comme le montre l’extrait suivant : « A counterfeit product is a product imitated without the perpetrator having the right to do it. So, counterfeiting is an infringement. There is more and more copycat companies in the world ». La première phrase est construite à la voix passive et contient une forme au gérondif. Il s’agit d’une formule repérée dans les documents de cours et reprise sans modification par l’apprenant. Les deux autres phrases, plus courtes et plus simples, sont quant à elles à la voix active. La reprise de ces blocs lexicalisés dans la production des apprenants contribue à la complexification du lexique et à la fluidité de la production et met en avant le rôle de l’automaticité.

35On peut supposer que l’apprenant a mémorisé ces blocs lexicalisés au cours du semestre et a pu les réactiver dans sa mémoire lors de la réalisation de la tâche. Le niveau de précision de ces séquences est généralement très élevé par rapport au reste de la production, ce qui renforce la notion selon laquelle il s’agit des formules apprises (Myles 2012), comme le montre l’exemple suivant de l’étudiant E1 qui reprend le bloc lexicalisé « to warn consumers about the risks » : « to afford this, international advertising campaigns has made to warn consumers about the risks ».

36Ces traces de formules repérées dans l’input laissent penser que le dispositif hybride a effectivement facilité les acquisitions lexicales pour ce groupe d’apprenants. De nombreux exemples viennent renforcer celui-ci (cf. tableau 7). Comme le montre ce tableau, les différents blocs lexicalisés identifiés apparaissent dans plusieurs productions sous forme non modifiée, soulignant leur caractère préfabriqué. Néanmoins, nous constatons des modifications partielles d’un nombre de blocs lexicalisés par certains apprenants qui semblent les adapter à leur production pour donner lieu à une production plus personnalisée et créative. Ainsi, « counterfeiting is a growing worldwide issue » est une variante adoptée par E7 du bloc lexicalisé « counterfeiting is a growing problem ». De même, « to fight against this dangerous growing market » est une variante créée par E1 à partir de « to fight against counterfeiting ».

37E6 a également adapté le bloc lexicalisé « copies are indistinguishable from the original » qui devient ainsi « fakes look almost the same as the original product ». Selon Myles (2012), ces modifications sont des manifestations du processus d’acquisition de la L2 : l’apprenant effectue une analyse de la séquence préfabriquée et la décompose en ses parties constituantes, ce qui lui permet de la modifier. Il s’agit, selon l’auteur, d’un « breaking down process » (Myles 2012 : 85) effectué par des apprenants plus avancés. En effet, les trois apprenants cités précédemment avaient soit enregistré la meilleure évolution de leur complexité lexicale entre le pré-test et le post-test (E6 et E7), soit enregistré une des meilleures performances lors du post-test (E1, E7) (cf. annexe 1).

38De nombreuses collocations sont employées de manière répétitive et sous une forme non modifiée dans les productions des apprenants, telles que « genuine products » qui est utilisée quatre fois dans la production E3, « shoddy products », utilisée deux fois par l’apprenant E5, ainsi que « intellectual property » (3 occurrences). Ici, la répétition concerne essentiellement des collocations comportant deux éléments constitutifs (adjectif + nom) (cf. tableau 7).

Tableau 7. Exemples de blocs lexicalisés et de collocations employés par les A2 → B1 lors du post-test

Blocs lexicalisés employés dans les productions

Apprenant

warn consumers about the risks

counterfeiting is a growing problem

to fight against counterfeiting

to know if it’s a fake or not

copies are indistinguishable from the original

They churn out shoddy products.

vulnerable to copying

E1, E3, E7

E2, E3,E4,

E5, E7

E2, E4

E4, E5

E5

E3

Collocations employées dans les productions

Apprenant

genuine products

shoddy products

intellectual property

anti-counterfeiting measures

anti-counterfeiting campaign

Counterfeit goods

Counterfeit products

E3, E7 (4 occurrences)

E5 (2 occurrences)

E5 (3 occurrences)

E5

E1

E1, E6

E2, E3, E4, E6, E7

5.4. Profils d’apprenants et les évolutions

39Au vu des résultats individuels, quelques tendances se dégagent. Premièrement, on observe que la grande majorité des apprenants a évolué selon deux dimensions de la performance et qu’aucun étudiant n’a progressé sur toutes les dimensions mesurées. Deuxièmement, lors du post-test, la quasi-totalité des étudiants a privilégié la dimension communicative et la fluidité de la production écrite. Enfin, les deux groupes d’apprenants se distinguent assez nettement et semblent privilégier différents aspects de la production écrite. Alors que les B1 → B2 se focalisent sur la précision de ce qu’ils écrivent, les A2 → B1, quant à eux, prêtent peu d’attention à la forme et se focalisent plus sur la complexité lexicale, ce qui contribue à la fluidité de leurs textes (Skehan 2009). Pour les B1 → B2, l’attention portée à la fluidité et à la précision semble nuire à la complexité syntaxique. Il semble exister une complémentarité entre la fluidité et la précision pour les B1 → B2 et la fluidité et la complexité lexicale pour les A2 → B1. Ces résultats suggèrent donc qu’un effet de concurrence (« trade-off ») s’opère entre les différents paramètres au moment de l’exécution de la tâche et en ce sens, notre analyse converge avec celles de P. Skehan (1998, 2009).

Conclusion

40L’objectif de l’étude présentée dans cet article était de déterminer dans quelle mesure le dispositif hybride contribue au développement de la production écrite en anglais des apprenants en première année de Licence LEA. Pour ce faire, une évaluation par le biais d’un pré-test et d’un post-test a été menée pour établir le niveau des apprenants, suivie d’une analyse d’un échantillon de productions écrites afin de suivre l’évolution des paramètres de la performance dans le cadre du dispositif.

41L’analyse quantitative a montré comment la qualité des productions écrites des apprenants a évolué entre le début et la fin du dispositif de manière statistiquement significative, en mettant en évidence des résultats différenciés selon le niveau de l’apprenant. Si la performance langagière évolue de manière significative du point de vue de la fluidité pour la quasi-totalité des apprenants de l’échantillon, seuls les B1 → B2 voient la précision de leurs productions progresser dans le même temps. Néanmoins, le développement de la complexité lexicale semble avoir été favorisé pour certains des A2 → B1, mais la taille limitée de l’échantillon ne nous permet pas d’en tirer des conclusions généralisables. Suivant l’hypothèse de P. Skehan (1998, 2009), ces résultats pourraient s’expliquer par la limitation de capacités attentionnelles chez les apprenants de L2 dans la mesure où l’apprenant ne peut pas focaliser son attention sur tous les paramètres de performance en même temps.

42Par ailleurs, l’automaticité et la fluidité de la production en L2 dépendent d’un fonctionnement par blocs lexicalisés et la familiarité avec le contenu tend à faciliter ce type de fonctionnement (Narcy-Combes 2005). Les résultats des analyses de la production écrite font ressortir que l’investissement des apprenants dans le travail préparatoire favorise l’internalisation des blocs lexicalisés repérés dans l’input en L2 et facilite leur réactivation lors de l’exécution des tâches, ce qui peut donc expliquer la fluidité accrue des productions écrites. En particulier, ce fonctionnement semble expliquer les progressions de la fluidité des productions écrites des A2 → B1, qui employaient un taux élevé de blocs lexicalisés sous une forme modifiée ou non. On remarque pour ces étudiants que ni la précision ni la complexité syntaxique n’ont connu d’évolution, ce qui peut être expliqué par les travaux de P. Skehan (2009), qui note une corrélation négative entre la complexité lexicale et la précision : plus la valeur lambda augmente, moins la production sera précise. Autrement dit, le fait d’extraire des items lexicaux complexes de la mémoire va mobiliser l’attention de l’apprenant et diminuer les ressources attentionnelles disponibles pour la précision. Les B1 → B2, en revanche, qui n’ont pas vu leur complexité lexicale évoluer, ont pu conjuguer une progression de la fluidité et de la précision.

43Ce lien entre l’évolution de la complexité lexicale et l’emploi de blocs lexicalisés lors de la réalisation des tâches souligne l’importance du travail de conception des tâches. Les didacticiens impliqués dans la conception de programmes de cours en LEA doivent donc s’interroger sur les activités à mettre en place pour favoriser l’acquisition du lexique spécialisé et des concepts auxquels il renvoie. Il est à présent nécessaire de poursuivre l’analyse des productions écrites sur un plus grand échantillon et de conduire une étude longitudinale afin de suivre les étudiants de L1 à L3.

Haut de page

Bibliographie

Banerjee, Jayanti, Florencia Franceschina & Anne Margaret Smith. 2007. « Documenting features of written language production typical at different IELTS band score levels ». IELTS Research Reports vol 7, report 5.

Brindley, Geoff. 2009. « Task-centred language assessment in language learning ». In Van den Branden, K., M. Bygate & J.M. Norris (dir.), Task-based Language Teaching: A Reader. Amsterdam : John Benjamins, 435–454.

Brown, James Dean & Theodore S. Rodgers. 2002. Doing Second Language Research. Oxford : Oxford University Press.

Cabré, Maria Teresa. 1998. La terminologie : théorie, méthodes et applications, traduit du catalan, adapté et mis à jour par M. Cormier & J. Humbley. Ottawa : Presses de l’Université d’Ottawa et Paris : Armand Colin.

Crosnier, Elizabeth. 2008. « LEA/LANSAD : convergences/divergences ». Cahiers de l’APLIUT 27/1, 18–31.

DeKeyser, Robert M. 2001. « Automaticity and automatisation ». In Robinson, P. (dir.), Cognition and Second Language Instruction. Cambridge : Cambridge University Press, 125–151.

Delagneau, Jean-Marc. 2008. « Quel avenir pour les enseignants de langues allemandes de spécialité ? ». Cahiers de l’APLIUT 27/2, 155–167.

Demaizière, Françoise & Jean-Paul Narcy-Combes. 2005. « Méthodologie de la recherche didactique : nativisation, tâches et TIC ». Alsic 8/1, 45–64.

Dörnyei, Zoltan. 2007. Research Methods in Applied Linguistics. Oxford : Oxford University Press.

Ellis, Nick C. 2001. « Memory for language ». In Robinson, P., Cognition and Second Language Instruction. Cambridge : Cambridge University Press, 33–68.

Ellis, Rod. 2003. Task-based Language Learning and Teaching. Oxford : Oxford University Press.

Ellis, Rod & Gary Barkhuizen. 2005. Analysing Learner Language. Oxford : Oxford University Press.

Foster, Pauline & Peter Skehan. 1996. « The influence of planning time on performance in task-based learning ». Studies in Second Language Acquisition 18, 299–234.

Laufer, Batia & Paul Nation. 1995. « Vocabulary size and use: lexical richness in L2 written production ». Applied Linguistics 16/3, 307–322.

Malvern, David & Brian Richards. 2002. « Investigating accommodation in language proficiency interviews using a new measure of lexical diversity ». Language Testing 19/1, 85–104.

Martin, Olivier. 2009. L’enquête et ses méthodes. L’analyse de données quantitatives. Paris : Armand Colin.

McAllister, Julie. 2013. « Évaluation d’un dispositif hybride d’apprentissage de l’anglais en milieu universitaire : potentialités et enjeux pour l’acquisition d’une L2 ». Thèse de doctorat, Université de Nantes.

McAllister, Julie, Marie-Françoise Narcy-Combes & Rebecca Starkey-Perret. 2012. « Language teachers’ perceptions of a task-based learning programme in a French University ». In Shehadeh, A. & C.A. Coombe (dir.), Task-Based Language Teaching in Foreign Language Contexts: Research and Implementation. Amsterdam : John Benjamins, 313–342.

McNamara, Tim. 2000. Language Testing. Oxford : Oxford University Press.

Meara, Paul & Huw Bell. 2001. « P_Lex: A simple and effective way of describing the lexical characteristics of short L2 texts ». Prospect 16/3, 5–19.

Meara, Paul & Imma Miralpeix. 2004. D_Tools. Swansea : Lognostics Centre for Applied Language Studies, University of Wales, Swansea.

Myles, Florence. 2012. « Complexity, accuracy and fluency: The role played by formulaic sequences in early interlanguage development”. In Housen, A., F. Kuiken & I. Vedder, Dimensions of L2 Performance and Proficiency. Complexity, Accuracy and Fluency in SLA. Amsterdam : John Benjamins Publishing Company, 71–93.

Narcy-Combes, Jean-Paul. 2005. Didactique des langues et TIC : vers une recherche-action responsable. Paris : Ophrys.

Narcy-Combes, Marie-Françoise. 2008. « L’anglais de spécialité en LEA : entre proximité et distance, un nouvel équilibre à construire ». ASp 53-54, 129–140.

Narcy-Combes, Marie-Françoise. 2012. « Approche systémique de la mise en place des dispositifs d’enseignement/apprentissage de L2 à l’université : comment gérer la complexité ». Synergies Roumanie 7, 185–194.

Narcy-Combes, Marie-Françoise, & Julie McAllister. 2011. « Evaluation of a blended language learning environment in a French university and its effects on second language acquisition ». ASp 59, 115–138.

Norris, John, M. et alii. 2009. « Examinee abilities and task difficulty in task-based L2 performance assessment ». In Van den Branden, K., M. Bygate & J.M. Norris (dir.), Task-based Language Teaching: A Reader. Amsterdam : John Benjamins, 455-476.

Norris, John, M. & Lourdes Ortega. 2009. « Towards an organic approach to investigating CAF in instructed SLA: the case of complexity ». Applied Linguistics 30/4, 555–578.

Ortega, Lourdes. 2003. « Syntactic complexity measures and their relationship to L2 proficiency: a research synthesis of college-level L2 writing ». Applied Linguistics 24/4, 492–518.

Read, John. 2000. Assessing Vocabulary. Cambridge : Cambridge University Press.

Read, John. 2005. « Applying lexical statistics to the IELTS speaking test ». Research Notes 20. Cambridge ESOL.

Resche, Catherine. 1999. « Un réseau de voies d’accès à la langue spécialisée en anglais L2 », ASp 23-26, 349–373.

Richards, Brian & David Malvern. 2007. « Validity and threats to the validity of vocabulary measurement ». In Daller, H., J. Milton & J. Treffers-Daller (dir): Modelling and Assessing Vocabulary Knowledge. Cambridge : Cambridge University Press, 79–92.

Skehan, Pauline & Peter Foster. 1997. « Task type and task processing conditions as influences on foreign language performance ». Language Teaching Research 1, 185–211.

Skehan, Peter. 1996. « Second language acquisition research and task-based instruction ». In Willis, J. & D. Willis (dir.), Challenge and Change in Language Teaching. Oxford : Heinemann, 17–30.

Skehan, Peter. 1998. A Cognitive Approach to Language Learning. Oxford : Oxford University Press.

Skehan, Peter. 2009. « Modelling second language performance: integrating complexity, accuracy, fluency and lexis ». Applied Linguistics 30/4, Special Issue: Complexity, Accuracy and Fluency (CAF) in Second Language Acquisition Research, 510–532.

Tee Anderson, Pauline. 2010. « From non-specialised to specialised: civilisation in Langues Étrangères Appliquées. The topic of homeownership and the property market in the United Kingdom ». ASp 58, 87–103.

Wolfe-Quintero, Kate, Shunji Inagaki & Hae-Young Kim. 1998. Second Language Development in Writing: Measures of Fluency, Accuracy & Complexity. Honolulu : University of Hawai’i Press.

Wray, Alison. 2002. Formulaic Language and the Lexicon. Cambridge : Cambridge University Press.

Haut de page

Annexe

Annexe
Résultats individuels pour l’évolution de la complexité lexicale des productions écrites
1. A2 → B1

Échantillon

A2 → B1

Sophistication lexicale

(Valeur lambda)

Pré-test

Sophistication lexicale

(Valeur lambda)

Post-test

Évolution significative (P=0,08)

E1

1,39

2,03

46% +

E2

1,31

1,37

Aucun changement

E3

1,14

2,04

79% +

E4

1,62

0,85

-47% +

E5

1,4

2,18

56% +

E6

0,51

1,5

194% +

E7

0,89

2,28

156 % +

Moyenne (M)

Écart type (ET)

1,13

0,4

1,7

0,5

2. B1 → B2

Échantillon

B1 → B2

Sophistication lexicale

(Valeur lambda)

Pré-test

Sophistication lexicale

(Valeur lambda)

Post-test

E8

1,89

1,31

E9

1,65

1,69

E10

1,77

2,25

E11

1,34

2,16

E12

1,95

1,67

E13

1,49

1,57

E14

1,89

1,41

E15

1,7

2,6

Moyenne

Écart type

1,71

0,2

1,83

0,4

N.B. : L’évolution n’étant pas significative, elle ne figure pas dans le tableau.

Haut de page

Notes

1 <http://ucrel.lancs.ac.uk/bncfreq/lists/2_3_writtenspoken.txt>

2 L’outil utilisé pour ces recherches se trouve sur le site <http://studentsttest.com/>.

Haut de page

Pour citer cet article

Référence papier

Julie McAllister et Sophie Belan, « L’anglais de spécialité en LEA à la croisée des domaines : étude de l’acquisition du lexique spécialisé »ASp, 66 | 2014, 41-59.

Référence électronique

Julie McAllister et Sophie Belan, « L’anglais de spécialité en LEA à la croisée des domaines : étude de l’acquisition du lexique spécialisé »ASp [En ligne], 66 | 2014, mis en ligne le 01 novembre 2015, consulté le 12 décembre 2024. URL : http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/asp/4564 ; DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/asp.4564

Haut de page

Auteurs

Julie McAllister

Julie McAllister est maître de conférences à l’Université Sorbonne Nouvelle Paris 3. Elle est membre de l’unité de recherche EA 4398 PRISMES et membre associé du laboratoire EA 1162 CRINI. Ses recherches portent sur l’évaluation des apprentissages et du potentiel acquisitionnel de dispositifs hybrides d’enseignement/apprentissage de l’anglais. Elle a publié plusieurs articles sur l’évaluation du dispositif hybride dont il est question dans le présent article. julie.pavageau-mcallister@univ-paris3.fr

Articles du même auteur

Sophie Belan

Sophie Belan est maître de conférences en anglais à l’Université de Nantes. Elle est membre du laboratoire EA 1162 CRINI et membre associé de l’EA 3874 LIDILE/DiLeM. Ses recherches et publications portent sur l’utilisation des TICE pour l’enseignement/apprentissage des langues et plus particulièrement sur les dispositifs hybrides d’enseignement/apprentissage de l’anglais. sophie.belan@univ-nantes.fr

Articles du même auteur

Haut de page

Droits d’auteur

CC-BY-NC-ND-4.0

Le texte seul est utilisable sous licence CC BY-NC-ND 4.0. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.

Haut de page
Rechercher dans OpenEdition Search

Vous allez être redirigé vers OpenEdition Search