Navigation – Plan du site

AccueilNuméros37(3)ArticlesTest diagnostique à l’entrée de l...

Articles

Test diagnostique à l’entrée de l’enseignement supérieur : validation et usages

Marie-Claude Hublet, Sabine Lontie, Mohammed Arras, Sophie Remacle et Sylviane Bachy

Résumés

Dans le contexte de libre accès aux études supérieures en Belgique francophone et confronté à un taux d’échec important, le Service d’Accompagnement des Etudiants de la Haute Ecole Vinci-Site Parnasse-ISEI a mis en place de nombreux dispositifs d’aide à la réussite et à l’orientation. Parmi ceux-ci, des tests diagnostiques de rentrée adaptés aux publics diversifiés de ses sections paramédicales, pédagogiques et sociales ont été développés. Ils ont été validés par une analyse statistique et sur cette base, plusieurs usages d’accompagnement des étudiants et des enseignants sont proposés.

Haut de page

Texte intégral

1. Introduction

1En Belgique francophone l’enseignement supérieur s’inscrit dans un contexte de libre accès, permettant à un grand nombre d’étudiants de commencer des études dans presque tous les programmes. Force est de constater que les chemins pour y arriver sont très variés. Les étudiants ne possèdent en effet pas tous le même bagage. Le taux d’échec après une première année d’enseignement supérieur est par ailleurs élevé et préoccupant. Il est de l’ordre de 60 % à l’université (Lambert, 2018) et de 50 % dans l’établissement qui nous concerne (Hublet et Lontie, 2019).

2Pour endiguer le décrochage des primo-inscrits en difficulté, la majorité des établissements d’enseignement supérieur ont intensifié la mise en place des systèmes d’aides à la réussite au cours des deux dernières décennies (Baudier, Bachy et Wilmet, 2019; Hoyt, 2021; Kuo et al., 2004; Lambert, 2018). Un des enjeux de ces dispositifs est d’identifier, en amont et avec précision, les lacunes de départ des étudiants et de les soutenir par des actions de remédiation et d’accompagnement adaptées à leur situation (Romainville, 2000). Plusieurs auteurs (Barbera et al. 2020 ; Detroz et al., 2017; Massart et Romainville, 2019; Poropat, 2009; Richardson et al., 2012; Vieillevoye et al., 2012) se sont particulièrement intéressés à la maîtrise des prérequis en relevant son impact important sur la réussite. Selon le rapport d’experts de l’académie de recherche de l’enseignement supérieur (ARES, 2017, p. 56) : « il est indispensable d’établir, pour tout futur étudiant, un diagnostic de ses connaissances, de ses capacités et de ses compétences ». Ce rapport s’appuie sur une série de recherches (Nils, 2011; Leclercq, 2011; Romainville et Slosse, 2011) qui analysent l’importance d’identifier les connaissances et compétences requises à l’entrée d’un programme, permettant ainsi au jeune d’interroger son choix d’étude. Des outils d’évaluation précoce, de remise à niveau et de préparation aux études supérieures favoriseraient sa bonne orientation et sa future réussite académique. La pertinence de tests est également discutée en fonction de ce qui sera nécessaire dans le programme d’étude choisi. Face à ce constat, le service d’accompagnement du Parnasse-ISEI (site de la Haute Ecole Vinci-Enseignement Supérieur non universitaire et universitaire) a mis en place un dispositif non contraignant à l’entrée des études via des tests diagnostiques. Ce dispositif a une double visée : favoriser une prise de conscience des capacités de l’étudiant à suivre la formation dans laquelle il s’engage et faire le point sur les prérequis nécessaires pour mettre toutes les chances de réussite de son côté.

3Si l’importance d’identifier les lacunes en amont rassemble les chercheurs, il n’en est pas forcément de même sur l’impact attendu des remédiations proposées. Tout d’abord, trop peu d’étudiants participent aux activités de renforcement des prérequis à la suite d’un test diagnostique. (Leduc et al., 2020; Massart et Romainville, 2019). Ensuite, il semblerait qu’enrôler l’étudiant dans de nombreux cours de remédiation puisse produire des effets négatifs (Angrist et al., 2009). Ceci remet en débat les usages possibles des résultats liés aux tests et aux accompagnements favorisant la réussite. En somme, il s’agit pour nous de calibrer les tests diagnostiques, de les valider pour ensuite adapter les accompagnements pédagogiques de manière à toucher largement ceux qui en auraient le plus besoin.

4Dans un premier temps, nous allons analyser en quoi les tests diagnostiques peuvent soutenir la réussite des étudiants. Ensuite, nous aborderons la démarche de validation des tests mis en place dans notre institution. Sur ces bases, nous terminerons par une série d’usages et d’exploitations pour concevoir de nouveaux accompagnements pédagogiques.

2. Tests diagnostiques et réussite : apports théoriques

2.1. Importance des prérequis

5Un certain nombre de facteurs permettent de déterminer la réussite : l’origine socioéconomique de l’étudiant (Galdiolo et al., 2012), la filière d’études secondaires, les performances passées (De Clercq et al., 2013; Endrizzi, 2016), l’affiliation (Salmon, Noël et Parmentier, 2005), la motivation (Schmitz et al., 2010), le sentiment d’efficacité personnelle (De Clercq, 2019) ; la construction d’un projet personnel (SPU, 2001), la maîtrise de la langue (Glorieux et al., 2006), les méthodes de travail (Climov et Hublet, 2008), les stratégies de mise au travail et de maintien de l’effort (Cosnefroy, 2010; Houart et al., 2019), les pratiques enseignantes (Bong, 2005; Bourgeois et al., 2003) ou encore la gestion du stress (Lassarre et al., 2003). A côté de ceux-ci, il y a aussi une attention portée au bagage de l’étudiant à l’entrée dans l’enseignement supérieur (De Clercq, 2019). Plusieurs études ont montré que la réussite serait notamment liée aux niveaux de connaissances et de compétences que les étudiants auraient à leur entrée (Galdiolo et al., 2012; Hoffmann et al., 2013; Leclercq, 2011; Vertongen et al., 2015). Ces dernières constituent des prérequis définis par les enseignants universitaires.

6Est considéré comme prérequis pour Vieillevoye et al. (2012, p. 226) : « toute connaissance ou compétence qui répond simultanément aux deux traits essentiels suivants : elle s’avère, d’une part, cruciale pour la maîtrise d’un cours, d’une discipline, d’un programme ou plus généralement, pour l’affiliation aux études universitaires et elle est, d’autre part, considérée par les enseignants comme devant être acquise préalablement à l’entrée de ces études ou comme devant être acquise au cours de ces études indépendamment d’un enseignement systématique et explicite ». Toutefois, il apparait que ces prérequis ne seraient pas maitrisés de manière semblable par tous les étudiants et que des inégalités se manifesteraient en fonction de l’origine sociale et du passé scolaire de ceux-ci (Galdiolo et al., 2012).

2.2. Tester les prérequis

7De multiples recherches ont analysé la maîtrise des prérequis et la réussite. Dans le cadre du projet MOHICAN (Leclercq, 2003), les corrélations entre les performances à l’entrée et les réussites académiques d’un échantillon de 4 000 étudiants ont été observées. Même si certaines corrélations sont faibles, Leclercq (2011) relève l’importance des connaissances à l’entrée dans le supérieur. Le projet Passeport pour le BAC (en Belgique, le BAC correspond au premier cycle d’étude supérieur), vise l’identification des compétences et connaissances initiales exigées à l’entrée (Centre de Didactique Supérieur de l’Académie Louvain, 2006). Celle-ci s’est faite en dialogue avec les enseignants sur base des objectifs et des contenus de leur cours. Des enquêtes exploratoires auprès d’étudiants ont, par ailleurs, permis de cerner ce qui avait facilité l’étude de leurs matières à la rentrée. D’après Romainville, Houart et Schmetz (2006, p. 28) « il existe un écart entre ce que certains enseignants supposent connus par leurs nouveaux étudiants (les prérequis) et ce que ceux-ci savent réellement (les pré-acquis) ». Ces éléments ayant été identifiés, des passeports disciplinaires ciblant certains prérequis liés aux formations (chimie, droit, physique, mathématiques, biologie) et des passeports transversaux ciblant la compétence de maîtrise de la langue (compréhension en profondeur d’un texte) ont été élaborés. Les résultats des étudiants à ces tests ont permis de mesurer l’adéquation de leur niveau face aux attendus et exigences universitaires (Romainville et al., 2006). Les analyses statistiques ont montré qu’il existe une relation entre les résultats aux passeports et la réussite académique. L’idée d’un impact de la maîtrise de certains prérequis sur la réussite universitaire serait ainsi confirmée. Les résultats de la recherche-action de Hoffmann et al. (2013) vont dans le même sens. Le test de prérequis s’adresse ici aux étudiants inscrits en première année dans deux filières technologiques d’enseignement supérieur en France. Pour un échantillon de 667 étudiants, les corrélations entre les résultats aux examens du premier semestre et les résultats au test par discipline (mathématiques, biologie, chimie, physique, raisonnement et expression) sont toutes positives. L’analyse indique que c’est le score global au test qui est l’indicateur le plus prédictif de la réussite académique.

2.3. Contextualiser les tests

8Depuis le début des années 2000, le projet Passeport pour le BAC (Romainville et al., 2006) a été repris par un certain nombre d’universités membres d’une même académie. La même démarche a été préconisée (Romainville, 2008) : identifier les prérequis, mesurer la maitrise par les étudiants, adapter les enseignements et mener des actions spécifiques de remédiation individuelle ou collective. A chaque fois, un soin particulier a été apporté pour déterminer les prérequis en fonction des programmes, mais aussi et surtout, en fonction des contextes universitaires (Vieillevoye et al., 2012). Pour ce faire, des sondages ont été effectués auprès des enseignants, des étudiants et des inspecteurs de l’enseignement obligatoire. Notre projet de mise en place de tests diagnostiques est calqué sur ces expériences. Une attention particulière a été accordée pour choisir les prérequis en lien direct avec les formations proposées dans notre établissement. Plusieurs simulations ont été effectuées pour calibrer au mieux l’équilibre entre le bagage scolaire lié à certaines matières et le niveau d’exigence des enseignants du supérieur.

2.4. Accompagner la réussite

9Différents croisements ont été opérés entre le parcours scolaire des élèves, les résultats à la sortie de l’enseignement obligatoire, ceux obtenus dans les Tests prérequis comme Passeport pour le BAC et ceux obtenus aux examens de fin de première année d'université. Selon Endrizzi (2017, p. 5) : « la scolarité antérieure, et en particulier les notes finales au certificat et le type de programme suivi (filière générale, renforcée en mathématiques et/ou avec des options sélectives telles que les langues anciennes) constituent des indicateurs fiables de la valeur scolaire générale des élèves et des prédicteurs tout aussi fiables de la réussite universitaire, alors que les caractéristiques socio-biographiques interviennent dans une moindre mesure à ce niveau d'éducation ».

10La particularité des tests diagnostiques résiderait dans le lien encore plus fort entre le passé scolaire de l’élève et les résultats obtenus, invitant à penser que les interventions sur les prérequis pourraient neutraliser (en partie) certaines lacunes issues du passé. Hoffmann et al. (2013) insistent sur la communication immédiate des résultats aux tests de prérequis favorisant la fonction d’alerte et la prévention de l’échec pour autant que des possibilités d’auto-formation et de remédiation soient offertes. Pour Romainville et Slosse (2011, p. 26) : « il serait contre-productif de s’en tenir à dresser un état des lieux des prérequis des étudiants primants sans que celui-ci ne leur ouvre des possibilités de combler leurs lacunes et remédier aux problèmes identifiés ». L’évaluation précoce à l’entrée dans le supérieur, permet, selon Galdiolo et al. (2012) de diminuer les inégalités sociales face à la réussite à l’université. La maîtrise des prérequis est une variable sur laquelle tant les enseignants que les apprenants peuvent avoir prise par des remédiations (Romainville et Slosse, 2011). Une fois que les lacunes sont repérées, des formules de remédiation ciblées devraient être conçues en partenariat entre les établissements d’enseignement supérieur, les centres d’orientation et les écoles secondaires comme le suggèrent Galdiolo et al. (2012). Par ailleurs, Vertongen et al. (2015), rapportent qu’à résultats identiques aux tests diagnostiques, la réussite académique des étudiants ayant bénéficié des remédiations s'avère supérieure à celle des étudiants qui n'y ont pas participé.

3. Recherche-action : mise en place

3.1. Création de tests pour nos programmes

11Riches de toutes ces observations, nous avons initié en 2003 la création des tests disciplinaires (mathématiques et sciences) et transversaux (maîtrise de la langue et analyse de texte) adaptés à nos programmes de formation non universitaires. Ces tests ont été proposés, à la rentrée, aux étudiants de première année sous forme d’un test diagnostique non contraignant.

12Pendant plus de 15 ans, les tests diagnostiques ont été adaptés, remaniés et discutés avec les équipes pédagogiques. Cet article vise à partager le produit final de cette recherche-action ainsi que les réflexions qui ont suivi pour adapter nos accompagnements pédagogiques.

3.2. Méthodologie

13Lors de la constitution du test diagnostique, nous visions à pouvoir identifier les étudiants ayant des profils plus vulnérables de manière à mieux les accompagner pédagogiquement pour les amener à la réussite. Il a donc été nécessaire d’analyser la pertinence et la fiabilité de l’outil mis en place et de le confronter aux parcours des étudiants pour le valider. Pour ce faire, nous avions formulé l’hypothèse suivante : le score obtenu aux tests diagnostiques en début d’année permettrait d’identifier les étudiants les plus fragiles, c’est-à-dire ceux qui auraient le plus de risques de se retrouver en situation d’échec aux examens intermédiaires de janvier et en fin d’année académique.

14Nous allons présenter la démarche de validation du test diagnostique en décrivant notre échantillon, le contenu des tests, le protocole de passation et les analyses menées.

3.3. Description des échantillons

  • 1 En Belgique, le type long correspond à un master et le type court à un bachelier professionnel.

15La recherche a porté sur un public d’étudiants très diversifié dans notre établissement. Ils peuvent choisir entre des programmes de type long (BAC+5 ans)1 et de type court (BAC+3 ans). Les programmes d’études proposés en cycle long concernent la kinésithérapie (KINE). En cycle court, il y a des programmes en ergothérapie (ERGO), podologie (PODO), psychomotricité (PMO), soins infirmiers (SI), sage-femme (SF), éducateur spécialisé en activités socio-sportives (EDU), agrégé de l’enseignement secondaire inférieur en éducation physique (EPS) et coaching sportif (COS). Au total, plus de 8000 étudiants ont passé les tests entre 2003 et 2019. Les échantillons de cette étude sont constitués d’étudiants qui ont poursuivi leur cursus jusqu’en fin d’année académique.

3.4. Contenu des tests

16Les tests ont été construits progressivement par les enseignants dispensant ces disciplines et adaptés aux publics très diversifiés des formations paramédicales (KINE, ERGO, PODO, PMO, SI, SFE), pédagogiques (EPS, COS) et sociales (EDU) du Parnasse-ISEI. Malgré cette diversité, tous nos tests portent sur les connaissances disciplinaires de base en sciences (biologie, chimie et physique), les prérequis mathématiques ainsi que sur la compétence transversale de compréhension et d’analyse de questions ou d’un texte caractère scientifique (Dalcq et al., 2007). Ils se présentent sous la forme de questionnaires à choix multiples.

17Plus précisément, les connaissances disciplinaires de base en sciences sont adaptées à chaque formation. La partie sur les bases de mathématiques repose sur les outils indispensables pour aborder les matières scientifiques, y compris les capacités à raisonner, à décoder un énoncé et à interpréter un graphique (Hublet et al., 1991). Un exemple de test pour la section en ergothérapie est donné en annexe (annexe 1).

3.5. Protocole de passation des tests

18Les tests sont obligatoires mais non contraignants. Ils ont lieu la première semaine de la rentrée et sont accompagnés d’une correction commentée. Les résultats sont transmis rapidement sur la plateforme de l’établissement, de façon anonyme et sous forme d’un résultat global au test et d’une note pour chaque partie. Ces notes sont accompagnées d’une échelle de positionnement permettant aux étudiants d’identifier facilement leurs forces, faiblesses et insuffisances. Celle-ci peut, le cas échéant, servir de signal d’alarme et les guider pour la suite de leur parcours grâce, notamment, à des propositions d’accompagnement.

19Dès la deuxième semaine de cours, les étudiants peuvent bénéficier d’activités de remise à niveau en e-learning et en présentiel et d’un accompagnement par le Service d’Accompagnement des Etudiants (SAE) ou par un étudiant tuteur.

3.6. Traitement des données

20L’étude de corrélation avec la réussite académique a d’abord été réalisée à partir du classement des résultats en tranches de notes (étude critériée). Par réussite académique nous entendons la validation de tous les cours présents dans le programme de l’étudiant avec au moins 50 % pour chaque cours. Elle a été poursuivie par une analyse statistique de corrélation linéaire de Pearson et enfin par une étude de régression linéaire multiple analysant le poids de chaque partie du test.

21Le programme SigmaPlot (Systat Software Inc.) a été utilisé pour l’analyse statistique des résultats.

4. Résultats et analyses

4.1. Scores moyens aux tests

22Dans un premier temps, nous avons analysé les moyennes des scores aux différentes parties du test, ainsi que celles obtenues à l’ensemble du test. Ceci a permis d’évaluer le degré de maîtrise de ces matières par les étudiants des différentes sections, mais aussi d’adapter nos tests au fil des ans.

23Au cours des neuf premières années, entre 2003 et 2012, les moyennes des scores à chacune des parties du test, calculées pour l’ensemble des sections, ont peu varié, avec une moyenne, de 5,8/10 (écart type 1,6) en mathématiques et de 6,0/10 (écart type 1,3) au test de français d’analyse de questions scientifiques. Les étudiants du cycle long se distinguent cependant avec les résultats les plus élevés, de l’ordre de 6,5/10 (écart type 1,4) en mathématiques et de 6,4/10 (écart type 1,3) en français tandis que les étudiants des catégories sociales et pédagogiques, EDU et EPS, obtiennent les résultats les plus faibles : 5,3/10 (écart type 1,6) en mathématiques et 5,9/10 (écart type 1,3) en français. Relevons que la disparité de la préparation des étudiants est plus importante en mathématique qu'en français.

24A titre d’illustration (tableau 1), nous présentons les moyennes obtenues à chaque partie du test de rentrée, détaillées par sections, et moyennes obtenues pour l’ensemble des étudiants du Parnasse-ISEI entre 2013 et 2018.

Tableau 1. Scores moyens aux tests et écart-types

2013-2014

(766 étudiants)

2016-2017

(1072 étudiants)

2017-2018

(1012 étudiants)

Cycle

Texte

( %)

Sci.

( %)

Math.

( %)

Moy.

( %)

Texte

( %)

Sci.

( %)

Math.*

( %)

Moy.

( %)

Texte

( %)

Sci.

( %)

Math.*

( %)

Moy.

( %)

EDU

CC

4,3

(2,2)

5,5

(2,0)

-

4,9

(1,8)

5,7**(1,4)

5,0

(1,6)

-

5,4

(1,1)

-

5,3

(1,6)

-

5,3

(1,6)

EPS

CC

4,5

(2,3)

6,2

(1,6)

-

5,3

(1,7)

5,5

(1,4)

5,7

(1,7)

-

5,6

(1,3)

5,2

(1,7)

5,5

(1,6)

-

5,3

(1,4)

PODO

CC

4,7

(2,0)

7,1

(1,6)

5,2

(2,0)

5,7

(1,4)

5,3

(1,4)

6,0

(1,6)

-

5,7

(1,2)

5,7

(1,2)

6,5

(1,7)

-

6,1

(1,3)

ERGO

CC

5,3

(2,0)

6,1

(1,7)

5,2

(1,8)

5,5

(1,5)

5,5

(1,4)

5,8

(1,6)

-

5,7

(1,3)

5,7

(1,5)

6,4

(1,6)

-

6,1

(1,3)

KINE

CL

5,2

(2,1)

7,2

(1,8)

4,7

(1,7)

5,7

(1,4)

5,6

(1,4)

5,9

(1,4)

5,1

(1,7)

5,5

(1,1)

5,9

(1,3)

6,0

(1,5)

5,3

(1,7)

5,7

(1,2)

SI

CC

5,3

(2,3)

5,9

(2,1)

-

5,6

(1,9)

5,3

(1,5)

5,7

(1,9)

-

5,5

(1,5)

5,5

(1,6)

6,0

(1,8)

-

5,8

(1,4)

PMO

CC

5,0

(2,2)

5,3

(2,2)

4,1

(1,9)

4,8

(1,7)

4,4

(1,9)

5,0

(2,3)

-

4,7

(2,0)

-

-

-

COS

CC

5,2

(1,5)

5,2

(1,6)

-

5,2

(1,2)

Toutes sections

5,0

(2,2)

6,4

(1,9)

4,7

(1,8)

5,4

(1,6)

5,5

(1,5)

5,7

(1,7)

5,5

(1,3)

5,6

(1,5)

5,9

(1,7)

5,7

(1,4)

* : Outil mathématique et bases de physique. Pour le cycle court (CC) les scores en mathématiques n’apparaissent pas, car ce test a été intégré dans la partie sciences.

** : Exceptionnellement, cette partie du test a eu lieu trois semaines après la rentrée.

25Même si ceux-ci sont variables selon les sections et diffèrent entre les années, quelques caractéristiques communes peuvent être mises en évidence.

26La moyenne générale pour l’ensemble du test sur les trois années considérées dans le tableau 1. est de 5,5/10, toutes sections confondues.

27La capacité de compréhension et d’analyse de texte n’est pas bien maîtrisée avec un résultat moyen de 5,4/10 au test pour l’ensemble des étudiants. Pointons un score généralement plus élevé pour les sections paramédicales et plus faible pour les sections sociales et pédagogiques.

28Les connaissances scientifiques de base sont mieux maîtrisées. Les questions sont particularisées à chaque section en fonction des prérequis attendus. La moyenne au test de sciences est de 6,0/10. Elle est la plus élevée dans les sections paramédicales. Les moyennes dans les sections éducateurs (EDU) et psychomotricité (PMO) sont nettement plus basses.

29Les prérequis mathématiques ne sont pas bien maîtrisés. Les moyennes peu élevées indiquent que l’outil mathématique n’est pas pré-acquis par une grande proportion de ces étudiants. Même si le test diffère selon les exigences de chaque groupe de formation du cycle court et du cycle long, un score moyen de 4,7/10 a été obtenu à la rentrée de 2013-2014 pour l’ensemble des sections paramédicales sauf pour les étudiants en psychomotricité dont le score est de 4,1/10. En 2016-2017 et 2017-2018, seuls les étudiants en kinésithérapie du cycle long ont passé le test de mathématiques. Le score moyen de 5,3/10 reste faible.

4.2. Analyse de la corrélation à la réussite

30Dans un deuxième temps, nous avons mené des analyses de corrélation de manière à explorer les relations entre les résultats des étudiants aux tests de rentrée et leurs notes obtenues aux examens.

4.2.1. Comparaison des tendances en fin d’année

31Cette première analyse critériée nous a permis d’évaluer rapidement le niveau des étudiants et leurs chances de réussite. Les résultats au test de rentrée ont été comparés avec les résultats en fin d’année après avoir été classés en trois tranches d’après la moyenne globale au test : un score inférieur à 8/20, un score compris entre 8 et 12/20 et un score supérieur ou égal à 12/20. Dans chaque tranche de résultat au test de rentrée, les étudiants admis en fin d’année ont été comptabilisés. Ce nombre a ensuite été exprimé en pourcentage par rapport à l’ensemble des étudiants se trouvant dans cette tranche. Ces chiffres sont repris dans le tableau 2 pour une cohorte de 584 étudiants en 2012-2013 et dans le tableau 3 pour une cohorte de 667 étudiants en 2013-2014.

Tableau 2. Pourcentage d’étudiants admis en fin d’année par rapport au nombre d’étudiants dans les différentes tranches de résultats au test de rentrée en 2012-2013

Moyenne au

test de rentrée

EDU

(N=92)

EPS

(N=101)

PODO

(N=36)

ERGO

(N=96)

KINE

(N=208)

SI

(N=51)

< 8/20

(N = 59)

35 %

31 %

0 %

7 %

0 %

14 %

Entre 8 et 12

(N = 208)

76 %

50 %

33 %

42 %

16 %

24 %

≥ 12/20

(N = 317)

90 %

50 %

81 %

80 %

49 %

87 %

Tableau 3. Pourcentage d’étudiants admis en fin d’année par rapport au nombre d’étudiants dans les différentes tranches de résultats au test de rentrée 2013-2014

Moyenne au

test de rentrée

EDU

(N=82)

EPS

(N=103)

PODO

(N=30)

ERGO

(N=87)

KINE

(N=274)

SI

(N=91)

< 8/20

(N = 103)

21 %

28 %

0 %

20 %

6 %

13 %

Entre 8 et 12

(N = 277)

68 %

30 %

47 %

51 %

39 %

50 %

≥ 12/20

(N = 287)

85 %

50 %

73 %

86 %

64 %

74 %

32Au regard de ces tableaux, parmi les étudiants ayant obtenu moins de 8/20 au test de rentrée, de 0 à 20 % réussissent en fin d’année dans le groupe de formations paramédicales (PODO, ERGO, KINE, SI). Dans les formations pédagogiques (EDU et EPS), les chances de réussite sont comprises entre 20 et 35 %.

33Dans la majorité des sections (sauf les EDU), les étudiants ayant un résultat entre 8/20 et 12/20 au test, ont des chances de réussite comprises entre 30 et 50 %.

34Enfin, parmi les étudiants ayant obtenu un résultat supérieur ou égal à 12/20, de 50 à 90 % réussissent en fin d’année. Epinglons une moyenne de 83 % de réussite des étudiants du cycle court EDU, PODO, ERGO et SI. En EPS et en KINE, les chances de réussite des étudiants, comprises entre 50 et 60 %, sont moins élevées.

35Ce classement des résultats au test de rentrée par tranches, invite à penser qu’il est possible de cibler les étudiants qui seront potentiellement en difficulté. Au vu de nos résultats, un score inférieur à 8/20 aux tests permettrait d’identifier ces étudiants plus fragiles particulièrement pour les formations paramédicales. D’autant plus, que nous observons que la plupart des étudiants ayant obtenu moins de 8/20 au test de rentrée sont en échec en fin d’année. Par contre, un score global supérieur ou égal à 12/20 au test de rentrée serait un bon indicateur pour les étudiants qui n’auraient pas de difficulté, particulièrement pour les formations de type court. Nous sommes bien conscients que ce n’est qu’une indication parmi les différents facteurs de réussite (Dupont, De Clercq et Galand, 2015) et qu’en aucun cas, on ne peut prédire la réussite absolue de ce groupe spécifique d’étudiants.

4.2.2 Comparaison des tendances à la première session

36Nous avons comparé la moyenne pondérée des résultats en janvier avec les résultats au test de rentrée par tranches de scores comme expliqué ci-dessus. Cette session intermédiaire permet aux étudiants d’être confrontés pour la première fois aux exigences attendues. En cas d’échec, ils peuvent représenter les examens en juin (première session) et encore en septembre (seconde session). Précisons une nouvelle fois que 50 % est le seuil de réussite en vigueur dans les universités et hautes écoles belges depuis 2014-2015. Les résultats repris dans le tableau 4. montrent que le pourcentage de réussite en janvier parmi les étudiants ayant moins de 8/20 aux tests diagnostiques est faible en particulier pour les formations paramédicales avec des valeurs avoisinant 0 %. Ceci confirmerait la pertinence de l’outil diagnostique pour identifier dès le début de l’année les étudiants en difficulté.

Tableau 4. Pourcentage d’étudiants ayant une moyenne d’au moins 10/20 en janvier par rapport au nombre d’étudiants dans les différentes tranches de résultats au test de rentrée en 2013-2014

Moyenne au

test de rentrée

EDU

(N=82)

EPS

(N=103)

PODO

(N=30)

ERGO

(N=87)

KINE

(N=274)

SI

(N=85)

< 8/20

(N=101)

0 %

17 %

0 %

10 %

3 %

0 %

Entre 8 et 12

(N=274)

29 %

11 %

33 %

41 %

21 %

21 %

≥ 12/20

(N=286)

59 %

37 %

45 %

75 %

37 %

55 %

4.2.3 Validation de l’outil diagnostique

37Les observations précédentes étant encourageantes et permettant de faire des hypothèses sur les profils à risque des étudiants qui obtenaient moins de 8/20 aux tests diagnostiques, une analyse statistique de corrélation a été envisagée. L’analyse statistique de corrélation de Pearson a mis en évidence des corrélations linéaires largement positives et très significatives entre le résultat obtenu au test de rentrée et la moyenne académique pondérée de l’étudiant en janvier et en fin d’année académique. Cela reste bien entendu une validation expérimentale et limitée aux résultats observés sans avoir d’éléments complémentaires sur l’influence d’autres variables pouvant affecter ou contribuer à la réussite des étudiants. Des précautions dans l’interprétation seront prises mais force est de constater que les faiblesses observées via le test diagnostique se retrouvent également lorsqu’un étudiant avec un profil faible (moins de 8/20) présente ses examens.

38Les coefficients de corrélation, r, et leur indice de fiabilité associé, la p-valeur, sont présentés dans le tableau 5 pour chaque formation.

Tableau 5. Coefficients de corrélation de Pearson entre les résultats au test de rentrée et à la session de janvier ou la fin d’année académique

EDU (N = 80)

EPS (N = 103)

PODO (N = 30)

ERGO (N = 86)

KINE (N = 271)

Janvier

0,683***

0,262**

0,646***

0,603***

0,414***

Réussite année

0,457***

0,221*

0,641***

0,487***

0,486***

* significatif : p ≤0,05 ; ** : p ≤ 0,01 ; *** très significatif : p ≤ 0,001

39Les formations ERGO et PODO se distinguent par des coefficients de corrélation de Pearson particulièrement élevés, atteignant 0,646, et très significatifs (p-valeur ≤ 0,001).

40En EPS, les coefficients, significatifs mais inférieurs, de l’ordre de 0,25, indiquent que l’impact de la maîtrise des prérequis est moins important. Les tests diagnostiques semblent moins adaptés à ce programme.

41Un regroupement des formations présentant des étudiants de profil similaire aux tests diagnostiques a été réalisé : le groupe de type court (ERGO-PODO-EDU) et le groupe de type long (KINE). Une corrélation positive et significative est observée (figure 1) dans le cycle court (r = 0,658 - p ≤0.01). Pour le cycle long, la corrélation, bien que moins marquée, est également positive et significative (r = 0,414 - p ≤ 0,05).

Figure 1. Pourcentage obtenu à la session de janvier en fonction du pourcentage au test de rentrée pour le type court

Figure 1. Pourcentage obtenu à la session de janvier en fonction du pourcentage au test de rentrée pour le type court

42Il est intéressant de visualiser la tendance linéaire mais aussi une certaine dispersion. Cette dernière témoigne des limites de nos hypothèses. Il pourrait être possible d’identifier des profils plus vulnérables grâce au test diagnostique sans pour autant pouvoir de manière exacte prédire la réussite ou l’échec. Tout au plus, l’usage du test serait un indicateur d’alerte pour l’étudiant qui montre une tendance fiable non certaine. Ceci rejoint les travaux de Detroz et ses collaborateurs (2017). Avec un filtre à l’entrée, il n’est pas possible de prévoir la réussite, mais il serait possible de cibler les profils à très grand risque d’échec.

4.3. Rôles des parties du test

43Le test diagnostique étant composé de différentes parties (mathématiques, sciences et compétences langagières), de nouvelles analyses ont été menées pour vérifier si chacune de ces parties avait le même poids pour cibler les profils des étudiants à risque.

44Des analyses de régressions multiples ont été menées pour confirmer les calculs de corrélation de Pearson présentés plus haut.

45Les calculs de régression multiple réalisés pour chaque formation confirment nos calculs de corrélation de Pearson. En guise d’illustration, le tableau 6 reprend les coefficients standardisés de l’équation de régression multiple, les coefficients de Pearson et les coefficients de détermination ajustés entre la moyenne en janvier 2013-2014 et les résultats aux tests de compréhension de texte, de sciences et de mathématiques pour les formations EDU, PODO et ERGO du cycle court et la formation KINE du cycle long.

Tableau 6. Coefficients de régression multiple pour un modèle à deux ou trois variables

Tests

EDU

(N = 80)

PODO-ERGO

(N = 116)

KINE

(N = 271)

Compréhension de texte

0,403***

0,252**

0.211***

Sciences

0,419***

0,199*

0.166**

Mathématiques

/

0,313***

0.175*

R

0,684

0,600

0.414

R2 ajusté

0,468

0,360

0,162

* significatif : p ≤0.05 ; ** : p ≤0.01 ; *** très significatif : p ≤ 0,001

46Tant pour le cycle court que pour le cycle long, les coefficients associés à chaque partie du test sont du même ordre de grandeur. Ceci confirmerait que chaque partie du test contribue de façon similaire dans l’explication de la réussite en janvier.

47Les coefficients R² ajusté indiquent que, pour le cycle court, 36 à 47 % de la variabilité des résultats de janvier est prédictible par le modèle à deux ou trois variables. Pour le cycle long, le modèle explique 16 % de la variabilité des résultats.

5. Usages du test diagnostique

48Plusieurs recherches citées plus haut ont démontré que les tests diagnostiques permettent une prise de conscience des niveaux de connaissances et de compétences, mais ils permettent également d’adapter et de revoir les activités pédagogiques. C’est à ce niveau que le service d’accompagnement des étudiants (SAE) peut se saisir de l’outil diagnostique pour guider les enseignants, guider l’étudiant et développer ses suivis pédagogiques.

5.1. Guide pour les enseignants

49Grâce au test, l’enseignant peut identifier le profil de ses étudiants et leurs pré-acquis. Il peut décider d’adapter éventuellement son enseignement à la rentrée. Ce cas a été observé dans le cadre des formations d’éducateurs (EDU) et psychomotricité (PMO). La moyenne obtenue au test de sciences plus basse que dans les autres sections a révélé des profils d’étudiants différents dont les pré-acquis en sciences sont très faibles et peuvent être un handicap pour la réussite dans les matières scientifiques auxquelles ils sont confrontés en première année. Cette information a été relayée aux enseignants. Ils ont adapté leur enseignement et leur programme à la rentrée pour pallier ces insuffisances.

50Plus encore, les scores obtenus permettent aux enseignants d’adapter leur matière mais aussi de repenser à leurs méthodes pédagogiques comme en EPS en introduisant une pédagogie plus active et en PMO en retravaillant davantage les bases de sciences en début d’année.

51En amont, les enseignants ont aussi informé davantage les futurs étudiants, avant leur inscription, des bases attendues dans les différentes formations et des difficultés observées (parfois de manière récurrente) dans les cohortes précédentes.

5.2 Guide pour l’étudiant

52L’annonce des résultats et les propositions d’accompagnement éventuelles ne sont pas à prendre à la légère. Une attention particulière a été développée pour accompagner les étudiants à se saisir de leurs résultats sans provoquer une certaine prophétie autoréalisatrice.

53La passation de ce test le jour de la rentrée et ces résultats présentés sur une échelle de positionnement en lien avec nos analyses statistiques (figure 2) permettent à la fois à l’étudiant de prendre conscience de ses forces et faiblesses et l’encouragent à développer une démarche formative et proactive, à auto-réguler ses apprentissages pour s’inscrire dans son nouvel environnement d’études. En cas de lacunes, il peut recourir aux divers dispositifs de remise à niveau proposés ou, en toute autonomie, tenter d’y remédier seul.

Figure 2. Echelle de positionnement

54Un score moyen supérieur ou égal à 12/20 (vert) indique que les bases sont suffisamment maîtrisées pour commencer l’année dans de bonnes conditions. Recevoir cette information positive, peut générer un sentiment de compétence et se révéler comme un stimulant pour l’étudiant qui se sentira conforté en début de son cursus (Bastin, 2014; Galdiolo et al., 2012). L’étudiant est encouragé à poursuivre un travail régulier et à profiter des accompagnements disciplinaires proposés au cours de l’année académique pour rester à niveau. Ce n'est pas parce qu’il possède un bagage suffisant qu’il doit considérer que tout est acquis. L’entrée dans le supérieur lui demandera d’autres apprentissages comme une gestion de soi, le développement d’une méthodologie spécifique, de la motivation et bien d’autres facteurs à associer aux prérequis disciplinaires.

55Un score compris entre 8 et 12/20 (orange) indique que les prérequis disciplinaires sont partiellement maitrisés avec des faiblesses à combler. L’étudiant est invité à se mobiliser et à utiliser les dispositifs d’accompagnement tels que syllabi de remise à niveau, exercices et parcours pédagogiques sur la plateforme interne, séances de révision des prérequis mathématiques en présentiel pendant les trois premières semaines et possibilité d’accompagnement par un tuteur. Par ailleurs, il est encouragé à développer ses propres stratégies et à s’adresser aux enseignants si nécessaire.

56Un score inférieur à 8/20 (rouge) indique que les prérequis ne sont pas maitrisés en fonction du niveau d’exigence attendu par la filière d’étude de leur choix. L'annonce de ces scores est sensible, car si on peut estimer que ces étudiants sont à risque, il est impossible de leur dire qu’ils ne pourront pas réussir. De même, l’annonce des résultats pourrait avoir un impact négatif sur leur motivation ou les autres compétences non disciplinaires qu’ils auraient peut-être. Pour combler les lacunes observées, l’étudiant est vivement invité à participer aux dispositifs de remise à niveau. Le SAE lui propose également un accompagnement personnalisé et au besoin un changement d’orientation pourrait être évoqué.

5.3. Aides et outils pédagogiques mis en place

57Suite aux observations liées aux tests diagnostiques, deux options d’aide et d’outils pédagogiques sont mises en place : une pour les étudiants inscrits, l’autre pour ceux qui réfléchissent au choix d’une filière d’étude.

5.3.1 Dispositifs d’aide

58Tout d’abord en amont, les offres des cours préparatoires ont été adaptées en regard des différentes filières. Ensuite, des ateliers collectifs et des accompagnements individualisés ont été renforcés. Les étudiants ont été amenés à rejoindre ces dispositifs en fonction de leurs scores. Enfin, nous avons proposé une échelle de critères similaires aux jurys se réunissant à l’issue des examens de janvier, ceci pour guider l’analyse des échecs et déterminer les dispositifs d’aide à la réussite les plus adaptés.

5.3.2. Outils d’aide à l’orientation

59Pour Galdiolo et al. (2012) et Vertongen et al. (2015), la passation de tests de prérequis, avant le choix d’études supérieures permet aux étudiants d’évaluer leur bagage au regard des compétences jugées critiques pour la réussite et les aide à une meilleure orientation. S’agissant de la transition et de l’ajustement de l’étudiant à l’enseignement supérieur, De Clercq (2019) insiste sur l’importance de l’étape de préparation durant laquelle le jeune devra développer des attentes réalistes et claires, être positivement motivé et atteindre un état de préparation suffisant. Par ailleurs, l’auto-évaluation précoce de son niveau favorise la motivation de l’étudiant et est un facteur de réussite important. D’après De Clercq (2019), elle peut susciter, chez le jeune étudiant, un sentiment d’efficacité personnelle fort à la rentrée, l’aider à un engagement plus direct dans ses études et lui éviter de prendre peur et de se démobiliser. C’est avec ces objectifs, que nous avons développé deux outils spécifiques : Pont-Sup et un livret d’aide au choix d’étude.

60- Pont-Sup : Nous nous sommes questionnés quant au moment opportun pour la passation des tests. Après la rentrée, la démarche de réorientation d’étudiants s’interrogeant sur leur choix d’études ou leur niveau de base insuffisant est souvent trop tardive. Leur passation avant la rentrée pourrait aider à une meilleure préparation aux études ou une orientation plus appropriée. Nous avons à cet effet créé la plateforme numérique Pont vers le Supérieur (https://pont-sup.vinci.be/​). Elle nous a permis de mettre nos tests diagnostiques et nos outils de remise à niveau à disposition des futurs étudiants en ligne, bien avant la rentrée (Hublet et Lontie, 2019). Ce nouvel outil de prévention est une implication directe de l’élaboration de l’outil diagnostique. Il s’adresse à tout futur étudiant se questionnant sur les études et sur les connaissances de base et compétences attendues pour les formations paramédicales proposées par notre établissement. La grille d’interprétation des résultats est présentée en lien avec nos études de réussite. Les déficits éventuels peuvent être détectés et l’étudiant est encouragé à combler ses lacunes par une remise à niveau en ligne ou de manière autonome. Le site est destiné à s’adapter et se contextualiser à d’autres formations et d'autres établissements en Fédération Wallonie-Bruxelles.

61- Livret d’aide à l’orientation : D’autre part, un deuxième outil d’aide à l’orientation a été offert aux jeunes venant s’informer aux salons et centres d’orientation. Il s’agit d’un livret de réflexion invitant le futur étudiant à situer son bagage de connaissances et de compétences par rapport aux exigences de l’enseignement supérieur et plus spécifiquement de nos formations par le biais de questions issues notamment de nos tests. Cette analyse personnelle l’aide à développer des attentes réalistes et est un atout pour un choix d’études responsable qui lui permettra de s’y préparer et de les entamer dans les meilleures conditions de réussite.

6. Discussion

62De façon générale, l’analyse des scores moyens obtenus aux tests diagnostiques de rentrée par l’ensemble des formations montre que l’outil mathématique n’est pas pré-acquis par un grand nombre d’étudiants, que les connaissances de base en sciences sont les mieux maîtrisées et que la capacité d’analyse de texte est faible. Certaines formations sociale et pédagogique se distinguent avec un score en sciences et un niveau global plus faibles. Les liens entre la maîtrise des prérequis et la réussite aux examens de janvier et en fin d’année académique ont été présentés ensuite grâce à une analyse statistique.

6.1. Test diagnostique et identification des profils des étudiants

63Notre hypothèse énoncée au début de ce travail portait la possibilité d’identifier des profils à risque pour la réussite académique. Au vu des résultats obtenus, il s’avère que, de manière générale, le score obtenu par les étudiants au test diagnostique permettrait d’identifier des tendances fiables pour un groupe fortement à risque (moins de 8/20). En référence aux travaux de Detroz et ses collègues (2017), ce style de dispositif permet de cibler des étudiants qui pourraient se retrouver en échec en fin d’année. Cependant, il est plus difficile d’avancer qu’il pourrait prédire la réussite.

64Néanmoins, le classement par tranche de résultats au test (analyse critériée) a montré qu’un score inférieur à 8/20 est un indicateur d’échec, particulièrement pour les formations paramédicales, et qu’un score d’au moins 12/20 serait un indicateur de réussite, particulièrement pour les formations du cycle court (trois ans).

65Les analyses statistiques indiquent que, pour toutes nos formations, les résultats aux tests sont corrélés positivement et de manière significative avec les moyennes aux différentes sessions d’examens. La lecture des coefficients de corrélation de Pearson invite à penser que nos tests sont de bons outils pour identifier le public à risque. Les calculs de régression multiple réalisés sur les parties du test montrent également que les tendances observées ne dépendent pas exclusivement d’un type de connaissance ou de compétence. Chacune des parties contribuerait de façon comparable. Dans le cas, par exemple, d’un étudiant en kinésithérapie n’ayant pas le bagage suffisant en sciences et mathématiques, ses chances de réussite pourraient être liées à une excellente capacité d’analyse de textes. C’est la réussite au test global qui est la plus indicative. Cela étant dit, plusieurs éléments sont portés à la discussion.

6.2. Un angle d’approche limité

66Le test s’adresse à un public d’étudiants de haute école proposant des filières de type long et de type court à finalités professionnelles. Les exigences rencontrées par ces étudiants peuvent être différentes de celles des étudiants universitaires car au-delà des connaissances scientifiques à maîtriser, les étudiants à finalité professionnalisante sont très vite confrontés à la mobilisation de techniques propres au métier. Les tests ciblent davantage les connaissances que les aptitudes nécessaires pour la formation.

67La réussite d’une première année est multifactorielle (De Clercq et al. 2017). Comme nous l’avons annoncé dans l’introduction, le test ne tient pas compte de facteurs tels que l’origine sociale, les études antérieures, les capacités méthodologiques d’étude et d’organisation, l’engagement cognitif, la motivation, la persévérance et la gestion du stress. Des facteurs de ce type pourraient expliquer les dispersions pour certains groupes d’étudiants. Ainsi, en éducation physique, le taux de réussite particulièrement faible à la session de janvier pourrait être lié à un profil d’étudiants s’investissant très tard dans ses études ou encore à leur possible démotivation après les premiers stages. De même, se référant au niveau de la formation dans le secondaire et à la motivation au choix d’étude, les corrélations linéaires plus élevées pour le cycle court que pour le cycle long pourraient se justifier par une population plus homogène dans le premier groupe, particulièrement en ergothérapie, et des étudiants aux profils plus diversifiés en kinésithérapie.

68Dès lors, les tendances observées dans cette étude sont à lire avec prudence. Nous pourrions mener de nouvelles études en croisant par exemple des variables psychosociales, des variables sur le parcours antérieur des étudiants avec les résultats au test diagnostique. Des analyses plus fines et croisées permettraient de rediscuter plus amplement des facteurs conduisant à l’abandon, l’échec ou la réussite. Il s’agit donc pour nous d’une première exploration telle qu’elle a été envisagée dans le projet Passeport pour le BAC par Romainville et ses collègues (2006).

6.3. Présence des étudiants aux séances de remédiation

69Nous nous sommes interrogés quant à l’impact du test de rentrée sur les étudiants et sur la prise de conscience de leurs résultats. Au vu du taux de présence élevé aux séances de remise à niveau et des nombreuses demandes de tutorat et d’accompagnement individuel, le test a rempli sa fonction d’alerte pour un bon nombre d’étudiants (y compris en reprise d’étude) motivés prêts à saisir tous les moyens pour réussir. Nous craignions en effet d’observer les mêmes tendances que celles rapportées par Massart et Romainville (2019) ou par Leduc et al. (2020). C’est-à-dire que peu d’étudiants participaient aux activités de renforcement des prérequis à la suite de test diagnostique. Dans notre établissement, les participations aux activités étaient libres et non contraignantes pour éviter un effet négatif décrit par Angrist et al. (2009). Cependant, en agissant de cette manière, il était intéressant de mieux creuser la manière dont les étudiants percevraient leur résultat. Dans le fond, en cas de lacune observée, qu'est-ce qui mobilise l’étudiant et comment fait-il le choix de s’engager dans les activités de renforcement? L’importance de la communication sur les résultats s’est révélée cruciale. Il s’agissait à la fois de donner un signal d’alerte tout en veillant à ne pas décourager les primo-inscrits. La liberté accordée dans le choix des accompagnements collectifs et/ou individuels répondait à notre souhait de responsabiliser les apprenants pour qu’ils puissent mettre en place une démarche de travail personnelle (Lassarre et al., 2003).

6.4. Impacts psychologiques

70Le choix de développer un outil diagnostique n’a pas été réalisé sans crainte. Expliquer les facteurs de réussite reste complexe. En nous basant sur les bénéfices observés dans la littérature abondante (Barbera et al., 2020; Detroz et al., 2017; Poropat, 2009; Richardson et al., 2012; Vieillevoye et al., 2012; Massart et Romainville, 2019) notre choix a été de développer un outil correspondant aux contenus disciplinaires. Comme cela a déjà été évoqué plus haut, il ne s’agissait pas de faire passer des tests diagnostiques puis de lâcher aveuglément la sentence. L’équipe du SAE s’est mobilisée pour accompagner l’étudiant à une prise de conscience mesurée et adaptée à son contexte personnel. Une crainte évoquée était de voir le test diagnostique comme un jugement scolaire qui par effet-Pygmalion, provoque des représentations psychologiques erronées. Il aurait été risqué que l’étudiant très faible au test s’auto-proclame d’emblée en échec alimentant ainsi malencontreusement la prophétie autoréalisatrice. Une situation inverse était également possible à savoir qu’un étudiant fort au test se repose sur ses lauriers en se considérant d’emblée en réussite. Ces questions abordées dans le milieu scolaire notamment par Bressoux (2003), nous ont invité à la prudence. Dans les usages pédagogiques (guide pour l’enseignant), nous avons présenté les résultats globaux et anonymisés de manière à ne pas stigmatiser les étudiants plus faibles. Nous avons également veillé à mettre en place une communication claire mais surtout nuancée.

6.5. Organisation pratique

71Enfin, quelques difficultés pratiques sont à mentionner. L’élaboration du test a été menée sur une décennie au cours de laquelle les critères de réussite ont été modifiés par le ministère. Dans cet article, nous avons présenté des résultats qui tiennent compte de l’évolution du concept de réussite académique (obtenir au moins 10/20 à chaque unité d’enseignement et valider l’ensemble de son programme annuel) tout en ayant conscience que nous ne visions pas la même chose avant la rentrée 2013.

72Dans un autre ordre d’idée, l’organisation pratique de la passation et des dispositifs de renforcement n’a pas été réalisée sans difficulté. Il y avait des contraintes de temps, de disponibilité du personnel encadrant, une hétérogénéité des besoins des étudiants (surtout pour l’accompagnement la maitrise de la langue) et une recherche continue pour améliorer le test au fur-et-à-mesure des années. Cet article est l’aboutissement d’un travail conséquent de toute une équipe.

7. Conclusion

73Dans le contexte d’un libre accès à l’enseignement supérieur en Fédération Wallonie-Bruxelles, des taux d’échec et d’abandon très élevés sont constatés au terme de la première année. De nombreux facteurs peuvent expliquer ce constat, dont le manque de connaissances des bases et compétences attendues pour entreprendre la formation. Notre article se situe dans ce contexte.

74Un test diagnostique a été élaboré et proposé à plus de 8 000 étudiants de notre établissement situé en région bruxelloise. Les parties du test portaient sur les prérequis mathématiques, les connaissances de base en sciences et sur la maîtrise de la langue française (capacité de compréhension et d’analyse d’un texte à caractère scientifique).

75Au travers de plusieurs analyses statistiques, il semble que les résultats au test permettraient d’identifier les étudiants à risque. Même si tous nos facteurs de corrélation sont positifs et significatifs, il est bien évident que pris isolément ce test ne peut pas prédire une réussite ou un échec académique. Cependant, il pourrait constituer une base solide pour guider les enseignants dans la mise en place de nouvelles activités d’enseignement, pour guider les étudiants dans les choix personnels et leur engagement à participer aux activités de renforcement et dans le développement des dispositifs d’accompagnement. Deux outils spécifiques d’aide à l’orientation ont également été créés. La création de la plateforme numérique, Pont-Sup, a permis de mettre le test diagnostique à disposition des futurs étudiants avant la rentrée, ceci afin qu’ils puissent réaliser une auto-évaluation précoce de leur niveau de prérequis et de préparation à l’orientation choisie. Ce dispositif d’aide à la transition de l’enseignement secondaire à l’enseignement supérieur leur permet de prendre conscience très tôt de leurs potentielles lacunes et d’y remédier notamment grâce au dispositif de remise à niveau disponible en ligne sur Pont-Sup. Il peut servir de guide à l’étudiant en réorientation et également aux enseignants du secondaire en explicitant les compétences et prérequis attendus à l’entrée dans le supérieur pour leurs élèves.

76L’étude rejoint les conclusions des travaux antérieurs réalisés en universités (Galdiolo et al., 2012; Hoffmann et al., 2013; Vieillevoye et al., 2012). Cependant l’approche consiste ici de manière innovante à montrer la pertinence de faire des tests diagnostiques dans d’autres types d’établissement (comme une Haute Ecole), pour des formations non-universitaires de type court (BAC+3 ans ou BAC+5 ans en référence au système français) mais aussi de développer des outils d’aide à l’orientation. Soulignons aussi la pertinence de nos tests qui associent plusieurs prérequis disciplinaires et transversaux. L’analyse statistique a montré en effet que c’est le score global au test qui est généralement l’indicateur le plus efficient, ce qui rejoint les résultats de la recherche de Hoffmann et al. (2013).

Haut de page

Bibliographie

Angrist, J., Lang, D. et Oreopoulos, P. (2009). Incentives and services for college achievement: Evidence from a randomized trial. American Economic Journal: Applied Economics, 1, 136-163. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1257/app.1.1.136

ARES. (2017). Rapport du Collège d’experts extérieurs : l’enseignement supérieur de la fédération Wallonie-Bruxelles à l’horizon 2030.

Barbera, S. A., Berkshire, S. D., Boronat, C. B. et Kennedy, M. H. (2020). Review of undergraduate student retention and graduation since 2010: Patterns, predictions, and recommendations for 2020. Journal of College Student Retention: Research, Theory & Practice, 22(2), 227-250. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1177/1521025117738233

Bastin, E., Sowula P. et Brogniet, J.-M. (2014, 18-22 mai). Les tests et les feedbacks précoces en Bac1 : des outils de diagnostic, de prise de conscience, de réconfort ou de (dé)mobilisation pour les étudiants [communication orale]. 28e congrès de l’AIPU. Mons, Belgique. https://www.aipu-international.org/sites/default/files/fichiers/AIPU2014_livret-resume.pdf

Baudier, A., Bachy, S. et Wilmet, E. (2019). Comment soutenir le développement professionnel des enseignants en charge de l’accompagnement au métier d’étudiant (aide à la réussite)? Symposium 11 du REF, 10-11 juillet. Université Toulouse Jean Jaurès.

Bong, M. (2005). Within-grade changes in Korean girls' motivation and perceptions of the learning environment across domains and achievement levels. Journal of Educational Psychology, 97(4), 656-672. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1037/0022-0663.97.4.656

Bourgeois, E., Galand, B. et Frenay, M. (2003, April 12-16). Impact of students’ perception of the learning environment on self-regulation in higher education [Paper presentation]. American Educational Research Association annual congress, Chicago, United States.

Bressoux, P. (2003). Jugements scolaires et prophéties autoréalisatrices : anciennes questions et nouvelles réponses. Les dossiers des sciences de l'éducation, 10(1), 45-58. https://0-doi-org.catalogue.libraries.london.ac.uk/10.3406/dsedu.2003.1028

Centre de Didactique Supérieur de l'Académie Louvain (CDiS). (2006). Projet « Passeport pour le bac ». http://www.passeportspourlebac.be

Climov, D. et Hublet, M.-C. (2008, 19-22 mai). Systématisation de l’évaluation des comportements d’apprentissage favorisant la réussite des étudiants entrant dans les études supérieures [communication orale]. 25e congrès de l’AIPU. Montpellier, France.

Cosnefroy, L. (2010). Se mettre au travail et y rester : les tourments de l’autorégulation. Revue française de pédagogie, 170, 5-15. https://doi.org/10.4000/rfp.1388

Dalcq, A.-E., Englebert, A., Uyttebrouck, E., Van Raemdonck, D. et Wilmet, B. (2007). Lire, comprendre, écrire le français scientifique avec exercices et corrigé. Duculot.

De Clercq, M. (2019). L’étudiant sur les sentiers de l’enseignement supérieur : vers une modélisation du processus de transition académique. Les cahiers de recherche du Girsef, (116). Université catholique de Louvain, Belgique.

De Clercq, M., Galand, B., Dupont, S. et Frenay, M. (2013). Achievement among first-year university students: an integrated and contextualised approach. European Journal of Psychology of Education, 28(3), 641-662. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1007/s10212-012-0133-6

De Clercq, M., Galand, B.et Frenay, M. (2017). Transition from high school to university: a person-centered approach to academic achievement. European Journal of Psychology of Education, 32(1), 39-59. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1007/s10212-016-0298-5

Detroz, P., Dehon, C., Romainville, M., Auquière, A., Pools, E., Ben Omar Bridi, S. et Massart, X. (2017). Les dispositifs de test et de filtre des étudiants dans l’enseignement supérieur. Rapport de recherche FWB. https://orbi.uliege.be/handle/2268/216572

Dupont, S., De Clercq, M. et Galand, B. (2015). Les prédicteurs de la réussite dans l’enseignement supérieur : revue critique de la littérature en psychologie de l’éducation. Revue française de pédagogie, 191, 105-136. https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/rfp.4770

Endrizzi, L. (2016, 1er juin). Les tests initiaux des prérequis à l’université : du diagnostic à la remédiation. Unisciel. http://www.unisciel.fr/2015/07/09/les-tests-initiaux-de-prerequis-a-luniversite-du-diagnostic-a-la-remediation/

Endrizzi, L. (2017, 20 octobre). Les systèmes d’enseignement supérieur les moins sélectifs sont aussi les moins performants! Institut Français de L’Education. https://eduveille.hypotheses.org/8956

Galdiolo, S., Nils, F. et Vertongen, G. (2012). Influences indirectes de l’origine sociale sur la réussite académique à l’Université. L’orientation scolaire et professionnelle, 41(1). https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/osp.3723

Glorieux, C., Pollet, M.-C., Malengreau, E., Wynsberhe, D. et Delforge, M. (2006). Elaborer des outils d’aide à la rédaction d’écrits scientifiques : dépasser les lieux communs pour s’ancrer dans les besoins spécifiques. Dans P. Parmentier (dir.), Promotion de la réussite des Nouveaux Bacheliers à l’Université (p. 98-104). Presses universitaires de Namur.

Hoffmann, C., Douady et J., Buty, C. (2013, 27-30 août). Test initial de prérequis : quelles corrélations avec la réussite en première année universitaire? Dans Actes du Congrès d’Actualité de la Recherche en Education et Formation (AREF) n° 282. Montpellier, France. https://hal.archives-ouvertes.fr/hal-00973166/document

Houart, M., Bachy, S., Dony, S., Hauzeur, D., Lambert, I., Poncin, C. et Slosse, P. (2019). La volition, entre motivation et cognition : quelle place dans la pratique des étudiants, quels liens avec la motivation et la cognition? Revue internationale de pédagogie de l’enseignement supérieur, 35(1). https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/ripes.2061

Hoyt, J. E. (2021). Student connections: The critical role of student affairs and academic support services in retention efforts. Journal of College Student Retention: Research, Theory & Practice, in press. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1177/1521025121991502

Hublet, M.-C., Robert, P. et Gathy, Ph. (1991, 31 mai-1er juin). Prérequis mathématiques pour une première candidature en sciences médicales [communication orale]. IXe journées universitaires francophones de pédagogie médicale de l’Université Catholique de Louvain. Bruxelles, Belgique.

Hublet, M.-C. et Lontie, S. (2019). Analyse de la réussite en 1ère année au Parnasse-ISEI (Haute Ecole Vinci) [Document non publié]. Parnasse-ISEI- Haute Ecole Vinci, Bruxelles, Belgique.

Hublet, M.-C. et Lontie, S. (2019). Plateforme Pont vers le Supérieur. https://pont-sup.vinci.be/

Kuo, J., Hagie, C. et Miller, M. T. (2004). Encouraging college student success: The instructional challenges, response strategies, and study skills of contemporary undergraduates. Journal of Instructional Psychology, 31, 60-67.

Lambert, J-P. (2018). Culture du redoublement dans l’enseignement obligatoire : dégâts collatéraux dans l’enseignement supérieur. La revue nouvelle, 3, 1-22.

Lassarre, D., Giron, C. et Paty, B. (2003). Stress des étudiants et réussite universitaire : les conditions économiques, pédagogiques et psychologiques du succès. L’orientation scolaire et professionnelle, 32/4, 669-691. https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/osp.2642

Leclercq, D. (2003). Diagnostic cognitif et métacognitif au seuil de l’université : le projet Mohican mené par les 9 universités de la Communauté française Wallonie-Bruxelles. Editions de l’Université de Liège.

Leclercq, D. (2011). Que savent les étudiants lorsqu’ils rentrent dans l’enseignement universitaire? Ce que nous apprend le projet MOHICAN. Dans P. Parmentier (Dir.). Recherches et actions en faveur de la réussite en première année universitaire, Vingt ans de collaboration dans la Commission « Réussite » du Conseil Interuniversitaire de la Communauté française de Belgique (p. 19-23). CIUF.

Leduc, L., Tonus, C. et Detroz, P. (2020). Analyse des perceptions d’étudiants primants en Faculté de Médecine vétérinaire à l’ULiège engagés dans un programme d’aide à la réussite reposant sur un dispositif d’allègement et de remédiation adapté [communication]. 32ème colloque annuel de l’ADMEE, 22-24 janvier, Casablanca, Maroc.

Massart, X. et Romainville, M (2019). Attributions causales des étudiants en matière de réussite à l’université. Recherches en Éducation, 37, 112-125

Nils, F. (2011). Comment favoriser une bonne orientation lors du choix des études universitaires? Dans P. Parmentier (dir.), Recherches et actions en faveur de la réussite en première année universitaire, Vingt ans de collaboration dans la Commission « Réussite » du Conseil Interuniversitaire de la Communauté française de Belgique (p. 14-18). CIUF.

Poropat, A. (2009). A meta-analysis of the five-factor model of personality and academic performance. Psychological Bulletin, 135(2), 322-338. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1037/a0014996

Richardson, R., Abraham, C. et Bond, R. (2012). Psychological correlates of university students’academic performance: a systematic review and meta-analysis. Psychological Bulletin, 138(2), 353-387. https://0-doi-org.catalogue.libraries.london.ac.uk/10.1037/a0026838

Romainville, M. (2000). L’échec dans l’université de masse. L’Harmattan.

Romainville, M. (2008). Innover dans l’enseignement supérieur : pourquoi et comment? Pédagogie Collégiale, 21(3). https://eduq.info/xmlui/bitstream/handle/11515/21686/Romainville_21_3.pdf

Romainville, M., Houart, M. et Schmetz, R. (2006). Promouvoir la réussite par l’identification des prérequis et la mesure de leur maîtrise auprès des étudiants. Dans P. Parmentier (dir.), Promotion de la réussite des Nouveaux Bacheliers à l’Université (p 28-42). Presses universitaires de Namur.

Romainville, M. et Slosse, P. (2011). Comment établir un diagnostic des prérequis précoce et impliquant pour l’étudiant? Dans P. Parmentier (dir.). Recherches et actions en faveur de la réussite en première année universitaire. Vingt ans de collaboration dans la Commission « Réussite » du Conseil Interuniversitaire de la Communauté française de Belgique (p. 24-27). CIUF.

Salmon, D., Noël, B. et Parmentier, P. (2005). Une grille d’analyse des actions d’accompagnement pédagogique pour un bilan et des perspectives après 20 années d’encadrement pédagogique en premier bachelier [actes de colloque]. Journée d’étude AIPU-CFWB, Gembloux, Belgique.

Schmitz, J., Frenay, M., Neuville, S., Boudrenghien, G., Noël, B., Wertz, V. et Eccles, J. S. (2010). Etude de trois facteurs clés pour comprendre la persévérance à l’université. Revue Française de Pédagogie, 172, 43-61. https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/rfp.2217

Service de Pédagogie Universitaire (SPU), Université de Namur (2001). Le projet personnel de l’étudiant : un facteur de réussite? Réseau : Revue au service de l'enseignement et de l'apprentissage à l'université, (49). https://www.unamur.be/det/revue-reseau/numeros-reseau-44-51/reseau49

Vertongen, G., Nils, F., Galdiolo, S., Masson, C., Dony, M., Vieillevoye, S. et Wathelet V. (2015). Test de l’efficacité de 2 dispositifs d’aide à la réussite en 1ère année à l’université : Remédiations précoces et blocus dirigés. Les cahiers de recherche du Girsef (103) Université Catholique de Louvain, Belgique.

Vieillevoye, S., Wathelet, V. et Romainville, M. (2012). Maîtrise des prérequis et réussite à l’Université. Dans C. Michaut et M. Romainville (dir), Réussite, échec et abandon dans l’enseignement supérieur. Edition De Boeck.

Haut de page

Document annexe

Haut de page

Notes

1 En Belgique, le type long correspond à un master et le type court à un bachelier professionnel.

Haut de page

Table des illustrations

Titre Figure 1. Pourcentage obtenu à la session de janvier en fonction du pourcentage au test de rentrée pour le type court
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/ripes/docannexe/image/3682/img-1.png
Fichier image/png, 38k
URL http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/ripes/docannexe/image/3682/img-3.png
Fichier image/png, 3,4k
Haut de page

Pour citer cet article

Référence électronique

Marie-Claude Hublet, Sabine Lontie, Mohammed Arras, Sophie Remacle et Sylviane Bachy, « Test diagnostique à l’entrée de l’enseignement supérieur : validation et usages »Revue internationale de pédagogie de l’enseignement supérieur [En ligne], 37(3) | 2021, mis en ligne le 05 décembre 2021, consulté le 18 mai 2024. URL : http://0-journals-openedition-org.catalogue.libraries.london.ac.uk/ripes/3682 ; DOI : https://0-doi-org.catalogue.libraries.london.ac.uk/10.4000/ripes.3682

Haut de page

Auteurs

Marie-Claude Hublet

Haute Ecole Vinci, Belgique, mc.hublet@hotmail.com

Sabine Lontie

Haute Ecole Vinci, Belgique, sabine.lontie@vinci.be

Mohammed Arras

Haute Ecole Vinci, Belgique, mohammed.arras@vinci.be

Sophie Remacle

Haute Ecole Vinci, Belgique, sophie.remacle@vinci.be

Sylviane Bachy

Université libre de Bruxelles, Belgique, sylviane.bachy@ulb.be

Articles du même auteur

Haut de page

Droits d’auteur

CC-BY-NC-SA-4.0

Le texte seul est utilisable sous licence CC BY-NC-SA 4.0. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.

Haut de page
Rechercher dans OpenEdition Search

Vous allez être redirigé vers OpenEdition Search