Les Learning Analytics, entre fantasmes et réalité — DMS-DMK
Publié le : ven 17 janvier 2020Views: 372
[link_to_category]
[yarpp]

Le débat relatif aux Learning Analytics se clôt par les contributions de deux collègues : Hélène Pulker (Open University), coutumière de la revue, et Paola Tubaro, sociologue (Université Paris-Sud). H. Pulker se présente comme une enseignante utilisant les LA dans la formation en langue à distance et interroge, à partir de cette posture, certains usages des LA mis en œuvre au sein de l’Open University. Pour l’OU, en effet, les LA constituent un enjeu stratégique majeur en vue d’augmenter la réussite des apprenants en intégrant à tous les niveaux de son fonctionnement la prise de décisions fondées sur des preuves (« Evidence-Based-Decisions »), comme l’expose H. Pulker : « At the macro level, Learning Analytics are used to inform strategic priorities to continually enhance the student experience, retention and progression. At the micro level, Learning Analytics are used to drive short, medium and long-term interventions at the student, module and qualification levels ». Sans doute le lecteur verra-t-il là une résurgence de l’Evidence-Based Education anglaise des années 90 évoquées dans le texte-cadre de cette rubrique (Peraya, 2019). L’institution, selon H. Pulker, tente donc de développer en son sein une culture des Learning Analytics, une « analytics mind-set ».

L’auteure analyse, à partir de deux exemples concrets (les tableaux de bord et un dispositif de type Predictive Learning Analytics), la validité de ces pratiques. L’OU encourage tous les enseignants à utiliser ce tableau de bord afin d’assurer un meilleur suivi des étudiant(e)s et de leurs activités, de leur participation et de leur engagement au sein de l’environnement de travail. Le principal indicateur retenu est la régularité de la participation aux tests d’évaluation, les Tutor-Marked Assignments (TMA). Les informations sont destinées aux équipes de suivi aux tuteurs et aux académiques qui, sur cette base, décident des interventions concrètes qu’ils mèneront. L’auteure signale que, si ces indicateurs sont utiles globalement pour mieux appréhender la cohorte, ils se révèlent cependant de peu d’utilité pour le suivi individuel des apprenants dans la mesure où les données ne fournissent aucun élément de compréhension des comportements individuels.

L’auteure avance plusieurs arguments en faveur des Learning Analytics, fondés sur « la possibilité, par l’accès à de grandes masses de données, de mieux saisir les processus d’apprentissage et potentiellement, de les améliorer », mais elle souligne aussi leurs limites. De son point de vue de sociologue, elle rappelle les inégalités d’accès et d’usages au numérique. Aussi, les LA ne tracent-ils pas l’ensemble de la population : « En se servant de données produites par les usagers de ces espaces numériques, alors, on risque d’aboutir à des conclusions biaisées. Si des projets formatifs sont ensuite construits sur cette base, sans tenir compte des besoins et des comportements des personnes les plus désavantagées, ils finiront paradoxalement par creuser davantage les inégalités ». À chaque phase du processus de mise en œuvre des Learning Analytics, surgissent des questions d’ordre éthique.

Elle indique aussi qu’il faut souvent faire des arbitrages entre la taille et les richesses des données récoltées. Si celles-ci permettent de déceler des tendances générales, l’auteure cite A. Boyer (2019) pour qui, malgré leur volume important, les données restent « parcimonieuses » pour chaque apprenant. En outre, plus les données sont massives, plus elles sont factuelles et moins elles permettent de comprendre les comportements identifiés. H. Pulker exprime le même point de vue critique dans sa contribution. Quant à V. Luengo, dans le précédent numéro (Peraya et Luengo, 2019), elle proposait de privilégier l’épaisseur et l’hétérogénéité de la donnée. Une donnée épaisse, rappelons-le, est « une donnée qui décrit l’activité de l’apprenant de façon plus fine, comme on peut le faire dans un EIAH [qui me permet de] savoir que l’apprenant a construit un point, un segment, qu’il a déplacé la figure. Je peux donc reconstituer la sémantique de l’action qui est liée au processus d’apprentissage ». Cette piste nous paraît d’un point de vue méthodologiquement extrêmement prometteuse.

Référence électronique

Daniel Peraya, « Les Learning Analytics, entre fantasmes et réalité », Distances et médiations des savoirs [En ligne], 28 | 2019, mis en ligne le 16 décembre 2019, consulté le 12 janvier 2020. URL : https://journals.openedition.org/dms/4599

—————

Repéré depuis https://journals.openedition.org/dms/4599

Partagez cet article