Auteur: Alex Uboldi
1. Introduction
Dans le cadre de ce travail de séminaire, nous nous intéressons à l’analyse des stratégies d’autorégulation chez les apprenant·e·s à l’aide de deux instruments. Par « stratégies d’autorégulation », nous entendons les comportements visant l’acquisition d’informations ou compétences, exercés de manière souvent instinctive (Zimmerman et Pons, 1986). Les deux instruments que nous utilisons dans le cadre de ce travail sont le Self Regulated Learning Interview Schedule, ci-après dénommé SRLIS, et le Learning Strategy Knowledge Test. Si dans le premier cas, c’est-à-dire pour l’instrument SRLIS, l’accent est mis principalement sur la détection des stratégies utilisées par l’apprenant·e dans différents scénarios, dans le second cas, c’est-à-dire pour le Learning Strategy Knowledge Test, l’accent est mis sur la manière dont les apprenant·e·s’identifient et appliquent les stratégies les plus efficaces pour leurs objectifs d’étude, mesurant leur connaissances théoriques (Merki et al., 2013). L’objectif de ce travail est, dans un premier temps, d’analyser les données collectées via le questionnaire SRLIS administré à deux étudiant·e·s universitaires afin d’examiner les stratégies d’autorégulation adoptées et après, d’explorer le Learning Strategy Test en évaluant leur connaissance de leurs stratégies d’apprentissage et la manière dont celles-ci influencent leur façon d’étudier.
2. Le SRLIS
2.1. Description de l’outil
Le « Self-regulated learning interview schedule » (SRLIS) est un instrument conçu pour évaluer les stratégies d’autorégulation mobilisées par les étudiant·e·s au cours de leurs processus d’apprentissage (Zimmerman et Martinez-Pons, 1990). L’un des auteur les plus important dans ce domaine est Barry Zimmermann qui, en s’appuyant sur des bases préalablement définies par d’autres chercheur·e·s, a développé dans la seconde moitié des années 80 une méthode de détection de ces stratégies par le biais d’entretiens guidés. L’auteur a détecté 14 catégories de stratégies, allant de l’auto-évaluation à la planification, en passant par la prise de notes, les conséquences personnelles, l’auto-évaluation et bien d’autres encore. Ces catégories ont été classés en six scénarios de base, c’est-à-dire en classe, à la maison, lors de travaux d’écriture en dehors de la classe, lors de devoirs de mathématiques (adaptées en devoirs générales dans la version adapté du questionnaire) également en dehors de la classe, lors de la préparation d’examens ou en cas de manque de motivation (Zimmerman et Pons, 1986). L’importance du SRLIS dans l’évaluation des stratégies d’apprentissage réside d’une part dans les stratégies que l’élève mentionne et déclare utiliser explicitement. D’autre part, il peut arriver qu’un·e élève n’admette pas explicitement utiliser une stratégie, mais qu’il·elle la mentionne à plusieurs reprises. Comme le mentionne Zimmermann, on peut également trouver des stratégies qui ne sont pas mentionnées initialement par l’étudiant·e, mais qui ne reviennent qu’après des questions de relance (Zimmerman et Pons, 1986). Ces aspects sont particulièrement utiles pour les chercheur·e·s, mais aussi pour les apprenant·e·s eux·elles-mêmes, qui peuvent ainsi identifier leurs points forts, mais surtout les domaines à améliorer. Il convient de préciser que ces stratégies sont partiellement influencées par de multiples facteurs. Comme l’affirme Effeney (2013), le contexte exerce une influence importante sur les apprenant·e·s, un exemple étant les parents, défini·e·s comme des forces proximales de développement des jeunes, avec une capacité discrète d’influencer le développement académique et scolaire, mais aussi les relations sociales et les enseignant·e·s (Effeney et al., 2013).
2.2. Description de l’échantillon
L’échantillon auquel nous avons soumis les deux questionnaires est composé de deux étudiants de l’Université de Neuchâtel, l’un âgé de 22 ans, l’autre de 23 ans de la faculté de droit, l’un au niveau du Bachelor, l’autre au niveau du master. L’une des limites, est l’étroitesse de l’échantillon. En effet, avec deux individus, on ne peut pas tirer de conclusions trop générales. Toutefois, cet échantillon offre également des perspectives pour une analyse plus détaillée et individuelle de leur comportement.
2.3. Description de la méthodologie
Nous nous sommes basés sur la proposition des six scénarios identifiés par Barry Zimmermann (Zimmerman et Martinez-Pons, 1988). Cependant, nous avons utilisé la version adapté pour les étudiant·e·s universitaires, afin d’obtenir des réponses plus pertinentes à notre travail. Pour chaque scénario, nous avons formulé des questions de relance pour, fondamentalement, deux raisons. D’une part, parce que l’individu ne mentionne souvent pas au premier abord toutes les stratégies qu’il mobilise et, d’autre part, parce que cela nous permettait d’établir des similitudes entre les stratégies mobilisées dans plusieurs scénarios. Après ces deux premières questions, nous avons inclus l’évaluation de la fréquence d’utilisation des stratégies mentionnées, en utilisant l’échelle de Likert. Le questionnaire a été soumis oralement, en enregistrant la conversation et en la transcrivant ultérieurement. Les réponses ont ensuite été codées selon la numérotation proposée par Zimmermann. Ainsi, les variables analysées comprennent la fréquence d’utilisation des stratégies d’autorégulation et le nombre de fois où chaque stratégie apparaît dans les différents scénarios. Les données ont été organisées en tableaux, indiquant les stratégies adoptées pour chaque scénario. Pour l’analyse des données, une approche descriptive a été utilisée, considérant la fréquence des stratégies et la distribution des réponses dans chaque scénario
2.4. Présentation des résultats
2.4.1. Personne 1
La première chose à souligner est que la stratégie qui est apparue le plus fréquemment est la numéro 9, c’est-à-dire la recherche d’une aide sociale. Bien qu’au cours de l’entretien, la personne ait déclaré être plutôt indépendante dans la réalisation de ses devoirs, le fait de rechercher le soutien de pairs, d’échanger des notes ou d’étudier en compagnie a été mentionné à plusieurs reprises. Moins fréquente, l’aide de l’enseignant qui est citée comme une stratégie à laquelle il faut recourir en dernier ressort. Parmi les stratégies les plus fréquemment citées figure la stratégie numéro 8, qui indique comment la personne s’efforce d’assimiler la matière en répétant et en mémorisant des notions. De même, la stratégie numéro 5 est également mentionnée, nous montrant comment la personne accorde de l’importance à la prise de notes et à la tenue de registres. Beaucoup d’importance est donné à l’environnement dans lequel elle étudie, préférant la bibliothèque de l’université ou au moins un environnement calme, comme le montre la stratégie numéro 6, notée à quelques reprises. En général, on peut dire que la personne utilise un grand nombre de stratégies, ayant mentionné au moins une fois 11 stratégies sur un total de 15. En ce qui concerne l’utilisation de ces dernières, le scénario dans lequel elles sont les plus nombreuses est celui de la préparation d’un examen, qui nécessite donc une mobilisation importante. Finalement, on peut affirmer que la personne est un·e apprenant·e qui évalue bien les stratégies d’apprentissage qu’elle utilise.
2.4.2. Personne 2
La stratégie la plus utilisée est la numéro 8, à savoir la répétition et la mémorisation. En effet, la personne a admis lors de l’entretien mémoriser de nombreuses notions, même celles pour lesquelles la mémorisation est objectivement moins efficace. L’accent est également mis sur la planification et la fixation d’objectifs, à travers la prise de notes et la recherche d’informations. À cet égard, pour ce dernier aspect, nous rapportons la transcription d’un passage prononcé lors de l’entretien :
« …je commence avec ChatGPT. Et puis, si ChatGPT ne donne pas les justes infos que je cherche, je vais sur Internet ou sur les diapositives et je regarde s’il y a quelque chose qui peut m’aider. Mais en vrai, ChatGPT… »
La recherche d’informations est donc assurée par l’intelligence artificielle générative. Il nous semble important de souligner que, dans un futur, il sera intéressant d’élargir le champ de recherche du SRLIS en mettant en évidence à quel point ces outils ont changé la façon d’apprendre. Un dernier aspect à souligner concernant les stratégies d’apprentissage est la mobilisation de la stratégie numéro 15 « autre » qui a été explicitée comme suit :
« Ce n’est pas la motivation de dire oui, j’aime beaucoup la matière, blablabla. C’est plutôt une question de panique, d’anxiété. Et donc, je me dis oui, je fais ça. Donc, le panique, c’est mon énergie ».
Sortant des schémas traditionnels des stratégies SRLIS, la personne nous a fourni une piste originale, à savoir la panique, en déclarant qu’elle est poussée à étudier beaucoup et à s’occuper à cause de la panique qui se transforme en énergie pour étudier.
Pour la personne 2 comme pour la personne 1, les stratégies mentionnées sont nombreuses, à savoir 13 sur 15. Le scénario le plus mobilisateur est le numéro 4 (préparation à l’examen). Là encore, l’environnement doit être aménagé d’une certaine manière, avec l’utilisation d’une musique relaxante ou de bruits de pluie, avec des écouteurs, ou en parlant devant un miroir à haute voix pour mémoriser les informations.
2.5. Discussion sur l’outil de mesure
Le SRLIS s’est avéré être un outil utile pour identifier les stratégies d’autorégulation adoptées, permettant une vision détaillée de leurs préférences stratégiques individuelles en matière d’étude et d’apprentissage. Cependant, l’analyse des données recueillies met également en évidence certaines limites de l’instrument. L’une des principales limites concerne l’interprétation subjective des réponses qui peut introduire des biais (Bandura, 1986). En outre, si l’utilisation d’un échantillon limité à deux participant·e·s permet une meilleure individualisation des résultats, elle rend également difficile la généralisation même entre sujets similaires. En fait, les deux apprenant·e·s sélectionné·e·s fréquentent les deux la faculté de droit, mais on voit clairement de différences entre les deux. Concernant la fiabilité et la validité de l’outil, il couvre un large éventail de stratégies d’autorégulation, ce qui, dans la version adaptée que nous avons utilisée, nous permet d’évaluer différents scénarios dans le domaine académique et universitaire. Le test est donc adapté pour mesurer la façon dont les étudiants répondent aux défis de l’apprentissage. La fiabilité de l’outil peut être considérée comme discrète, car de petites variations dans la manière dont les questions sont posées peuvent influencer les réponses obtenues. En effet, quand on posait les questions « standard » nous n’avons pas toujours obtenus des réponses satisfaisantes « au premier coup ». Donc on a dû relancer. Toutefois la façon dans laquelle les chercheurs relancent, est assez subjective et pourrait influencer les résultats. En outre, comme déjà relevé aussi par Zimmermann et Pons, l’auto-évaluation (catégorie 1) n’est pas une catégorie souvent mobilisée. Dans notre exemple, seulement la personne 1 l’a mobilisée dans le scénario de la préparation aux examens. Comme les auteur·e·s l’ont admis, peut-être que dans le futur la définition de cette catégorie devra être mieux explicité (Zimmerman et Pons, 1986).
3. Learning Strategy Knowledge Test
3.1. Description de l’outil
Le Learning Strategy Knowledge Test est un instrument conçu par les auteurs Merki, Ramseier et Karlen en 2013, dans le but d’évaluer les connaissances des étudiant·e·s sur les stratégies d’apprentissage qu’ils utilisent lorsqu’ils accomplissent des tâches complexes, en particulier au niveau secondaire supérieur (Merki et al., 2013). Le besoin qui s’est présenté aux auteurs était de concevoir un test capable de mesurer les connaissances déclaratives et théoriques des stratégies cognitives, métacognitives et de gestion des ressources. En effet, les instruments déjà présents, mesurant l’application pratique des stratégies (comme le SRLIS) ne prenaient pas en compte la réflexion théorique des élèves sur ces stratégies (Merki et al., 2013). L’instrument, comme mentionné ci-dessus, s’articule autour de plusieurs aspects, s’appuyant à la fois sur des modèles théoriques et sur des modèles dérivés de l’expérience pratique des enseignant·e·s. En ce qui concerne la constitution concrète de cet instrument, il couvre 7 situations problématiques et explore les trois phases clés du processus d’apprentissage : préaction, action et post action. Le test présente divers scénarios, comme la recherche d’un sujet ou la gestion de la motivation, et demande aux étudiant·e·s d’évaluer l’utilité des stratégies en fonction du contexte (Schlagmüller et Schneider, 2007; Zimmerman, 2008; Zimmerman et Kitsantas, 2005).
3.2. Méthodologie
La méthodologie que nous avons adoptée pour administrer le questionnaire a consisté, dans un premier temps, à décomposer les 7 situations problématiques en scénarios correspondants. A côté des scénarios, il y avait une case dans laquelle le participant devait évaluer le scénario avec une note de 1 à 6, où 1 signifiait « pas du tout utile » et 6 « très utile ». La durée était variable, le premier individu a mis 15 minutes pour effectuer le test, le second environ 20 minutes. Après avoir rempli le questionnaire, nous avons codé les réponses en les comparant à la moyenne fournie par l’article original. Pour ce faire, nous avons codé les réponses notées « 1 » et « 2 » avec le signe « – ». Les réponses notées « 3 » et « 4 » ont reçu le signe « m » tandis que les réponses notées « 5 » et « 6 » ont reçu le signe « + ». Pour calculer le score final, nous avons accordé un point si la réponse fournie correspondait à la réponse des experts, tandis que si elle ne correspondait pas, nous n’avons pas ajouté de points. Enfin, nous avons calculé les scores dans les étapes clés du processus d’apprentissage (préaction, action et post action) et enfin les scores totaux, convertis par la suite en pourcentages, afin de mesurer la connaissance des stratégies à la fois dans leur ensemble et dans les étapes susmentionnées.
3.3. Présentation des résultats
En ce qui concerne les résultats obtenus, nous avons mis en évidence des divergences entre les deux participants dans le score total, mais aussi dans les différentes phases.
3.3.1. Personne 1
En partant du premier individu, il obtient un score total de 61,54% de connaissance des stratégies, soit un score de 32 points sur un total de 52. Le score le plus bas est enregistré dans la phase « action » (56,25%) alors que les deux autres phases sont assez proches (69,23 et 71,43%). Nous aimerions souligner les situations inférieures à la moyenne (<50%) qui ont potentiellement eu un impact sur les scores. La baisse de la moyenne finale est particulièrement influencée par le total obtenu à la quatrième problématique, dans laquelle l’individu n’a obtenu que 1 point sur 6 (16,67%). Or, cette problématique concerne la relation de l’élève avec l’enseignant lors de l’exécution de travaux assignés ou de projets écrits approfondis. Le fait que notre participant ait obtenu un score faible à ce stade n’est pas, à notre avis, le symptôme d’une méconnaissance de ses propres stratégies, mais plutôt d’une manière subjective de travailler de manière plutôt autonome sans s’engager dans des échanges importants avec l’enseignant·e. Un autre problème qui mérite d’être analysé est le numéro 5, pour lequel l’individu a obtenu 5 points sur 10 (50%). Cette problématique concernait la difficulté à avancer dans une tâche, des réponses données par notre individu de référence nous pouvons déduire que sa méthode de travail tend à ne pas être particulièrement structurée en cas de difficulté à avancer. Nous pouvons donc interpréter le résultat de ces scénarios comme une connaissance moyenne de ses propres stratégies d’apprentissage. En ce qui concerne les autres problèmes, le participant a obtenu un score supérieur à la moyenne (>50%).
3.3.2. Personne 2
En poursuivant l’analyse avec le deuxième individu, celui-ci obtient un score total de 76,92% de connaissance des stratégies, soit un score de 40 sur 52 points. Dans ce cas, le score le plus bas est enregistré dans la phase post-action (57,14%). En revanche, l’individu a obtenu 84,62% dans la phase de préaction et 78,13% dans la phase d’action. Dans pas moins de deux scénarios (1 et 4), il a obtenu 100% de connaissance des stratégies. Comme dans le cas précédent, nous nous concentrons maintenant sur les scores les plus bas. Contrairement à l’individu 1, cette personne n’a pas obtenu un score inférieur ou égal à la moyenne (50%) mais a obtenu 57,14% à la question 7 qui demandait « quelles conclusions tirer pour une future tâche similaire si l’évaluation de leur projet ou de leur travail était sous les attentes ». En examinant attentivement les réponses fournies, on se rend compte que la personne a une connaissance moyenne de ses stratégies au cas où elle devrait refaire un travail similaire à celui déjà réalisé mais mal évalué. En effet, on constate que certains scénarios tels que « consulter plus souvent l’enseignant·e » ne seraient pas pris en compte, de même que « faire lire le travail à des pair·e·s ou à des tiers ». Cependant, comme mentionné plus haut, il s’agit du seul point inférieur aux autres réponses données.
Comme le montrent les tableaux en annexe, les deux participants ont obtenu des scores totaux, tant dans les phases d’apprentissage que dans le total final, supérieurs à 50%. Cela nous permet de dire, d’une part, que nous avons interrogé deux étudiants qui possèdent une connaissance moyenne, voire bonne, de leurs stratégies. D’autre part, que l’outil « Learning Strategy Knowledge Test » présente, sur la base de ce que nous avons trouvé jusqu’à présent, une bonne validité, si l’on en juge également par le fait qu’il n’y a pas de valeurs extrêmes ou fortement trompeuses.
3.4. Discussion sur l’outil de mesure
Le LSKT s’est avéré être un outil intéressant pour évaluer les connaissances théoriques sur les stratégies d’apprentissage. Respectant les intentions initiales des auteurs, il analyse efficacement les connaissances théoriques des apprenants en matière de stratégies d’apprentissage. La présence des moyennes de référence fournies par les experts constitue un paramètre clé pour évaluer l’efficacité des réponses des étudiant·e·s. En effet, comme nous l’avons constaté lors du test, cette comparaison fait en sorte que les stratégies identifiées deviennent mesurables et comparables d’un point de vue pédagogique et scientifique. Le degré de fidélité est jugé solide, notamment grâce à l’alpha de Cronbach décrit par Merki et al. (2013). En ce qui concerne les points critiques, si une réponse diffère légèrement du score promulgué par l’expert, le participant n’obtient aucun point, même si cela ne signifie pas nécessairement qu’elle a une mauvaise connaissance de ses stratégies d’apprentissage. Pour une évaluation complète des compétences d’autorégulation des élèves, il serait donc utile de combiner le LSKT avec des instruments qui mesurent également l’application pratique des stratégies, par exemple le SRLIS. Une autre limite est un déséquilibre potentiel entre les questions allouées aux trois phases mentionnées ci-dessus. En effet, il n’y a qu’un seul scénario dans la phase post-action. Il y en a 4 dans la phase d’action et 2 dans la phase de préaction. Il serait souhaitable de mieux diviser ces phases afin d’éviter les biais d’interprétation.
4. Comparaison entre les deux outils
En comparant le LSKT avec le SRLIS, nous pouvons affirmer que nous détectons une certaine complémentarité entre les deux outils. Alors que le SRLIS évalue l’application pratique des stratégies d’autorégulation, le LSKT évalue les connaissances théoriques. Toutefois, en les intégrant, éventuellement à l’application d’autres outils, le SRLIS et le LSKT permettent d’obtenir une vision axiomatiquement complète de l’apprentissage autorégulé. Si l’on compare les résultats des deux tests, le premier individu, dans le SRLIS, a démontré l’utilisation et la mobilisation de 11 des 15 stratégies proposées, tandis que dans le LSKT, il a obtenu un score de 61,54 % pour la connaissance de ses stratégies. En revanche, le second individu a déclaré, dans le SRLIS, mobiliser 13 des 15 stratégies proposées et a obtenu un score de 76,92 % dans la LSKT. A la lumière de ces résultats et de la manière dont les tests ont été conçus, nous pouvons affirmer que le premier individu utilise une variété de stratégies dans le processus d’apprentissage autorégulé, mais qu’il ne démontre pas toujours qu’il les connaît. De même, le second individu utilise encore plus de stratégies et démontre une connaissance de celles-ci à un degré assez élevé. Bien évidemment, ces résultats n’indiquent pas si un individu est un très bon ou un mauvais apprenant, mais il est intéressant de noter que l’utilisation de ces deux instruments permet de dresser un tableau détaillé de la manière dont l’individu·e s’autorégule dans les processus d’apprentissage.
5. Conclusion
À la lumière du fait que les deux outils sont complémentaires, nous sommes en mesure d’affirmer que l’évaluation des stratégies d’apprentissage, comme l’efficacité globale, sont assez bonnes, comme relevé à partir des données tirées des analyses, voir les résultats obtenus par nos participantes. Il est néanmoins nécessaire de préciser que certaines perfectionnements pourraient améliorer l’efficacité des instruments. Par exemple, pour le SRLIS, la nécessité d’interpréter subjectivement les réponses aux scénarios, pourrait introduire des biais (Bandura, 1986). En outre, les nouveaux aspects technologiques (ChatGPT et autre) ne sont pas pris en compte, ce qui pourrait être le cas dans un développement futur. De plus, sa durée limitée restreint l’identification complète des stratégies adoptées, surtout lorsque celles-ci varient selon les contextes. Dernièrement, certains scénarios peuvent ne pas convenir à tous les profils d’apprenant·e·s, et l’ambiguïté de certaines réponses complexifie leur analyse et leur catégorisation.
Pour ce qui concerne le LSKT, il reste un bon outil pour mesurer la connaissance théorique des stratégie. Malgré ça, il serait judicieux d’enrichir la diversité des situations, d’assurer une meilleure répartition entre les différentes phases d’apprentissage et surtout d’améliorer le système de calcul des scores finaux car le fait que si la réponse diffère d’un seul point du proposition des experts, le participant obtiendra 0 points et le score final sera baissé de manière importante.
Finalement, malgré ces limites, ces deux outils, prise ensemble, offrent une précieuse contribution à l’analyse des stratégies d’autorégulation. Ils permettent ainsi de mieux comprendre les forces et faiblesses des stratégies d’apprentissage des étudiant·e·s, tout en promouvant le développement des compétences métacognitives.
6. Bibliographie
- Artelt, C., Beinicke, A., Schlagmüller, M. et Schneider, W. (2009). Diagnose von Strategiewissen beim Textverstehen. Zeitschrift für Entwicklungspsychologie und Pädagogische Psychologie, 41(2), 96‑103.
- Bandura, A. (1986). Social foundations of thought and action. Englewood Cliffs, NJ, 1986(23‑28), 2.
- Effeney, G., Carroll, A. et Bahr, N. (2013). Self-Regulated Learning: Key strategies and their sources in a sample of adolescent males. Australian Journal of Educational & Developmental Psychology, 13.
- Merki, K. M., Ramseier, E. et Karlen, Y. (2013). Reliability and validity analyses of a newly developed test to assess learning strategy knowledge. Journal of Cognitive Education & Psychology, 12(3).
- Paris, S. G. et Winograd, P. (2003). The Role of Self-Regulated Learning in Contextual Teaching: Principals and Practices for Teacher Preparation.
- Pintrich, P. R. et De Groot, E. V. (1990). Motivational and self-regulated learning components of classroom academic performance. Journal of educational psychology, 82(1), 33.
- Schlagmüller, M. et Schneider, W. (2007). Würzburger Lesestrategie-Wissenstest für die Klassen 7–12. Ein Verfahren zur Erfassung metakognitiver Kompetenzen bei der Verarbeitung von Texten. Göttingen: Hogrefe.
- Schunk, D. H. et Zimmerman, B. J. (1998). Self-regulated learning: From teaching to self-reflective practice. Guilford Press.
- Vandevelde, S., Van Keer, H. et De Wever, B. (2011). Exploring the impact of student tutoring on at-risk fifth and sixth graders’ self-regulated learning. Learning and Individual Differences, 21(4), 419‑425.
- Wirth, J. et Leutner, D. (2008). Self-regulated learning as a competence: Implications of theoretical models for assessment methods. Zeitschrift für Psychologie/Journal of Psychology, 216(2), 102‑110.
- Zimmerman, B. J. (2008). Investigating self-regulation and motivation: Historical background, methodological developments, and prospects. American educational research journal, 45(1), 166‑183.
- Zimmerman, B. J. et Kitsantas, A. (2005). The Hidden dimension of personal competence: Self-Regulated Learning and Practice.
- Zimmerman, B. J. et Martinez-Pons, M. (1988). Construct validation of a strategy model of student self-regulated learning. Journal of educational psychology, 80(3), 284.
- Zimmerman, B. J. et Martinez-Pons, M. (1990). Student differences in self-regulated learning: Relating grade, sex, and giftedness to self-efficacy and strategy use. Journal of educational Psychology, 82(1), 51.
- Zimmerman, B. J. et Pons, Martinez-Pons. M. (1986). Development of a structured interview for assessing student use of self-regulated learning strategies. American educational research journal, 23(4), 614‑628.