Auteure : Elisa Sauthier
1. Introduction
Depuis les années 1980, les concepts liés à l’apprentissage autorégulé ont suscité un intérêt croissant dans le champ des sciences de l’éducation, s’imposant comme des éléments clés pour comprendre et optimiser les processus d’apprentissage. Afin de mieux en saisir la portée, il est essentiel de définir ce que recouvrent les stratégies d’apprentissage autorégulées. Zimmermann et Pons (1986) les décrivent comme des « actions directed at acquiring information or skill that involve agency, purpose (goals), and instrumentality self-perceptions by a learner » (p. 615).
Dans ce cadre, la métacognition joue un rôle fondamental, en permettant aux apprenant·e·s de réfléchir à leurs propres processus cognitifs, ce qui peut les aider à améliorer leurs apprentissages. Schraw et ses collègues (2000) définissent la métacognition comme le « thinking about thinking » ou encore comme l’utilisation d’« higher-level knowledge and strategies to regulate lower-level performance » (p. 223).
Cependant, l’essor de ces concepts au sein de disciplines variées a parfois engendré des ambiguïtés terminologiques. En effet des termes identiques ont pu être utilisés pour désigner des notions différentes, tandis que des concepts similaires ont parfois été décrit par des vocabulaires variés.
Dans cette perspective, il apparaît pertinent d’examiner et de comparer deux outils d’évaluation des stratégies d’apprentissage autorégulées. Cette analyse vise à mettre en lumière leurs atouts et leurs limites respectives, afin de contribuer à une meilleure compréhension des défis complexes associés à l’apprentissage autorégulé.
2. SRLIS
2.1. Description de l’outil
Le « Self-Regulated Learning Interview Schedule » (SRLIS) est un entretien structuré relativement bref, conçu par Zimmerman et Pons (1986), qui sert d’outil de mesure en sciences de l’éducation. Son objectif principal est d’évaluer les pratiques d’apprentissage autorégulé des apprenant·e·s, tant en classe qu’en dehors de celle-ci. Cet instrument permet de classer les stratégies d’apprentissage en 14 catégories de comportement, à savoir :
Exemples des items (cliquer pour ouvrir)
- Auto-évaluation,
- Organisation et transformation,
- Fixation d’objectifs et planification,
- Recherche d’informations,
- Tenue de registres et suivi,
- Structuration de l’environnement,
- Conséquences personnelles,
- Répétition et mémorisation,
- Recherche d’aide sociale auprès des pairs,
- Recherche d’aide sociale auprès des enseignant·e·s
- Recherche d’aide sociale auprès des adultes
- Examens des dossiers en relisant les tests
- Examens des dossiers en relisant les notes
- Examens des dossiers en relisant les manuels
- Autres
Pour procéder à cette classification, six scénarios sont présentés aux apprenant·e·s, qui répondent librement en décrivant leurs méthodes d’apprentissage. Cette approche permet d’éviter toute influence des expert·e·s, en garantissant que les réponses ne soient pas orientées vers des stratégies spécifiques, ce qui pourrait fausser les résultats.
A travers leur recherche, Zimmermann et Pons ont démontré une corrélation significative entre la filière fréquentée par les étudiant·e·s et le nombre de stratégies d’apprentissage mentionnées par ces derniers et dernier·ère·s.
2.2. Description de l’échantillon
L’échantillon présenté dans cette étude se compose de deux jeunes femmes, âgées respectivement de 23 et 24 ans, toutes deux étudiantes à la Faculté des lettres et des sciences humaines de l’Université de Fribourg. Elles suivent un master en études de langue et littérature française, avec pour branches mineures l’histoire et le théâtre. N’ayant pas de connaissances préalables dans le domaine des sciences de l’éducation, elles abordent les questions de manière neutre, sans biais particulier. Aucune des deux étudiantes ne rencontre de difficultés significatives dans ses études ou ses apprentissages.
2.3. Description de la méthodologie
D’un point de vue méthodologique, un entretien a été mené successivement avec chacune des participantes, à quelques jours d’intervalle. Etant donné qu’elles se connaissent, il leur a été demandé de ne pas discuter de leurs entretiens respectifs, afin d’éviter toute influence mutuelle sur leurs réponses. Les entretiens ont été enregistrés, après avoir préalablement obtenu le consentement éclairé des deux participantes.
Dans un premier temps, elles ont été informées des modalités de l’entretien, ainsi que des consignes nécessaires à son bon déroulement. Ensuite, chaque entretien a duré une dizaine de minutes, au cours desquelles chacune des participantes a eu l’occasion de répondre à l’ensemble des scénarios, sans rencontrer de difficultés particulières.
2.4. Présentation des résultats
Les résultats ont permis de mettre en évidence les stratégies adoptées par les répondantes, qui, bien que globalement similaires dans leur approche, présentent néanmoins certaines variations dans leur mise en œuvre.
Le premier entretien a révélé l’utilisation d’une dizaine de stratégies, parmi lesquelles l’auto-évaluation, qui se traduit chez la participante par une relecture régulière de ses notes de cours, suivie d’une mise au propre, dans le but de garantir leur qualité.
L’organisation et la transformation sont également apparues comme des stratégies clés dans ses réponses, illustrées par exemple par la sélection d’informations pertinentes durant le cours, ce qui témoigne d’une réorganisation du matériel pédagogique. Lors de l’évocation du scénario numéro deux, la participante a expliqué qu’elle identifiait plusieurs grands axes thématiques autour desquels elle structurait sa rédaction, démontrant ainsi une organisation de la matière.
En ce qui concerne la fixation d’objectifs et la planification, elle organise son apprentissage en fonction des dates d’examens, ce qui témoigne d’une gestion de son emploi du temps. Par ailleurs, pour optimiser son travail en dehors des heures de cours, elle prévoit des créneaux spécifiques à chaque matière.
En termes de recherche d’informations, elle explique qu’elle utilise Internet et écoute des podcasts, afin de compléter ses connaissances en lien avec le cours. En cas d’incompréhension sur certains aspects de la matière, elle n’hésite pas à solliciter de l’aide auprès de son entourage, illustrant ainsi un recours à l’aide sociale.
La participante précise également qu’elle prend des notes à la main, ce qui témoigne d’une tenue de registre et de suivi, en consignant avec soin les événements et résultats de ses apprentissages.
De plus, elle mentionne qu’elle s’accorde des récompenses après avoir réussi un apprentissage, comme une pause après avoir étudié une matière qu’elle apprécie moins, ce qui illustre l’utilisation de stratégies basées sur des conséquences personnelles.
Pour mémoriser et répéter sa matière, elle recourt à une stratégie consistant à réciter son cours à voix haute, comme si elle le dispensait elle-même.
Enfin, elle évoque à plusieurs reprises une approche reposant sur l’examen de ses dossiers, en relisant ses notes de cours et de lecture, afin de se préparer aux cours suivants et aux examens.
La seconde répondante mentionne également l’utilisation d’une dizaine de stratégies.
La première, semblable à celle de la répondante précédente, consiste à auto-évaluer son apprentissage, notamment par la relecture de ses notes de cours, afin d’identifier d’éventuelles lacunes dans la matière à apprendre.
Elle souligne également l’importance de stratégies d’organisation et de transformation de son matériel pédagogique. Elle utilise des surligneurs pour faire ressortir les informations clés de ses cours et consigne les points essentiels de ses notes et lectures, afin d’avoir les éléments les plus importants à portée de main.
La participante précise qu’elle planifie son apprentissage en fonction des échéances de ses rédactions ou devoirs, adoptant une méthode qui consiste à rédiger une page par jour jusqu’à la date limite de remise du travail.
En matière de recherche d’information, elle utilise à la fois des sources non sociales telles que Wikipédia et YouTube, mais sollicite également l’aide de ses pairs pour compléter ses prises de notes.
A l’instar de la répondante précédente, elle veille à un suivi rigoureux, prenant des notes attentives, ce qui lui permet d’enregistrer les événements et résultats clés pour son apprentissage.
Elle évoque également une méthode qui n’a pas été abordée précédemment : la structuration de son environnement. Afin de mieux se concentrer, l’apprenante choisit de travailler à la bibliothèque, accompagnée d’ami·e·s, ou dans une pièce de son appartement qu’elle n’associe pas à la détente. De plus, elle écoute de la musique ou du bruit blanc pour favoriser sa concentration.
Elle indique qu’elle se fixe des activités agréables en fin de journée, créant ainsi un objectif motivant pour étudier, ce qui illustre une stratégie fondée sur les conséquences personnelles. Il est intéressant de noter que les deux participantes évoquent explicitement l’utilisation d’une « carotte » pour atteindre leurs objectifs.
Elle fait également référence à la répétition et la mémorisation, en précisant qu’elle relit régulièrement ses notes de cours afin de rester à jour dans ses apprentissages.
Enfin, elle utilise ses notes pour s’assurer de sa compréhension des cours, ce qui témoigne de l’utilisation d’une stratégie d’examen des dossiers.
Stratégies utilisées | Occurrences dans les réponses | |
1 | Auto-évaluation | II |
2 | Organisation et transformation | IIII |
3 | Fixation d’objectifs et planification | IIII |
4 | Recherche d’informations | III |
5 | Tenue de registres et suivi | IIIII |
6 | Structuration de l’environnement | II |
7 | Conséquences personnelles | II |
8 | Répétition et mémorisation | I |
9 | Recherche d’aide sociale auprès des pairs | II |
10 | Recherche d’aide sociale auprès des enseignant·e·s | I |
11 | Recherche d’aide sociale auprès des adultes | – |
12 | Examens des dossiers en relisant les tests | – |
13 | Examens des dossiers en relisant les notes | III |
14 | Examens des dossiers en relisant les manuels | – |
15 | Autres | – |
Tableau 1. Occurrences des stratégies mentionnées par les participantes lors des entretiens
Ce tableau met en évidence la fréquence d’utilisation des différentes stratégies d’apprentissage mentionnées par les participantes. Il offre une vue d’ensemble suggérant que certaines stratégies, telles que l’organisation et la transformation, la fixation d’objectifs et la planification, ainsi que la tenue de registres et le suivi, sont fréquemment évoquées. En revanche, certaines stratégies ne sont pas du tout mentionnées, comme que la recherche d’aide sociale auprès des adultes, ainsi que l’examen des dossiers en relisant les tests et les manuels. Cette absence pourrait s’expliquer par le niveau universitaire des participantes, où l’aide parentale est généralement moins sollicitée et où certaines pratiques sont remplacées par des méthodes plus adaptées à au contexte académique.
2.5. Discussion sur l’outil de mesure
Ce test offre un aperçu métacognitif des processus en jeu chez les apprenant·e·s en situation d’apprentissage. Il permet ainsi de cibler les points forts et les points faibles de chaque individu, dans le but d’améliorer, si nécessaire, leurs performances, ce qui constitue un atout majeur de l’outil.
Cependant, un des points faibles de cette méthode réside dans la possibilité que les répondant·e·s omettent certaines des stratégies qu’ils·elles utilisent en situation d’apprentissage au moment de l’entretien. En effet, une interview d’une dizaine de minutes, où les participant·e·s répondent spontanément, ne permet pas de rendre compte de manière exhaustive des processus qu’ils·elles déploient dans leurs apprentissages. De plus, les stratégies peuvent varier considérablement en fonction des situations, ce qui les rend non seulement dynamiques, mais aussi contextuelles et non figées dans le temps ou l’espace.
Un autre inconvénient relatif à cet outil réside dans le fait que tous les scénarios ne sont pas applicables à chaque apprenant·e. Par exemple, tou·te·s n’ont pas de devoirs universitaires ou de rédactions à rédiger dans le cadre de leurs études. Cela risque de les amener à inventer des réponses en imaginant des situations qu’ils·elles ne rencontrent pas réellement, ce qui pourrait les conduire à mentionner des stratégies qui ne sont pas véritablement utilisées dans leur pratique quotidienne.
Enfin, certaines réponses peuvent être difficiles à analyser car elles peuvent relever de plusieurs catégories de stratégies. Cette ambiguïté peut fausser les résultats si l’expert·e ne classe pas correctement les réponses dans la catégorie appropriée.
3. Learning Strategy Knowledge Test
3.1. Description de l’outil
Le Learning Strategy Knowledge Test (LSKT),élaboré sur la base des théories de l’apprentissage autorégulé et des expériences d’enseignant·e·s, a pour objectif d’évaluer la connaissance théorique des stratégies d’apprentissage chez les étudiant·e·s dans le cadre de tâches complexes (Maag Merki, Ramseier et Karlen, 2013). Cet outil pallie une lacune relevée dans les recherches antérieures, souvent limitées à des tâches simples ou spécifiques à un domaine, à l’instar du test de lecture de Schlagmüller et Schneider (2007).
Le LSKT s’articule autour de sept situations problématiques, reflétant des défis auxquels les apprenant·e·s peuvent être confronté·e·s lors de la réalisation de tâches complexes. Ces scénarios se répartissent en trois grandes phases du processus d’apprentissage :
- La préaction (scénarios 1 et 2),
- L’action (scénarios 3 à 6),
- La postaction (scénario 7).
Chaque situation met en lumière une étape clé de ce processus :
Scénarios (cliquer pour ouvrir)
- Scénario 1 : recherche d’un sujet,
- Scénario 2 : acquisition d’une vue d’ensemble de la thématique,
- Scénario 3 : familiarisation avec le sujet,
- Scénario 4 : établissement d’un contact avec l’enseignant·e,
- Scénario 5 : résolution de difficultés,
- Scénario 6 : finalisation de la tâche,
- Scénario 7 : réflexion sur les enseignements tirés en vue d’une tâche future similaire.
Le tableau ci-dessous, extrait directement de l’étude de Maag Merki, Ramseier et Karlen (2013, p. 397), propose une synthèse claire de ces éléments.

Les répondant·e·s sont ensuite invité·e·s à évaluer la pertinence de chaque affirmation en lui attribuant une note selon l’échelle suivante :
- 1 ou 2 : faible utilité selon l’apprenant·e
- 3 ou 4 : utilité moyenne selon l’apprenant·e
- 5 ou 6 : haute utilité selon l’apprenant·e
Pour analyser les résultats et évaluer la connaissance des stratégies d’apprentissage, leurs réponses sont comparées à celles d’un panel d’expert·e·s ayant préalablement classé les propositions selon les mêmes trois catégories.
3.2 Description de la méthodologie
Le questionnaire, initialement rédigé en anglais, a été utilisé dans sa version française, après avoir été ajusté sur le plan formel. Il a ensuite été transmis par e-mail aux participantes. Les informations relatives à l’échantillon, telles que l’âge, le genre, la faculté et le niveau d’étude des répondantes, ayant déjà été collectées lors de l’entretien lié au SRLIS, n’ont pas été redemandées.
Le questionnaire comportait également une estimation du temps nécessaire pour y répondre, indiquée entre 10 et 15 minutes, ainsi qu’une présentation des considérations éthiques et des droits des participant·e·s. Pour garantir le bon déroulement du test, des instructions claires figuraient en introduction. De plus, les participantes étaient invitées à contacter la personne responsable de l’administration du test en cas de besoin.
3.3 Présentation des résultats
L’analyse des résultats révèle que les deux participantes disposent d’une bonne connaissance des stratégies d’apprentissage. La première participante a obtenu un score total de 38 points, correspondant à un taux de 73% de connaissance, tandis que la seconde a obtenu 39 points, soit 75%.
Ces scores ont été déterminés en comparant les réponses des participantes à celles fournies par les expert·e·s. Une réponse concordant avec celle d’un·e expert·e rapportait un point, tandis qu’une réponse divergente n’en rapportait aucun. Le score final, calculé sur un total de 52 points, a ensuite été converti en pourcentage afin d’obtenir les taux de connaissance indiqué ci-dessus.
Un exemple d’analyse est présenté ci-dessous, illustrant les réponses de la participante deux au scénario six :
Ex 6 | ||
Item | Utilité | Points |
a | 5 | 1 |
b | 3 | 1 |
c | 6 | 1 |
d | 3 | 1 |
e | 3 | 1 |
f | 5 | 1 |
g | 1 | 1 |
h | 6 | 1 |
TOTAL POINTS | 8 |
Ce tableau révèle que la participante a obtenu le score maximal, avec des réponses parfaitement concordantes avec celles des expert·e·s.
Les résultats peuvent également être analysés selon les trois phases de l’apprentissage : préaction, action et postaction.
Dans la phase de préaction, la répondante 1 a obtenu 11 points, soit 85% de connaissances, tandis que la répondante 2 a obtenu 9 points, soit 69%.
Préaction (scénarios 1-2) | ||
Répondante 1 | Répondante 2 | |
TOTAL POINTS | 11 | 9 |
% de connaissances = | 85% | 69% |
Dans la phase d’action, la répondante 1 a obtenu un score de 22 points, soit 69%, tandis que la répondante 2 a obtenu 24 points, soit 75%.
Action (scénarios 3-6) | ||
Répondante 1 | Répondante 2 | |
TOTAL POINTS | 22 | 24 |
% de connaissances = | 69% | 75% |
Finalement, dans la phase de postaction, la répondante 2 a obtenu un score légèrement plus élevé, avec 6 points et 86%, contre 5 points et 71% pour la répondante 1.
Postaction (scénario 7) | ||
Répondante 1 | Répondante 2 | |
TOTAL POINTS | 5 | 6 |
% de connaissances = | 71% | 86% |
Ainsi, la répondante 1 obtient un score plus élevé dans la phase de préaction, tandis que la répondante 2 obtient de meilleurs résultats dans les phases d’action et de postaction.
3.4 Discussion sur l’outil de mesure
A l’instar de l’outil précédent, le LSKT présente à la fois des atouts et des limites. Parmi ses faiblesses, nous pouvons souligner une problématique similaire : les participant·e·s, confronté·e·s à des scénarios et des choix de réponses prédéfinis, pourraient être influencé·e·s par le cadre affirmatif des propositions. Cela ne garantit cependant pas qu’ils·elles mobiliseraient spontanément ces stratégies dans en situation réelle. En outre, tou·te·s les participant·e·s ne s’identifient pas nécessairement aux situations décrites, ce qui peut engendrer des biais dans les réponses. Une diversification des scénarios serait donc souhaitable, afin de mieux refléter la variété des contextes auxquels les étudiant·e·s font face dans différentes disciplines.
En termes de fidélité, le LSKT offre une cohérence générale satisfaisante, attestée par un alpha de Cronbach solide, rapporté par Maag Merki et ses collègues (2013). Cependant, notre étude a révélé des divergences dans les réponses des participant·e·s à des items similaires. Ces variations pourraient être attribuées à des facteurs extrinsèques, tels que la motivation ou le niveau d’engagement, plutôt qu’à une réelle différence dans la maîtrise des stratégies d’apprentissage. Une étude complémentaire, menée sur un échantillon plus large et intégrant des questions sur la motivation et la réussite académique, pourrait fournir des résultats plus précis et nuancés.
Parmi les points forts de ce test, nous pouvons souligner sa capacité à distinguer clairement les différentes phases du processus d’apprentissage. Cette structure permet aux répondant·e·s d’identifier spécifiquement les étapes qui leur posent le plus de difficultés, facilitant ainsi une orientation ciblée des efforts d’amélioration. A l’inverse, elle valorise les phases bien maîtrisées.
Cependant, l’outil souffre d’un déséquilibre dans la répartition des questions entre les phases : deux pour la préaction, quatre pour l’action, et une seule pour la postaction. Ce déséquilibre peut entraîner un biais dans l’évaluation globale. Par exemple, une erreur dans la phase de postaction peut avoir un impact disproportionné sur la note finale de cette phase, sans possibilité de compensation.
4. Comparaison entre les outils
Les deux outils examinés dans cette étude, le SRLIS et le LSKT, présentent chacun des forces et des limites, comme l’ont démontré les analyses précédentes.
Le SRLIS se distingue par sa capacité à explorer de manière approfondie comment les étudiant·e·s régulent activement leur apprentissage dans des contextes réels, en tenant compte à la fois de leurs comportements et de leurs réflexions en temps réel. En revanche, le LSKT s’avère plus adapté pour mesurer laconnaissance théoriquedes stratégies d’apprentissage sur un échantillon plus large, offrant ainsi une bonne perspective quantitative sur les connaissances des étudiant·e·s en matière de stratégies d’apprentissage.
Le Self-Regulated Learning Interview Schedule, qui peut être privilégié dans des études exploratoires, permet de recueillir des données riches et très détaillées sur le profil d’autorégulation des apprenant·e·s. Il se révèle particulièrement utile pour analyser les stratégies spécifiques d’autorégulation mobilisées face à des tâches complexes. Toutefois, sa mise en œuvre est plus exigeante : elle requiert la réalisation d’entretiens individuels et une analyse qualitative approfondie, ce qui en fait un outil chronophage et exigeant sur le plan méthodologique.
5. Conclusion
En conclusion, le Learning Strategy Knowledge Test (LSKT) et le Self-Regulated Learning Interview Schedule (SRLIS) se révèlent être des outils complémentaires pour explorer l’autorégulation et la connaissance des stratégies d’apprentissage des apprenant·e·s. Les résultats de notre étude ont démontré que ces outils s’avèrent relativement efficaces pour évaluer les stratégies d’apprentissage, comme en témoignent les bonnes performances des participantes. Cependant, comme nous l’avons souligné, certains ajustements pourraient renforcer leur efficacité et leur pertinence.
Pour le LSKT, il serait bénéfique de diversifier les situations proposées, d’équilibrer davantage les phases d’apprentissage, et d’intégrer des facteurs de motivation pour obtenir des résultats plus précis et représentatifs.
Concernant le SRLIS, la brièveté des entretiens limite la possibilité de cerner l’ensemble des stratégies utilisées, d’autant plus que celles-ci varient selon les contextes. Par ailleurs, l’inadéquation de certains scénarios pour certains profils et l’ambiguïté de certaines réponses, qui compliquent leur classification, constituent des limites notables.
Malgré ces faiblesses, ces deux outils apportent une contribution significative aux sciences de l’éducation, en éclairant les forces et les faiblesses des stratégies d’apprentissage des étudiant·e·s. Ils fournissent ainsi des bases solides pour orienter les pratiques pédagogiques et favoriser le développement des compétences métacognitives chez les apprenant·e·s.
6. Bibliographie
- Merki, K. M., Ramseier, E., et Karlen, Y. (2013). Reliability and validity analyses of a newly developed test to assess learning strategy knowledge. Journal of Cognitive Education & Psychology, 12(3), 391-408.
- Schlagmüller, M., et Schneider, W. (2007). Würzburger Lesestrategie-Wissenstest für die Klassen. Ein Verfahren zur Erfassung metakognitiver Kompetenzen bei der Verarbeitung von Texten (p. 7-12).Hogrefe.
- Schraw, G., Wise, S. L., et Roos, L. L. (2000). Metacognition and computer-based testing. Dans G. Schraw, et J.C. Impara, (dir.), Issues in the measurement of metacognition (p. 223-260). Buros Institute of Mental Measurements. https://digitalcommons.unl.edu/burosmetacognition/6/
- Zimmerman, B. J., et Pons, M. M. (1986). Development of a structured interview for assessing student use of self-regulated learning strategies. American Educational Research Journal, 23(4), 614-628. https://doi.org/10.2307/1163093
- Zimmerman, B. J., et Martinez-Pons, M. (1988). Construct Validation of a Strategy Model of Student Self-Regulated Learning. Journal of Educational Psychology, 80(3), 284-290. https://doi.org/10.1037/0022-0663.80.3.284
- Zimmerman, B. J., et Martinez-Pons, M. (1990). Student differences in self-regulated learning: Relating grade, sex, and giftedness to self-efficacy and strategy use. Journal of Educational Psychology, 82(1), 51-59. https://doi.org/10.1037/0022-0663.82.1.51