Auteur : Béatrice Roth
Introduction
Ce travail vise à l’expérimentation de deux outils testant la métacognition et l’autorégulation d’un échantillon de deux personnes en cours d’études dans le secteur tertiaire. Nous débuterons par le Self-Regulated Learning Interview Schedule (SRLIS) puis nous poursuivrons avec le Metacognitive Awarness Inventory (MAI). Une description de ces deux outils, de l’échantillon, de la méthodologie ainsi qu’une présentation des résultats, un retour réflexif et une comparaison des outils se trouveront dans les parties suivantes.
Avant cela, il est pertinent de nous arrêter sur quelques éléments théoriques. L’autorégulation fait référence à la manière dont les individus gèrent et mettent en œuvre, leurs comportements, motivation, affects et cognition afin d’atteindre leurs buts (Schunk et Greene, 2018). Elle fait donc partie intégrante des processus d’apprentissage. Cette dimension sera testée par le SRLIS.
La métacognition, quant à elle, « renvoie au fait que les personnes sont capables d’améliorer leur apprentissage et leurs résultats scolaires grâce à l’utilisation de stratégies permettant de planifier, gérer et contrôler leurs apprentissages » (Barbier et Colognesi, 2023, p. 200-201). Il s’agit d’une réflexion critique de l’apprenant·e sur sa manière d’agir l’ayant conduit à un certain résultat (Barbier et Colognesi, 2023). Cette dimension sera testée grâce au MAI, un questionnaire d’une cinquantaine d’items.
Le Self-Regulated Learning Interview Schedule (SRLIS)
Description de l’outil :
Le SRLIS a été développé par Barry J. Zimmerman et Manuel Martinez Pons lors d’une recherche dans un lycée de banlieue à New-York. Il s’illustre comme un « entretien structuré permettant d’évaluer l’utilisation par les étudiants de stratégies d’apprentissage autorégulé » (Zimmerman et Pons, 1986, p. 614). Ce dernier se compose de six scénarios avec une question pour chacun. Les stratégies d’apprentissage sont ensuite repérées et classées dans diverses catégories de comportements autorégulés déjà établies. Ces dernières sont au nombre de 11 : auto-évaluation, organisation et transformation, fixation d’objectifs et planification, recherche d’informations, tenue de registres et suivi, structuration de l’environnement, conséquences personnelles, répétition et mémorisation, recherche d’aide sociale, examen des dossiers et pour finir, une catégorie autre. Pour chaque catégorie repérée, il est demandé à l’apprenant·e de définir, sur une échelle de 1 à 4 (1 étant rarement et 4 la plupart du temps), la fréquence d’utilisation des stratégies (Zimmerman et Martinez-Pons, 1988).
Description de l’échantillon :
Il s’agit d’un échantillon de convenance basé sur un critère obligatoire qui est le suivi d’un cursus en secteur tertiaire.
La première personne est une femme que nous nommerons Coralie. Elle a 26 ans et est en troisième année de Bachelor à la HEP.
La seconde personne est un homme que nous nommerons Morgan. Il a 32 ans et est en deuxième année de Bachelor en soins infirmiers à la HES-SO.
Description de la méthodologie :
Les deux entretiens sont de types directifs et se sont déroulés en présentiel. Ils ont été enregistrés par mon téléphone personnel.
L’entretien de Coralie s’est déroulé à mon domicile. Elle disposait d’une feuille où étaient imprimés les six scénarios. Je lui lisais les questions et les reformulais ensuite à l’aide d’exemples. Cet entretien a duré environs 25 minutes.
L’entretien de Morgan s’est déroulé en présentiel dans une salle informatique de la HES-SO où nous étions seuls. Morgan disposait également de la feuille avec les six scénarios que je lui ai aussi lus et reformulés. L’entretien a duré environs 23 minutes.
Les deux entretiens ont été retranscrits et se trouvent en annexe. Les différentes stratégies de chaque participant ont ensuite été repérées puis répertoriées dans les différentes catégories proposées.
Présentation des résultats :
Entretien de Coralie :
Cet entretien fait référence à l’annexe 1 en fin de document. Un tableau rapportant la fréquence des stratégies s’y trouvent également.
Durant ses cours, Coralie prend fréquemment (3/4) des notes. Il s’agit de la seule stratégie mentionnée dans la catégorie tenue de registres et suivi.
Au niveau des devoirs, il s’agit principalement de lectures à effectuer. Une méthode utilisée la plupart du temps est le surlignage de certains éléments et des annotations sur le côté que nous classerons dans la catégorie organisation et transformation. L’apprenante mentionne également dans cette catégorie la réalisation d’un brouillon lorsqu’elle doit rédiger un texte. Elle évalue cette stratégie à 3 sur 4 en termes de fréquence.
En cas d’incompréhension ou de manque d’informations sur un thème, l’apprenante sollicite fréquemment (3/4) l’aide de ses camarades ou effectue ses propres recherches sur internet. Il s’agit des deux seules stratégies mentionnées dans les catégories recherche d’informations et recherche d’aide sociale.
Coralie structure également son environnement car elle serait vite tentée par des distractions. Une première stratégie mise en place fréquemment est celle de ne pas travailler à son domicile mais plutôt dans les locaux de la HEP. La présence de ses camarades peut renforcer cette stratégie.
Pour la préparation des examens, les catégories de stratégies mentionnées sont l’examen des dossiers ainsi que la répétition et mémorisation. La principale stratégie utilisée par l’apprenante est la relecture de ses notes. Si l’examen contient des exercices à réaliser, elle va s’entrainer à les refaire. Ces deux stratégies obtiennent un score de 4/4 sur l’échelle de fréquence. Pour l’aider à mémoriser, Coralie va également se parler à haute-voix du sujet qu’elle révise (3/4).
Avec les éléments mentionnés ci-dessus, nous pouvons constater que les stratégies de Coralie se trouvent principalement dans les catégories organisation et transformation, structuration de l’environnement, recherche d’information et d’aide sociale et examen des dossiers. L’autoévaluation, la fixation d’objectifs et planification ainsi que les conséquences personnelles ne sont pas mentionnées et donc ne font peut-être pas partie de ses habitudes d’apprentissage (ou très peu).
Entretien de Morgan :
Cet entretien fait référence à l’annexe 2 en fin de document. Un tableau rapportant la fréquence des stratégies s’y trouvent également.
En termes de tenue de registres et suivi, Morgan complète la plupart du temps les PowerPoint des cours avec des annotations. Il réalise également fréquemment des mindmaps lorsque les thèmes sont assez denses ainsi que des résumés ou fiches explicatives avant ses examens.
Afin de compléter ses cours, Morgan effectue ses propres recherches. Cette stratégie est également utilisée lorsque survient une ou plusieurs incompréhensions sur un sujet. Il estime à 4 la fréquence de cette stratégie que nous classerons dans recherche d’information.
L’apprenant va également utiliser des stratégies de structuration de l’environnement. Il travaille la plupart du temps chez lui car il n’associe pas ce lieu à des risques de distractions. En revanche, il éloigne fréquemment son téléphone. Pour se maintenir dans la tâche, Morgan a revisité la méthode Pomodoro. Il effectue des temps de travail avec des pauses entre chaque temps. Il profite de ces pauses pour faire une activité comme du sport, une activité créative, la préparation du repas, etc. Cette stratégie obtient un score de 3 sur l’échelle de fréquence.
En ce qui concerne la préparation aux examens, Morgan mentionne des stratégies de planification comme faire fréquemment un suivi de ses cours en fonction de la courbe de l’oubli. Il planifie également la plupart du temps la semaine de révision avant ses examens pour effectuer des stratégies d’examen des dossiers comme revoir tous ses cours (4/4) et réaliser des résumés et fiches explicatives (3/4). Il opte également pour une technique de répétition et mémorisation sous forme d’auto-explication à haute-voix des thèmes principaux et des notions importantes qu’il estime à 3 sur 4 en termes de fréquence.
Avec les éléments mentionnés ci-dessus, nous pouvons constater que les stratégies de Morgan se trouvent principalement dans les catégories de fixation d’objectifs et planification, de tenue de registres et suivi et de structuration de l’environnement. L’autoévaluation, les conséquences personnelles et la recherche d’aide social ne sont pas des catégories mentionnées et donc ne font peut-être pas partie de ses habitudes d’apprentissage (ou très peu).
Discussion sur l’outil de mesure :
Nous pouvons dire que le SRLIS est un outil intéressant afin que le ou la répondant·e réfléchisse sur ses processus d’autorégulation. Il permet une énumération des stratégies d’apprentissage utilisées ce qui fournit au chercheur ou à la chercheuse des données généralement riches. Cependant, selon mon observation, j’émets une réserve sur son utilisation en contexte tertiaire. En effet, ces milieux proposent des cours très denses ce qui réduit, selon moi, le nombre de stratégies d’apprentissage contrairement à l’école obligatoire ou secondaire II. De plus, il faudrait que les questions soient un peu plus nuancées car les stratégies utilisées vont dépendre du type de cours, du support utilisé par l’enseignant·e, de l’examen, etc. Il faudrait également non pas parler de devoirs ou de tests mais plutôt de suivis des cours ou de mise-à-jour et se concentrer uniquement sur la notion d’examen. La validité de contenu du test devrait donc peut-être être revue selon l’échantillon auquel il est destiné.
Notons également qu’en termes de fidélité, il faudrait que deux personnes répertorient les stratégies dans les catégories afin de permettre un accord inter-juge (Zimmerman et Pons, 1986). Il serait également intéressant de procéder à un test-retest afin que les réponses de l’apprenant·e ne dépendent pas du moment et de la situation dans laquelle il·elle passe le test (Zimmerman & Martinez-Pons, 1990). Il faut garder à l’esprit que les réponses de ce·cette dernier·e peuvent ne pas refléter la réalité.
Afin d’aller plus loin dans le processus, il serait intéressant de questionner l’apprenant·e sur l’efficacité des stratégies qu’il·elle a mentionnées pour avoir des données plus complètes. Nous pourrions également relever, en plus de la fréquence, le nombre de stratégies identifiées dans chaque catégorie.
Le Metacognitive Awarness Inventory (MAI)
Description de l’outil :
Le Metacognitive Awarness Inventory est un instrument d’autoévaluation de 52 items destiné aux adolescents et aux adultes (Schraw et Dennison, 1994). C’est un questionnaire ayant pour but de définir « la perception qu’ont les individus de leurs propres compétences métacognitives » (Gutierrez de Blume et al., 2024, p. 794). Cet instrument d’autoévaluation regroupe donc 52 affirmations établies selon deux axes : la connaissance de la cognition et la régulation de la cognition. La connaissance de la cognition désigne les informations que les apprenant·e·s ont sur leurs processus cognitifs ainsi que sur la manière dont ils·elles traitent les informations (Muis et al., 2007). Cela comprend les connaissances déclaratives qui font référence à la conscience que l’apprenant·e possède sur ses compétences et ses forces et faiblesses, les connaissances procédurales qui désignent plutôt les connaissances sur les stratégies et processus d’apprentissage, et pour finir, les connaissances conditionnelles qui représentent les connaissances sur l’efficacité des stratégies dans certaines situations (Sungur et Senler, 2009). La régulation de la cognition est, quant à elle, un ensemble de processus qui visent à faciliter le contrôle de l’apprentissage (Schraw et Dennison, 1994). Elle comprend la planification, les stratégies de management de l’information, le monitorage, les stratégies de debugging et l’évaluation (Gutierrez de Blume et al., 2024). La planification désigne les objectifs fixés, le choix des stratégies, l’utilisation des connaissances antérieures et la planification du temps. Les stratégies de management de l’information font référence aux compétences et stratégies utilisées pour traiter l’information. Le monitorage (ou contrôle) est l’évaluation de la compréhension, des performances et des stratégies. Les stratégies de debugging désignent les stratégies mobilisées afin de résoudre des problèmes de compréhension ou des performances insatisfaisantes. Pour terminer, l’évaluation concerne l’évaluation des stratégies et des performances (Sungur et Senler, 2009).
Il est demandé au répondant ou à la répondante d’indiquer, avec un pourcentage de 0 à 100, le degré selon lequel il·elle se retrouve dans les affirmations (0 étant pas du tout moi et 100 tout à fait moi) (Schraw et Dennison, 1994).
Description de la méthodologie :
Les questionnaires ont été envoyés par e-mail aux deux étudiants. Ils ont pu y répondre chacun de leur côté et me les renvoyer par e-mail une fois remplis. Lors de la réception des documents, il fallait établir une moyenne des pourcentages dans chaque catégorie puis une moyenne générale des deux axes cités précédemment.
Présentation des résultats :
Questionnaire de Coralie :
Suite aux calculs des divers pourcentages, Coralie obtient des moyennes de 53% dans les connaissances déclaratives, 55% pour les connaissances procédurales et 50% pour les connaissances conditionnelles. La moyenne de ses connaissances métacognitives est donc de 53%. De manière générale, les items correspondant aux connaissances sur la mobilisation des stratégies n’obtiennent pas de scores supérieurs à 50%. Coralie possède des connaissances sur elle-même mais a toutefois de la peine à comprendre ce que veut l’enseignant·e et à déceler les informations liées à la tâche.
La régulation de la cognition obtient quant à elle une moyenne de 37%. Ce sont les stratégies de debugging qui obtiennent la moyenne la plus élevée (70%). En effet, Coralie met en place des choses comme demander de l’aide à ses camarades ou faire une pause et reprendre sa tâche lorsqu’elle est confrontée à un problème. L’évaluation, en revanche, obtient la moyenne la plus basse (12%). Coralie a beaucoup de mal à estimer sa réussite. Elle a également mis des pourcentages très bas aux items liés à l’exécution de la tâche. Le monitorage et la planification obtiennent des moyennes relativement proches (29% et 27 %). En effet, Coralie n’analyse pas l’utilité de ses stratégies et ne se questionne pas sur sa progression. En revanche, il lui arrive de contrôler sa compréhension. La planification d’un point de vue temporel est ce que l’apprenante désigne comme son point faible. La plupart des items relatifs à la planification de l’exécution d’une tâche obtiennent également des pourcentages très bas. Pour terminer, les stratégies de gestion de l’information ont une moyenne de 47%. L’apprenante traite et passe du temps sur les informations importantes ce qui lui vaut des scores élevés mais accorde moins d’importance aux informations plus générales.
Questionnaire de Morgan :
Suite aux calculs des divers pourcentages, Morgan obtient une moyenne de 47% dans les connaissances métacognitives. Les connaissances déclaratives obtiennent le score le plus haut (59%). Morgan sait identifier ses forces et faiblesses et connait les domaines dans lesquels il est ou n’est pas doué. Il a toutefois un peu plus de peine à déceler les attentes de l’enseignant·e. Les connaissances procédurales et conditionnelles obtiennent des scores proches de 41 % et 40%. En effet, les connaissances liées aux stratégies mobilisées n’obtiennent pas de pourcentage allant au-delà de 50%.
Pour ce qui est de la régulation de la cognition, elle obtient la moyenne de 43%. Le monitorage ainsi que les stratégies de gestion de l’information, obtiennent les scores les plus élevés (58% et 56%). Morgan passe du temps à traiter l’information et met en place diverses stratégies pour cela. En revanche, il ne se penche pas sur l’utilité des stratégies qu’il utilise et ne procède que très peu à des contrôles de compréhension. La planification et les stratégies de debugging obtiennent les mêmes scores, soit 36%. La planification temporelle et relative à l’exécution de la tâche obtiennent des scores relativement bas. Morgan met toutefois un point d’honneur à lire consciencieusement les consignes. Lorsqu’il est confronté à un problème, l’apprenant le règle de manière individuelle et ne remet pas en question ses stratégies. L’évaluation obtient le score le plus bas (30%). En effet, il éprouve de la difficulté à estimer sa réussite et n’évalue pas l’atteinte de l’objectif.
Discussion sur l’outil de mesure :
L’outil est facile en termes de passation et n’est pas trop long ce qui permet un établissement rapide des moyennes obtenues. Ce qui est intéressant avec cet outil, c’est qu’il y a tout un aspect réflexif et un regard critique sur les méthodes d’apprentissage. Il couvre également un bon nombre de concepts et permet donc à l’apprenant·e de mieux se connaître dans ses processus d’apprentissage. Il faut néanmoins garder à l’esprit que les réponses des apprenant·e·s peuvent refléter un manque de connaissances sur soi et sur les processus d’apprentissages utilisés. Elles peuvent également découler d’une volonté de répondre de manière socialement acceptable afin de paraître bien aux yeux du ou de la chercheur·euse (de Blume, p. 25). Certains items peuvent également être interprétés d’une manière différente d’un·e apprenant·e à l’autre et n’ont pas une compréhension très claire comme par exemple l’item 33 : Je me retrouve à utiliser des stratégies d’apprentissage aidante de manière automatique. Nous pouvons également nous questionner sur le nombre d’items par catégorie. Cela varie de quatre à neuf, cette différence est peut-être trop conséquente et pourrait entrainer une trop grande variabilité dans les scores.
Malgré que Schraw et Dennison (1994) préconisent l’utilisation d’une échelle continue en pourcentage de 0 à 100, je trouve que cela donne une trop grande marge à l’apprenant·e pour répondre. Une échelle de Likert ne permettant pas un score moyen aurait, selon moi, pu convenir.
Il aurait également été intéressant de traiter de l’aspect émotionnel afin de voir si cela a un impact dans l’exécution d’une tâche, dans le choix de la stratégie, etc.
En conclusion, je trouve qu’il est difficile d’établir un profil d’apprenant·e à partir de ces données. Certains items sont très (voire trop) réflexifs. Je ne suis pas certaine que cela puisse donner des clefs précises pour améliorer les processus d’apprentissage.
Comparaison du SRLIS et du MAI
La comparaison de ces deux instruments demeure difficile puisqu’ils ne mesurent pas la même chose. En effet, le MAI traite plutôt de la métacognition et le SRLIS de l’autorégulation. Le SRLIS est un outil permettant l’énumération de stratégies selon différents contextes d’apprentissage. Le MAI est quant à lui, plutôt une réflexion critique sur l’apprenant·e lui·elle-même et sur sa manière d’apprendre. Toutefois, la passation des deux outils peut donner un bon aperçu de ce qui est mis en place par l’apprenant·e lors de ses apprentissages. Nous pouvons dire qu’ils se complètent. Même si une stratégie se trouve absente dans le SRLIS (ce qui est souvent le cas pour l’auto-évaluation par exemple), nous pouvons avoir une bonne idée de comment l’apprenant·e s’identifie dans ce concept grâce au MAI. Nous avons donc d’un côté un listing de stratégies avec le SRLIS et une sorte de complément d’information avec le MAI. En effet, certaines catégories du SRLIS peuvent avoir une sorte d’équivalence avec des catégories du MAI. Par exemple, la planification et fixation d’objectif (SRLIS) et planification (MAI), l’auto-évaluation (SRLIS) et l’évaluation (MAI) enfin, organisation et transformation / recherche d’information / tenu de registres et suivi (SRLIS) et gestion de l’information (MAI). Les stratégies de debugging (MAI) peuvent, selon les réponses, correspondre à des éléments mentionnés dans la structuration de l’environnement ou la recherche d’aide sociale par exemple. Ces associations nous permettent également de vérifier la cohérence des réponses des apprenant·e·s grâce à la comparaison entre certains items du MAI et ce qui est dit dans le SRLIS.
Les différents types de connaissances de la cognition ainsi que le monitorage n’ont pas vraiment d’équivalent. En effet, les connaissances de la cognition font référence à des connaissances sur soi et sur les stratégies mobilisées, il n’y a donc pas de stratégie en tant que telle comme dans le SRLIS. Pour le monitorage, il s’agit de réflexion sur ses performances, sa compréhension et les stratégies. C’est un aspect plus réflexif que l’énumération d’une stratégie. Ces concepts sont donc en quelque sorte isolés mais permettent d’avoir un apport supplémentaire sur les comportements d’apprentissage de l’apprenant·e.
Nous pouvons toutefois émettre une critique sur le fait que ni le SRLIS, ni le MAI ne traite des aspects émotionnels de l’apprentissage (comme le stress ou autre émotion, l’estime de soi, etc.). Cette dimension serait un bon complément et pourrait expliquer certaines réponses de l’apprenant·e.
Pour conclure, il est intéressant d’utiliser ces outils ensemble, cela permet d’avoir des informations relativement complètes. Il faudrait toutefois les adapter au maximum en fonction du cursus de l’apprenant·e. Il est également nécessaire de garder à l’esprit que tous deux peuvent ne pas refléter de manière exacte la réalité et que les réponses aux divers scénarios et items peuvent être influencées par une mauvaise connaissance de soi et de ses processus d’apprentissage ainsi que par une envie de produire des réponses plaisantes. Il serait pertinent de les utiliser non pas pour établir un profil d’apprenant·e mais plutôt pour éventuellement cibler la provenance des difficultés rencontrées.
Conclusion
En conclusion, l’administration de ces deux outils a été une expérience intéressante. Cela a permis de déceler les avantages et inconvénients de chacun. Comme nous l’avons mentionné précédemment, le SRLIS permet la récolte de données riches puisqu’il s’illustre comme un entretien. La personne interrogée peut énumérer les stratégies mise en place selon des contextes différents que proposent les six scénarios. Ces derniers méritent toutefois d’être ajustés selon le cursus de l’apprenant·e notamment en fonction du type de cours qu’il·elle suit.
Le MAI, quant à lui, permet à l’apprenant·e d’avoir un aspect réflexif autour de ses processus d’apprentissage. C’est un outil simple et rapide à utiliser et plus adapté au secteur d’études tertiaire. Notons tout de même que le classement des items dans les différentes catégories pourrait éventuellement être réévalué notamment en les classant de manière plus équitable en termes de nombre. Il faudrait également préciser certains items afin que ceux-ci ne puissent pas être classés dans plusieurs catégories différentes.
L’autorégulation et la métacognition étant des concepts clés dans le domaine des apprentissages, il était par conséquent tout à fait légitime d’utiliser ces deux outils. Suite à cette expérience, nous pouvons relever qu’il est plus pertinent de les utiliser de manière complémentaire que séparée. En effet, le SRLIS permet d’avoir un panel des stratégies utilisées et le MAI s’illustre comme complément d’information sur ces dernières mais également comme testeur de cohérence des réponses grâce à certains items.
Il serait toutefois intéressant de pousser cette analyse plus loin afin de pouvoir utiliser les données récoltées dans le but de fournir des clés et des pistes d’action aux apprenant·e·s. Par exemple, l’accès aux résultats des examens pourrait être un bon complément. Ils pourraient servir à déceler le ou les type(s) de cours qui engendre des difficultés. Un second entretien avec l’apprenant·e pourrait être organisé afin de lui présenter les résultats des deux tests et de discuter des possibilités pouvant être mises en place.
Notons pour terminer qu’il est important de garder à l’esprit que les processus d’apprentissage sont propres à chacun, il n’existe pas de méthode universelle pour apprendre.
Références
- Barbier, É., et Colognesi, S. (2023). Chapitre 10. Croyances des enseignants et des futurs enseignants relatives à la métacognition. Dans Berger, J. et Cartier, S. (dir.), L’apprentissage autorégulé (p. 199‑215). De Boeck Supérieur.
- Gutierrez de Blume, A. P., Montoya Londoño, D. M., Jiménez Rodríguez, V., Morán Núñez, O., Cuadro, A., Daset, L., Molina Delgado, M., García de la Cadena, C., Beltrán Navarro, M. B., Puente Ferreras, A., Urquijo, S., et Arias, W. L. (2024). Psychometric properties of the Metacognitive Awareness Inventory (MAI) : Standardization to an international spanish with 12 countries. Metacognition and Learning, 19(3), 793‑825. https://doi.org/10.1007/s11409-024-09388-9
- Muis, K. R., Winne, P. H., et Jamieson-Noel, D. (2007). Using a multitrait-multimethod analysis to examine conceptual similarities of three self-regulated learning inventories. British Journal of Educational Psychology, 77(1), 177‑195. https://doi.org/10.1348/000709905X90876
- Schraw, G., et Dennison, R. S. (1994). Assessing metacognitive awareness. Contemporary Educational Psychology, 19(4), 460‑475. https://doi.org/10.1006/ceps.1994.1033
- Schunk, D. H., et Greene, J. A. (2018). Historical, contemporary, and future perspectives on self-regulated learning and performance. Dans D. H. Schunk & J. A. Greene (Dir.), Handbook of self-regulation of learning and performance (2e éd., p. 1‑15). Routledge/Taylor & Francis Group.
- Sungur, S., et Senler, B. (2009). An analysis of Turkish high school students’ metacognition and motivation. Educational Research and Evaluation, 15(1), 45‑62. https://doi.org/10.1080/13803610802591667
- Zimmerman, B. J., et Pons, M. M. (1986). Development of a Structured Interview for Assessing Student Use of Self-Regulated Learning Strategies. American Educational Research Journal, 23(4), 614‑628. https://doi.org/10.3102/00028312023004614
- Zimmerman, B. J., et Martinez-Pons, M. (1988). Construct validation of a strategy model of student self-regulated learning. Journal of Educational Psychology, 80(3), 284‑290. https://doi.org/10.1037/0022-0663.80.3.284 Zimmerman, B. J., et Martinez-Pons, M. (1990). Student differences in self-regulated learning : Relating grade, sex, and giftedness to self-efficacy and strategy use. Journal of Educational Psychology, 82(1), 51‑59. https://doi.org/10.1037/0022-0663.82.1.51