Auteure : Cendrine Héritier

Introduction

La métacognition et l’autorégulation sont deux notions essentielles dans l’analyse des instruments de recherche. La métacognition, selon Dinsmore (2018), est l’utilisation de stratégies ou de connaissances procédurales pour acquérir et transférer des connaissances. Flavell (1979) définit la métacognition comme des connaissances métacognitives : savoirs sur soi, sur la tâche à accomplir et sur les stratégies spécifiques à différents problèmes. Hacker (1998) ajoute qu’elle concerne aussi la capacité à contrôler et réguler ses processus cognitifs et affectifs. Parmi les stratégies métacognitives, on trouve l’anticipation, la planification et le contrôle continu (Pintrich et al., 2000).

L’autorégulation, selon Boekaerts (1997), est la capacité de gérer son apprentissage et de contrôler ses processus cognitifs, émotionnels et comportementaux. Greene (2018) définit l’autorégulation par plusieurs étapes : planification, exécution, monitorage, contrôle et auto-évaluation. Elle vise l’atteinte des objectifs (Schunk et Greene, 2018). La métacognition fait partie intégrante de ce processus, facilitant une meilleure autorégulation (Greene, 2018).

Enfin, dans ce document, l’analyse portera sur deux outils permettant l’obtention d’informations concernant les deux notions définies ci-dessus : le SRLIS : Self-Regulated Learning Interview Schedule et le Thinking Aloud.

Instrument – SRLIS (Self-Regulated Learning Interview Schedule)

Description de l’outil

L’outil SRLIS signifie « Self-Regulated Learning Interview Schedule ». En français, il se traduit comme le « protocole d’entretien sur l’apprentissage autorégulé ». Cet instrument est l’un des premiers permettant d’évaluer ou de mesurer l’apprentissage autorégulé chez les étudiant·e·s (Winne et Perry, 2000). Selon Zimmermann et Martinez-Pons (1986, 1990), il permet d’interroger les étudiant·e·s sur leurs méthodes d’apprentissage et leur utilisation de stratégies d’apprentissage autorégulé dans différents contextes situationnels. Un autre objectif de la recherche, selon eux, était de percevoir si un lien existait entre l’utilisation des stratégies d’autorégulation par les élèves et leurs résultats scolaires.

L’outil est construit selon six contextes d’apprentissage divers. Grâce à ces contextes, six scénarios ont pu être rédigés. Lors de la première passation de l’outil, à l’aide des réponses des élèves interrogés, quatorze stratégies d’autorégulation ont pu être identifiées et chacune de ces stratégies a été définie en une ou deux phrases afin d’aider l’interviewé·e face à des confusions (Zimmermann et Martinez-Pons, 1986).

Description de l’échantillon

L’échantillon est basé sur deux personnes de genre féminin qui étudient en dernière année de Bachelor à l’université de Fribourg. Elles ont vingt-et-un et vingt-quatre ans. Elles se trouvent dans la faculté des sciences économiques et sociales du management avec des branches complémentaires dans les domaines suivants : sciences des religions et travail et politique social ainsi que gestion d’entreprise et droit.

Description de la méthodologie

La méthodologie de cet outil est basée sur un modèle d’entretien structuré avec des réponses libres. Dans cette recherche, l’analyse n’est pas réalisée sur des groupes de personnes distincts. Sur la base de recherches précédentes, quatorze catégories de stratégies d’autorégulation ont été identifiées et peuvent se retrouver dans les réponses aux questions des participant·e·s (Zimmermann et Martinez-Pons, 1986). Ces stratégies sont les suivantes : l’auto-évaluation, l’organisation et la transformation, la fixation d’objectifs et la planification, la recherche d’informations, la tenue de registres et le suivi, la structuration de l’environnement, les auto-conséquences, la répétition et la mémorisation, la recherche de l’aide de pairs, d’un·e enseignant·e ou d’un adulte, et la révision de tests, de notes et de textes (Zimmermann et Martinez-Pons, 1988). De plus, les recherches antérieures ont permis d’identifier six contextes d’apprentissage différents : dans la classe, à l’endroit d’habitation, lors de travaux de rédaction en dehors de l’environnement de la classe, lors de la réalisation d’exercices en dehors de la classe, lors de la préparation à une évaluation et lors d’un déficit de motivation (Zimmermann et Martinez-Pons, 1986). Pour chaque contexte, les participant·e·s doivent identifier et expliciter les méthodes utilisées à l’aide des scénarios énoncés par l’intervieweur·euse. Chaque scénario comprend un exemple permettant de mieux percevoir le contexte d’apprentissage. Si l’interviewé·e ne répond pas à une question, une relance en lien avec les difficultés perçues est autorisée. Dans le cas où des stratégies d’autorégulation seraient énumérées, les participant·e·s doivent évaluer la régularité d’utilisation de la stratégie sur la base d’une échelle à quatre degrés (Zimmermann et Martinez-Pons, 1988).

Présentation des résultats

La présentation des résultats sera divisée en trois parties distinctes : utilisation des stratégies, fréquence des stratégies, et régularité des stratégies. Le premier score calculé, l’utilisation des stratégies, est dichotomique. Il correspond à « 1 » si la stratégie est énoncée et à « 0 » si celle-ci n’apparaît pas. (Zimmermann et Martinez-Pons, 1986). Il fait référence au premier tableau dans les annexes. Pour ce qui est de la première participante, elle utilise neuf stratégies sur les quatorze présentes. On perçoit qu’un aide des pairs est présente contrairement à l’aide de la part d’adultes ou d’enseignants. Le deuxième sujet utilise huit des quatorze stratégies. On perçoit que les résultats entre les deux sujets sont presque similaires.

Le deuxième score calculé est la fréquence des stratégies. Ce score correspond au nombre d’occurrences d’une stratégie mentionnée dans les différents scénarios. Nous mentionnons alors, avec un chiffre, le nombre de fois que la stratégie est énumérée (Zimmermann et Martinez-Pons, 1986). Il fait référence au deuxième tableau dans les annexes. Pour ce qui est de la première participante, toutes les stratégies sont utilisées une seule fois, à part les stratégies de relecture des notes et d’organisation et de transformation qui reviennent plusieurs fois. Concernant la deuxième participante, plusieurs stratégies reviennent plus régulièrement : organisation et transformation, structuration de l’environnement, répétition et mémorisation, recherche d’aide de ses pairs ainsi que la relecture de notes. En effet, face au manque de motivation, la stratégie de l’environnement est utilisée couramment.

Le troisième score calculé est la régularité des stratégies. Ce score correspond, pour chaque stratégie mentionnée par l’étudiant·e, à la régularité de l’utilisation de la stratégie, évaluée selon le point de vue du participant·e. L’évaluation de cette régularité est réalisée grâce à une échelle à quatre points : rarement (1), occasionnellement (2), fréquemment (3) et la plupart du temps (4) (Zimmermann et Martinez-Pons, 1986). Il fait référence au troisième tableau dans les annexes. Pour ce qui est du premier sujet, les stratégies les plus importantes réalisées, la plupart du temps, elles sont les suivantes : de la prise de note, de la planification, de l’organisation de données, de la lecture de notes et de la répétition afin de mémoriser. Pour ce qui est du deuxième sujet, elle utilise la plupart du temps, de la prise de notes, de la recherche d’informations, de l’organisation et de la transformation, de la répétition, de la relecture de notes et de la structuration de l’environnement.

En conclusion, sur l’ensemble des stratégies, la plupart d’entre elles sont utilisées par les deux participantes. Ce qui n’apparaît pas est l’aide des professeur·e·s ou des adultes, et également la relecture des tests ou des manuels/textes des cours. Les conséquences personnelles ne sont pas apparues dans les stratégies relevées. Cependant, certaines stratégies, selon les participantes, apparaissent de manière moins fréquente, car certains aspects sont moins demandés dans les différents cours.

Discussion sur l’outil de mesure

Tout d’abord, la validité nous informe sur le degré justesse en lien avec l’interprétation des scores.  (Bandalos, 2018). La procédure d’entretien de cet outil est efficace et nous permet de récolter des preuves fiables quant au niveau d’autorégulation des étudiant·e·s. En effet, la procédure est selon Zimmermann et Martinez-Pons (1986), structurée afin de récolter des informations sur la méthode d’apprentissage des sujets. De plus, cet élément permet de discuter également de l’accord inter-juge présent qui démontre la régularité de la procédure d’entretien et de la fidélité de l’outil. Cependant, au niveau du codage, l’accord peut être discuté. Bandalos (2018), nous informe que les données sont possiblement interprétées différemment selon les chercheur·euse·s. En effet, une difficulté relevée serait la validité au niveau de l’identification et de l’interprétation des stratégies d’apprentissage. De plus, au niveau de la procédure d’entretien, en français, plusieurs sujets ont rencontré des difficultés dans la compréhension des différents contextes d’apprentissage et dans les scénarios proposés qui s’adapter difficilement à la réalité universitaire. Finalement, malgré l’individualité des items, dans ce test, s’ils se retrouvent dans plusieurs scénarios, ils peuvent possiblement être confondus. L’aspect de la cohérence interne n’est alors pas optimal (Thompson, 2003).

Instrument – Thinking Aloud

Description de l’outil

Thinking Aloud qui se traduit en français comme « la pensée à voix haute », est une méthode qui a pour objectif d’identifier les processus cognitifs et métacognitifs des participant·e·s. L’outil permet de faire parler à voix haute des sujets lorsqu’ils réalisent une tâche complexe. La tâche sera adaptée à l’apprenant·e. Il permet d’obtenir des réponses précises, qui ne sont pas facilement accessibles ou observées à l’aide d’autres méthodes plus fermées (Hu et Gao, 2017). Selon Vandevelde et al. (2015), lors de l’expression à voix haute, les sujets s’évaluent individuellement et expriment leurs pensées, leurs réflexions, leurs raisonnements, leurs sentiments. L’objectif est d’identifier l’utilisation des activités d’apprentissages d’autorégulation afin d’en comprendre plus précisément le processus. 

De plus, l’outil permet aux participant·e·s d’exprimer des données ouvertes. Celles-ci pourront être liées, dans l’analyse, au processus cyclique de l’autorégulation de Zimmermann (2002) afin d’accéder à des données sur le fonctionnement interne des sujets et d’atteindre l’objectif visé par l’outil (Vandevelde et al., 2015). Pour ce qui est du processus de Zimmermann (2002), il se divise en trois grandes phases : l’anticipation, l’action et l’autoréflexion. Dans la première phase (anticipation), la fixation des objectifs, la planification et l’intérêt envers la tâche sont observés. Dans la phase d’action, les stratégies et la capacité d’auto-observation sont mises en avant. Finalement, dans la dernière phase (autoréflexion), les apprenants évaluent leur performance, expriment leur satisfaction et s’ils jugent des éléments à améliorer.

Description de la méthodologie

La méthodologie de cet outil est basée sur un modèle qualitatif ainsi qu’un modèle quantitatif pour l’analyse. Tout d’abord, les sujets interviewés se comptent au nombre de deux. Celles-ci sont similaires à l’échantillon de l’outil SRLIS. Les participantes ont reçu une tâche complexe à réaliser. Dans cette situation, pour des étudiantes universitaires, la tâche introduite correspond à une version simplifiée des échecs. Il est demandé, après la lecture des consignes en silence, de résoudre un problème d’échec, ayant pour objectif d’arriver au bout de l’échiquier avec le moins de pas possibles. En lien avec la tâche, il est important de préciser que la première participante est familière au jeu des échecs. Lors de l’exécution de la tâche, les sujets expriment leurs pensées : choix, stratégies et décisions, à voix haute tout en étant enregistrés. Les sujets ont accès aux consignes ainsi qu’à un échiquier en version papier afin de résoudre la tâche à l’écrit. Lors de l’entretien, le rôle de l’intervieweur·euse est d’observer ainsi que de relancer lors d’éventuels moments de silence en lien avec le manque d’habituation de la pensée à voix haute. En effet, compte tenu de leur niveau d’étude, aucun entraînement, ou travail de préparation n’a été réalisé avant l’entretien. Après avoir retranscrit les entretiens d’environ vingt minutes, une analyse est réalisée sur la base des données récoltées. Le système de codage a été élaboré selon la théorie sur les phases cycliques de l’autorégulation de Zimmermann (2000, 2002). Les différentes activités exprimées à voix haute ont été classées selon les sous-phases du processus cyclique de Zimmermann (2002) : analyse de la tâche, croyances auto-motivationnelles, usage de stratégies, auto-observation, autojugements et autoréactions. Après avoir classé les différentes unités de sens dans les diverses sous-phases, des activités d’autorégulation ont été interprétées afin de quantifier les trois phases. Chaque unité de sens était une unité distincte qui pouvait s’associer à une activité d’autorégulation.

Présentation des résultats

Pour ce qui est des résultats, ils seront présentés en deux parties : déroulement, tableaux. La phase de déroulement permet de décrire les différentes étapes réalisées par les sujets et les tableaux démontrent les occurrences de chaque phase durant l’entretien. 

Le premier sujet débute par une phase d’anticipation plutôt longue. En effet, il lit les consignes plusieurs fois, anticipe les chemins possibles, et se questionne sur la compréhension des consignes. Pour expliquer la durée de cette phase, une habitude du jeu des échecs pourrait en être la cause : imagination des chemins, etc. Dans un deuxième temps, celui-ci essaie des chemins à trois reprises : phase d’action. Cela ne fonctionne pas, il décide de relire à nouveau les règles. La participante retourne, alors, dans une phase d’anticipation. Ensuite, dans sa stratégie (phase d’action), elle décide d’ajouter une règle afin de résoudre la tâche. Tout au long de la phase d’action, elle réalise des allers-retours avec la phase de réflexion. En effet, des jugements sur la tâche sont présents et également des observations quant à ses actions.

Le deuxième sujet débute par une phase d’anticipation assez courte même si la lecture des règles reste compliquée et prend du temps. Il se lance directement dans la phase d’action et réalise plusieurs essais non-concluants. Dans cette phase, la participante revient une seule fois sur les règles de la tâche, sur la phase d’anticipation. Comme précédemment, la phase d’action se chevauche avec la phase de réflexion. Elle n’est pas très fréquente, mais permet à l’étudiante de donner son avis sur la tâche en cours. Dû au fait que les règles étaient incomplètes, plusieurs stratégies ont été mises en jeu par la participante durant l’exercice bien qu’elle fût énormément perturbée par le manque de précisions dans les règles.

Pour ce qui est des résultats quantitatifs, deux tableaux les représentent. Ils se retrouvent dans les annexes : tableaux 4 et 5. Pour le premier sujet, la phase d’anticipation est très présente au niveau de l’analyse de la tâche même si les croyances auto-motivationnelles sont inexistantes dans sa pensée à voix haute. La partie d’action est la plus présente et la phase d’autoréflexion est également élevée, car elle est presque équivalente à la phase d’action. Pour ce qui est du deuxième sujet, la phase d’action est dominante en comparaison aux autres phases. Le sujet a pris le parti de se lancer dans l’exercice sans percevoir, au début, où il allait et comment résoudre la tâche. L’occurrence de l’analyse de la tâche est élevée, seulement, pour la clarification des consignes. Peu de jugements et de remises en question (phase d’autoréflexion) sont présents. Elle n’a finalement trouvé aucune solution.

Discussion sur l’outil de mesure

À travers ce point, la validité et la fidélité de l’outil seront discutées sur les aspects positifs et négatifs. Il sera tout de même important de préciser que le manque de précision dans les consignes de la tâche réalisée par le deux sujets a pu avoir des conséquences sur la validité des données récoltées ainsi que sur l’analyse.

Tout d’abord, l’outil nous permet d’obtenir des informations détaillées sur le processus d’apprentissage auto-régulé des participant·e·s. En effet, les données récoltées sont précises et nombreuses. De plus, la récolte des données lors de l’entretien suit l’accord inter-juges qui permet de confirmer la fidélité de l’outil. En effet, l’intervention presque inexistante de l’intervieweur·euse dans la réalisation de la tâche et l’expression de la pensée appuie cet aspect. Cependant, pour ce point, il faut s’assurer de la bonne réalisation de la méthode selon les critères à suivre. Par exemple, le fait d’entraîner les participant·e·s à la pensée à voix haute permet d’augmenter la validité de l’exercice (Hu et al., 2017). Un autre aspect positif de la méthode en lien avec la fidélité serait les formes parallèles. En effet, la tâche proposée peut être adaptée à différents âges et niveaux. Un autre aspect positif, existant concerne le processus d’apprentissage. L’enregistrement des entretiens se déroule, pour les sujets, au même moment que l’apprentissage lui-même. Cela amène des résultats plus valides, car cela ne permet pas à la mémoire d’interpréter sur les différents processus de pensée (Bandalos, 2018 ; Vandevelde et al, 2015).

Précédemment, il a été abordé la question de l’accord inter-juges en lien avec l’enregistrement des entretiens. Cependant, pour ce qui est de la phase d’analyse, en lien avec la fidélité, cet aspect devient un désavantage. En effet, l’interprétation et l’analyse des résultats demandent une réflexion complexe, ce qui a une influence sur la fidélité lors de l’organisation des données. En effet, lors de la phase d’analyse, plusieurs réflexions suivies afin d’être en adéquation complète avec la phase définie pour certaines unités de sens. Un autre aspect concerne les croyances auto-motivationnelles. Ces aspects sont, selon Vandevelde et al. (2015), difficiles à observer. Cela a pour conséquence une occurrence faible, alors que ces aspects sont tout de même présents. Ces auteur·e·s pensent que les processus en lien avec la motivation sont plus inconscients ce qui amène à l’observation presque inexistante de ces processus. Cet aspect se retrouve dans les résultats quantitatifs de mes sujets. Un dernier aspect plutôt négatif concerne la réalisation de la tâche complexe dans un contexte authentique. En effet, à travers cette méthode, il est difficile de sortir de la « situation-test ». Cet aspect peut, selon Vandevelde et al. (2015), influencer la récolte des données verbales et non-verbales des sujets. Cet aspect remet en question la validité écologique de l’outil. Afin d’éviter cet aspect qui influence également la capture des données en lien avec la motivation, les chercheur·e·s proposent de combiner cet outil avec d’autres méthodes complémentaires (Bandalos, 2018 ; Hu et Gao, 2017 ; Vandevelde et al, 2015).

Comparaison entre les deux outils

Les deux outils sont similaires et différents sur plusieurs aspects. Tout d’abord, le SRLIS porte son intérêt sur les stratégies utilisées. En effet, l’outil analyse des données récoltées à l’aide des croyances des sujets quant à leurs stratégies d’apprentissage. Thinking Aloud, quant à lui, pose son intérêt sur les processus de pensée. Les données sont récoltées différemment. En effet, elles sont enregistrées lors de la mise en pratique d’un apprentissage, lors de la réalisation d’une tâche. Cette méthode permet, selon Vandevelde et al. (2015), d’acquérir des données plus objectives et axées sur le processus. Malgré des différences quant au type de données récoltées, il est important de préciser que l’objectif final des deux outils reste similaire : comprendre les processus d’autorégulation et de métacognition en lien avec l’apprentissage.

Pour ce qui est de l’échantillon en lien avec les méthodes, pour le SRLIS, il est adapté à un certain niveau d’étude. En effet, un·e élève de classe primaire ne pourra pas le suivre. Cependant, pour ce qui est de l’outil de la pensée à voix haute, il peut être adapté à tous les niveaux et âges en adaptant la tâche complexe. Une chose qui est importante de préciser est l’aspect de l’entraînement en lien avec Thinking Aloud. En effet, cette méthode, selon Hu et al. (2017), pourrait être optimisée avec de la préparation à la pensée à voix haute. Cela n’est pas présent dans la méthode SRLIS. Finalement, pour ce qui est de l’analyse, les stratégies présentes dans le SRLIS sont facilement associées aux unités de sens des entretiens enregistrés. Cependant, pour ce qui est de la pensée à voix haute, les liens sont difficilement réalisables et moins valides en lien avec l’aspect de l’accord inter-juge.

Conclusion

En conclusion, quelques aspects en lien avec la réalisation de cette démarche sont à préciser. Tout d’abord, l’échantillon exerce une influence sur l’analyse ou sur les résultats obtenus. En effet, les sujets interviewés qui se compte au nombre de deux, ne permettent pas de généraliser les résultats. Selon Vandevelde et al. (2015), ces résultats sont descriptifs et demandent de réaliser cette étude avec un échantillon plus élevé afin de compléter les résultats et de les rendre plus valides. En lien avec l’échantillon, le fait que les deux sujets interviewés réalisent les mêmes études et étudient les mêmes matières a peut-être eu une conséquence sur les résultats très proches obtenus sur l’entretien SRLIS. Une étude sur différents sujets, étudiant différentes matières aurait été plus représentative du monde estudiantin.

En lien avec l’outil de la pensée à voix haute, selon Vandevelde et al. (2015), la variation des tâches à résoudre donnerait des résultats différents en lien avec l’autorégulation. La réalisation d’une nouvelle tâche dans un contexte différent, mais en gardant les mêmes sujets pourrait amener à des données différentes. Cet aspect serait intéressant à approfondir afin d’étudier l’adaptation des élèves et de leurs stratégies face à différentes tâches à résoudre. Un autre aspect qui amènerait des données supplémentaires serait de travailler sur le feedback permettant d’améliorer les processus d’apprentissage. En effet, une étude rétrospective de l’activité de la pensée à voix haute permettrait de préciser les données récoltées (Hu et Gao, 2017).

Un aspect qui concerne les processus d’apprentissage en général est intéressant à développer. En effet, nous étudions ce processus en lien avec les stratégies permettant l’apprentissage. Mais ce qui est important pour des apprenant·e·s serait de tirer profit des résultats et de combler les lacunes. Cet aspect concerne les enseignant·e·s et ce qui est mis en place dans les classes afin de développer ces aspects. Ce qui serait également intéressant d’étudier serait de récolter des données sur les stratégies mises en place et réaliser un partenariat entre les chercheur·euse·s et les expert·e·s de la pédagogie qui permettrait l’affinement de leurs connaissances et la mise en pratique d’exercices permettant le développement des apprenant·e·s (Hu et Gao, 2017).

Bibliographie

  • Bandalos, D. L. (2018). Measurement theory and applications for the social sciences. The Guilford Press.
  • Boekaerts, M. (1997). Self-regulated learning : A new concept embraced by researchers, policy makers, educators, teachers, and students. Learning and Instruction, 7(2), 161-186. https://doi.org/10.1016/S0959-4752(96)00015-1
  • Dinsmore, D. L. (2018). Strategic processing in education. Routledge.
  • Flavell, J. H. (1979). Metacognition and cognitive monitoring: A new area of cognitive–developmental inquiry. American Psychologist, 34, 906–911. https://doi.org/10.1037/0003-066X.34.10.906
  • Greene, J. A. (2018). Self-regulation in education. Routledge.
  • Hacker, D. J. (1998). Definitions and empirical foundations. In D. J. Hacker, J. Dunloky, & A. C. Graesser (Eds.), Metacognition in educational theory and practice (pp. 1-23). Lawrence Erlbaum Associates.
  • Hu, J., & Gao, X. (2017). Using think-aloud protocol in self-regulated reading research. Educational Research Review,22, 181–193. https://doi.org/10.1016/j.edurev.2017.09.004
  • Pintrich, P. R., Wolters, C. A. & Baxter, G. P. (2000). Assessing metacognition and self-regulated learning. In G. Schraw & J.C. Impara (Ed.), Issues in the measurement of metacognition (pp. 43-97). Buros Institute.
  • Schunk, D. H., & Greene, J. A. (2018). Historical, contemporary, and future perspectives on self-regulated learning and performance. In D. H. Schunk & J. A. Greene (Eds.), Handbook of self-regulation of learning and performance (pp. 1–15). Routledge/Taylor & Francis Group.
  • Thompson, B. (Ed.). (2003) Score Reliability: Contemporary Thinking on Reliability Issues. Sage.
  • Vandevelde, S., Van Keer, H., Schellings, G., & Van Hout-Wolters, B. (2015). Using think-aloud protocol analysis to gain in-depth insights into upper primary school children’s self-regulated learning. Learning and Individual Differences, 43, 11–30. https://doi.org/10.1016/j.lindif.2015.08.027
  • Winne, P. H., & Perry, N. E. (2000). Measuring self-regulated learning. In M. Boekaerts, P. R. Pintrich, & M. Zeidner (Eds.), Handbook of self-regulation (pp. 531–566). Academic Press. https://doi.org/10.1016/B978-012109890-2/50045-7
  • Zimmerman, B. J., & Martinez-Pons, M. (1986). Development of a structured interview for assessing student use of self-regulated learning strategies. American Educational Research Journal23(4), 614–628. https://doi.org/10.2307/1163093
  • Zimmerman, B. J., & Martinez-Pons, M. (1988). Construct Validation of a Strategy Model of Student Self-Regulated Learning. Journal of Educational Psychology80(3), 284–290. https://doi.org/10.1037/0022-0663.80.3.284
  • Zimmerman, B. J., & Martinez-Pons, M. (1990). Student differences in self-regulated learning: Relating grade, sex, and giftedness to self-efficacy and strategy use. Journal of Educational Psychology82(1), 51–59. https://doi.org/10.1037/0022-0663.82.1.51
  • Zimmerman, B. J. (2000). Attaining self-regulation: A social cognitive perspective. In M. Boekaerts, P. R. Pintrich, & M. Zeidner (Eds.), Handbook of self-regulation (pp. 13–39). Academic Press. https://doi.org/10.1016/B978-012109890-2/50031-7
  • Zimmerman, B. J. (2002). Becoming a self-regulated learner : An overview. Theory Into Practice, 41(2), 64–70. http://dx.doi.org/10.1207/s15430421tip4102_2