Auteur : Raphaël CORNAZ

Introduction 

Si l’apprentissage est depuis longtemps l’objet d’étude de la psychologie et des sciences de l’éducation, l’émergence de la réflexion des apprenant·e·s sur leur propre capacité d’apprentissage est bien plus récente. En 1979, Flavell donne naissance au terme métacognition. Il la considère comme un système de connaissance comprenant des connaissances déclaratives, mais aussi des connaissances à propos de soi et de ses propres stratégies d’apprentissages. En plus de ces savoirs cognitifs et métacognitifs, la métacognition est supposée comprendre le contrôle sur ceux-ci, ce que l’on nomme auto-régulation (self-regulation). Dans cette définition, l’élément auto (self) est « envisagé en termes de sous-processus mesurables, comme la détermination de buts, l’ « automonitoring » (« self-monitoring ») et l’utilisation de stratégies qui représentent simultanément des comportements observables et des processus psychologiques invisibles. » (Zimmerman 2002 : 70). Loin d’être un mouvement unilatéral, l’autorégulation est vue comme un cycle, puisqu’elle comprend la rétroaction entre des facteurs personnels, comportementaux et environnementaux (Bandura 1986). Cette conception donne naissance aux formes triadiques de l’auto-régulation telles que décrites dans le modèle de Zimmerman (2002).

Si l’autorégulation est un concept dont l’étendue peut être déployée dans des domaines très divers, son application pour les sciences de l’éducation a vite attiré les chercheur·ses, qui ont notamment postulé un lien entre autorégulation et réussite scolaire (Schunk 1984). Greene (2018 : 138) définit l’apprentissage auto-régulé comme suit : « la poursuite active et réfléchie des objectifs d’apprentissage souhaités par la planification, la mise en œuvre, le monitorage, le contrôle et la réflexion sur les facteurs internes (cognition, métacognition, motivation, comportement, affect) et externes (environnement) avant, pendant et après l’apprentissage. » Depuis une dizaine d’années, les travaux anglophones sur l’apprentissage auto-régulé ont atteint la sphère de la recherche francophone (Mercier-Brunel 2024). Reste toutefois à implanter cette nouvelle conception dans les classes, et chez les enseignant·e·s (Barbier et al. 2024).

Nous tenterons ainsi de nous familiariser avec le concept d’auto-régulation de l’apprentissage en testant deux instruments mesurant l’apprentissage auto-régulé : le SRLIS (Self-Regulated Interview Schedule), le pionnier des instruments de recherche sur l’auto-régulation créé par Zimmerman et Martinez-Pons (1986), ainsi que le SELF (Self-Efficacy for Learning Form), créé par Zimmerman et Kitsantas (2005).

1        Le SRLIS

1.1       Description de l’outil

Le Self-Regulated Learning Interview Schedule (abrégé SRLIS) est un questionnaire structuré en six questions (huit, dans l’étude de 1990) développé par Zimmerman et Martinez-Pons (1986). Il permet de mesurer l’emploi de stratégies d’auto-régulation chez les élèves d’établissement secondaire (nb : dans l’étude originale, Zimmerman et Martinez-Pons interrogent des élèves en high school). Les élèves sont invité·e·s à décrire librement les méthodes et les stratégies qu’ils·elles emploient dans six situations d’apprentissage différentes.

Zimmerman et Martinez-Pons retiennent 14 stratégies d’auto-régulation, tant en classe qu’hors-classe. Suivant les réponses qu’ont donné les élèves interrogés, ils associent certains éléments de réponse à une de ces stratégies d’auto-régulation. Les chercheurs ont également cherché à connaître la fréquence de ces stratégies.

Les résultats des élèves au questionnaire SRLIS ont notamment été corrélés avec leur réussite scolaire. Il a notamment été démontré que 93% des élèves pouvaient être classé·e·s correctement dans une catégorie de réussite scolaire, en fonction de leur choix de stratégie d’auto-régulation (Zimmerman & Martinez-Pons, 1986). Les mêmes auteurs ont également démontré que l’évaluation des enseignant·e·s des méthodes d’auto-régulation des élèves interrogé·e·s était corrélé avec l’emploi rapporté des élèves de ces méthodes. Ils ont également remarqué qu’il y avait une relation non-négligeable entre la motivation des élèves et de leur emploi de stratégies d’auto-régulation. Enfin, il a aussi démontré que le SRLIS possède une validité de construit solide (Zimmerman & Martinez-Pons, 1988). Enfin, les mêmes chercheurs ont démontré qu’il y a un lien entre la perception personnelles des élèves dans leur auto-efficacité pour les tâches verbales et en mathématiques et leur manière d’auto-réguler leur apprentissage (Zimmerman & Martinez-Pons, 1990). Ces constats vont dans le sens du modèle de la réciprocité causale « triadique » de Zimmerman (2002).

Zimmerman, B. J. (2002). Efficacité perçue et autorégulation des apprentissages durant les études : une vision cyclique. Dans P. Carré &  A. Moisan (dir.), La formation autodirigée. Aspects psychologiques et pédagogiques (p. 69-88). L’Harmattan.

1.2       Description de l’échantillon (âge, genre, faculté, niveau d’étude)

Nous avons constitué un échantillon de convenance, composé de deux étudiantes de l’Université de Fribourg pour la passation de l’entretien.

La première, LC, est âgée de 22 ans et est en première année de Master. Elle étudie l’histoire et l’espagnol, en Faculté des Lettres et des sciences humaines.

La deuxième, KB, est également âgée de 22 ans et termine son Master. Elle étudie le français et la littérature générale et comparée, aussi en Faculté des Lettres et des sciences humaines.

1.3       Description de la méthodologie

Pour la passation de l’examen, nous avons choisi la traduction préexistante du SRLIS, également plus adaptée que le test original pour des étudiant·e·s d’un niveau universitaire. Les questions ont été recentrées sur des aspects plus généraux, en évitant d’exemplifier par des cours particuliers, comme l’anglais, les mathématiques ou l’histoire. Le lexique employé a également été revu : les élèves sont désormais des « étudiant·e·s ».

En ce qui concerne les conditions de passation, nous avons informé brièvement les deux étudiantes de l’objet de notre recherche et du fonctionnement du test SRLIS. Nous avons naturellement rappelé aux participantes qu’elles étaient libres de cesser de répondre à nos questions à tout moment.

Nous avons sélectionné un endroit calme, et nous nous sommes assurés qu’elles avaient suffisamment de temps pour répondre de manière développée à nos questions. Nous avons posé les six questions aux participantes, avec quelques relances s’il nous semblait qu’elles pouvaient occulter l’un ou l’autre élément de réponse. Nous avons enregistré les deux interactions, et nous les avons ensuite retranscrites de façon verbatim dans un document annexe.

À noter que, dans les deux cas, nous avons ensuite poursuivi avec la passation du questionnaire SELF avec les deux participantes, de manière libre, sans notre supervision.

1.4       Présentation des résultats 

Le tableau I reporte les réponses données par les deux participantes pour les 15 stratégies proposées dans l’article fondateur de Zimmerman et Martinez-Pons (1986). Pour chacune des six situations données, nous avons pu extraire une ou plusieurs stratégies.

Nous avons trouvé pertinent de nous baser sur le système de classement SF (strategy frequency), c’est-à-dire de dénombrer le nombre de fois où la stratégie a été énoncée chez chacune des participantes, indépendamment de la situation donnée.

StratégiesNb chez LCNb chez KB
Autoévaluation11
Organisation et transformation24
Fixation d’objectifs et planification24
Recherche d’informations21
Tenue de registres et suivi11
Structuration de l’environnement11
Conséquences personnelles11
Répétition et mémorisation11
Recherche d’aide des pairs10
Recherche d’aide des enseignant·e·s00
Recherche d’aide des adultes00
Examen des tests11
Examen des notes01
Examen des manuels00
Autres00
TOTAL10/1410/14
Tableau I : Codage des réponses des deux participantes au SRLIS

On constate ainsi que chacune des participantes déclare employer dix des quatorze stratégies recensées (en omettant la catégorie « autre »). C’est un constat cohérent avec l’étude de Zimmerman et Martinez-Pons (1990) et celle de Faldareau et Loranger (1993), qui constatent également que plus les élèves ou étudiant·e·s sont âgé·e·s, plus ils·elles emploient une diversité de stratégies, et des stratégies plus efficaces.

On remarque ainsi que les catégories qui ne sont pas ressorties du tout sont la recherche d’aide extérieure, surtout vers des enseignant·e·s ou des adultes. C’est tout à fait cohérent, en cela que l’autonomie est l’une des conditions principales de réussite des étudiant·e·s au degré tertiaire (David 2016).

Ces catégories semblent particulièrement adaptées dans le cas d’élèves du niveau secondaire, mais plus du niveau universitaire. La catégorie « Recherche d’aide des adultes » prête à sourire, puisque les étudiant·e·s à un niveau universitaire sont elles·eux-mêmes des adultes. Au niveau Master particulièrement, les savoirs enseignés sont souvent particulièrement précis et ne peuvent être appréhendés que par des personnes compétentes dans ces domaines, ce qui exclut l’aide d’adultes référents, comme les parents. De même pour les enseignant·e·s de ces savoirs, qui seront moins perçu·e·s comme des ressources mobilisables : on attend généralement d’un·e étudiant·e de ce niveau qu’il·elle soit suffisamment autonome pour combler ses lacunes.

De même, la catégorie « Examen des manuels » semble laissée pour compte, et pour cause : les manuels sont des ressources au niveau secondaire, plus rarement universitaire.

On remarquera que du côté des stratégies les plus mentionnées, on retrouve l’organisation et la transformation, et la fixation d’objectifs et la planification. On peut considérer ce résultat comme cohérent avec les exigences d’un Master : on attend d’un·e étudiant·e qu’il·elle soit de plus en plus actif·ve à mesure qu’il·elle avance dans ses études. Il est donc pertinent pour elle·lui d’intervenir activement dans la matière du cours et dans les ressources mises à disposition, plutôt que d’apprendre de manière passive. On notera également que la planification et la fixation d’objectifs correspond également aux conditions de rédaction du mémoire de Master, lequel exige autonomie et capacité organisationnelle, puisque chaque étudiant·e crée souvent son propre échéancier.

1.5       Discussion sur l’outil de mesure 

La validité de construit de l’outil SRLIS a été investiguée et confirmée par l’article de Zimmerman et Martinez-Pons (1988). En ce qui concerne une éventuelle validité interjuge, nous avons choisi d’échanger avec notre binôme nos résultats, pour évaluer si nos codages se recoupaient. Pour ce qui est de notre recherche, nous avons constaté que notre binôme a codé 5 des 12 situations présentées de la même manière. Dans chacune des situations, nous avons tous deux sélectionné au moins une stratégie en commun pour les descriptions des deux participantes, mais sept des douze situations voyaient au moins une divergence émerger. Il est difficile de déterminer à si petite échelle si le SRLIS possède une bonne validité interjuge, ce que semble confirmer le chiffre de 80% d’accord cité dans l’étude de Zimmerman et Martinez-Pons (1986 : 620), mais force est de constater que c’est un point discutable pour notre cas.

Nous avons également constaté que les questions proposées par le SRLIS, mêmes adaptées, correspondaient plus à des élèves du niveau secondaire I ou II, et non à des universitaires. Certains éléments lexicaux, comme « devoirs », « test », « élèves », « classe », renvoient plutôt à un imaginaire scolaire, ce qui a paru dissonant pour nos participantes. L’une des autres limites que nous avons constatées concerne la formulation des questions : il s’agit, dans leur intégralité, d’interrogations totales, qui ne sont donc pas propices au développement. Nos participantes étant charitables et ayant saisi l’intérêt de ces questions, elles ont toujours développé leur réponse, mais on peut toutefois identifier certaines fois où la formulation de la question induit une réponse insatisfaisante :

« […] Dans ce cas, avez-vous une méthode particulière pour vous aider à planifier et à rédiger votre devoir ?

– Non, pas vraiment. […]» (extrait de l’interview avec KB)

Enfin, nous pouvons également mentionner la formulation « méthode particulière » qui a déstabilisé nos participantes. Comme nous l’avons constaté, nos participantes ont toujours une manière de faire face à ces problèmes, parfois automatisée, parfois non, mais ne se reconnaissent pas dans la formulation « méthode particulière », qui présuppose un recul conscient et une habitude formée.

« Y a-t-il une méthode particulière que vous utilisez pour faire vos devoirs universitaires ? 

– Une méthode particulière de voir des lectures ou des textes avant non. […] » (extrait de l’interview avec LC)

Ainsi, nous trouvons qu’il aurait été plus pertinent de former les questions sous la forme suivante : « Dans tel cas, quels sont les moyens que vous mettez en œuvre ? ».

2        Le SELF

2.1       Description de l’outil

Le Self-Efficacy for Learning Form (abrégé SELF) est un outil créé par Barry J. Zimmerman et Anastasia Kitsantas (2005), qui vise à étudier quelle est l’auto-efficacité perçue par des élèves dans cinq dimensions : la lecture, l’étude, la préparation à l’examen, la prise de notes et l’écriture. L’auto-efficacité renvoie « aux croyances sur sa propre capacité à apprendre ou performer de manière efficiente, et l’auto-efficacité pour les apprentissages renvoie aux croyances sur l’utilisation de processus d’auto-régulation, comme le fait de se fixer des buts, le monitoring, l’utilisation de stratégies, l’auto-évaluation et l’auto-réaction à apprendre.[1] » L’outil contient 57 items formulés sous forme de questions présentant un cas particulier susceptible d’arriver à l’élève. Les items sont formulés sous la forme suivante : « Dans le cas X, es-tu capable de trouver un moyen de faire face à ce souci ? ». Les personnes questionnées sont ensuite invitées à répondre par un pourcentage (0% correspondant à « je ne peux certainement pas le faire », 100% correspondant à « je peux certainement le faire »).  

À l’origine, Zimmerman et Kitsantas (2005) ont cherché à étudier le rôle des devoirs dans l’auto-régulation de l’apprentissage des élèves. En effet, on considère généralement que l’auto-régulation est à mettre en lien avec la motivation, puisqu’elle suppose une implication personnelle et de la persévérance. Et parmi les croyances motivationnelles, c’est l’auto-efficacité (self-efficacy en anglais) qui a été étudiée comme corrélant avec l’auto-régulation de l’apprentissage (Pajares & Schunk 2001). Zimmerman et Kitsantas (2005) ont donc fait l’hypothèse que les croyances des élèves dans l’auto-efficacité de leurs apprentissages affectent leur perception dans leur responsabilité de leurs apprentissages. 180 filles dans l’enseignement secondaire ont été interrogées. Une corrélation a été mise en évidence entre le fait de faire ses devoirs et la réussite scolaire, mais le lien entre le fait de faire ses devoirs et un certain bénéfice en termes d’auto-régulation de l’apprentissage était plutôt ténu.

L’étude a été répliquée en 2007 par les mêmes auteur·ice·s, avec une version du SELF abrégée, qui ne contenait que 19 items sur les 57 d’origine : ces items se concentraient sur l’étude, la préparation aux examens et la prise de note. Cette fois-ci, l’étude s’est portée sur 223 participant·e·s mixtes et du niveau universitaire. Aucune différence de genre n’a pu être constatée. Il s’est avéré que le SELF-A (version abrégée du SELF) a été plus prédictif que le SELF d’origine pour la note finale du cours, la quantité et qualité de leurs devoirs, la perception de leur responsabilité pour leur réussite ainsi que l’évaluation des enseignant·e·s quant à l’auto-régulation de l’apprentissage des élèves en classe.

Du reste, l’outil a été qualifié de valide grâce à son potentiel de prédiction de la part des enseignant·e·s dans leur perception de la quantité de comportements d’auto-régulation de l’apprentissage des élèves dans leur classe (Zimmerman & Kitsantas 2005). La fidélité de l’outil a pu être avancée par le fait que le score des étudiant·e·s présentent une grande cohérence interne (α de Cronbach de .99).

2.2       Description de la méthodologie

Comme mentionné pour la passation du SRLIS, nous avons fait passer le SELF aux étudiantes concernées dans un endroit calme, avec du temps à disposition et à la suite du SRLIS. Nous étions donc disponibles si elles avaient des questions ou un doute.

Nous avons employé la version traduite du SELF, qui était également adaptée à des étudiant·e·s d’un niveau universitaire. Nous leur avons présenté l’échelle de pourcentage avec ce que signifiait chaque réponse. Elles ont ensuite effectué le questionnaire. À noter que nous l’avons gardé tel qu’il était présenté dans sa version traduite, c’est-à-dire trié par catégorie d’items.

2.3       Présentation des résultats avec le SELF

Le tableau II présente les résultats au SELF de nos deux participantes :

Critère évaluéMoyenne LCMoyenne KB
Items lecture76,36 %57,27 %
Items étude84,29 %63,57 %
Items préparation examen78,63 %80%
Items prise de notes88,75 %60,83 %
Items écriture72,77%74,44
MOYENNE TOTALE80,16 %62,68 %
MOYENNE SELF-A85,26 %70,55 %
Tableau II : Résultats des participantes au SELF et au SELF-A

Nous devons ici noter l’une des limites de notre étude : le SELF a été passé aux étudiant·e·s. avec les items non triés, ce qui a sans doute créé un biais.

Nous ne nous sommes pas procurés les résultats universitaires de ces deux participantes, difficile donc de juger de la validité de leurs deux jugements. Nous pouvons toutefois remarquer que par rapport à l’étude initiale de Zimmerman & Kitsantas (2005), LC correspond à la moyenne des filles interrogées (79,70 % en moyenne avec un écart-type de 13,01 points). KB, elle, est en-dessous. La seconde étude qui a employé le SELF-A (Zimmerman & Kitsantas 2007), présentait une moyenne pour les étudiantes de 76,10%, avec un écart-type de 10,77 points. Pour ce cas précis, nos deux participantes correspondent à ces chiffres. On peut toutefois se poser la question de la pertinence d’une moyenne dans ce genre de cas précis : au contraire, les disparités entre les différentes catégories permettent aux participantes de connaître leurs points forts et faibles.

2.4       Discussion sur l’outil de mesure

Si l’outil présente des résultats cohérents avec des étudiantes de niveau universitaires (cf. supra), nous devons admettre notre scepticisme quant au choix de l’échelle : accorder son accord en pourcentage semble difficile pour nos participantes. Par exemple, KB n’a choisi que des chiffres ronds pour signifier son accord. Il nous semble qu’une échelle de Likert à 10 points serait autrement plus indiquée, ou alors une échelle glissante à la graduation cachée pour ne pas perdre en finesse dans les réponses.

Une des autres limites de cet outil nous semble-t-il, c’est que les situations qu’il soumet peuvent amener à des résultats très différents en fonction du cours impliqué. Chaque situation de « réussite » présenté dans les situations semble impliquer que l’investissement idéal est de 100% dans chaque cours, or aux niveaux Bachelor et Master, il semble normal de prioriser certains cours au détriment d’autres. Il nous semble que la compétence de la priorisation pourrait également être valorisée.

Enfin, on peut ajouter à cela un biais de désirabilité sociale : les deux participantes m’étant proches et sachant que nous analyserions leurs réponses sans anonymat, elles ont peut être modulé certaines de leurs réponses pour éviter tout jugement de notre part. La question de la disparité des réponses peut également poser la question d’une disparité dans leur propre estime de soi.

3        Comparaison entre les outils de mesure

Les deux outils ont été co-créés par Barry J. Zimmerman, mais avec différents objectifs : le SRLIS vise à sonder l’emploi de stratégies d’auto-régulation par des élèves, tandis que le SELF vise à connaître la perception de l’auto-efficacité d’élèves. Le point commun de ces deux outils est d’avoir pour objet d’étude une composante métacognitive sur les apprentissages : dans les deux cas, ce sont des élèves ou des étudiant·e·s qui sont invité·e·s à avoir une approche réflexive sur leurs pratiques d’apprentissage. Avec cela, notons que les deux questionnaires prennent pour cadre des habitudes scolaires ou universitaires : l’apprentissage dans ces cas précis est donc vu à travers l’angle précis des savoirs scolaires ou académiques, et non dans un cadre plus large.

Au niveau de la récolte de données, le SRLIS permet une certaine liberté dans la réponses que peuvent donner les participant·e·s, toutefois opérationnalisées au moyen d’une grille critériée. Le SELF permet moins de marge de manœuvre, puisque les répondant·e·s sont invité·e·s à donner leur accord de 0 à 100 sur un item prédéterminé. Ce questionnaire comptant 57 items répartis dans 5 catégories, il est possible d’avoir une certaine finesse d’analyse.

Ces deux outils semblent pertinents dans le cadre universitaire, s’ils sont toutefois mis en rapport avec une donnée objective, comme les résultats académique des personnes interrogées. Nous n’avons pas pu nous procurer ces résultats, rendant difficile de juger de la justesse d’analyse de ces outils. Sans ça, ils restent utiles en cela qu’ils permettent de rendre compte des stratégies qu’utilisent parfois inconsciemment les répondant·e·s, et permettent de mettre l’accent sur ce qu’ils·elles identifient comme leurs points forts ou points faibles.

Nous avons trouvé étonnant que nos participantes aient des résultats si semblables au SRLIS (même nombre de stratégies employées et mention des mêmes stratégies) et si dissemblables au SELF (les moyennes sont de 80% pour le sujet 3 contre 63% pour le sujet 4). Puisque le premier outil décrit ce que les étudiant·e·s font effectivement et le second ce qu’ils·elles se sentent capables de faire, on peut probablement imputer cette différence à ce facteur : la différence traduit moins l’auto-efficacité que le sentiment de capabilité. Ce point est à mettre selon nous en évidence.

L’intérêt de tels outils au niveau universitaire nous semble donc moins relever d’un chiffre précis mais plutôt d’une tendance : si les étudiant·e·s l’emploient par eux-mêmes et pour eux-mêmes, peut-être découvriraient-ils·elles leurs forces et leurs faiblesses, ce qui permettrait à ces outils de servir d’auto-diagnostic. Nous maintenons toutefois que ces outils ont tout intérêt à être adaptés, dans le contenu des questions, aux personnes interrogées pour qu’ils puissent au mieux correspondre à la réalité dans laquelle évoluent les participant·e·s.

Bibliographie


  • Bandura, A. (1986). Socialfoundations of thought and action: A social cognitive theory. Prentice-Hall.
  • Barbier, É., Dewulf-Termolle, J., Colognesi, S. (2024). Évolution des connaissances et des croyances relatives à la métacognition de futurs enseignants du secondaire. Dans S. C. Cartier, J-L. Berger, et A. Fagnant (dir.), Apprentissage autorégulé. Formation, pratiques et conceptions des enseignants (p. 45-70). Alphil.
  • David, M. (2016). Pratiques pédagogiques et autonomie des étudiants de LI. Revue électronique de jeunes chercheurs en sciences humaines et sociales, 115-122.
  • Faldareau, M., et Loranger, M. (1993). Le choix de stratégies d’apprentissage dans différents contextes scolaires par l’élève du primaire et du secondaire. Revue canadienne de l’éducation, 18(4), 307-322.
  • Flavell, J. H. (1979). Metacognition and cognitive monitoring: A new area of cognitive developmental inquiry. American Psychologist, 34, 906–911.
  • Greene, J. A. (2018). Self-regulation in education. Routledge.
  • Mercier-Brunel, Y. (2024). Les normes évaluatives des enseignants face aux réformes de l’évaluation en France : en quoi constituent-elles un obstacle à une évaluation soutenant le processus d’autorégulation de l’apprentissage des élèves ?. Dans S. C. Cartier, J-L. Berger, et A. Fagnant (dir.), Apprentissage autorégulé. Formation, pratiques et conceptions des enseignants (71-99). Alphil.
  • Pajares, F., & Schunk, D. H. (2001). Self-beliefs and school success: Self-efficacy, self-concept, and school achievement. Dans R. J. Riding & S. G. Rayner (Éds.), International perspectives on individual differences: Self perception (Vol. 2, p. 239–265). Ablex Publishing.
  • Schunk, D. H. (1984). Self-efficacy perspectives on achievement behavior. Educational Psychologist, 19, 48-58.
  • Zimmerman, B. J., et Martinez-Pons, M. (1986). Development of a structured interview for assessing student use of sell-regulated learning strategies. American Educational Research Journal, 23, 614-628.
  • Zimmerman, B. J., et Martinez-Pons, M. (1988). Construct validation of a strategy model of student self-regulated learning. Journal of Educational Psychology, 80, 284-29.
  • Zimmerman, B. J. (1989). A social cognitive view of self-regulated academic learning. Journal of Educational Psychology, 81, 329-339.
  • Zimmerman, B. J., et Martinez-Pons, M. (1990). Student Differences in Self-Regulated Learning: Relating Grade, Sex, and Giftedness to Self-Efficacy and Strategy Use. Journal of Educational Psychology, 82, 51-59.
  • Zimmerman, B. J., Bandura, A., & Martinez-Pons, M. (1992). Self-motivation for academic attainment: The role of self-efficacy beliefs and personal goal setting. American Educational Research Journal, 29, 663–676.
  • Zimmerman, B. J. (2002). Efficacité perçue et autorégulation des apprentissages durant les études : une vision cyclique. Dans P. Carré &  A. Moisan (dir.), La formation autodirigée. Aspects psychologiques et pédagogiques (p. 69-88). L’Harmattan.
  • Zimmerman, B. J., et Kitsantas, A. (2005). Homework practices and academic achievement: The mediating role of self-efficacy and perceived responsibility beliefs. Educational Psychology, 30, 397-417.

[1] Notre traduction : « Self-efficacy refers to beliefs about one’s capability to learn or perform effectively, and self-efficacy for learning refers to beliefs about using self-regulatory processes, such as goal setting, self-monitoring, strategy use, self-evaluation, and self-reactions to learn. » (Zimmerman & Kitsantas 2005 : 398)