Auteure: Giulia Vecchi

Introduction

L’objectif de ce travail est d’explorer le sujet de l’autorégulation du processus de l’apprentissage. Pour ce faire, nous avons administré deux tests catégorisant et évaluant les stratégies d’apprentissage auprès de deux étudiantes universitaires.

Boekaerts (2018) accorde une grande importance à l’autorégulation du processus de l’apprentissage, affirmant qu’elle devrait être l’un des principaux objectifs de l’éducation formelle. D’après lui, l’autorégulation est importante à la fois pendant la scolarité, pour gérer et diriger correctement son propre apprentissage, et en dehors du contexte scolaire, pour s’auto-éduquer et maintenir ses connaissances à jour. L’apprentissage autorégulé fait référence à la réalisation des objectifs d’apprentissage grâce à des compétences telles que la planification, la mise en œuvre, le monitorage, le contrôle et la réflexion sur les facteurs internes à l’individu·e·s (tels que la cognition, la métacognition, la motivation, le comportement et l’affect) et les facteurs externes à lui (Greene, 2018).

Zimmerman (2002) explique l’apprentissage autorégulé à l’aide du modèle causal triadique, inspiré du concept d’autorégulation de Bandura. Ce modèle met l’accent sur l’interaction dynamique entre les facteurs personnels, environnementaux et comportementaux de l’individu·e·s en montrant comment chacun de ces éléments influence l’autre au cours du processus d’apprentissage. Plus précisément, selon le modèle causal triadique, ces éléments changent constamment au cours du processus d’apprentissage et doivent être surveillés. L’autorégulation est conçue comme un processus cyclique, dans lequel les expériences passées sont utilisées pour apporter des changements au cours du travail, selon un modèle de rétroaction (Usher et al., 2018).

1.    Description de l’échantillon

La première participante (P1) suit la troisième année de bachelor en pédagogie/psychologie à l’université de Fribourg. Elle est née le 28 avril 2004 et elle avait 20 ans au moment de l’entretien.

La deuxième étudiante (P2) est en troisième année de bachelor en sciences de l’éducation. Elle est née le 23 mars 2000 et avait 24 ans au moment du test. Les deux participantes ont été choisies par commodité, sachant qu’elles avaient montré de l’intérêt pour le sujet de l’étude.

2.    Description de l’outil de mesure SRLIS

L’outil de mesure « Self-Regulated Learning Interview Schedule » (SRLIS) est un protocole d’entretien court et structuré sur l’apprentissage autorégulé et est utilisé pour mesurer l’auto-efficacité des étudiant·e·s en matière de lecture, d’écriture, de préparation aux examens, de prise de notes et de rédaction. Il est composé de six scénarios sur les stratégies d’apprentissage dont la tâche des participant·e·s est de répondre à des questions concernant leur expérience personnelle en matière de stratégies d’apprentissage. Puis, dans un deuxième temps, les individu·e·s doivent évaluer sur une échelle de Likert allant de 1 à 4 la régularité d’utilisation de la stratégie qu’ils ont proposée (où 1 = rarement, 2 = occasionnellement, 3 = fréquemment et 4 = la plupart du temps). Onze classes de stratégies de l’apprentissage autorégulé peuvent ensuite être identifiées lors de l’analyse des résultats (Zimmerman et Martinez-Pons, 1986,1988, 1990).

2.1 Description de la méthodologie

Pour réaliser l’analyse, nous nous sommes rendus dans un bureau sans distracteurs externes. Tout d’abord, j’ai expliqué la procédure de test aux deux participantes, en illustrant les six scénarios dans lesquels elles devaient répondre en pensant à leurs habitudes d’étude/stratégies d’apprentissage et en évaluant la fréquence d’utilisation de la stratégie mentionnée. Je me suis ensuite assuré de leur consentement à la participation. Après m’être assuré que tout était clair sur la procédure, nous avons commencé le test. Une fois la transcription réalisée, j’ai effectué une analyse visant à identifier les catégories de stratégie de l’apprentissage autorégulé parmi les onze proposées par les créateurs du test (cf. tableau 1.) auxquelles les participantes se référaient le plus. L’analyse a comparé la fréquence observée dans les différents scénarios (nombre de fois où la participante a mentionné une catégorie) avec la régularité moyenne d’utilisation mentionnée pour comprendre si les résultats suggéraient une cohérence entre les deux.

2.2 Présentation des résultats SRLIS

La participante 1 utilise un total de huit stratégies (cf. tableau 2a.). En particulier, les stratégies les plus souvent mentionnées par la participante sont trois. Tout d’abord, la stratégie numéro (2), organisation et transformation de l’information, est mentionnée par la participante six fois au total et dans quatre scénarios différents. La participante déclare qu’elle utilise fréquemment cette stratégie. Ensuite, la stratégie numéro (6), structuration de l’environnement, a été utilisée quatre fois dans trois scénarios différents, le score moyen de régularité ici se situant entre fréquemment et la plupart du temps. Enfin, parmi les stratégies principales, nous avons identifié la stratégie numéro (3), à savoir la fixation d’objectifs et la planification. Cette dernière stratégie a été mentionnée trois fois dans trois scénarios distincts. En moyenne, la participante lui a attribué un score d’utilisation fréquente. Ensuite, la participante mentionne la stratégie d’examen des informations (12-14) et la stratégie de recherche d’aide sociale (9-11) deux fois au total. Les stratégies conséquences personnelles (7), répétition et mémorisation (8) et auto-évaluation (1) sont mentionnées une fois au total.

Globalement, les résultats de l’analyse montrent une cohérence entre la fréquence des stratégies observées dans les différents scénarios et la régularité d’utilisation rapportée par la participante parmi les trois stratégies principales. Dans ces trois stratégies, la participante décrit une régularité qui reflète la réalité observée, indiquant en effet une régularité élevée, telle que « fréquemment » ou « la plupart du temps ».

Toutefois, si nous regardons les données plus en détail, (cf. tableau 2b.), nous pouvons constater que la participante n’est pas consciente qu’elle utilise la stratégie (2), à savoir organisation et transformation de l’information, plus fréquemment que les autres. Elle attribue plutôt à la stratégie (6), structurer l’environnement, la plus grande régularité d’utilisation. De plus, la participante a tendance à assimiler la stratégie numéro (2), c’est-à-dire celle qui est mentionnée le plus fréquemment, à la stratégie (3), bien que cette dernière, c’est-à-dire la fixation d’objectif et la planification, ne soit observée que dans la moitié des cas.  Il est également intéressant de noter que la participante déclare utiliser principalement la stratégie numéro (1), l’autoévaluation, ce qui est contredit par la fréquence avec laquelle cette stratégie est mentionnée, n’apparaissant qu’une seule fois dans un scénario. Le même phénomène de surestimation d’utilisation de stratégies peut être observé pour la stratégie révision des informations (12-14).  

En conclusion, les résultats indiquent que la participante peut identifier des stratégies clés, mais ne reconnaît pas toujours pleinement leur importance et a tendance à surestimer leur fréquence. Cela suggère des difficultés à évaluer l’utilisation de ses propres stratégies.

Au total, la participante 2 a utilisé huit stratégies (cf. tableau 4a.), dont quatre principales. La stratégie dominante est la stratégie de fixation d’objectifs et planification (3), qui a été observée quatre fois et est mentionnée dans quatre scénarios divers. La participante affirme l’utiliser « la plupart du temps ». Elle se démontre donc consciente du fait que cette stratégie est utilisée de manière importante. Puis, la stratégie d’organisation et transformation (2), a été observée trois fois dans deux scénarios au total, la participante la qualifiant d’ « occasionnelle ». Ensuite, la stratégie révision d’information (12-14) a été notée trois fois dans trois scénarios différents, avec une régularité qualifiée de « fréquente ». Enfin, la stratégie numéro (9-11), recherche d’aide sociale, a une fréquence de trois et a été notée dans trois scénarios distincts. Pour cette stratégie également, la participante a déclaré qu’elle l’utilisait fréquemment. Les stratégies conséquences personnelles (7), structuration de l’environnement (6) et recherche d’informations (4) sont mentionnées deux fois au total et la stratégie répétition et mémorisation (8) qu’une fois.

D’une manière générale, la participante a montré une capacité à identifier correctement les stratégies qu’elle utilise le plus fréquemment, dont la stratégie principale (3), à savoir la fixation d’objectifs et la planification. De plus, la participante est également consciente que les stratégies (2), (12-14) et (9-11) sont utilisées moins fréquemment que la principale (3). En fait, un score « fréquent » est attribué à ces stratégies en moyenne. Malgré cela, en ce qui concerne la stratégie (2), à savoir d’organisation et transformation, la participante a tendance à lui attribuer moins de régularité qu’aux stratégies (9-11), recherche d’aide sociale, et (12-14), révision des informations, bien que nous ayons observé une fréquence égale (cf. tableau 4b.). De plus, il faut tenir compte du fait que la participante attribue une régularité « fréquente » à plusieurs stratégies que nous n’observons que rarement, ce qui est le cas des stratégies numéro (8), répétition et mémorisation, et (4), recherche des informations, par exemple.

En conclusion, nous pouvons affirmer que la participante est capable d’identifier clairement sa stratégie principale, à savoir la fixation d’objectifs et la planification (3), et qu’elle distingue assez bien ses autres stratégies principales. Cependant, elle surestime la fréquence d’utilisation de certaines stratégies, ce qui indique une possible inefficacité dans leur autorégulation.

2.3 Discussion sur l'outil de mesure SRLIS

L’instrument de mesure SRLIS présente des avantages et des inconvénients dans l’identification des stratégies d’apprentissage autorégulé des étudiant·e·s universitaires.

Tout d’abord, l’outil présente des scénarios assez réalistes et comparables à des situations réelles, ce qui permet de bien comprendre les stratégies utilisées par les étudiants·e·s. Malheureusement, l’une des faiblesses de ces six scénarios est qu’ils semblent souvent mal adaptés aux étudiant·e·s de niveau universitaire, s’avérant peut-être plus appropriés aux situations de vie des étudiant·e·s de l’école secondaire. Cela peut exercer une influence sur la validité de l’instrument. Il aurait peut-être été pertinent de définir des scénarios et des catégorisations plus appropriés aux tranches d’âge. Par exemple, les scénarios auraient pu porter sur la recherche d’un emploi ou sur la rédaction d’un mémoire au lieu de se référer vaguement à la rédaction d’un « devoir/travail ». Ensuite, dans la catégorisation de la stratégie recherche d’informations (4) par exemple, il aurait été utile de mentionner dans sa définition l’utilisation d’outils de recherche plus technologiques, étant donné l’utilisation constante de la technologie à l’université et l’utilisation extensive de bases de données en ligne pour les recherches de la littérature ; ou pour la stratégie de recherche de soutien social (12-14), il aurait été utile d’introduire le fait d’entrer en contact, en plus des enseignants, avec des personnes du domaine d’étude spécifique, telles que des chercheur·euse·s, d’anciens étudiant·e·s, des professionnel·le·s.

Ensuite, le fait d’avoir des catégories bien définies m’a amené parfois à faire un choix un peu forcé entre elles, en essayant toujours de classer les manières d’agir des participantes parmi les stratégies proposées. En plus, on peut affirmer que la catégorisation n’est pas fiable du point de vue de l’accord interjuge. En effet, dans notre cas, l’évaluation effectuée par un seul juge n’est pas suffisante pour garantir la fiabilité interne du test.

Enfin, une autre limite a été trouvée dans le fait que les chercheur·euse·s n’ont pas expliqué de manière exhaustive comment interpréter les données et dans la manière dont les stratégies sont calculées, ce qui m’a conduit à les interpréter selon mes propres critères. Par exemple, lorsque deux méthodes différentes ont été mentionnées et qu’elles pouvaient être incluses dans une stratégie, cette dernière a été comptée deux fois. Cela signifie que la comparaison de mes données avec celles d’autres chercheur·euse·s peut s’avérer complexe et biaisée. De plus, dans notre cas, un échantillon composé de seulement deux participantes ne garantit pas une bonne solidité de l’analyse et les données ne sont effectivement pas généralisables. C’est pour toutes ces raisons que les résultats doivent être interprétés avec prudence.

3.    Description de l’outil de mesure LSKT

Le Learning Strategy Knowledge Test est un auto-questionnaire qui mesure les connaissances des étudiant·e·s sur les stratégies d’apprentissage autorégulé. Il est basé sur les modèles théoriques du self-regulated learning (SRL) (Schmitz, 2001; Schmitz & Wiese, 2006; Zimmerman, 2005), à savoir l’apprentissage autorégulé. L’outil est composé de sept situations problématiques auxquelles les élèves sont confrontés lorsqu’ils doivent aborder des tâches difficiles à l’école. Ces différents scénarios ont été conçus à partir du modèle théorique du SRL et à partir des expériences des enseignant·e·s en observant les étudiant·e·s gérer des tâches complexes. De plus, ces scénarios sont évalués sur trois moments de l’apprentissage : la préaction, au cours de laquelle la planification a lieu ; l’action, au cours de laquelle le monitorage a lieu ; la post action, phase dans laquelle l’évaluation a lieu (Schmitz, 2001 ; Schmitz et Wiese, 2006). Pour chaque situation d’apprentissage, il a été présenté différentes stratégies, que les étudiant·e·s devaient évaluer dans leur utilité sur une échelle de 1 à 6 (où 1-2 = faible utilité ; 3-4 = utilité moyenne ; 5-6 = haute utilité »). Les utilités attribuées aux stratégies ont ensuite été comparées à celles attribuées par les expert·e·s. Sur la base de cette comparaison, des pourcentages ont été calculés pour évaluer le degré d’uniformité entre les réponses des participantes et celles des expert·e·s.

3.1 Description de la méthodologie

Pour mener l’analyse, j’ai prévu de me rendre avec mes participantes dans un environnement approprié sans la présence de distracteurs externes. La situation de l’étude et sa procédure ont été présentées aux participantes. Il leur a été expliqué que l’objectif de la récolte de données sur le questionnaire était de mesurer leur connaissance des stratégies d’apprentissage et que, pour ce faire, j’aurais eu besoin qu’elles évaluent l’utilité de stratégies d’apprentissage. Ensuite, après m’être assuré que les participantes avaient compris les informations et étaient d’accord à participer, on leur a rappelé qu’elles pouvaient poser des questions à tout moment. Je leur ai alors présenté le questionnaire qu’elles ont pu remplir à leur propre rythme. Après avoir collecté les données, j’ai effectué une analyse comparative en confrontant les résultats obtenus à la note moyenne des expert·e·s. Dans mon analyse, un score a été considéré comme suffisamment similaire lorsqu’il correspondait ou dépassait 70% de celui des expert·e·s. À l’inverse, un score supérieur à ce seuil a été interprété comme un indicateur de faiblesse.

3.2 Présentation des résultats LSKT

La participante 1 démontre globalement des connaissances plutôt faibles en matière d’évaluation de stratégies, obtenant globalement un score d’évaluation égal à 64% de celui des expert·e·s (cf. tableau 3.). Plus précisément, dans les trois phases distinctes, la participante obtient un score de 62% de similarité dans l’évaluation des stratégies de préaction, c’est-à-dire de planification. Ensuite, elle obtient un score de 59% dans les stratégies d’action (monitorage), et un score de similarité de 86% dans l’évaluation de l’utilité des activités post-action, ce qui correspond à l’évaluation a posteriori. En ce qui concerne la phase de préaction, l’étudiante a des scores bas dans les deux scénarios visant à évaluer l’utilité des stratégies dans la phase de planification. Dans la phase d’action, elle démontre avoir des scores plutôt bas dans presque tous les scénarios de cette phase sauf par le scénario six, à savoir la finalisation d’un rapport écrit. Dans ce cas, elle semble être en mesure d’identifier les stratégies les plus utiles plus fortement, en obtenant un pourcentage de similarité de 75%. La phase de post action est celle où la participante se démontre la plus performante, en obtenant un pourcentage de similarité de 86%.

La participante 2 semble avoir un peu plus de mal à bien évaluer les stratégies, toujours en se référant à l’utilité attribuée par les expert·e·s. En effet, elle obtient un score de similarité globale de 58%, ce qui signifie que pour les 52% restants, son évaluation de l’utilité des stratégies n’est pas efficace (cf. tableau 3b). Plus précisément, l’étudiante semble être plus performante dans la première phase, celle de planification, dans laquelle elle obtient en effet un total de similarité de 69%. Dans ces deux premiers scénarios attribués à la phase de préaction, elle se différencie en effet principalement par la stratégie du scénario deux, qui correspond à se faire une idée d’un sujet défini, obtenant un score de similarité de 86% (cf. tableau 5.). Dans les deux autres phases, à savoir l’action et la post-action, elle obtient un score plutôt médiocre, d’environ 60% de similarité et démontre donc avoir aussi dans ces phases des difficultés dans la reconnaissance de l’utilité des stratégies. Malgré cela, durant la phase d’action, elle se montre efficace dans l’évaluation des stratégies du scénario cinq, sur la façon de surmonter les difficultés dans un travail demandant des efforts, en évaluant l’utilité des stratégies de façon pertinente et en obtenant un score de similarité de 70% à celle des expert·e·s.

3.3 Discussion sur l'outil de mesure

L’outil de mesure Leraning Strategy Knowledge Test a été très utile pour analyser la capacité de deux participantes à détecter les stratégies d’auto-apprentissage pendant les phases de préaction, d’action et de post-action. Malgré cela, la répartition des scénarios dans ces trois phases est quelque peu déséquilibrée. En effet, si pour la phase de planification les expert·e·s ont envisagé deux scénarios, pour la phase de monitorage, ils en ont envisagé quatre et pour la phase d’évaluation, un seul. Cela va exercer une influence sur la validité de l’outil et, lors de l’interprétation des données, cela entraîne des biais d’analyse, car la phase de monitorage est explorée plus en profondeur.

Par ailleurs, il n’existait pas de méthodologie claire pour comparer les moyennes d’utilité de stratégie proposées par les expert·e·s avec celles obtenues par mes participantes. J’ai donc développé moi-même une méthode en m’inspirant le plus possible du texte de référence. Le seuil de similarité de réponse acceptable a également été choisi à ma discrétion. C’est pourquoi la comparaison avec d’autres chercheur·euse·s s’avère difficile. À propos de la similarité, je me suis demandé à plusieurs reprises si l’évaluation de l’utilité de stratégies déjà proposées permettait réellement de comprendre la connaissance réelle de ces stratégies.

Enfin, j’ai noté un certain effet d’ordre dans le texte : l’ordre dans lequel les stratégies sont présentées peut générer de la confusion chez les participantes. En effet, par exemple, dans le scénario 1 le fait de proposer la stratégie de lecture d’un ouvrage de référence suivie de la stratégie de consultation de la table des matières peut créer une ambiguïté dans la perception de leur utilité ou dans l’identification de leur enchaînement logique (cf. questionnaire LSKT). Ce type d’effet d’ordre risque d’influencer la réponse des participants et de compromettre la pertinence des résultats. Enfin, le fait d’avoir testé seulement deux participantes ne permet pas de disposer de données généralisables. Compte tenu de ces éléments, la pertinence totale des résultats n’est pas garantie et ceux-ci doivent donc être pris avec prudence.

4.    Une comparaison entre les deux outils

Les deux outils ont pour objectif commun d’explorer les stratégies d’autorégulation de l’apprentissage. D’une part, le SRLIS adopte une méthode basée sur un entretien visant à explorer et catégoriser les stratégies mentionnées par le participant·e·s ; d’autre part, le LSKT comprend un auto-questionnaire conçu pour évaluer la connaissance des stratégies efficaces, considérée comme un élément clé de la métacognition. Les résultats de la comparaison entre les deux outils ont montré globalement des incohérences dans les profils des deux participantes. Plus précisément, la LSKT montre que la participante 1 semble peu consciente de l’utilité des stratégies de préaction et d’action (cf. figure 1.). Cependant, les données collectées par le biais du SRLIS (cf. figure 2.), montrent que la participante mentionne des stratégies pertinentes dans ces phases. Cette incohérence apparaît, par exemple, avec la stratégie d’organisation et de transformation (2), mentionnée six fois dans quatre scénarios, qui semble être un élément clé de la phase d’action. En revanche, elle perçoit clairement l’utilité de la phase d’après-action, mais comprend mal les stratégies qui y sont associées. Par exemple, l’auto-évaluation n’est mentionnée qu’une seule fois dans le SRLIS.

La participante 2 a montré peu de conscience de l’utilité des stratégies dans les trois phases, obtenant des scores de similarité proches de 60% (cf. figure 1.). Cependant, dans le SRLIS, elle a mentionné en moyenne toutes les stratégies proposées, et en a même utilisé certaines qui étaient considérées comme des piliers de chaque phase. Par exemple, dans la phase de préaction, elle a mentionné la fixation d’objectifs et la planification quatre fois dans quatre scénarios (cf. figure 3.). Globalement, mes résultats démontrent des différences entre la capacité des participantes à mobiliser des stratégies et la capacité à les évaluer de manière cohérente. Ces résultats doivent être interprétés avec prudence dans leur complémentarité, en tenant compte que, pour améliorer la fiabilité des données, il pourrait être utile d’envisager d’aligner les deux outils, par exemple en introduisant des critères plus stricts pour la classification des stratégies SRLIS dans les trois phases de la LSKT ou en définissant une échelle commune aux deux instruments.

Conclusion

En conclusion, nous avons constaté que ces outils de mesure sont de bons instruments, mais qu’ils présentent en même temps plusieurs limites dont il faut tenir compte lors de leur utilisation complémentaire. Une des principales limites est l’interprétation subjective des données recueillies après les tests, en l’absence d’indications claires de la part des concepteur·rice·s de tests. Il serait donc pertinent de développer un test offrant des indications plus précises pour l’interprétation et l’analyse et des résultats.

En conclusion, nous pouvons dire que les deux instruments se complètent, en fournissant des informations sur les tendances des participantes dans leurs stratégies d’autorégulation de l’apprentissage. Cependant, il est important de se questionner sur quelles actions devraient être entreprises pour améliorer ces instruments afin de garantir une plus grande fiabilité dans leur complémentarité et une compréhension plus approfondie des processus d’apprentissage autorégulé.

Bibliographie

Boekaerts, M. (1997). Self-regulated learning: A new concept embraced by researchers, policy makers, educators, teachers, and students. Learning and Instruction, 7(2), 161-186. https://doi.org/10.1016/S0959-4752(96)00015-1

Greene, J. A. (2018). Self-regulation in education. Routledge.

Schunk, D. H., et Greene, J. A. (2018). Historical, contemporary, and future perspectives on self-regulated learning and performance. Dans D. H. Schunk & J. A. Greene (dir.), Handbook of self-regulation of learning and performance (p. 1–15). Routledge/Taylor et Francis Group

Schmitz, B. (2001). Self-Monitoring zur Unterstützung des Transfers einer Schulung für Selbstregulation für Studierende: Eine prozessanalytische Untersuchung [Self-monitoring to support transfer of training in self-regulation for students: A process-analytical study]. Zeitschrift für Pädagogische Psychologie, 15(3/4), 181–197.

Schmitz, B., et Wiese, B. S. (2006). New perspectives for the evaluation of training sessions in self-regulated learning: Time-series analyses of diary data. Contemporary Educational Psychology, 31, 64–96.

Usher, E. L., et Schunk, D. H. (2018). Social cognitive theoretical perspective of self-regulation. Dans D. H. Schunk et J. A. Greene (dir.), Handbook of self-regulation of learning and performance (p. 19–35). Routledge/Taylor et Francis Group.

Zimmerman, B. J., et Martinez-Pons, M. (1986). Development of a structured interview for assessing student use of self-regulated learning strategies. American Educational Research Journal, 23(4), 614–628. https://doi.org/10.2307/1163093

Zimmerman, B. J., et Martinez-Pons, M. (1988). Construct Validation of a Strategy Model of Student Self-Regulated Learning. Journal of Educational Psychology, 80(3), 284–290. https://doi.org/10.1037/0022-0663.80.3.284

Zimmerman, B. J., et Martinez-Pons, M. (1990). Student differences in self-regulated learning: Relating grade, sex, and giftedness to self-efficacy and strategy use. Journal of Educational Psychology, 82(1), 51–59. https://doi.org/10.1037/0022-0663.82.1.51

Zimmerman, B. J., (2002). Efficacité perçue et auroregulation des apprentisages durant les études : une vision cyclique. Dans P. Carré, A. Moisan (dir.), La formation autodirigée. Aspects psychologiques et pédagogiques (p. 69-88). Paris : L’Harmattan.