Introduction
La recherche démontre que les étudiant·e·s manquent de métaconnaissances (McCabe, 2011). Ceci accroît les difficultés à adapter et mobiliser des stratégies efficaces dans les apprentissages. Ce phénomène découle d’un manquement ou d’une utilisation inefficace de l’autorégulation de l’apprentissage. Ce constat étant fait, il s’agit de développer les connaissances et les recherches au sujet des processus d’autorégulation afin d’apporter de nouvelles solutions à cette problématique. Nous souhaitons amener une clarification conceptuelle sur ce qu’est l’autorégulation de l’apprentissage, et en quoi son observation dans le domaine des Sciences de l’éducation semble nécessaire. Selon Berger & Buchel (2013) « l’autorégulation de l’apprentissage et de la performance se réfère aux processus grâce auxquels les apprenants activent et soutiennent par eux-mêmes leurs cognitions, émotions et comportements qui sont systématiquement dirigés vers l’atteinte d’un but personnel. » (p. 21). Le fait d’être actif·ve dans les processus permet de soutenir sa cognition, ses émotions ainsi que ses comportements et est directement corrélé aux connaissances métacognitives. La recherche sur ce thème s’avère donc primordiale pour l’accroissement des compétences dans le domaine de l’apprentissage et de la formation.
Le travail présent poursuit le but de tester deux instruments s’intéressant à l’autorégulation des étudiant·e·s, d’en décrire l’utilisation, tout en apportant une réflexion critique sur leur pertinence, leurs résultats, ainsi que sur leur validité. L’instrument du SRLIS (Self-Regulated Learning Interview Schedule) (B. J. Zimmerman & Martinez-Pons, 1986) sera analysé en parallèle de l’instrument du SELF (Self-Efficacy for Learning Form) (B. J. Zimmerman & Kitsantas, 2005).
SRLIS
Le Self-Regulated Learning Interview Schedule, plus communément appelé SRLIS et dont la traduction pourrait être la suivante : Protocole d’entretien sur l’apprentissage autorégulé, est un outil permettant d’explorer les stratégies d’autorégulation des étudiant·e·s. Cet entretien est construit autour de 6 questions. Il se veut donc court et structuré. Les apprenant·e·s sont chargés d’expliquer leurs réactions à 6 scénarios pouvant solliciter l’autorégulation en situation d’apprentissage.
Description de l’outil
Le SRLIS est l’un des premiers instruments ayant permis d’évaluer et mesurer l’apprentissage autorégulé des apprenant·e·s. Il a été éprouvé pour la première fois lors d’une recherche menée par Zimmerman et Martinez-Pons (1986) sur 80 élèves de terminale provenant de deux lycées différents. Les élèves ont été interrogés sur leur utilisation de stratégies d’apprentissage autorégulées pendant les cours, les devoirs et l’étude. Zimmerman et Martinez-Pons (1986) ont préétabli quatorze catégories de stratégies d’autorégulation issues de la littérature existante sur l’apprentissage. Nous y retrouvons la fixation d’objectifs, la structuration de l’environnement, les conséquences sur soi-même, l’autoévaluation, l’organisation et la transformation, la recherche et la sélection d’informations, la tenue de registres, les stratégies de répétition et de mémorisation, la recherche d’aides sociales (pairs, adultes, enseignant·e·s) ainsi que l’examen de documents déjà compilés (notes, manuels, examens). A ces catégories s’ajoute celle « autres » permettant le codage de stratégies mentionnées durant l’entretien et n’entrant dans aucune des 14 catégories précédentes.
Description de l’échantillon
Notre échantillon est un échantillon de convenance composé de deux étudiantes de niveau Master ; l’une étudiant actuellement dans le domaine des Sciences de la terre de l’Université de Fribourg (sujet 1), l’autre étudiant à l’Université de Lausanne la Biologie médicale en spécialisation pharmacotoxicologie (sujet 2). La première étudiante (sujet 1) est une femme âgée de 29 ans. La deuxième étudiante (sujet 2) est une femme âgée de 28 ans.
Description de la méthodologie
Les entretiens se sont déroulés dans deux contextes relativement similaires. Ils se sont tous les deux déroulés au domicile des participant·e·s, ceci permettant aux deux interviewées d’être dans un contexte connu et sécurisant, favorisant ainsi l’introspection (Blanchet, 2015).
L’entretien a été enregistré avec l’accord des participantes, puis il a été retranscrit.
Cet entretien s’est déroulé à la manière d’un entretien directif, c’est-à-dire en s’appuyant sur un guide d’entretien préétabli où l’objectif était de suivre la structure question-réponse (Sauvayre, 2013). Les questions étant donc une adaptation permettant de répondre à la réalité d’un public universitaire des 6 scénarios traduits de la recherche de Zimmerman et Martinez-Pons (1988) (voir annexe I). Il a, par exemple, été proposé de remplacer le scénario 3 « Y a-t-il une méthode particulière que vous utilisez pour faire vos devoirs de mathématiques ? » par « Y a-t-il une méthode particulière que vous utilisez pour faire vos devoirs universitaires ? ».
Nous nous sommes octroyé une certaine marge de manœuvre permettant des relances lorsque l’étudiante interrogée ne parvenait pas à produire une réponse à la question. Il a pu également être utile de préciser en reformulant de la manière suivante : « Et si tu as des difficultés ? Y a-t-il une ou des méthode(s) particulière(s) que tu utilises ? ». Si la difficulté de production d’une réponse persistait après la première relance, il a été décidé que le questionnement serait interrompu pour le scénario concerné. En effet, la validité de construit de cette procédure indique qu’elle possède un contrôle significatif des biais pouvant relever de l’ordre de l’expression verbale et ne pas interférer avec les connaissances directement associées à l’apprentissage autorégulé (B. J. Zimmerman & Martinez-Pons, 1988).
Présentation des résultats
Dans le but de présenter les résultats de notre recherche, nous avons répertorier les fréquences, ou SF (Strategy frequency) (B. J. Zimmerman & Martinez-Pons, 1986), auxquelles apparaissent les diverses stratégies dans le tableau I.
Tableau I
Présentation de la fréquence d’utilisation des stratégies – SRLIS
Stratégies | Sujet 1 | Sujet 2 | |
1 | Autoévaluation | 0 | 1 |
2 | Organisation et transformation | 1 | 3 |
3 | Fixation d’objectifs et planification | 0 | 1 |
4 | Recherche d’informations | 2 | 1 |
5 | Tenue de registres et suivi | 1 | 1 |
6 | Structuration de l’environnement | 1 | 2 |
7 | Conséquences personnelles | 1 | 1 |
8 | Répétition et mémorisation | 0 | 1 |
9 | Recherche d’aide des pairs | 0 | 0 |
10 | Recherche d’aide des enseignants | 0 | 0 |
11 | Recherche d’aide des adultes | 0 | 0 |
12 | Examen des tests | 0 | 0 |
13 | Examen des notes | 2 | 1 |
14 | Examen des manuels | 0 | 0 |
15 | Autres | 0 | 0 |
Total de fréquence | 6 | 9 |
Afin de s’inscrire dans la même démarche méthodologique que la recherche de Zimmerman et Martinez-Pons (1986), nous avons souhaité réaliser un accord interjuge avec notre binôme. Ceci poursuit le but d’augmenter la fidélité de notre analyse. Il en ressort que nous avons, pour la majorité des items, réalisé un codage relativement similaire. Pour le sujet 1, trois stratégies ont été codées de manière identique, et une dans laquelle deux stratégies ont été remarquées chez un·e des juges alors qu’une seule stratégie a été identifiée chez l’autre. Pour le sujet 2, deux stratégies codées de manière identique, et quatre dans lesquelles une ou plusieurs stratégies supplémentaires ont été recensées chez un·e des juges. Nous constatons qu’il aurait été nécessaire de s’efforcer à maintenir une procédure commune déterminant si les réponses des participantes pouvaient contenir plus d’une stratégie. Pour ce faire, un manuel de codage aurait dû être utilisé afin de contrôler ces imprécisions. Cependant, en ayant supprimé les codages « supplémentaires » d’un·e des deux juges, nous aurions pu parvenir à un pourcentage d’accord de consensus de : 10/12 = 83.3%.
Nous pouvons relever que le sujet 1 utilise 6 catégories sur les 14 présentes et que le sujet 2 mobilise 9 stratégies différentes. Sur la base de ces résultats, nous pouvons également constater que certaines catégories sont absentes des réponses des deux participantes. La recherche d’aide, les révisions de tests ainsi que des manuels et finalement la catégorie « autres » n’apparaissent chez aucune des deux étudiantes interrogées.
Quant aux stratégies qui semblent les plus récurrentes entre les deux étudiantes, nous pouvons relever l’organisation et la transformation, la recherche d’informations, la structuration de l’environnement, ainsi que la relecture/examen des notes de cours.
Discussion sur l’outil de mesure
Concernant les observations que nous avons pu faire de la grille en amont de la passation, nous avons constaté que l’outil semblait effectivement efficace du point de vue de la validité d’apparence et semblait donc permettre de relever un nombre important et pertinent de stratégies d’autorégulation. Nous pouvons constater cela d’autant plus que la catégorie « autres » n’a pas eu besoin d’être mobilisée dans le codage de nos données.
Concernant la catégorie de « recherche d’aides auprès d’un adulte », elle semble inadaptée lors de la passation de l’outil de mesure à un public d’universitaires et pourrait se regrouper avec la catégorie des pairs par exemple.
Concernant un aspect plus critique résultant de l’expérience de la passation, il a été remarqué que certains des scénarios (par exemple B et F, voir dans Annexe I) semblaient faire appel aux mêmes contextes de mobilisation de l’autorégulation de l’apprentissage et ont ainsi pu faire ressentir une certaine redondance et une incompréhension de la pertinence des questions aux participantes.
De plus, il a été relevé par une participante elle-même qu’elle ne se sentait pas forcément concernées par certains scénarios dans son domaine d’études. Elle a ainsi dû faire appel à son passé d’étudiante pour imaginer comment elle aurait pu réagir de façon hypothétique. Effectivement, les notions de devoirs ainsi que de contrôles continus peuvent être absents de certains cursus universitaires.
Plus généralement, il semblerait pertinent de mettre en regard la passation de l’outil avec les résultats de réussite universitaire des étudiantes. En effet, la passation du SRLIS en tant qu’outil unique ne permet pas de tirer de conclusions quant à l’efficacité corrélée avec les stratégies autoproclamées en question. Nous pouvons cependant tenter de prédire le niveau de réussite des étudiantes à l’aide des données récoltées lors de la passation du SRLIS.
SELF
Description de l’outil
Le SELF (Self Efficacy for Learning Form) est un outil permettant de mesurer l’auto-efficacité perçue des étudiant·e·s sur leur propre processus d’auto-régulation. Il intègre donc un nouveau concept, celui de l’auto-efficacité. Selon Zimmerman et Kitsantas (2005), l’auto-efficacité est « la capacité d’un individu à apprendre ou performer de manière efficiente. L’auto-efficacité pour les apprentissages renvoie aux croyances sur l’utilisation de processus d’auto-régulation. ». Il s’agit de souligner le fait que cet outil mesure donc « ce que l’on se sent capable de faire » et non pas ce qui « est fait effectivement ».
Afin de mesurer ces concepts, l’outil du SELF est un questionnaire auto-rapporté dans lequel 5 dimensions sont mesurées : la lecture, les études/révisions, la préparation à un examen, la prise de notes, l’écriture. Afin de les mesurer, 57 items ont été formulés.
Nous souhaitons également informer du fait qu’une adaptation du questionnaire a été testé avec des étudiant·e·s universitaires : le SELF-A (Zimmerman & Kitsantas, 2007). Celui-ci possède 19 items, ne mesurant plus que les dimensions d’études/révisions, préparation à un examen, ainsi que de prises de notes. Son coefficient de fiabilité est maintenu. Nous avons donc également pu l’éprouver lors de notre recherche.
Description de la méthodologie
La passation des questionnaires a eu lieu à la suite de l’interview du SRLIS. Les participantes ont été informées des spécificités relatives au SELF et de la durée d’exécution du questionnaire ; soit une quinzaine de minutes. Les participantes ont pu répondre sur l’ordinateur aux 57 items du questionnaire à l’aide d’une échelle de pourcentage. Celle-ci permet ainsi de constater le pourcentage d’accord avec les items en allant du 0% (certainement pas) à 100% (certainement) accordant ainsi un large panel de réponses et permettant une précision accrue. Il s’agit de souligner que l’ordre des items par dimension a été maintenu lors de la passation, ce point sera discuté par la suite.
Présentation des résultats
Les résultats du SELF sont présentés sous forme de moyenne pour chacune des 5 dimensions proposées par l’outil. Il a ensuite été possible de réaliser une moyenne générale permettant d’appréhender le sentiment d’auto-efficacité perçue des étudiant·e·s de façon plus globale. La réalisation de la moyenne du SELF-A nous permet alors de confirmer que les résultats semblent garder une similitude intéressante au vu de l’ampleur de la réduction des items du questionnaire dans cette version-ci. Effectivement, pour nos deux sujets les moyennes ont légèrement diminué mais n’ont pas énormément varié et sont relativement similaires à la version contenant 57 items.
Tableau II
Présentation des moyennes des dimensions – SELF
Sujet 1 | Sujet 2 | |
R-Items lecture | 54% | 56% |
S-Items études | 65% | 59% |
T-Items préparation examens | 65% | 49% |
N-Items prise de notes | 49% | 52% |
W-Items écriture | 76% | 81% |
Moyenne du SELF | 62% | 59% |
Moyenne du SELF-A | 60% | 52% |
Nous pouvons constater à la lecture de ces résultats que les deux sujets de notre recherche se situent dans la moyenne légèrement supérieure en ce qui concerne leur sentiment d’auto-efficacité perçue.
La dimension « écriture » est celle se démarquant positivement dans les résultats de nos deux participantes. Nous pouvons également relever que les dimensions liées à la « lecture » ainsi qu’à la « prise de notes » apparaissent comme ayant des scores globalement plus faibles.
Discussion sur l’outil de mesure
En termes de fidélité (Zimmerman et Kitsantas, 2007), le SELF possède une très bonne homogénéité interne avec un α de Cronbach de .96. Sa validité indique qu’il est un bon prédicteur de la note finale des étudiant·e·s (r = .68), du jugement de leur responsabilité dans leurs résultats (r = .71), de la qualité de leurs devoirs (r = .75) ainsi que de la quantité de leurs devoirs (r = .74). Ces seuils attestent de la suffisance de la validité (seuil communément admis de .70 pour satisfaisant), à l’exception du prédicteur de la note finale.
À la suite de la passation, nous avons pu constater que certains items ont pu être ressentis comme artificiels par nos sujets ; ceux-ci s’éloignant trop fortement de leur réalité académique. De plus, et conjointement à cette constatation, il est possible de se questionner sur la représentation de ce qu’est un investissement idéal et de l’admission de l’inconstance de l’engagement et des multiples facteurs l’influençant entraînant parfois une incertitude lors des réponses aux items. Effectivement, à quel cours se référer ? Les niveaux d’engagements étant multiples et variés.
Une amélioration peut être amenée afin d’accroître la qualité de la passation du SELF. Il s’avère effectivement nécessaire de randomiser l’ordre des items afin de ne pas créer un effet d’ordre sur la qualité des dimensions mesurées.
Le type d’échelle utilisée pour la passation (échelle de pourcentage) peut également être une source de questionnement. Effectivement, nos participantes ayant utilisé principalement des valeurs à la dizaine, une échelle de Likert de 1 à 10 pourrait permettre de parvenir au même résultat et nous semble être plus familière. Cet élément peut être discuté.
Nous pouvons également nous questionner face à la pertinence de la création d’une moyenne générale dans la présentation de nos résultats. Il serait peut-être plus adéquat de considérer chacune des dimensions de façon séparée afin d’avoir un aperçu de ce qui pourrait être considéré comme les forces ainsi que les points d’améliorations des sujets.
Il apparaît alors que cet outil aurait un sens accru en début de cursus universitaire, de sorte à pouvoir fixer les efforts de progression dans les dimensions le nécessitant.
Comparaison entre les deux outils
Il est intéressant de souligner que les deux outils ont été créés par le même auteur : Barry J. Zimmerman. Ceci assure une certaine cohérence dans les réflexions menées en amont à leur création. Cependant, la différence fondatrice les distinguant l’un de l’autre est le fait qu’ils ne mesurent pas les mêmes choses et ne poursuivent donc pas le même but. D’un côté nous souhaitons mesurer ce qui est effectivement fait par les étudiant·e·s (SRLIS), de l’autre il s’agit de mesurer « ce que l’on se sent capable de faire » (SELF). Il est donc nécessaire d’envisager leurs analyses respectives en prenant en compte cette particularité qui, lorsqu’elle est considérée, peut s’avérer enrichissante.
Effectivement, bien que cette différence puisse être relevée, il n’empêche en rien aux outils d’être complémentaires, bien au contraire. Il s’agit tout de même de rester critique et attentif·ve sur les raisons des écarts entre les scores et il peut être pertinent de se demander si la différence observée ne serait pas plus révélatrice d’enjeux liés à l’estime de soi qu’à des éléments relevant de l’autorégulation de l’apprentissage.
En ce qui concerne les résultats spécifiques à nos participantes, nous pouvons relever que lors de la passation du SRLIS le sujet 2 obtient un score plus haut, et lors de la passation du SELF, le score le plus élevé est celui du sujet 1. Ce qui accroît la nécessité de s’engager dans une analyse critique concernant les éléments soulignés précédemment.
Conclusion
Nous souhaitons souligner que, par le biais de l’analyse de ces deux outils de mesure, ce travail permet de mettre en lumière les difficultés relatives à la mesure de l’autorégulation de l’apprentissage chez les étudiant·e·s. Nous constatons à l’issue de cette recherche la difficulté à s’extraire des biais de désirabilité sociale ainsi que de l’inconstance supposée des résultats, mais également de l’implication d’autres dimensions relevant plus des aspects liés à la psychologie des participant·e·s concernant leur estime d’eux-mêmes.
Dans le but d’obtenir une analyse de qualité supérieure, nous constatons également qu’il serait nécessaire d’avoir accès aux résultats universitaires de nos sujets, ceux-ci pourraient permettre une observation plus complète des différentes facettes relevant de l’autorégulation de l’apprentissage chez nos sujets.
Afin de proposer une utilisation de ces outils qui nous semble pertinente, nous souhaitons encourager à considérer la passation de ces questionnaires comme étant un moyen de cibler les différents domaines dans lesquels les stratégies des apprenant·e·s peuvent être améliorées ou explorées. Il s’agit selon nous d’investir ces instruments en des termes de propositions et non pas comme des données démontrant un profil figé d’apprenant·e. Dans cet esprit, l’utilisation de ces outils devrait permettre la mise en lumière de nouvelles stratégies à explorer, ou de nouvelles dimensions de l’apprentissage avec lesquelles accroître son sentiment d’auto-efficacité.
Bibliographie
- Berger, J.-L., & Buchel, F. (2013). Le concept d’apprentissage autorégulé : Une introduction (p. 17‑30).
- Blanchet, A. (2015). Dire et faire dire : L’entretien. A. Colin.
- McCabe, J. (2011). Metacognitive awareness of learning strategies in undergraduates. Memory & Cognition, 39(3), 462‑476. https://doi.org/10.3758/s13421-010-0035-2
- Sauvayre, R. (2013). Les méthodes de l’entretien en sciences sociales. Dunod.
- Zimmerman, B. J., & Kitsantas, A. (2005). Homework practices and academic achievement : The mediating role of self-efficacy and perceived responsibility beliefs. Contemporary Educational Psychology, 30(4), 397‑417. https://doi.org/10.1016/j.cedpsych.2005.05.003
- Zimmerman, B. J., & Martinez-Pons, M. (1986). Development of a Structured Interview for Assessing Student Use of Self-Regulated Learning Strategies. American Educational Research Journal, 23(4), 614‑628. https://doi.org/10.3102/00028312023004614
- Zimmerman, B. J., & Martinez-Pons, M. (1988). Construct validation of a strategy model of student self-regulated learning. Journal of Educational Psychology, 80(3), 284‑290. https://doi.org/10.1037/0022-0663.80.3.284
- Zimmerman, B. J., & Kitsantas, A. (2007). Reliability and Validity of Self-Efficacy for Learning Form (SELF) Scores of College Students. Zeitschrift für Psychologie / Journal of Psychology, 215(3), 157‑163. https://doi.org/10.1027/0044-3409.215.3.157