"PIRLS" EN AFRIQUE ?
CDD 33
« PIRLS » EN AFRIQUE ?
Les résultats de l’enquête PIRLS (Progress In International Reading Literacy Study – Étude des progrès internationaux en compétence de lecture) conduite par l’IEA (Association Internationale pour l’Évaluation des résultats éducatifs – www.iea.nl -) pour l’année 2021 viennent d’être rendus publics en ce début du mois de mai. Il s’agit d’une enquête visant à évaluer la compétence en lecture des élèves de la quatrième année d’école obligatoire (en France le niveau CM1). Comme d’habitude en France, lorsqu’il s’agit de mesurer les performances de notre système éducatif, les commentaires ont été nombreux et divers. Le Monde lui a consacré une pleine page le 17 mai dernier (www.lemonde.fr) sous le titre « Lecture : le niveau des élèves français se stabilise ». Le niveau moyen des élèves atteint en effet 514, performance médiocre si on la compare à la moyenne de l’Union Européenne (527) mais un peu meilleure que cinq ans plus tôt (511 en 2016).
Cette étude mérite en effet bien des commentaires, non seulement pour la France mais aussi pour les 56 autres pays qui y ont participé. On s’y livrera également ici, mais dans une optique particulière, celle visant à s’interroger sur ce qui est rarement mis en avant dans les commentaires des résultats, alors même que l’étude en donne les clés : non pas le résultat moyen des échantillons nationaux mais les inégalités qui les caractérisent. A cet égard, on ne peut s’empêcher d’imaginer ce que pourraient produire de telles enquêtes si elles étaient menées en Afrique ou plus largement dans des pays en voie de développement. D’où l’esquisse d’un tel scénario, imaginaire pour l’instant mais qui pourrait être particulièrement révélateur de ce que sont aujourd’hui les systèmes éducatifs africains au début de la scolarité obligatoire !
Que mesure-t-on : moyenne ou variance ?
L’objectif de cette enquête de l’IEA, dont le sérieux ne peut être contesté tant les organismes qui composent cette association regroupent d’éminents professionnels, est d’évaluer les compétences en lecture des élèves des pays participants, à la fin de la quatrième année de scolarité obligatoire, c’est-à-dire au moment où ils sont censés en avoir fini avec les apprentissages fondamentaux et posséder un niveau déjà élaboré dans ce domaine, celui permettant de passer du « apprendre à lire » au « lire pour apprendre » comme le résume un des experts, cité par Le Monde. Je n’évoquerai pas ici les tests constitués à cet effet et leur gradation dans la difficulté des textes soumis aux élèves, laissant cela aux spécialistes. Je veux simplement souligner trois éléments importants. Le premier est que la référence est ici le pays, la « nation » pourrait-on même dire. Ce qui laisse entendre que l’on testerait un modèle national. Dans un pays comme la France encore fortement centralisé en ce qui concerne les programmes, le statut et la formation des enseignants, cela peut se comprendre, même si la « liberté pédagogique » des maîtres ne garantit aucunement la façon d’enseigner et l’adhésion à telle ou telle méthode malgré les efforts d’harmonisation ministérielle. Dans beaucoup d’autres pays, cela se comprend moins dans la mesure où l’enseignement peut y être fortement décentralisé, comme en Allemagne ou en Espagne notamment. Cette référence « nationale » peut donc apparaître comme relativement arbitraire sauf à tenir compte du fait que les États (même au sein de l’Union Européenne) ont tenu à conserver cette « compétence » spécifique des systèmes éducatifs,
en un certain sens comme un élément de souveraineté. Mais pour autant, rien en cela n’implique une homogénéité caractéristique qui permettrait de qualifier de « national » l’échantillon ainsi constitué.
Le deuxième élément concerne la rencontre des élèves avec des tests qui peuvent les désarçonner. Comme dit en effet Roland Goigoux, un excellent spécialiste du sujet, « PIRLS évalue des compétences que l’on n’enseigne pas ! ». Autrement dit, les programmes français ne s’étant jamais calés sur ce type de tests (il en est de même pour la plupart de ces tests internationaux), les élèves français peuvent en être facilement déroutés. Comme peuvent l’être des élèves d’autres pays. Sauf à supposer que ces tests internationaux auraient vocation à devenir peu à peu la norme de référence dans l’apprentissage de la lecture, il y a là un biais dont l’étude ne fournit aucune piste pour qu’il soit compensé. Notamment entre les pays dont on sait qu’ils préparent spécifiquement leurs élèves à de telles évaluations et ceux qui ne le font pas.
Le troisième élément est le plus important : ce que retient le plus souvent la communication des résultats c’est la moyenne obtenue par chaque pays dans une sorte de palmarès/compétition à la manière des classements sportifs. Ce qui entérine en quelque sorte le caractère « national » du résultat. En l’occurrence, il faudrait bien davantage s’intéresser à la variance qui caractérise le résultat de chaque pays car elle en dit au moins aussi long que la moyenne. En effet cette variance, ou si l’on préfère sa racine carrée appelée écart-type, donne une représentation de ce que peuvent être les écarts au sein de l’échantillon national, autrement dit des inégalités au sein du pays. Image normalisée et d’une certaine façon réduite par le mode de calcul statistique mais comparable d’un pays à l’autre. Et là, le paysage offert par PIRLS est au moins aussi intéressant.
La France et ses inégalités
Si le ministère de l’Éducation nationale s’est logiquement réjoui de cette apparente stabilisation des résultats, il faut immédiatement la relativiser. Certes on accordera volontiers au ministre précédent d’avoir voulu maintenir le plus possible les écoles ouvertes et d’y être parvenu, et d’avoir ainsi permis que les élèves de France perdent moins d’heures d’enseignement que beaucoup d’autres. Mais inversement l’étude tendrait à montrer que la pandémie a réduit la performance de la plupart des autres pays européens. La réduction de l’écart observé est ainsi davantage dû à leur moindre performance qu’à un progrès significatif de la France.
Mais l’essentiel est ici ce que l’on peut observer de la variance des résultats, celle très rarement mise en valeur. On la trouve pourtant de manière très précise et très détaillée dans le rapport technique de l’étude (voir Chap. 4 tableau 4.1 pour une présentation imagée et pour une présentation plus technique Chap. 13 p. 13.12 in www.pirls.iea.nl ). Dans le tableau correspondant, apparaissent toutes les variances des échantillons fournis à l’étude par les différents pays.
Recommandé par LinkedIn
Les comparaisons sont éclairantes. Avec une variance totale estimée à 6,1, la France est l’un des pays européens manifestant le plus gros écart-type dans son échantillon. Quelques pays de l’Est comme la Hongrie, la Bulgarie ou la Croatie ont des variances supérieures ou égales tout en ayant des performances supérieures à la France mais ils font figures d’exception comme les Pays-Bas ou l’Irlande d’ailleurs (même variance que la France mais performance nettement supérieure). Tous les autres pays ont des variances inférieures, même en Europe du Sud comme en Italie, Espagne ou Portugal dont les résultats sont également meilleurs. On pourra noter avec intérêt le résultat très médiocre (434) de la Belgique francophone,
également avec une variance élevée (6,5). Inversement, l’Allemagne fédérale dont on pourrait penser que la compétence confiée aux Länder réduirait l’homogénéité de l’échantillon, présente une variance bien moindre que la France (2,7) pour un résultat plutôt supérieur (524). Il y a peu, pourtant, avec d’autres évaluations comme PISA, l’Allemagne avait subi une chaude alerte. Il faut croire que les Allemands ont su en tirer la leçon.
À l’évidence mieux que nous. Car ce qui frappe c’est bien que cette variance élevée apparaisse en grande partie comme une des explications de ce résultat médiocre. Dans un article récent, le Café pédagogique (www.cafepedagogique.net du 17 mai 2023) souligne quelques aspects significatifs du problème. Ainsi l’échantillon français comporte, en 2021, 1% de plus de très bons élèves, un peu moins de moyens (-2%) et le même nombre de faibles ou de très faibles (28%), soit une queue d’échantillon plus fournie que celui des autres pays européens (22%).
C’est donc que cette dispersion de l’échantillon et cette part d’élèves à la traîne (en majorité des garçons) explique en grande partie le résultat médiocre de la France. Comme si la politique scolaire de la France avait plutôt tendu à améliorer les meilleurs qu’à lutter contre cette dispersion. Est-ce donc, à travers ces tests, le système « français » que l’on évalue ou ses inégalités, à l’évidence moindres ailleurs en Europe quel que soit le niveau général de vie et d’instruction ? Comment ne pas en conclure que toute politique éducative aujourd’hui devrait conduire le gouvernement français et ses idéaux républicains à lutter avec la plus grande énergie contre ces inégalités ?
Un scénario pour l’Afrique ?
Que pourrait alors donner comme résultats une évaluation de type PIRLS en Afrique ?
A priori, le scénario imaginable pourrait ressembler à un schéma comparable à celui de la France mais encore exacerbé par une variance des échantillons beaucoup plus marquée. Car la réalité que l’on trouve en Afrique, pas seulement subsaharienne, est bien celle d’écarts prodigieux entre les élèves d’une même classe. J’ai toujours été frappé, dans chacune de mes visites, par la façon extraordinaire dont certains élèves s’en sortent parfaitement malgré des conditions d’étude et de travail souvent très mauvaises, en locaux, équipement voire surtout en surcharge des effectifs des classes. PIRLS 2021 donne d’ailleurs une idée déjà relativement précise de ce qui pourrait advenir puisque trois pays africains, l’Afrique du Sud, l’Égypte et le Maroc, se sont lancés, non sans un certain courage, dans l’aventure. On ne peut pas en effet les considérer comme des pays aussi développés que ceux de l’OCDE ou de l’Union Européenne. Rappelons en effet qu’à l’indice de développement humain le mieux classé des trois, l’Égypte est 97è, l’Afrique du Sud 109è et le Maroc 123è, tous les trois avec des PIB par tête de l’ordre de 4.000 (Égypte et Maroc) à 7.000 dollars (Afrique du Sud) par an pour un PIB moyen par tête en Afrique inférieur à $6.000. Leurs résultats sont éclairants, médiocres globalement (respectivement 288, 378 et 372) mais surtout marqués par une variance très élevée ( (13,2 pour l’Afrique du Sud, 15,9 pour le Maroc, 22,9 pour l’Égypte). Si l’on part du principe que l’échantillon est bien représentatif du système scolaire, on devine qu’une grosse partie des élèves retenus va tirer le résultat vers le bas, d’où les résultats médiocres et les leçons que pourraient en tirer les gouvernements s’ils étaient vraiment soucieux de lutter contre de telle inégalités. D’autres pays dont la structure pourrait ressembler à l’Afrique ont également souhaité être évalués par PIRLS. Ainsi par exemple du Brésil, de la Jordanie ou de l’Iran. Mais tous présentent un profil de résultat similaire, soit une performance relativement médiocre voire
très médiocre (respectivement 419 pour le Brésil, 380 pour la Jordanie et 413 pour l’Iran) avec de grosses variances (respectivement 25,3, 22,5 et 15,3). Quant à la Turquie, mieux placée à l’IDH, elle se rapproche de certains pays européens avec un score de 496 mais une variance de 10,6.
Ainsi, PIRLS transposée en Afrique ne manquerait pas de se traduire par des scores globaux probablement médiocres voire très bas, ne serait-ce que par les écarts de performance. Ils ne peuvent être que considérables quand on prend en compte les conditions dans lesquelles les élèves étudient …ou n’étudient pas, puisque l’on sait que dans de nombreux pays africains, subsahariens notamment, la scolarité obligatoire est encore loin d’être parfaite. Dans ces pays, l’heure est donc à l’amélioration à la fois du taux et des conditions de scolarisation qui entrainent de telles inégalités. Mais en France comme dans quelques autre pays très développés, on ne peut trouver aucune excuse à des inégalités croissantes en matière éducative. Ce sont donc les orientations et les actes des politiques éducatives qui sont en cause, notamment le manque de fermeté et de ténacité dans la volonté de porter l’accent sur les élèves et les écoles les plus en difficulté. La scolarité obligatoire devrait être le lieu par excellence de l’égalité républicaine. PIRLS révèle que même en CM1, ce n’est toujours pas le cas, pire que cela s’est aggravé.
A quand le sursaut attendu ?
Jean-Paul de GAUDEMAR
Vous pouvez retrouver cette chronique, en français, en souscrivant gratuitement à ma plateforme « jeanpauldegaudemar.substack.com » ou en anglais en souscrivant toujours gratuitement à ma plateforme « jpdegaudemar.substack.com ».