En cliquant sur le bouton SOUMETTRE, je fournis les informations demandées ci-dessus afin que Vretta puisse répondre à ma demande.
CONTACT logo
twitterfacebookfacebook instagram
Moderniser la gestion des données d’évaluation pour une éducation supérieur

31 octobre 2023

Moderniser la gestion des données d’évaluation pour une éducation supérieur

Partager :TwitterlinkedinFacebooklink

S’inscrire au Vretta Buzz


Les données d'évaluation de l'éducation sont fondamentales pour améliorer la qualité de l'éducation - un objectif souligné par des initiatives mondiales telles que les objectifs de développement durable (ODD) et l'agenda Éducation 2030. Avec la mise en œuvre des objectifs de l’ODD 4 et d’Éducation 2030, de nombreuses juridictions ont été mises au défi de créer des indicateurs précis pour suivre les progrès. C’est là que la gestion des données dans l’évaluation pédagogique entre en jeu, en utilisant efficacement les données concluantes pour façonner la politique éducative.

Dans ce contexte, le suivi des progrès des élèves au moyen d’évaluations à des étapes éducatives cruciales est particulièrement important car il contient des informations précieuses et sensibles au sein des systèmes éducatifs. Les rapports et les décisions basés sur ces données, qui ont un impact sur diverses parties prenants, des étudiants aux enseignants, emmènent un examen minutieux s'ils ne sont pas gérés selon les meilleures pratiques et les protocoles établis.

La nécessité d’une gestion rigoureuse des données devient encore plus pertinente à mesure que les progrès technologiques affinent continuellement les pratiques de gestion des données sur le terrain. Même lors de crises mondiales, l’accès aux données et la capacité de les analyser aident à mieux comprendre les problèmes sociaux et à fournir des solutions fondées sur des données concluantes dans les domaines sociaux, comme l’éducation. Il est donc essentiel pour les organismes d’évaluation et les instances dirigeantes de suivre le rythme de ces évolutions technologiques. L'adaptation des outils modernes de gestion des données est cruciale pour maintenir la crédibilité et l'efficacité.

Cet article vise à décrire le paysage actuel de l'évaluation pédagogique, à discuter des tendances en matière de gestion des données et à élaborer sur les approches modernes, en présentant les meilleures pratiques dans le domaine.

État actuel de l’évaluation pédagogique

Historiquement, les évaluations étaient réalisées à l'aide de méthodes papier et crayon, que ce soit dans le cadre d'évaluations à grande échelle ou en classe. Cependant, l’adaptation à l’environnement dans lequel nous vivons, accélérée par la pandémie de 2020-2021, a conduit à un changement radical vers la réalisation d’évaluations par voie numérique. De nombreuses grandes organisations internationales de prestation de tests ont déjà décidé de proposer leurs évaluations et qualifications via des formats en ligne, variant en fonction des évaluations spécifiques et des juridictions dans lesquelles elles opèrent.

Dans notre parcours de transformation numérique, l’analyse des données devient encore plus essentielle, servant de pierre angulaire de l’évaluation pédagogique. Les mesures et analyses avancées rendues possibles par les plateformes numériques offrent non seulement un accès plus facile aux examens de la fiabilité et de la validité des évaluations, mais également des informations sans précédent sur les résultats d'apprentissage. Fortes de ces informations, les lignes directrices de 2022 de l’International Test Commission et de l’Association of Test Publishers ont émergé comme un premier cadre pour les meilleures pratiques en matière d’évaluations basées sur la technologie, mais elles ne marquent que le début.

Dans la section suivante, nous approfondirons pourquoi l’analyse des données est si essentielle et comment elle façonne le domaine de l’évaluation pédagogique.

Collecte et stockage de données : préparation et éléments de base

Préparer le terrain pour l’analyse

Les équipes de données et d’évaluation sont confrontées à une décision cruciale lors de la sélection des bons outils pour la collecte et l’analyse des données. Cette décision nécessite un examen approfondi de divers facteurs, notamment les ressources, la sécurité, l'exactitude et la valeur opérationnelle potentielle dans le contexte de la juridiction. Par conséquent, avant d’aborder les complexités de l’analyse des données, il est essentiel de comprendre l’importance fondamentale des méthodes et des plateformes utilisées pour la collecte de données. Les éléments suivants préparent le terrain pour une analyse précise et significative :

  • Méthodes de collecte de données : à l'ère numérique, les méthodes en ligne et hors ligne sont précieuses pour collecter des données dans le cadre des évaluations pédagogiques. Si les plateformes en ligne offrent l’avantage de la rapidité et de la précision lorsqu’elles sont correctement conçues, les méthodes hors ligne restent essentielles dans des contextes où la connectivité est limitée pour certains étudiants dans certaines matières.

  • Compatibilité, convivialité et intégrité : la compatibilité avec une gamme de navigateurs et de systèmes d'exploitation, la compatibilité multiplateforme, est essentielle pour garantir la facilité d'utilisation des données pour les administrateurs, les correcteurs et les candidats. Une telle compatibilité réduit le risque d’erreurs et améliore l’intégrité des données, ce qui est crucial dans toute évaluation. De plus, le fait que les plateformes incluent des fonctionnalités intégrées telles que le cryptage des données et l’authentification multifacteur minimise les erreurs de saisie des données et rationalise l’affectation et la planification des correcteurs, les rendant plus précis et efficaces.

  • Plateformes de correction et conception : Les plates-formes de correction complètes sont souvent équipées d'outils avancés pour la gestion de la correction humaine. D'une part, des fonctionnalités telles que l'étalonnage continu des éléments aident à maintenir des normes de correction cohérentes, souvent aidées par des évaluations exemplaires prédéfinies. D’un autre côté, une plateforme mal conçue peut entraîner de nombreux problèmes, depuis des erreurs de saisie de données jusqu’à des procédures de planification complexes. Ainsi, l’interface utilisateur doit être intuitive et conçue en pensant aux utilisateurs finaux.

Éléments constitutifs de l’analyse

Au sens opérationnel, l'analyse des données menée par les psychométriciens et les statisticiens exige une réflexion algorithmique pour analyser de manière répétée les données disponibles et gérables, alignant finalement l'analyse des données sur une interprétation significative. Soulignant l’importance croissante de comprendre les subtilités du stockage et de la gestion des données. Les considérations suivantes servent de base à une analyse efficace et peuvent être résumées comme suit :

  • Gestion des données : les évaluations en ligne posent de nombreux défis aux organisations éducatives et aux organismes d'évaluation, notamment des problèmes liés au stockage, au partage et au transfert des résultats des données. La gestion de ces vastes ensembles de données nécessite souvent un nettoyage et une préparation manuels approfondis en raison de leur volume, qui peut dépasser les capacités des logiciels de gestion de données couramment utilisés comme Excel ou SPSS.

  • Comparabilité des résultats et perturbations : une documentation complète, englobant les sources de données, les échantillons, les méthodes et les analyses, est essentielle pour garantir la comparabilité ou l'équivalence des résultats, car elle est directement en corrélation avec l'étendue de la prévention des pertes de données. Ainsi, dans une telle documentation, fournir des informations détaillées sur les procédures de collecte de données, les descriptions des échantillons, les méthodes et analyses utilisées, ainsi que toutes les limitations ou notes d'alerte pour l'interprétation des résultats devient très essentiel. De plus, les systèmes de collecte de données doivent documenter rigoureusement toute perturbation technologique, y compris des enregistrements détaillés des interruptions d'évaluation pour chaque étudiant.

  • Innovations en matière d'équation et d'étalonnage des éléments : dans l'évaluation pédagogique, les modèles de prédiction d'apprentissage automatique supervisé sont de plus en plus utilisés pour surmonter les limites des méthodes conventionnelles d'étalonnage des éléments. Alors que les méthodes traditionnelles nécessitent souvent de grandes tailles d'échantillons pour l'étalonnage des éléments, l'apprentissage automatique et le traitement de l'intelligence artificielle (IA) en langage naturel peuvent réduire le besoin de tests préalables et d'assimilations approfondis. En outre, ces innovations favorisent la comparabilité des résultats dans les systèmes d’évaluation adaptatifs par ordinateur et permettent des approches innovantes en matière de conception d’évaluation et de génération automatisée d’éléments.

  • Procédure d'établissement des normes : Le processus d'établissement des normes est essentiel pour catégoriser les performances des étudiants en niveaux définis tels que "en dessous du niveau de base" ou "compétent". Pour établir ces niveaux et assurer un processus de contrôle de qualité, des panels d'experts et d'éducateurs emploient diverses méthodes, comme Angoff ou Bookmark, et procèdent à des révisions périodiques, notamment lorsque l'évaluation subit des changements. Dans ce contexte, les techniques psychométriques et d’apprentissage automatique émergentes jouent un rôle essentiel dans la mise à jour et l’affinement des procédures de normalisation, améliorant ainsi l’exactitude et la pertinence des critères de performance dans l’éducation.

  • Test des rapports avec les parties prenantes : Enfin, avant le déploiement formel, il est nécessaire de tester les rapports avec les parties prenantes en utilisant diverses méthodes de collecte de données pour évaluer l'accessibilité, la convivialité et la compréhension globale des rapports. Toute révision nécessaire doit être éclairée par les commentaires reçus au cours de cette étape.

Analyse des données : la base d'une prise de décision éclairée

Accélération de la découverte des données

Les premières preuves de la validité de l'évaluation sont recueillies pendant la phase de conception, établissant des hypothèses sur les preuves à partir des réponses des étudiants. Les organismes d'évaluation envisagent d'accumuler des preuves à chaque phase du cycle et utilisent diverses analyses qualitatives et quantitatives en fonction des données collectées. En analyse psychométrique, différents logiciels peuvent effectuer diverses analyses, mais tous ne prennent pas en charge les cadres tels que la théorie classique des tests (CTT), la théorie de la réponse aux éléments (IRT) ou la théorie de la généralisation, et certains ne prennent pas en charge des tâches telles que l'étalonnage et l'équation. Pour naviguer dans ces complexités, nous avons compilé la liste suivante d’outils analytiques courants avec de brèves descriptions pour vous aider à comprendre leurs rôles dans l’évaluation pédagogique :

  • SPSS Statistics for Education : ce logiciel est une référence pour l'analyse statistique, proposant des modules spécialisés pour les données éducatives, telles que la notation des évaluations et l'analyse des notes.

  • Tableau for Education : cet outil permet aux enseignants et aux établissements de visualiser les données dans un format compréhensible, couvrant tout, des mesures de performance des élèves à l'allocation des ressources.

  • BILOG : Logiciel spécialisé pour l'estimation des paramètres d'items dans l'évaluation pédagogique à l'aide de modèles IRT.

  • MULTILOG : Logiciel avancé pour la modélisation IRT complexe, adapté aux évaluations multidimensionnelles.

  • PARSCALE : outil polyvalent pour la modélisation des réponses aux éléments et la mise à l'échelle des tests, offrant divers modèles IRT pour les évaluations éducatives et autres.

  • Winsteps ou Facets : ces outils logiciels sont généralement utilisés pour mettre en œuvre des modèles IRT afin d'analyser les données d'évaluation.

  • Python : un langage de programmation open source avec une gamme polyvalente d'applications dans l'évaluation pédagogique, y compris l'étalonnage des éléments à l'aide de l'IRT et d'autres tâches d'analyse de données.

  • SAS : une suite logicielle complète appliquée à l'évaluation pédagogique pour l'étalonnage des éléments, la notation des tests à l'aide de l'IRT et diverses tâches d'analyse de données.

  • R for Educational Data Analysis : un langage de programmation open source qui offre une flexibilité dans la modélisation statistique avancée et la visualisation des données, largement utilisé pour l'analyse complexe des évaluations éducatives.

En résumé, ces approches d’analyse de données permettent de mesurer les changements et l’amélioration des performances des élèves au fil du temps avec différents degrés de précision, soutenant ainsi les pratiques décisionnelles éclairées par divers acteurs éducatifs, en fonction du contexte spécifique d’application.

Méthodes pour cultiver des connaissances

La conception de la recherche définit les méthodes de recherche à utiliser pour répondre à des questions d’intérêt, qu’elles concernent des décisions pratiques quotidiennes au sein du cycle d’évaluation ou des choix politiques stratégiques plus larges au sein du système éducatif. Dans n’importe quelle situation donnée, l’analyse des données fournit la qualité technique et la rigueur psychométrique essentielles pour améliorer la fiabilité et la validité des évaluations à toutes les étapes du processus, de la conception à l’interprétation. Une correction précise garantit des résultats cohérents et reproductibles, jetant les bases d'une prise de décision basée sur les données, tandis qu'une analyse robuste des données valide les évaluations en égalisant les résultats à des fins de comparabilité entre différentes versions ou méthodes de livraison. Dans le contexte de la complexité des données d’évaluation pédagogique, diverses approches analytiques, allant des statistiques conventionnelles aux méthodes d’apprentissage automatique de pointe, façonnent aujourd’hui le domaine. Voici une liste de ces approches :

  • Statistiques descriptives : les statistiques descriptives constituent le fondement de toute analyse d’évaluation pédagogique. Ces statistiques résument et organisent les caractéristiques d'un ensemble de données, comme la moyenne, la médiane et l'écart type, offrant un aperçu rapide des principales caractéristiques de l'ensemble de données.

  • Statistiques inférentielles : les statistiques inférentielles vont au-delà de la simple description pour faire des prédictions ou des inférences sur une population plus large sur la base d'un échantillon. Cela se fait généralement au moyen d'outils tels que les « tests T », l'ANOVA et l'analyse de régression.

  • Théorie classique des tests (CTT) : La CTT est une approche classique de la théorie des tests dans laquelle les principaux paramètres utilisés sont la difficulté des éléments et la discrimination des éléments spécifiques à chaque élément de test.

  • Théorie de la réponse aux items (IRT) : IRT est une approche moderne qui se concentre sur trois paramètres principaux : la difficulté des éléments, la discrimination des éléments et le paramètre de probabilité. Les stratégies d'optimisation des modèles IRT à l'aide d'outils open source tels que IRTPRO, JMetrik, la théorie des réponses aux éléments multidimensionnels (MIRT) et TAM peuvent inclure l'estimation des paramètres, la liaison et l'assimilation, ainsi que l'analyse de l'ajustement du modèle.

  • Techniques d'apprentissage automatique et d'IA : la description de ces techniques aide à familiariser les spécialistes avec l'application potentielle de ces outils pour exécuter une analyse automatique de données complexes et multidimensionnelles, fournissant des informations qui ne sont pas facilement obtenues par les techniques statistiques conventionnelles :

    • Techniques d'apprentissage automatique : analyse de régression, méthodes d'ensemble, algorithmes de clustering (par exemple, K-means), machines à vecteurs de support, forêts aléatoires, arbres de décision.

    • Techniques d'IA : réseaux de neurones, traitement du langage naturel (NLP).

En résumé, ces approches d’analyse de données permettent de mesurer les changements et l’amélioration des performances des élèves au fil du temps avec différents degrés de précision, soutenant ainsi les pratiques décisionnelles éclairées par divers acteurs éducatifs, en fonction du contexte spécifique d’application.

Rapports de données : explorer les approches modernes

Garantir la convivialité, la qualité et la sécurité

La communication des résultats des étudiants est une étape clé du cycle d'évaluation, cruciale pour communiquer la valeur de l'évaluation aux parties prenantes. Lors de la communication des données, des procédures rigoureuses de qualité des données et des politiques clairement définies garantissent des scores précis et cohérents, adaptés à l'objectif de l'évaluation, au public cible et aux besoins d'accessibilité. La communication des données englobe une série d'aspects importants, à savoir la convivialité, le contrôle qualité, la sécurité, la confidentialité et la transparence dans l'analyse externe, qui sont détaillés ci-dessous :

  • Convivialité : les outils de rapport en ligne doivent être conçus pour répondre aux besoins fonctionnels et aux attentes des utilisateurs en matière d'interface. Des tests d’utilisateur approfondis garantissent la fiabilité de l'outil et des ressources accessibles facilitent l'interprétation des résultats.

  • Contrôle qualité : une liste de contrôle structurée pour le contrôle qualité est essentielle pour un rapport précis des résultats et doit être mise en œuvre et documentée. Les systèmes automatisés, soumis à l'examen d'experts, rationalisent le processus et des mesures de sécurité robustes, notamment des pistes d'audit, protègent contre les modifications non autorisées.

  • Confidentialité et sécurité : L'accès aux résultats est réservé aux personnes autorisées, qui doivent accepter les conditions de confidentialité. Les portails de connexion sécurisés offrent un accès spécifique au rôle, tandis que les mécanismes de confidentialité des données et les normes ISO 27001:2013 sécurisent les rapports individuels et au niveau du groupe. Lorsque des données anonymisées sont partagées pour une analyse externe, les variables incluses et exclues doivent être clairement spécifiées.

  • Visualisation et narration : l'utilisation de graphiques, de diagrammes et de tableaux de bord interactifs améliore la clarté et l'accessibilité des données, aidant ainsi les parties prenantes à saisir rapidement les informations clés et à prendre des décisions éclairées. Transmettre des informations à travers des récits et des visuels, inspirer l'action et garantir l'impact des données grâce à une communication efficace, nécessitant un mélange de compétences techniques et générales.

Applications d'IA dans la gestion des données

Dans l’évaluation pédagogique, l’intégration de la gestion des données basée sur l’IA améliore la façon dont nous collectons, traitons et utilisons les données des étudiants. De la rationalisation des processus de collecte de données au renforcement de la sécurité des données, les applications de l'IA offrent plusieurs avantages qui non seulement améliorent la précision et l'efficacité des évaluations pédagogiques, mais garantissent également la plus grande confidentialité et conformité. Examinons les multiples avantages de l'IA dans la gestion des données d'évaluation pédagogique, en explorant chaque catégorie :

  • Collecte automatique de données de test : l'IA rationalise la collecte de données en collectant automatiquement les soumissions de tests numériques à partir de diverses sources et en les stockant en toute sécurité dans le cloud pour un accès facile et une protection des données.

  • Outils d'assurance qualité : les outils basés sur l'IA identifient et corrigent les erreurs ou les incohérences dans les réponses des étudiants, garantissant ainsi l'exactitude et la fiabilité des données d'évaluation. De plus, grâce à l’analyse des métadonnées, la banque d’éléments peut être vérifiée pour identifier des éléments identiques, conduisant à la suppression d’évaluations similaires liées au contenu.

  • Analyse des tendances par l'IA : en règle générale, la réalisation d'une analyse des tendances pour identifier des modèles dans des ensembles de données nécessite l'utilisation de méthodes statistiques et de techniques d'analyse de données. Cependant, l’IA peut améliorer considérablement l’efficacité et la précision de la révélation des tendances et des modèles de performance des élèves, en particulier lorsqu’il s’agit d’ensembles de données volumineux et complexes, et aider à générer des rapports dynamiques avec des visualisations, facilitant ainsi l’interprétation des résultats.

  • Détection des intrusions et anonymisation des données : la cybersécurité basée sur l'IA utilise des systèmes de détection d'intrusion pour surveiller en permanence l'accès aux données, détectant ainsi les intrusions non autorisées et protégeant les dossiers sensibles des étudiants. De plus, il utilise des techniques d'anonymisation des données pour préserver la confidentialité des données, notamment en ce qui concerne les informations personnellement identifiables.

  • Apprentissage automatique dans les tests adaptatifs : les algorithmes d'apprentissage automatique analysent les réponses précédentes pour proposer des éléments adaptés au niveau de capacité de chaque élève. Par exemple, si un élève excelle en mathématiques, l’algorithme pourrait présenter des éléments plus difficiles, rendant ainsi l’évaluation plus efficace.

  • Deep Learning pour la notation automatisée des dissertations : les modèles Deep Learning (apprentissage profond) rationalisent l'évaluation pédagogique en offrant une notation instantanée des dissertations et une détection du plagiat. Ils évaluent efficacement les capacités de réflexion d’ordre supérieur tout en garantissant l’intégrité de l’évaluation.

  • Systèmes experts en analyse psychométrique : les systèmes experts en évaluation pédagogique peuvent à la fois améliorer la validité et la fiabilité des tests grâce à une analyse psychométrique robuste et fournir une rétroaction personnalisée en temps réel pour identifier les forces et les faiblesses académiques des étudiants.

  • Traitement du langage naturel pour les réponses à développement : ce peut traiter les données qualitatives des éléments à réponse à développement pour générer des informations sur l'efficacité du programme ou identifier les domaines potentiels d'amélioration de l'évaluation.

  • La robotique dans l'évaluation pratique : les robots peuvent être utilisés pour effectuer des évaluations pratiques dans des domaines comme la médecine ou l'ingénierie, mesurant avec précision la capacité d'un étudiant à effectuer des tâches spécifiques.

  • Logique floue pour les corrections ambiguës : dans les évaluations comportant des éléments subjectifs, tels que la performance artistique ou les tâches de raisonnement éthique, les algorithmes de logique floue peuvent offrir une notation nuancée qui reflète plus précisément la complexité du sujet.

  • Unification et intégration des données : cette méthode implique des systèmes basés sur l'IA qui appliquent des politiques cohérentes de gestion des données en suivant méticuleusement le traçage des données et en intégrant de manière transparente les données provenant de diverses sources. Le résultat est le maintien de la qualité des données et une vue complète des performances des étudiants.

  • Archivage basé sur des critères et contrôle d'accès sécurisé : grâce à l'archivage basé sur l'IA et adapté à des critères tels que les performances des étudiants ou le type d'évaluation, les organisations peuvent stocker et accéder efficacement aux enregistrements historiques et aux résultats des tests. L’utilisation de l’IA pour le cryptage et les contrôles d’accès adaptatifs garantit le partage sécurisé des données des étudiants et du matériel d’évaluation, facilitant ainsi la collaboration tout en préservant strictement la confidentialité des étudiants.

En résumé, la gestion des données basée sur l'IA dans l'évaluation pédagogique offre des avantages pratiques, notamment une collecte de données rationalisée, une assurance qualité améliorée, des informations basées sur les données, une sécurité robuste, une gouvernance et un archivage efficace. Cela transforme l’évaluation, au profit des enseignants et des étudiants, tout en garantissant une gestion efficace des données pour l’avenir.

Flux de travail modernisé

Les organismes d'évaluation modernisent activement leurs évaluations pour améliorer la précision, l'accessibilité et l'intégration transparente dans le domaine numérique. Il existe différents scénarios quant à la manière dont un organisme d’évaluation à enjeux élevés peut décider de moderniser le cycle d’évaluation ainsi que le processus de gestion des données. Dans ce contexte de prise de décision, atteindre des objectifs clés tels que la réduction du délai de rapports, la minimisation des erreurs et la gestion des coûts nécessite la mise en œuvre d'une solution complète de ligne de données basée sur les trois principes de conception fondamentaux suivants :

  • Flux de travail séquentiel : selon ce principe, la ligne de données ressemble à une chaîne d'assemblage bien organisée, dotée de points de contrôle de validation à chaque étape, de l'extraction des données à l'analyse en passant par le rapport. Ces points de contrôle assurent un suivi en temps réel du processus, avec des étapes clés telles que la validation de l'importation, la validation de la transformation et la vérification finale avant le rapport.

  • Flux de travail dynamique et polyvalent : Semblable à l'adaptabilité d'un caméléon, cette approche permet à la ligne de gérer efficacement les données de n'importe quelle évaluation sans nécessiter de réplication de code. Il fonctionne comme un système dynamique et automatisé, garantissant un traitement et une analyse transparents des données.

  • Flux de travail automatisé : cet aspect de la solution s'apparente au concept d'une voiture autonome. Il fonctionne de manière autonome, comme des systèmes de conduite automatisés, tout en offrant aux utilisateurs la possibilité d’effectuer des ajustements via des scripts prédéfinis. Cet équilibre entre automatisation et personnalisation garantit un processus rationalisé et adaptable.

Une solution de flux de travail modernisée conçue avec les trois principes clés ci-dessus est présentée étape par étape, suivant un processus soigneusement orchestré dans l'ordre suivant :

  1. Efficacité et amélioration : une solution construite sur les trois principes fondamentaux améliore l'efficacité, réduit les erreurs et gère les coûts de l'évaluation pédagogique. Ses fonctionnalités séquentielles, dynamiques et automatisées forment un cadre solide pour l'analyse psychométrique, les rapports techniques et l'assurance qualité, conduisant à des améliorations dans les évaluations à grande échelle.

  2. Le parcours d'évaluation commence : Le processus d'évaluation commence lorsque les instruments d'évaluation sont méticuleusement conçus, rigoureusement validés et administrés de manière réfléchie. La notation est effectuée manuellement ou via des algorithmes automatisés.

  3. Données dans le cloud : les données notées trouvent leur place sur une infrastructure cloud évolutive, garantissant l'accessibilité et la sécurité.

  4. Transfert et transformation des données : les données embarquent dans un voyage vers un serveur de données dédié, où un script est utilisé pour extraire des données d'évaluation prédéfinies et les charger en mémoire. Ces données subissent ensuite des transformations, les transformant en une matrice d'éléments qui s'aligne sur les besoins opérationnels et politiques.

  5. Analyser les données : Le voyage se poursuit avec la phase d'analyse. Une analyse de la théorie classique des tests (CTT) est effectuée, produisant des données au niveau des éléments, des rapports sur les distractions et une analyse de la fréquence de réponse.

  6. Analyse IRT : les données d'évaluation sont ensuite soumises à une analyse IRT, englobant l'étalonnage initial des éléments, les procédures d'assimilation et les analyses de notation.

  7. Vérification rigoureuse : avant l'activation du rapport, un processus de vérification méticuleux est effectué pour garantir la fiabilité et la validité des données.

  8. Résumer les résultats : ce processus aboutit à la génération d'un rapport HTML qui résume succinctement les résultats de l'évaluation. Ce rapport est réintégré de manière transparente dans le système d’origine.

  9. Rapports conviviaux : La dernière étape consiste à créer des rapports conviviaux, notamment des feuilles de calcul Excel et des représentations graphiques telles que les courbes caractéristiques des articles (ICC), les fonctions d'information sur les articles (IIF) et les courbes caractéristiques des tests (TCC).

  10. Engagement des parties prenantes : ces rapports sont facilement accessibles aux parties prenantes qui peuvent les télécharger et les consulter. Ceci marque la conclusion du processus d’évaluation complet, y compris l’analyse des performances de divers groupes d’étudiants au fil du temps.

En résumé, l’adoption d’une solution complète de ligne de données guidée par les trois principes apporte efficacité, précision et économies de coûts à la modernisation des évaluations à enjeux élevés. Cette approche garantit la fiabilité et l'accessibilité des données, ce qui donne lieu à des rapports conviviaux qui permettent aux parties prenantes de prendre des décisions éclairées et d'améliorer le processus d'évaluation. L’adoption de ces principes fondamentaux fait progresser la précision et l’intégration de l’évaluation pédagogique à l’ère numérique.

Moderniser grâce à la technologie et à la collaboration

Le domaine de l’évaluation pédagogique se trouve à un tournant, transformé par la technologie et les initiatives mondiales. La gestion des données dans l’évaluation en éducation est plus cruciale que jamais, et l’IA accélère ce changement. L’IA et l’apprentissage automatique ne sont pas que des améliorations ; ils deviennent indispensables pour façonner les politiques, les pratiques et la recherche éducatives. Ces technologies enrichissent également la fiabilité psychométrique des évaluations, repoussant les limites des méthodes classiques. Cependant, les progrès technologiques entraînent des défis éthiques et pratiques, tels que garantir la sécurité, l’équité et l’intégrité des données. Par conséquent, un examen rigoureux des systèmes automatisés est impératif. Les organismes éducatifs, les décideurs politiques et les parties prenantes doivent collaborer et constamment mettre à jour les meilleures pratiques pour exploiter tout le potentiel des évaluations modernes. Une telle action collective s’aligne sur des objectifs mondiaux tels que les objectifs de développement durable et l’agenda Éducation 2030. À l’avenir, le mélange d’innovation technologique et de responsabilité éthique nous guidera vers l’excellence éducative au 21e siècle.

A propos de l'auteur

Vali Huseyn est une spécialiste de l'évaluation pédagogique qui fournit des conseils d'expert sur la modernisation des étapes clés du cycle de vie de l'évaluation, notamment la rédaction de l'évaluation (banque d'items), l'enregistrement, l'administration, la notation, l'analyse des données et la création de rapports. Il soutient et sert la communauté de l'évaluation par le biais de partenariats stratégiques avec diverses organisations de technologie d'évaluation, organismes de certification et centres de recherche. Il a également joué un rôle déterminant dans le soutien à la modernisation des évaluations à grande échelle au Centre d'examen d'État d'Azerbaïdjan en tant que chef des partenariats stratégiques et chef de l'unité de gestion de projet.

N'hésitez pas à vous connecter avec Vali sur LinkedIn (https://www.linkedin.com/in/valihuseyn/) pour en savoir plus sur les meilleures pratiques de transition vers un environnement d'évaluation en ligne.


Les références

1. Programme des Nations Unies pour le développement. (s.d.). Objectifs de développement durable : une éducation de qualité. Lien: https://www.undp.org/sustainable-development-goals/qualityeducation?gclid=CjwKCAjwmbqoBhAgEiwACIjzEL9w2cvF2X2Mp7SyGRVRDylV8g8jA8DgEiECYMD1MTEjyrWt0jXSOBoCGpAQAvD_BwE
2. Évaluation Asie-Pacifique. (2020). Déclaration et cadre d’action d’Éducation 2030 d’Incheon. Lien : https://apa.sdg4education2030.org/sites/apa.sdg4education2030.org/files/2020-12/Education2030%20Incheon%20Declaration%20and%20Framework%20for%20Action.pdf
3. Forum économique mondial. (2022). Voici comment la science des données peut aider à résoudre les crises mondiales. Lien : https://www.weforum.org/agenda/2022/05/impact-data-science-can-help-solve-global-crises-but-only-if-we-deploy-it-on-the- lignes de front/
4. Intestcom. (2022). Lignes directrices pour l’évaluation basée sur la technologie. Commission internationale d'essais. https://www.intestcom.org/upload/media-library/guidelines-for-technology-based-assessment-v20221108-16684036687NAG8.pdf
5. AlKhuzaey, S., Grasso, F., Payne, T.R., et al., « Prédiction de la difficulté des questions basée sur le texte : une revue systématique des approches automatiques », Journal international de l'intelligence artificielle dans l'éducation (2023). Lien : https://doi.org/10.1007/s40593-023-00362-1
6. La 47e Conférence annuelle de l’Association internationale pour l’évaluation pédagogique, Mexique (2022). Présentation sur les pipelines de données modernisés pour les évaluations électroniques à grande échelle par Vretta : Charles Anifowose, Ryan Schwarz et Cigdem Bulut : https://iaea2022.org/index.php/programme#monday-3rd