Corps de l’article

Introduction : potentiel de l’intelligence artificielle pour l’éducation

L’intelligence artificielle (IA) suscite un intérêt pédagogique et scientifique croissant depuis une trentaine d’années, qui s’est accéléré récemment à la suite de l’amélioration de la performance technique de l’IA (Becker, 2018). Dans leur revue systématique de la littérature, Zawacki-Richter et al. (2019) identifient quatre applications principales de l’IA en enseignement supérieur : 1/le profilage et la prédiction (p. ex., admission à un programme d’études, décrochage scolaire) ; 2/les systèmes de tutorat intelligent (p. ex., enseignement de contenus pédagogiques, rétroactions) ; 3/la mesure et l’évaluation (p. ex., notation automatique, engagement scolaire) ; 4/et les systèmes adaptatifs et personnalisés (p. ex., recommandation et sélection de contenus personnalisés). En revanche, les enjeux éthiques et critiques que soulève l’IA sont peu étudiés en enseignement supérieur (Zawacki-Richter et al., 2019), et en éducation plus largement (Krutka, 2021). Souhaitant contribuer à cette réflexion émergente, nous proposons d’aborder quelques enjeux éthiques et critiques de l’IA, sans toutefois prétendre à l’exhaustivité, ainsi que de formuler quelques pistes d’action permettant de mieux les prendre en compte, tant du point de vue de la conception que de l’usage. Ce faisant, il importe de garder en tête que les enjeux énumérés ci-dessous ne sont pas, pour la plupart, spécifiques à l’IA dans la mesure où ils se posent aussi pour d’autres technologies. Qui plus est, on les retrouve dans d’autres sphères de la société où l’IA est utilisée. Ces enjeux tendent toutefois à être amplifiés par les développements actuels de l’IA et à se décliner de manière singulière en éducation, ce qui justifie à notre sens la pertinence d’une réflexion circonscrite à l’IA en éducation.

Quelques enjeux éthiques et critiques de l’IA en éducation

Les enjeux éthiques et critiques que soulève l’IA en éducation sont multiples et ont des origines diverses. Un premier type d’enjeux est lié aux données massives que nécessite l’IA, lesquelles peuvent induire des biais éventuels et posent la question du respect de la vie privée des élèves et du personnel scolaire (Andrejevic et al., 2020 ; Perrotta et al., 2020). Krutka (2021) prend l’exemple de la suite éducative de Google, qui collecte des données sans consentement libre et éclairé des élèves et du personnel scolaire (en contradiction avec leurs propres politiques et celles des provinces et des états) et les exploite de manière opaque. Les données des élèves et du personnel scolaire sont donc utilisées à leur insu, causant ainsi un manquement au respect de leur vie privée.

Par ailleurs, l’IA est principalement produite par des entreprises privées plutôt que par des instances scolaires (Williamson et al., 2020 ; Selwyn et al., 2020), et principalement étudiée par des chercheur.e.s en informatique ou en sciences, technologies, ingénierie et mathématiques plutôt que par des chercheur.e.s en sciences de l’éducation (Zawacki-Richter et al., 2019). Cette situation génère un deuxième type d’enjeux éthiques et critiques relatif aux expertises et aux représentations éducatives mobilisées par les équipes de conception. En dehors de l’éducation, plusieurs études ont déjà souligné le manque de diversité au sein des équipes de conception, ce qui se traduit par des biais de représentativité allant de la sous-représentation de certains groupes sociaux à leur discrimination, stigmatisation ou exclusion. C’est ainsi qu’en 2015, l’algorithme de Google photos a associé une photo de deux personnes noires américaines au tag « gorilles », faute d’avoir été suffisamment entraîné à identifier des visages à la peau foncée (Plenke, 2015).

Finalement, l’automatisation croissante de l’IA implique que cette dernière est en mesure de prendre en charge une part croissante des actions pédagogiques qui reviennent habituellement aux élèves et au personnel scolaire (Selwyn, 2019). Se pose alors un autre type d’enjeux éthiques et critiques relatifs à l’autonomie et au jugement professionnels des enseignantes et enseignants, ainsi qu’à l’agentivité des élèves en fonction de la distribution des tâches entre eux et l’IA. À titre d’exemple, citons le cas des systèmes de gestion des comportements rapporté par Livingtsone et Sefton-Green (2016). Les systèmes de gestion des comportements permettent aux enseignant.e.s de documenter les comportements nuisibles des élèves, qui sont ensuite compilés et signalés automatiquement à l’administration scolaire en vue d’appliquer des conséquences proportionnelles. Faute de temps en salle de classe, certain.e.s enseignant.e.s documentent les comportements après les cours, parfois sans en avoir informé les élèves concerné.e.s. Les élèves peuvent donc être mis.es en retrait pour une suite de comportements nuisibles dont elles ou ils n’ont pas souvenir, ce qui met à mal les principes mêmes de cohérence et de justice, en éducation.

Prévenir les enjeux éthiques et critiques de l’IA : de la conception à l’usage

De ces types d’enjeux éthiques et critiques, il est possible d’esquisser quelques pistes de réflexion et d’action. En premier lieu, ces enjeux gagnent à être pris en compte dès la phase de conception, afin de prévenir autant que possible des retombées négatives éventuelles lors de l’usage. On peut alors se poser la question suivante : dans quelle mesure les équipes de conception intègrent-elles des expertises et des représentations éducatives lorsqu’elles développent des technologies impliquant l’IA ? Et dans quelle mesure ces expertises et représentations éducatives sont-elles représentatives de la diversité et de la singularité des milieux scolaires québécois ? Un premier pas pour s’en assurer consiste, pour les équipes de conception, à opter pour des modèles « centrés usager » (p. ex., Labarthe, 210) dans le but de maximiser la prise en compte des expertises et des représentations éducatives et de préserver la finalité éducative des finalités économiques et techniques. Un pas complémentaire consiste à adopter et respecter des principes éthiques de conception, comme le fait d’informer systématiquement et explicitement les usager.e.s lorsqu’elles ou ils sont en interaction avec un système d’intelligence artificielle. Sur le plan de l’usage, sensibiliser les élèves et le personnel scolaire aux enjeux de l’IA en éducation implique d’intégrer une dimension éthique et critique explicite à la formation aux technologies. Pour être complète, cette dimension gagnerait à ne pas se limiter aux « bons usages » de l’IA, mais à s’articuler autour de la compréhension des interactions entre la conception et l’usage de l’IA d’une part, et entre les usages et leurs implications éducatives et sociales d’autre part. Par exemple, le modèle technoéthique de Krutka et al. (2019) ouvre une voie intéressante en formation initiale et continue des enseignants : pour déterminer si une technologie donnée est éthique, il propose une analyse des dimensions éthique, légale, démocratique, économique, technologique et pédagogique, guidée par des questions, ainsi que des éléments à considérer et des applications pratiques à intégrer à la formation des enseignants.

Pour ne pas conclure

L’intégration de l’IA en éducation est relativement récente de sorte que l’opérationnalisation de son potentiel reste en grande partie à venir. Pour l’orienter, il nous semble nécessaire de l’accompagner d’une prise en compte proactive des enjeux éthiques et critiques que l’IA soulève, en ancrant cette dernière dans le cadre d’une réflexion sur la justice. À ce titre, une formation à l’éthique du personnel scolaire mérite d’être mise de l’avant afin de l’outiller au mieux pour intervenir et interagir dans un monde en pleine mouvance.