Une réflexion gouvernementale ouverte et nuancée sur les enjeux et les défis éthiques et pédagogiques que soulèvent les systèmes d’IA générative en enseignement supérieur semble s’imposer, en particulier dans un contexte où les avantages associés aux IA génératives apparaissent comme incertains et que les risques de préjudice sont sérieux.
Un comité d’experts conjoint à la CEST et au Conseil supérieur de l’éducation
La CEST et le Conseil supérieur de l’éducation (CSE) ont annoncé, en mai 2023, la création d’un comité d’experts conjoint qui mènera des travaux de réflexion, de consultation et d’analyse autour de l’utilisation des IA génératives en enseignement supérieur.
Ce comité d’experts conjoint aura plus spécifiquement pour mandat d’identifier et d’analyser les enjeux et défis pédagogiques et éthiques, ainsi que les bénéfices et les risques associés aux usages actuels et futurs des IA génératives pour la formation et l’évaluation des étudiants, de même que pour la formation des enseignants au sein des établissements d’enseignement supérieur québécois.
Une consultation ciblée auprès de certains acteurs clés du réseau de l’enseignement supérieur sera notamment organisée au printemps 2023 afin de permettre au comité d’experts de brosser un portrait plus complet de la situation et de tenir compte des propositions et des expériences émanant du terrain.
Quelques enjeux éthiques
Perte de contrôle et d’autonomie au regard des savoirs
Les IA génératives confrontent les étudiants à un risque de perte de contrôle au regard des connaissances, puisque les sources des contenus générés par les IA sont incorporées dans des modèles prédictifs souvent opaques. Ce problème de la boîte noire peut également empêcher les étudiants d’avoir accès aux informations et savoirs qui correspondraient pourtant le mieux à leurs préférences et à leurs objectifs personnels, ce qui peut porter atteinte à leur autonomie. Ces enjeux sont liés aux valeurs d’explicabilité, de transparence et d’interprétabilité des algorithmes, récurrentes en éthique de l’IA.
Redéfinition des règles de citation des sources et de plagiat
Cette incertitude quant à l’origine des contenus générés par les IA génératives peut semer le doute sur la manière dont il convient d’appliquer les règles relatives au plagiat et à la citation des sources, y compris pour les étudiants désirant faire preuve d’intégrité.
Problèmes liés à la responsabilité, à la rigueur intellectuelle et aux biais
La difficulté de déterminer qui est imputable de la matière créée par l’IA soulève des questions directement liées au principe de responsabilité. Ces questions semblent d’autant plus importantes que l’une des caractéristiques des nouvelles IA génératives est de produire des affirmations parfois fausses (manque de rigueur intellectuelle, de pertinence et de fiabilité) et susceptibles de véhiculer des biais (manque de diversité et d’inclusion), mais rédigées de manière à les rendre très plausibles, ce qui augmente les risques de mésinformation et de discrimination vis-à-vis certains groupes.
Risque d’incertitude quant au statut des IA génératives
Des débats ont déjà eu lieu au sein de la communauté scientifique et académique au sujet du bien-fondé de nommer les IA génératives coautrices dans le cadre de publications. Quelques auteurs parlent même de « co-créativité » et de « littérature synthétique » pour désigner le fait de rédiger avec l’aide d’IA génératives. Ces récents développements soulèvent ainsi des questionnements sur le statut et le rôle des IA génératives dans un contexte d’évaluation des apprentissages : certains étudiants ou enseignants pourraient-ils être amenés à percevoir et à considérer les IA génératives comme des collaboratrices dotées d’autonomie décisionnelle?
Risque de renforcer les inégalités entre les étudiants
Finalement, l’utilisation d’IA génératives dans le cadre de l’évaluation des apprentissages présente un risque de renforcer les inégalités entre les étudiants (plutôt que de les réduire) en fonction de facteurs tels que leur capacité d’avoir accès à l’IA (fracture numérique), leur littératie numérique ou encore leurs aptitudes à utiliser l’IA de manière à en tirer profit. En raison de la fracture numérique, les étudiants déjà favorisés pourraient être plus avantagés par l’IA que les moins favorisés, contribuant ainsi à creuser les écarts et à accentuer les iniquités.
Pour aller plus loin
Revue de presse choisie
Communiqué de presse
Intelligence artificielle en enseignement supérieur - Le Conseil supérieur de l'éducation et la Commission de l'éthique en science et en technologie se pencheront sur les enjeux pédagogiques et éthiques (newswire.ca)