Antsa Nasandratra Nirina Avo, étudiante, Université du Québec à Trois-Rivières
Catherine Simard, professeure en didactique des sciences et technologies, Université du Québec à Rimouski, Lucia Savard, enseignante du primaire et professionnelle de recherche, Université du Québec à Rimouski, Mélanie Cantin, coordonnatrice des communications, Technoscience Est-du-Québec et Dominique Savard, directrice générale, Technoscience Est-du-Québec
Alexis Legault, étudiant à la maitrise, Kara Edward, étudiante au doctorat et Adolfo Agundez Rodriguez, professeur, Université de Sherbrooke
Audrey Groleau, professeure de didactique des sciences et de la technologie, Université du Québec à Trois-Rivières, Irvings Julien, stagiaire postdoctoral, Université du Québec à Trois-Rivières et Marco Barroca-Paccard, professeur de didactique des sciences de la nature, de la biologie et de la durabilité, Haute école pédagogique de Vaud (Suisse)
Isabelle Arseneau, doctorante, Université Laval, Audrey Groleau, professeure, Université du Québec à Trois-Rivières et Chantal Pouliot, Professeure, Université Laval
Maia Morel, professeure agrégée, Université de Sherbrooke et Elizabeth Fafard, étudiante à la maitrise, Université de Sherbrooke
Avec l’évolution du numérique, l’intelligence artificielle (IA) occupe une place de plus en plus importante dans la société, au point où il devient incontournable de se questionner sur les enjeux éthiques et politicojuridiques de son utilisation, notamment lorsqu’il est question d’éducation. Depuis la pandémie de COVID-19, l’intégration de l’IA en milieu éducatif s’est accélérée. De plus, l’apparition récente du robot conversationnel nommé ChatGPT3 (qui s’appuie sur l’IA pour construire des réponses semblant cohérentes à des questions qui s’apparentent à celles qui peuvent être posées dans des travaux scolaires) a mis en exergue l’urgence de mener un débat sur l’éthique de l’utilisation de l’intelligence artificielle en éducation. En effet, encore une fois, la technologie est allée plus vite que les cadres normatifs. Quelles compétences les acteurs et actrices du milieu de l’éducation gagneraient-ils ou elles à développer pour utiliser éthiquement une intelligence artificielle ?
C’est dans l’objectif de trouver une réponse à cette question que j’ai assisté, en octobre dernier, au 55e colloque de l’AESTQ sous le thème Pour des citoyens éthiques à l’ère de l’IA. J’ai constaté que beaucoup d’enseignants et d’enseignantes, quel que soit leur ordre d’enseignement, se sont posé la même question que moi. Ainsi, l’objectif de cet article est d’apporter quelques éléments de réflexion à ce questionnement. Mais d’abord, entendons-nous sur ce qu’on appelle intelligence artificielle.
L’intelligence artificielle a été présentée de plusieurs façons, mais la définition sur laquelle nous allons nous appuyer est celle de Smith et Neupmane, qui la définit comme une nouvelle façon d’utiliser l’informatique au service des humains. Ses applications sont employées dans plusieurs domaines (Smith & Neupane, 2018) comme la santé, l’éducation, l’économie et la finance. Elles occupent donc une place de plus en plus importante dans la société. En éducation, on recense plusieurs outils utilisant l’IA qui ont été créés pour aider les enseignantes et enseignants à gagner du temps et les libérer de certaines tâches plus lourdes. À titre d’exemples, Gradescope est un logiciel d’assistance à la correction des travaux qui permet de définir les critères de correction et les barèmes de notation, Knowji utilise les jeux pour enseigner du vocabulaire et s’assurer que les connaissances soient bien assimilées et Mozaïk-Portail offre aux personnels éducatifs un portrait de la situation d’apprentissage de l’apprenant en temps réel permettant d’intervenir immédiatement si nécessaire. Puisque de nombreux outils sont développés actuellement, il est nécessaire de se questionner sur ces aspects éthiques et juridiques, mais aussi sur la responsabilité des personnes qui conçoivent et emploient ces machines (Zouinar, 2020).
Il faut savoir que l’utilisation intensive des technologies d’IA en éducation apporte certains avantages comme la possibilité d’une adaptation de l’apprentissage individualisée selon le rythme de l’apprenant ou de l’apprenante, mais aussi un véritable support à l’enseignement. Par exemple, la capacité de certains outils à effectuer la correction automatique de certains travaux libère du temps pour effectuer d’autres tâches pédagogiques de plus haut niveau qui impliquent des interactions avec les apprenantes et apprenants. De tels outils facilitent aussi l’évaluation continue des apprentissages en permettant un suivi individuel (Barakina et al., 2021) et transforme par ailleurs la façon d’interagir des enseignants et enseignantes avec la classe.
Cependant, lors du congrès, Lofti Gharbi (Christin et al., 2022)1 a présenté quelques risques pour les utilisateurs et utilisatrices de l’intelligence artificielle, en particulier pour l’apprenant ou apprenante, sur les plans éthique, physique et psychologique.
D’abord, il y a un risque de discrimination, car il est impossible de contrôler les informations véhiculées par l’outil. Il peut s’accompagner d’une manipulation d’informations et de la normalisation des comportements comme l’antisémitisme, le racisme et l’égocentrisme en raison de bases de données biaisées fournies à l’IA dans lesquelles les outils puisent leurs informations. De tels biais peuvent aussi résulter de maladresses dans le réglage de l’IA par les fabricants (Christin et al., 2022; Ravet, 2018). Plus encore, l’utilisation de l’IA pourrait avoir pour conséquence la diminution de l’interaction humaine et ainsi entrainer un défi sociétal. En effet, l’utilisation non encadrée de l’IA risquerait d’entrainer d’autres problèmes sociétaux plus graves comme la banalisation des comportements immoraux et l’isolement. Prenons l’exemple de la tricherie. Il est devenu de moins en moins commode de citer les sources d’informations utilisées dans un travail impliquant une IA alors que s’approprier le texte ou l’idée d’une autre personne sans le citer correctement relève du plagiat. Il y a par ailleurs le risque de limiter la liberté de choix et l’autonomie de son utilisateur en raison de la capacité supérieure de résolution de problème de l’intelligence artificielle à celle des humains (Christin et al., 2022). En outre, le recours à l’IA peut être source d’une paresse intellectuelle chez les apprenants et apprenantes, car ils ou elles ne feront plus l’effort de réfléchir ni de choisir, mais dépendront entièrement de l’IA sous prétexte qu’elle fera toujours le meilleur choix. Elle risque alors de miner leur créativité, leur pensée rationnelle et leur développement personnel en leur présentant des modèles déjà constitués et très efficaces (Barakina et al., 2021). Notons aussi qu’un risque d’atteinte à la vie privée est inévitable avec l’utilisation d’une intelligence artificielle en éducation (Christin et al., 2022; Epstein et al., 2000). Il est ici question de sécurité, de protection de l’identité (Christin et al., 2022) et de protection des œuvres ou des créations des apprenants et apprenantes (Sallantin & Robert, 2022). En effet, la protection des données et la propriété intellectuelle sont un défi actuel pour les entreprises développant ces outils.
Des scientifiques de l’Université de Montréal (Bruneault et al., 2022) ont créé un référentiel de compétences en éthique de l’intelligence artificielle destiné aux entreprises qui développent ces technologies, mais aussi aux enseignants et enseignantes qui vont les utiliser en classe et à leurs élèves. En effet, agir de manière éthique en utilisant l’IA en classe sera une compétence bientôt attendue auprès des enseignants (Gouvernement du Québec, 2019). Il s’agit notamment de protéger les apprenants et apprenantes, parce que ce sont eux et elles qui sont les plus vulnérables face aux effets de l’IA (Barakina et al., 2021). Ainsi, « être compétent en éthique, c’est être capable d’agir en situation éthique impliquant des systèmes d’intelligences artificielles, et ce de manière autonome et responsable par la mobilisation volontaire de ressources internes et externes » (Epstein et al., 2000, p. 12). Ce référentiel vise surtout à protéger le tissu social, à éviter les éventuelles violations des droits des apprenants et apprenantes qui vont utiliser la technologie en question, mais aussi leurs capacités humaines et leur pensée rationnelle.
Les recommandations pour une utilisation éthique de l’IA en éducation tournent autour de quatre points mentionnés par quelques auteurs.
Continuer à encourager le développement des compétences liées à l’esprit critique et créatif (UNESCO, 2021). En ce qui concerne les élèves, le gouvernement québécois, à travers son programme de formation de l’école québécoise en science et technologie (Gouvernement du Québec, 2007), les encourage à être toujours conscients des normes et règles de sécurité, à faire preuve de prudence dans la manipulation des outils d’apprentissages, à développer un esprit critique à l’égard du numérique (Gouvernement du Québec, 2019) et à faire appel à leur enseignant ou enseignante pour s’assurer d’utiliser adéquatement le matériel mis à leur disposition. En d’autres termes, les élèves doivent utiliser de manière responsable les ressources utiles à leur apprentissage et « ont l’obligation de se protéger contre les effets négatifs de l’intelligence artificielle et d’influencer les décisions des vendeurs, qui pour des raisons économiques, seraient incités à produire des logiciels éducatifs à effets nocifs » (Epstein et al., 2000, p. 8).
De leur côté, les enseignants et enseignantes devront :
En résumé, les enseignants et enseignantes doivent s’assurer de bien connaitre l’IA comme tout autre outil avant son utilisation en classe. Il faut rappeler que les recommandations présentées ici ont pour objectif de montrer que l’IA est un outil qui peut alléger la tâche des enseignants et enseignantes. Le défi dans ce cas est de dépasser les préjugés sur les difficultés de son utilisation en classe. En réalité, les intelligences artificielles sont utiles à cause de leur rapidité, leur précision et leur endurance. L’IA ne remplacera pas un enseignant ou enseignante, en revanche elle leur sera une excellente assistante.
Les systèmes d’intelligence artificielle ont su intégrer les activités quotidiennes au point où il nous est presque impossible de nous en passer complètement. Le monde de l’éducation les a déjà adoptés et a reconnu leur énorme potentiel comme outils d’enseignement et d’apprentissage. Cependant, les développements technologiques avancent si rapidement que les cadres éthiques et juridiques qui entourent leur utilisation ne parviennent pas à suivre le rythme. En effet, les intelligences artificielles sont déjà utilisées par les jeunes, alors que leurs impacts sociaux ne sont pas encore documentés.
Il est temps de réfléchir à ces impacts et à des normes à implanter. Il me semble probable que de former les enseignants et enseignantes à l’utilisation responsable et éthique des intelligences artificielles soit une forme de prévention à la potentielle dérive de son utilisation. Des questions demeurent par ailleurs entières, comme celle de la conciliation entre une utilisation des intelligences artificielles et la préservation de nos valeurs. Certes, plusieurs recherches ont déjà été effectuées sur l’éthique de l’intelligence artificielle (Bruneault et al., 2022; Chevrette, 2021; Ravet, 2018), mais ces travaux se penchent surtout sur le développement des outils et n’offrent pas vraiment de guide pour l’enseignant ou l’enseignante qui est amené à les utiliser en classe. Le développement d’un tel guide est urgent.
__________________
1. Dans le programme, on mentionnait que les personnes autrices de la communication étaient Marjolaine Christin et Juliet Waters de Digital Moments (Kids Code Jeunesse). Puisque c’est M. Gharbi qui a présenté la communication et que c’est son nom qui figure sur le support visuel présenté, j’ai dû prendre une décision quant à la façon de faire référence à cet atelier. À partir de maintenant, je ferai référence au contenu de la communication en me basant sur les informations officielles qui figurent dans le programme.
Barakina, E. Y., Popova, A. V., Gorokhova, S. S. et Voskovskaya, A. S. (2021). Digital technologies and artificial intelligence technologies in education. European Journal of Contemporary Education, 10(2), 285-296. https://eric.ed.gov/?id=EJ1311498
Bruneault, F., Laflamme, A. S. et Mondoux, A. (2022). Former à l’éthique de l’IA en enseignement supérieur : référentiel de compétence.
Chevrette, P. (2021). L’éducation dans l’oeil de l’IA. Les Cahiers de lecture de L’Action nationale, 15(3), 19-21. https://id.erudit.org/iderudit/96265ac
Christin, M., Waters, J., & Digital, M. (2022). L'éthique à l'ère de l'IA pour les enseignants de demain. 55e colloque de l’AESTQ. Pour des citoyens éthiques à l’ère de l’IA, Drumondville, Québec, Canada.
Collins, W. R., Miller, K. W., Spielman, B. J. et Wherry, P. (1994). How good is good enough? An ethical analysis of software construction and use. Commun. ACM, 37(1), 81-91. https://doi.org/10.1145/175222.175229
Epstein, R., Baldner, J.-M., Delozanne, E. et Ughetto, C. (2000). Lignes directrices pour une éthique de l’utilisation des systèmes d’intelligence artificielle en éducation. Sciences et Technologies de l’Information et de la Communication pour l’Éducation et la Formation, 7(1), 245-265.
Gharbi, L. (2022). L’éthique à l’ère de l’IA pour les enseignants de demain [communication orale]. 55e colloque de l’AESTQ. Pour des citoyens éthiques à l’ère de l’IA, Drummondville, Qc, Canada.
Ministère de l’Éducation. (2007). Programme de formation de l’école québécoise en science et technologie. http://www.education.gouv.qc.ca/fileadmin/site_web/documents/education/jeunes/pfeq/PFEQ_science-technologie-deuxieme-cycle-secondaire.pdf
Ministère de l’Éducation. (2019). Cadre de référence de la compétence numérique. http://www.education.gouv.qc.ca/fileadmin/site_web/documents/ministere/Cadre-reference-competence-num.pdf
Marks, B. et Thomas, J. (2022). Adoption of virtual reality technology in higher education: An evaluation of five teaching semesters in a purpose-designed laboratory. Education and Information Technologies, 27(1), 1287-1305. https://doi.org/10.1007/s10639-021-10653-6
Ravet, J.-C. (2018). L’éthique et l’intelligence artificielle. Relations, (795), 5-5. https://id.erudit.org/iderudit/87785ac
Sallantin, J. et Robert, M. (2022). Les défis de l’authentification pour protéger la créativité à la source. The conversation. https://theconversation.com/les-defis-de-lauthentification-pour-proteger-la-creativite-a-la-source-180753
Smith, B. K. et Reiser, B. J. (1997). What should a wildebeest say? Interactive nature films for high school classrooms. Proceedings of the fifth ACM international conference on Multimedia, Association for Computing Machinery, New York, NY, USA, 193-201. https://doi.org/10.1145/266180.266365
Smith, M. et Neupane, S. (2018). Intelligence artificielle et développement humain : vers un programme de recherche. Centre de recherche pour le développement international. https://idl-bnc-idrc.dspacedirect.org/handle/10625/56970
UNESCO. (2021). Recommandation sur l’éthique de l’intelligence artificielle. https://unesdoc.unesco.org/ark:/48223/pf0000380455_fre
Zouinar, M. (2020). Évolutions de l’intelligence artificielle : quels enjeux pour l’activité humaine et la relation Humain‑Machine au travail? Activités, (17-1). https://doi.org/10.4000/activites.4941
Karsenti, T. (2018). Intelligence artificielle en éducation : l’urgence de préparer les futurs enseignants aujourd’hui pour l’école de demain? Formation et profession, 26(3), 112-119.
Forcier, L. (2016). Intelligence unleashed: An argument for AI in education. https://doi.org/10.13140/RG.2.1.3616.8562
Malik, G., Tayal, D. K. et Vij, S. (2018). An analysis of the role of artificial intelligence in education and teaching. Advances in Intelligent Systems and Computing. https://doi.org/10.1007/978-981-10-8639-7_42