Intégrer l’IA à l’université est une responsabilité partagée

Les intelligences artificielles génératives, comme ChatGPT, peuvent susciter des préoccupations dans les universités. La plupart des chercheurs et des professeurs semblent pourtant s’entendre sur le besoin de les intégrer et de former le corps professoral et les étudiants à leur utilisation éthique et responsable. 

L’intelligence artificielle générative est «une nouvelle réalité qui va s’accentuer dans les années à venir», prévient la professeure associée au département de médecine sociale et préventive à l’École de santé publique de l’Université de Montréal, Emmanuelle Marceau. Il faut donc s’adapter à sa présence. 

Dans ce contexte, les professeurs doivent apprendre aux membres de la communauté étudiante à voir «l’intelligence comme un produit humain, voir ses forces, ses faiblesses, ses potentiels et ses risques», explique la professeure auxiliaire en français langue seconde et en intégration des technologies en contexte universitaire à la faculté d’éducation de l’Université d’Ottawa, Banafsheh Karamifar. 

Transparence et éthique 

Selon Marc Lanovaz, professeur à l’école de psychologie et d’éducation de l’Université de Montréal, la transparence reste la clé pour intégrer cette technologie. 

Pour celles et ceux qui redoutent la multiplication des cas de plagiat, il précise que les étudiants peuvent déjà tricher sans avoir recours à l’intelligence artificielle. 

De plus, il rappelle qu’il y a peu de personnes qui produisent un travail plagié et qu’il faut aussi faire confiance à la grande majorité qui souhaite étudier et développer ses compétences. 

Si les professeurs autorisent les étudiants à manipuler l’intelligence artificielle, ils ont la responsabilité «d’accompagner les étudiants et de les former à son usage responsable, parce qu’un étudiant ou une étudiante ne sait pas comment l’utiliser», précise Banafsheh Karamifar. Pour pouvoir transmettre un usage éthique de l’intelligence artificielle, il faut «l’intégrer dans la pratique pédagogique». 

Les étudiants doivent donc s’informer, se familiariser et développer leurs connaissances pour une utilisation éthique et responsable de la technologie afin de comprendre les risques et les bénéfices, ajoute Emmanuelle Marceau. 

La professeure titulaire de l’Université de l’Alberta à la faculté Saint-Jean et spécialiste en technologie éducative et en évolution des technologies du numérique, Martine Pellerin, raconte avoir déjà donné à ses étudiants la tâche de documenter leurs utilisations et de porter un regard critique sur cette nouvelle technologie. 

De son côté, l’Université d’Ottawa a mis en place des cours d’éthique et d’intelligence artificielle au sein des programmes de Génie pour former les étudiants à la littératie, informe Banafsheh Karamifar. 

Le professeur au département de communication sociale et publique de l’Université de Québec à Montréal, Alexandre Coutant, tient aussi à rappeler que l’intelligence artificielle n’est pas un «un truc extérieur qui nous est arrivé, mais en fait c’est nous qui la faisons; c’est notre choix». 

D’après lui, l’intelligence artificielle ne s’impose donc pas à nous; c’est l’être humain qui la façonne à sa manière par les fonctionnalités que lui-même a développées. 

Pour éviter ainsi d’avoir des problèmes avec l’utilisation de l’intelligence artificielle, il faut «apprendre à connaitre la bête et apprivoiser la bête», illustre Martine Pellerin. 

Dans ses formations, Martine Pellerin commence par faire comprendre ce qu’est l’intelligence artificielle aux éducateurs et aux étudiants. «Si on a une compréhension des algorithmes, on va vraiment avoir une meilleure façon de comprendre et de développer son jugement critique.» 

La professeure critique toutefois le manque de formation adéquate sur le sujet pour les professeurs et les étudiants. Mentionner sur le syllabus l’autorisation d’utiliser l’intelligence artificielle n’est pas suffisant. Il faut, selon elle, expliquer aux étudiants ce qu’est cette technologie et déculpabiliser ceux qui souhaitent s’en servir pour appuyer leurs études. 

Roue de secours 

Un bon usage de l’intelligence artificielle peut donc «servir à des principes de justice et d’équité dans nos sociétés», explique Emmanuelle Marceau. 

Des personnes peuvent l’utiliser pour lutter contre le syndrome de la page blanche ou comme un outil pour se dépasser, donne en exemples Alexandre Coutant. L’intelligence artificielle peut aussi aider des étudiants à comprendre des concepts méconnus ou être une branche de secours pour les personnes en situation de handicap, ajoute Marc Lanovaz. 

Banafsheh Karamifar rappelle toutefois que l’intelligence artificielle n’est pas exemptée d’erreurs et peut aussi se tromper. Il est donc impératif de rester prudent et garder un esprit critique quand elle est utilisée. 

Responsabilité collective 

Pour assurer un bon déploiement de l’intégration de l’intelligence artificielle à l’université, il faut déterminer collectivement quels sont les enjeux et les écueils de l’utilisation de cette technologie, établir de meilleures pratiques et rester ouvert à les revoir et les bonifier, explique Emmanuelle Marceau. 

Pour y arriver, Banafsheh Karamifar encourage la mise en place de règles précises et claires au niveau institutionnel. 

Il faut avoir des règles communes pour éviter que les professeurs choisissent eux-mêmes d’autoriser ou de refuser l’usage de cette technologie, défend de son côté Martine Pellerin. 

La professeure rappelle que l’université a une responsabilité de former une nouvelle génération capable de s’adapter à un monde qui est en constante évolution technologique rapide. 

Pour y arriver, il faut «que les étudiants, les professeurs et l’université soient dans ce dialogue et qu’ensemble ils développent des directives», précise Martine Pellerin. 

Selon elle, intégrer les étudiants dans ce processus leur permet de bien comprendre l’importance de l’intégrité scolaire.