Intelligence artificielle en contexte d’évaluation

L’apparition des robots conversationnels, par exemple ChatGPT, Gemini ou Copilot, change les pratiques d’évaluation et continuera d’ailleurs à les modifier au fur et à mesure que l’intelligence artificielle (IA) évoluera, c’est-à-dire très rapidement. Ces robots deviendront possiblement aussi utilisés que peuvent l’être les autres ressources en ligne, les moteurs de recherche (Google et Google Scholar), les encyclopédies collaboratives (Wikipédia), les bases de données (Érudit), etc.

Aujourd’hui, lorsque l’on parle d’intégrité intellectuelle, il est impossible de ne pas considérer les robots conversationnels grâce auxquels l’information est disponible facilement, rapidement. Nous devons donc nous questionner sur notre façon d’évaluer et d’enseigner.

L’École a modifié le Règlement sur l’intégrité intellectuelle étudiante (.pdf) en 2023 à la suite de la popularisation de l’application ChatGPT, la première application de robot conversationnel à être utilisée à grande échelle.

Dans cette page, vous trouverez :

Un robot qui réalise un examen
Un robot qui réalise un examen

L’intelligence artificielle est capable de quoi?

À titre d’exemple, les robots utilisant l’intelligence artificielle sont généralement déjà capables de :

  • Répondre à des questions théoriques sur une foule de sujets et de concepts assez pointus
  • Rédiger un texte argumentatif ou narratif
  • Améliorer la rédaction d’un texte
  • Reformuler une réponse en d’autres mots
  • Traduire et paraphraser un extrait d’un article scientifique
  • Rédiger un plan de cours
  • Corriger avec une grille d’évaluation (avec une fiabilité plutôt discutable)
  • Coder en plusieurs langages informatiques différents
  • etc.

Pour plus de détails, consulter The pratical guide to using AI to do stuff du professeur Ethan Mollick.

L’utilisation de l’intelligence artificielle en contexte d’évaluation est-elle permise à HEC Montréal?

 

L'édifice Côte-Sainte-Catherine de HEC Montréal
L'édifice Côte-Sainte-Catherine de HEC Montréal

HEC Montréal vous laisse ce choix, et ce pour chacune de vos évaluations, de l’autoriser ou non. Le site sur l’intégrité intellectuelle de l’École indique que « Pour chacun de vos cours, et pour tout type d’évaluation, validez auprès de votre enseignante ou enseignant si l’utilisation d’un outil d’intelligence artificielle est permise et si oui, dans quelle mesure ou sous quelles conditions. Si vous utilisez un tel outil sans son accord, cela pourrait être reconnu comme une infraction pédagogique (articles 2.1 et 8.8 du règlement sur l’intégrité intellectuelle étudiante) ».

Comme il est réalistement impossible de bannir l’utilisation de robots conversationnels et de l’IA par la communauté HEC, celle-ci doit être minimalement encadrée. Des normes seront graduellement établies au bénéfice des étudiants, des employés et du personnel enseignant, mais l’article 2.1 du Règlement sur l’intégrité intellectuelle étudiante traite l’intelligence artificielle au sens large et inclue ses différentes utilisations dans le cadre de la rédaction universitaire, source d’information, rédaction/production et traduction.

  • Mise en garde

Au moment d’écrire ces lignes, nous savons que nous ne savons pas tout sur la problématique de l’intelligence artificielle en contexte d’évaluation et les choses évoluent très vite! Revenez sur cette page régulièrement pour en savoir davantage.

Un outil pour guider et communiquer vos balises

La DAIP a mis au point un outil pour vous aider à définir le niveau d’intégration de l’IA que vous souhaitez permettre aux personnes étudiantes lors de vos activités d’enseignement ou d’évaluation. La page portant sur le guide d’intégration de l’IA pour les activités d’enseignement et d’évaluation vous permet de vous renseigner sur le sujet et de télécharger les outils pertinents.