ChatGPT

ChatGPT à l’école : les élèves qui trichent avec l’IA ne sont quasi jamais détectés

Selon une étude récente menée par l'Université de Reading, 94 % des examens générés par l'IA restent non détectés. Ces examens incluent ceux produits par des outils comme ChatGPT, échappant ainsi aux systèmes d'évaluation traditionnels.

Jusqu'à présent, les résultats de cette étude démontrent une incapacité presque totale à détecter les copies d'examen générées par l'IA. En utilisant GPT-4, une version avancée de l'outil , les chercheurs ont créé des réponses pour des examens de cinq cours différents dans un programme de psychologie de premier cycle.

Ils ont découvert que 94 % de ces soumissions n'avaient pas été identifiées comme étant l'œuvre d'une IA par les examinateurs. Cette étude démontre combien il est complexe de distinguer un travail humain d'un travail généré par machine. Le problème est surtout présent lorsque les réponses de l'intelligence artificielle ne sont pas modifiées par les étudiants.

ChatGPT : l'IA qui trompe et surpasse les étudiants

Il est crucial de noter que non seulement les travaux d'IA échappent à la détection, mais ils surpassent aussi souvent les travaux des étudiants réels. Dans 83,4 % des cas examinés, les travaux générés par l'IA ont reçu des notes supérieures. Ces notes étaient meilleures que celles d'un échantillon aléatoire de travaux d'étudiants.

Cela indique que l'IA comme ChatGPT peut non seulement imiter le style d'écriture des étudiants. Elle peut aussi optimiser les réponses pour obtenir de meilleurs résultats académiques.

Par ailleurs, identifier les travaux générés par l'IA demeure un obstacle majeur. Les systèmes existants, tels que ceux proposés par Turnitin, ne sont pas entièrement efficaces. Ils montrent des faiblesses, notamment en ce qui concerne les étudiants dont l'anglais n'est pas la langue maternelle.

Ces systèmes risquent de les pénaliser injustement, en détectant des différences de langage comme des indices de non-conformité. Les auteurs de l'étude ont également noté que leur taux de détection de 6 % pourrait en réalité surestimer leur capacité à identifier l'utilisation réelle de l'IA pour tricher.

Cela suggère que les étudiants pourraient encore affiner les sorties de l'IA. Ainsi, ils les rendraient encore moins détectables.

L'éducation peut-elle rester équitable avec l'avènement de l'IA ?

Dans tous les cas, ces découvertes appellent à une réévaluation des politiques éducatives. Les résultats de l'étude invitent le secteur éducatif à adopter ce que les chercheurs appellent une nouvelle normalité.

Cela requiert l'instauration de politiques et de conseils pour les enseignants et les étudiants. De ce fait, ces conseils doivent équilibrer les risques et les opportunités inhérents à l'utilisation de l'IA.

La suggestion des chercheurs concerne d'abord une réduction des examens à domicile non supervisés. Ils proposent ensuite un renforcement des environnements contrôlés. Dans ces milieux, l‘usage de l'IA pourrait être mieux surveillé et régulé.

C'est donc impératif que les écoles et universités adaptent leurs politiques pour intégrer la réalité de l'IA. En reconnaissant les risques et les opportunités que présente l'utilisation de technologies telles que ChatGPT, les institutions peuvent mieux s'adapter. Elles peuvent ainsi préparer les étudiants à naviguer dans un environnement académique en rapide évolution.

De telles mesures pourraient inclure la mise en place de cours spécifiques sur les compétences numériques et l'éthique de l'IA.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *