Lyon : ChatGPT utilis par la moiti des lves de Master d’un professeur pour rdiger leurs devoirs. Cette pratique m’inquite. Elle pose un vritable problme d’intgration des savoirs

Lyon ChatGPT utilise par la moitie des eleves de
Lyon, un professeur a remarqu de curieuses similitudes dans les copies rendues par la moiti de ses tudiants; il leur avait donn une semaine pour rdiger leurs devoirs. Si les mots diffraient, leurs structures dmonstratives et leurs exemples sont rests constamment les mmes. Cest en se renseignant auprs de ses lves que lun deux a fini par avouer lutilisation de ChatGPT dans la rdaction.

en croire des tmoignages de professeurs d’universit, les tudiants confient ChatGPT la rsolution de leurs devoirs de maison, notamment en dissertation. Le monde universitaire n’a rien vu venir. Nous sommes donc pris au dpourvu , explique Darren Hudson Hick, professeur adjoint de philosophie l’universit Furman.

Je l’ai signal sur Facebook, et mes amis [professeurs] ont dit : “ouais ! J’en ai attrap un aussi” , a-t-il ajout. Au dbut du mois, Hick aurait demand sa classe d’crire un essai de 500 mots sur le philosophe cossais du 18e sicle David Hume et le paradoxe de l’horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu’ils craignent, pour un test la maison. Mais selon le professeur de philosophie, l’une des dissertations qui lui sont parvenus prsentait quelques caractristiques qui ont “signal” l’utilisation de l’IA dans la rponse “rudimentaire” de l’tudiant. Hick explique que cela peut tre dtect par un il avis.

C’est un style propre. Mais il est reconnaissable. Je dirais qu’il crit comme un lve de terminale trs intelligent , a expliqu Hick propos des rponses apportes par ChatGPT aux questions. Il y avait une formulation particulire qui n’tait pas fausse, mais juste trange. Si vous deviez enseigner quelqu’un comment crire des essais, c’est ce que vous lui diriez avant qu’il cre son style , a-t-il ajout. Malgr sa connaissance de l’thique du droit d’auteur, Hick a dclar qu’il tait presque impossible de prouver que le document avait t concoct par ChatGPT. Le professeur affirme avoir fait appel un logiciel de vrification de plagiat.

tre capable de distinguer l’criture produite par un humain ou une machine changera la faon dont ils peuvent tre utiliss dans le milieu universitaire. Les coles seraient en mesure d’appliquer plus efficacement l’interdiction des essais gnrs par l’IA, ou peut-tre seraient-elles plus disposes accepter des articles si elles pouvaient voir comment ces outils peuvent aider leurs lves.

1673539415 235 Lyon ChatGPT utilise par la moitie des eleves de

Premier cas connu en France de l’utilisation de ChatGPT en milieu universitaire ?

Le journal lyonnais Le Progrs nous fait dj part dun premier cas connu dutilisation de lIA chez les tudiants dans l’Hexagone.

Stphane Bonvallet, enseignant en handicapologie (matire enseigne dans certains cursus de sant du secondaire), a demand ses lves de facult de Lyon de *Dfinir les grands traits de lapproche mdicale du handicap en Europe*. Il leur a laiss une semaine pour travailler sur le sujet.

Cependant, lors de la correction, il s’est aperu que sept copies sur les quatorze de sa classe font appel une construction identique, avancent des arguments qui se ressemblent, mais sans jamais tourner au plagiat : *Il ne sagissait pas de copier-coller. Mais les copies taient construites exactement de la mme manire*, relate-t-il. *On y retrouvait les mmes constructions grammaticales. Le raisonnement tait men dans le mme ordre, avec les mmes qualits et les mmes dfauts .

Stphane Bonvallet raconte au Progrs en avoir discut directement avec une tudiante. Elle reconnat alors que la moiti de la promotion de 14 lves ont eu recours ChatGPT.

Les tudiants nont pas reu de blme pour cet usage, puisque lutilisation d’outil de la mme trempe que ChatGPT n’est pas proscrit par le milieu scolaire : nayant pas de cadre interdisant actuellement cette pratique, jai t contraint de les noter , explique-t-il au quotidien. Puisque les autres notes taient comprises entre 10 et 12,5, le professeur a choisi d’attribuer la mme note de 11,75 tous ces travaux qui se sont appuys sur ChatGPT.

En se renseignant auprs de ses collgues, il a fait le constat que ce cas tait loin dtre isol.

Cette pratique minquite. Elle pose un vritable problme dintgration des savoirs, car les lves nont plus besoin deffectuer la moindre recherche pour composer , a regrett le professeur.

Les copies sont dsormais en possession de la direction.

La ville de New York interdit aux tudiants et aux enseignants d’utiliser ChatGPT

En raison de proccupations concernant les effets ngatifs sur l’apprentissage des lves, ainsi que la scurit et l’exactitude du contenu, l’accs ChatGPT est prohib sur les rseaux et les appareils des coles publiques de la ville de New York , dclare un porte-parole du Dpartement de lducation de la ville.

La controverse au sujet de cette dcision tient au moins sur lobservation vidente que ChatGPT peut faire office de complment un moteur de recherche. Dcider den interdire laccs revient donc faire pareil avec des plateformes sur lesquels les tudiants sont aussi susceptibles de trouver des rponses leurs valuations : Wikipedia, Google, etc.

Oui, les modles de langage gnratif peuvent tre bons mais ils ne savent pas de quoi ils parlent

Aussi impressionnant que puisse paratre l’criture gnre par l’IA dans les gros titres avec des confrences universitaires et des coles interdisant les articles crits par machine, voici un rappel qu’ils manquent de comprhension par rapport la vritable criture humaine.

Dans un ditorial publi dans Salon, Gary Smith, professeur d’conomie au Pomona College, a prsent quelques exemples o GPT-3 ne parvient pas raisonner et rpondre efficacement aux questions :

Si vous jouez avec GPT-3 (et je vous encourage le faire), votre rponse initiale sera probablement l’tonnement… Vous semblez avoir une vraie conversation avec une personne trs intelligente. Cependant, en approfondissant, vous dcouvrirez bientt que si le GPT-3 peut enchaner des mots de manire convaincante, il n’a aucune ide de ce que signifient les mots , a-t-il crit.

Prdire que le mot terre est susceptible de suivre le groupe de mots tomber par ne ncessite aucune comprhension de ce que signifie l’un ou l’autre mot – seulement un calcul statistique que ces mots vont souvent ensemble. Par consquent, GPT-3 est enclin faire des dclarations faisant autorit qui sont finalement compltement fausses .

Cela a-t-il t crit par un robot ? Ces outils aident dtecter le texte gnr par l’IA

C’est tellement difficile d’tre un bot de nos jours. Juste au moment o vous pensiez que nous cririons tous avec l’IA d’ici l’ternit, les ingnieurs ont commenc dvelopper de nouvelles faons de dtecter si le texte a t crit par ChatGPT ou un autre gnrateur de texte AI.

Voici trois outils de dtection qui peuvent tre utiliss ds maintenant (ou trs bientt).

Dtecteur de sortie GPT-2

OpenAI impressionne Internet avec ses efforts pour reproduire l’intelligence humaine et les capacits artistiques depuis 2015. Mais en novembre dernier, la socit est finalement devenue mga-virale avec la sortie du gnrateur de texte AI ChatGPT. Les utilisateurs de l’outil bta ont publi des exemples de rponses textuelles gnres par l’IA des invites qui semblaient si lgitimes qu’elles ont sem la peur dans le cur des enseignants et ont mme fait craindre Google que l’outil ne tue son activit de recherche.

Si les ingnieurs d’OpenAI sont capables de crer un bot qui peut crire aussi bien ou mieux que l’humain moyen, il va de soi qu’ils peuvent galement crer un bot qui est meilleur que l’humain moyen pour dtecter si le texte a t gnr par IA.

La dmo en ligne du modle de dtecteur de sortie GPT-2 vous permet de coller du texte dans une bote et de voir immdiatement la probabilit que le texte ait t crit par l’IA. Selon les recherches d’OpenAI, l’outil a un taux de dtection relativement lev, mais doit tre associ des approches bases sur les mtadonnes, au jugement humain et l’ducation du public pour tre plus efficace .

GLTR (Giant Language model Test Room)

Lorsque OpenAI a publi GPT-2 en 2019, les gens du MIT-IBM Watson AI Lab et du Harvard Natural Language Processing Group ont uni leurs forces pour crer un algorithme qui tente de dtecter si le texte a t crit par un bot.

Un texte gnr par ordinateur peut sembler avoir t crit par un humain, mais un crivain humain est plus susceptible de slectionner des mots imprvisibles. En utilisant la mthode il en faut un pour en connatre un , si l’algorithme GLTR peut prdire le mot suivant dans une phrase, alors il supposera que cette phrase a t crite par un bot.

GPTZero

Durant la priode des ftes de fin d’annes, Edward Tian tait occup crer GPTZero, une application qui peut aider dterminer si le texte a t crit par un humain ou un bot. En tant qu’universitaire Princeton, Tian comprend comment les professeurs d’universit pourraient avoir un intrt direct dtecter un AIgiarism , ou un plagiat assist par IA.

Tian dit que son outil mesure le caractre alatoire des phrases (“perplexit”) plus le caractre alatoire global (“burstiness”) pour calculer la probabilit que le texte ait t crit par ChatGPT. Depuis qu’il a tweet propos de GPTZero le 2 janvier, Tian dit qu’il a dj t approch par des socits capital risque souhaitant investir et qu’il dveloppera bientt des versions mises jour.

Filigrane ( venir)

En plus d’aborder le problme comme les dtecteurs de plagiat l’ont fait dans le pass, OpenAI tente de rsoudre le problme en filigranant tout le texte ChatGPT. Selon une rcente confrence sur la scurit de l’IA par le chercheur invit d’OpenAI, Scott Aaronson, les ingnieurs ont dj construit un prototype fonctionnel qui ajoute un filigrane tout texte cr par OpenAI.

Fondamentalement, chaque fois que GPT gnre un texte long, nous voulons qu’il y ait un signal secret autrement imperceptible dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que, oui, cela vient de GPT , explique Aaronson. L’outil utiliserait ce qu’il appelle une fonction cryptographique pseudo-alatoire . Et seul OpenAI aurait accs cette cl.

Conclusion

Le plus grand dbat tourne autour de la possibilit de voir les intelligences artificielles rendues au stade o elles sont dotes de bon sens , capables de rflexion causale, cest–dire de cette capacit raisonner sur le pourquoi les choses se produisent.

Google par exemple est lanc en secret sur le dveloppement de Pitchfork, ou AI Developer Assistance. Cest un outil qui utilise l’apprentissage automatique pour apprendre au code s’crire et se rcrire lui-mme. Comment ? En apprenant des styles correspondant des langages de programmation, et en appliquant ces connaissances pour crire de nouvelles lignes de code.

Lintention initiale derrire ce projet tait de crer une plateforme capable de mettre automatiquement jour la base de code Python chaque fois qu’une nouvelle version tait publie, sans ncessiter l’intervention ou l’embauche d’un grand nombre d’ingnieurs. Cependant, le potentiel du programme s’est avr beaucoup plus important que prvu.

Dsormais, l’intention est de donner vie un systme polyvalent capable de maintenir un standard de qualit dans le code, mais sans dpendre de l’intervention humaine dans les tches de dveloppement et de mise jour. Un tel objectif pourrait ne plus relever de la science fiction lorsquon sait que des quipes de recherche en intelligence artificielle promettent dj latteinte du stade dintelligence artificielle gnrale dans 5 10 ans.

Source : Le Progrs

Et vous ?

Les cryptomonnaies sont elles une gigantesque chaine de Ponzi Elles Pour ou contre l’utilisation des outils comme ChatGPT en milieu scolaire ? Pourquoi ?

We would love to thank the writer of this short article for this awesome content

Lyon : ChatGPT utilis par la moiti des lves de Master d’un professeur pour rdiger leurs devoirs. Cette pratique m’inquite. Elle pose un vritable problme d’intgration des savoirs

Visit our social media profiles along with other pages related to themhttps://metfabtech.com/related-pages/