[ZEUS News - www.zeusnews.it - 20-05-2025]
Una studentessa della Northeastern University di Boston ha acceso un dibattito sull'uso dell'intelligenza artificiale nell'istruzione, presentando un reclamo formale per ottenere un rimborso di circa 8.000 dollari della retta di uno dei corsi che ha frequentato.
La ragione? Ha scoperto che il suo professore utilizzava ChatGPT e altre piattaforme di intelligenza artificiale generativa per preparare materiali didattici, come appunti delle lezioni e slide delle presentazioni, nonostante avesse esplicitamente vietato agli studenti di usare strumenti simili per i loro compiti.
La studentessa, Ella Stapleton, ha accusato il docente di ipocrisia, sostenendo che questa pratica non solo violasse le regole imposte agli studenti, ma compromettesse anche la qualità dell'istruzione per cui aveva pagato.
Tutto è iniziato quando la studentessa ha notato istruzioni a ChatGPT su come preparare i documenti all'interno dei materiali forniti dal professore; ha quindi approfondito l'indagine, notando nelle immagini allegate dal professore le incongruenze tipiche della generazione tramite IA: per esempio parti del corpo alterate, typo nei testi e similari.
La giovane ha quindi sostenuto che il corso, parte del programma universitario, non giustificasse il costo elevato della retta se il docente si affidava a strumenti automatizzati invece di creare contenuti originali.
Il caso mette in luce un fenomeno che sarebbe dovuto essere ovvio sin dall'inizio: non sono soltanto gli studenti a usare le IA per «imbrogliare», ma anche i professori.
Un uso giudizioso della IA può alleggerire il carico di lavoro dei docenti, consentendo loro di automatizzare compiti ripetitivi come la creazione di quiz, la sintesi di argomenti complessi o la formattazione di presentazioni. D'altro canto viene meno il carattere personale che l'insegnamento da parte di un professore dovrebbe avere. In altre parole: se tutto il lavoro viene fatto dalla IA - sia la preparazione delle lezioni che la correzione e la valutazione delle prove - a che cosa serve avere un insegnante umano?
Su un altro livello, resta poi l'argomento "ipocrisia" avanzato da Ella Stapleton. L'università promuove un codice di condotta accademica rigoroso, che considera l'uso non autorizzato di strumenti di IA come una forma di plagio o scorrettezza; ma applicare questa regola agli studenti e non ai professori rappresenta l'adozione di una «doppia morale».
La Northeastern University non ha ancora preso una posizione ufficiale sul reclamo, ma il caso sta spingendo l'istituzione a riconsiderare le sue linee guida sull'uso dell'IA. Un portavoce dell'università, citato dal New York Times, ha dichiarato: «Stiamo valutando la questione con attenzione e lavoreremo per garantire che le nostre politiche sull'IA siano chiare e coerenti per tutti i membri della comunità accademica».
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
||
|
Homer S.