Integrità accademica nell'era dell'AI: la crisi del cheating
La dimensione del fenomeno: numeri senza precedenti
I dati sulla disonestà accademica correlata all’AI nel periodo 2024-2026 sono impressionanti per dimensione e velocità di evoluzione. Un sondaggio nazionale nel Regno Unito del 2025 ha rivelato che il 92% degli studenti utilizza l’AI in qualche forma, e l’88% ha utilizzato specificamente l’AI generativa per i compiti, in aumento dal 53% appena un anno prima. Il 18% degli studenti ha ammesso di aver incluso direttamente testo generato dall’AI nei propri elaborati.
L’indagine del Regno Unito ha trovato quasi 7.000 casi accertati di studenti che hanno utilizzato impropriamente strumenti AI come ChatGPT nel 2023-24, oltre tre volte il tasso dell’anno precedente. I casi di disonestà accademica legata all’AI sono cresciuti da 1,6 a 7,5 per 1.000 studenti tra il 2022 e il 2026, secondo l’analisi di AllAboutAI. Uno studio di Turnitin e Vanson Bourne del 2025 ha rilevato che il 95% della comunità accademica ritiene che l’AI venga utilizzata impropriamente nelle proprie istituzioni.
L’arma invisibile: il 94% non viene rilevato
Il dato forse più allarmante proviene dalla University of Reading: il 94% del lavoro generato dall’AI non viene rilevato dai sistemi di detection attualmente in uso. Come osserva il Dr. Peter Scarfe, coautore di uno studio su AI e valutazione, il cheating basato su AI pone un problema fondamentalmente diverso dal plagio tradizionale, e avverte che i pochi studenti scoperti sono probabilmente solo la punta dell’iceberg. Il suo team è stato in grado di sottoporre elaborati scritti dall’AI al sistema della propria università senza essere rilevato il 94% delle volte.
La conseguenza è una vera e propria corsa agli armamenti accademica. Da un lato, le istituzioni implementano strumenti di detection come Turnitin AI Writing Detection e Originality.AI. Dall’altro, gli studenti condividono su TikTok guide su come eludere i detector AI. Il paradosso è che la stessa tecnologia utilizzata per rilevare il cheating è quella che lo rende possibile, creando un ciclo in cui il campo di gioco attualmente favorisce lo studente che utilizza l’AI generativa di nascosto.
Il bias razziale dei detector: un problema etico nel problema etico
Un aspetto particolarmente inquietante dei sistemi di rilevamento dell’AI è il loro bias sistematico contro gli studenti non madrelingua inglese. I dati sono inequivocabili: gli studenti non madrelingua hanno un tasso di falsi positivi del 61,2% nei sistemi di rilevamento AI, contro appena il 5,1% per i madrelingua. Questo significa che uno studente straniero ha una probabilità dodici volte superiore di essere falsamente accusato di aver utilizzato l’AI rispetto a un madrelingua.
Le implicazioni sono profonde: un sistema progettato per proteggere l’integrità accademica finisce per discriminare sistematicamente gli studenti internazionali e quelli provenienti da contesti linguistici diversi. Università come Princeton e MIT hanno già sconsigliato di affidarsi esclusivamente ai detector AI proprio a causa di queste preoccupazioni di affidabilità e bias. Un rapporto del Center for Democracy and Technology avverte che l’eccessiva dipendenza dagli strumenti di detection erode la fiducia tra docenti e studenti.
L’effetto sull’apprendimento: quando l’AI pensa al posto dello studente
Oltre alla frode accademica, esiste una preoccupazione più profonda: l’impatto dell’AI sullo sviluppo effettivo delle competenze. Il 59% degli studenti stessi teme che l’eccessiva dipendenza dall’AI possa portare a una riduzione delle capacità di pensiero critico. Gli strumenti AI possono essere categorizzati in due tipi: assistivi (che aiutano gli studenti a comprendere meglio i concetti) e sostitutivi (che possono rimpiazzare lo studente nelle attività). Quando l’AI diventa sostitutiva, il processo di apprendimento viene cortocircuitato.
Questa preoccupazione è amplificata per i minori. Come sottolinea l’AACAP, l’apprendimento attraverso il fare è cruciale nello sviluppo del bambino, e l’eccessiva dipendenza dall’AI per ottenere risposte compromette il pensiero critico e creativo. La sfida educativa non è semplicemente impedire il cheating, ma ripensare fondamentalmente il modo in cui valutiamo l’apprendimento. Come suggeriscono diversi ricercatori, è necessario un passaggio dalle valutazioni basate sulla conoscenza nozionistica a quelle centrate sull’applicazione, sulla creatività e sul pensiero originale, ambiti in cui gli strumenti AI sono meno capaci di mimare l’intelligenza umana.
I dati che completano il quadro più allarmante
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon