Copiare i compiti con Chatgtp: i giovani e l’illusione della scorciatoia

Oggi come in passato si cerca la strada più facile, la risposta senza studiare e senza dover comprendere. L’esperto racconta a Mamme Magazine cosa sta succendendo tra i giovani sempre connessi che stanno ricorrendo di continuo all’intelligenza artificiale (che spesso inventa le cose e autori inesistenti). Intorno, troppo spesso, si preferisce tacere sui pericoli della tecnologia

di Nereo de Cesari*

 

C’è sempre stata in ogni generazione la tentazione della via breve. Ieri era copiare il compito dal vicino di banco, poi è arrivato Google, dopo gli smartphone e i tablet e oggi ci sono i modelli linguistici come ChatGPT o il suo rampante cugino DeepSeek. La promessa è sempre la stessa: riempire i vuoti culturali senza sudore, avere risposte immediate senza doverle cercare, studiare o capire davvero.

Risposte non verificate

Il problema è che molti giovani, abituati a fidarsi della fluidità delle risposte, raramente le verificano. E così finiscono per sbagliare completamente strada, convinti di aver trovato un’autostrada quando in realtà stanno girando in tondo in un parcheggio. I numeri non mentono: in Europa, nel 2024, il 97% dei giovani tra i 16 e i 29 anni accede a internet ogni giorno contro l’88% della popolazione in generale (Eurostat). In Italia, l’85,8% degli adolescenti tra gli 11 e i 17 anni ha uno smartphone e oltre il 72% si connette a internet tramite telefono (PMC). Insomma, l’accesso non è un problema, la sorveglianza critico-culturale sì.

E la fatica intellettuale?

Questa facilità di accesso al sapere porta con sé una crudele eredità: la fatica intellettuale viene bypassata. Studio, compiti, lettura – quelle pratiche che costruiscono autonomia e pensiero – sembrano oggi antistoriche. Alla base c’è anche un concorso di colpe: genitori distratti dalla vita moderna, professionale o social, immersi in uno tsunami di stimoli emotivi, pubblicità, rincorse di successo istantaneo. In un mondo che venera il risultato immediato, insegnare la pazienza e il percorso lungo rischia di diventare un lusso.

Il media non si limita a raccontare: spesso preferisce tacere sui pericoli della tecnologia. La narrazione dominante tende a celebrare IA, app e trend digitali, perché accontenta un mercato assetato di novità. E gli influencer, secondo una retorica sempre più mistificante, spingono sogni di successo, ricchezza e libertà—ma il prezzo è il tempo dedicato alla propria crescita interiore.

Giovani senza guida: dall’estetica alla cripto, il cortocircuito della scorciatoia

Il panorama che si apre oggi davanti ai nostri occhi assomiglia più a una distesa di luci al neon che a un orizzonte: troppe sirene digitali che cantano “adesso, subito, senza fatica”. In un sistema educativo e sociale dove il sacrificio è sempre meno valorizzato, i giovani – spesso senza guide vere al loro fianco – si ritrovano a navigare in un mare di messaggi brillanti e promesse facili.

La bellezza del bisturi

In un mondo in cui “apparire” vale più di “essere”, la strada più breve passa spesso per il bisturi. Negli Stati Uniti, secondo la American Society of Plastic Surgeons, nel 2022 quasi 23.500 interventi chirurgici cosmetici sono stati eseguiti su persone di età pari o inferiore a 19 anni, a cui si aggiungono ben 244.252 procedure minimamente invasive (ASPS). L’età media per alcuni interventi è rivelatrice: oltre 4.800 rinoplastiche, 5.900 riduzioni del seno e 2.900 ginecomastie su under-19. Dietro queste cifre ci sono adolescenti fragili, in cui l’autostima viene plasmata da filtri, trend e “like”.

I soldi facili e il rischio di perderli

Se la bellezza sfacciata è un miraggio, la promessa di ricchezza facile è una trappola ancora più subdola. Secondo Internet Matters, quasi 1 giovane su 12 (8 %) tra i 13 e i 16 anni ha già investito in criptovalute, e un ulteriore 15% ha intenzione di farlo (InternetMatters). Il 40% cerca “tanti soldi”, il 38% lo vede come “il futuro del denaro”. Le truffe crypto hanno fruttato nel 2024 circa 12,4 miliardi di dollari, con le cosiddette pig-butchering scams che rappresentano il 33,2% del totale, in crescita del 40% rispetto al 2023.

Ma il rischio non è solo perdere soldi. Una ricerca condotta su 8.000 giovani tra i 16 e i 19 anni in Europa rivela che ben 2/3 si sono macchiati, almeno una volta, di comportamenti online a rischio o borderline criminali (University of East London). Tra questi: 1 su 7 ha inviato spam o immagini sessuali, 1 su 5 ha fatto sexting o scommesse illegali, 1 su 8 ha partecipato a frodi finanziarie e tutto questo accade in un ecosistema che non lascia scampo: se non sei bello, non sei visibile; se non sei ricco, non sei degno; se non sei virale, non sei vivo. In questo scenario, le sirene non sono più figure mitologiche che cantano in lontananza: sono notifiche push, reel in autoplay, pubblicità che ti inseguono. Nessuno spegne queste voci, perché ogni voce genera profitto.

L’intelligenza artificiale

E i modelli IA cosa c’entrano in tutto questo? Generano immagini magnetiche, scrivono testi accattivanti, aiutando a creare falsi miti di una “realtà non reale”, una matrice simulata di wellness commerciale (un pacchetto benessere da supermercato, coach motivazionali, filtri “good vibes only”) tanto da ricordare famosi gruppi web in cui ci si sfoga ma con il preambolo “no critiche”, quasi come fosse l’unica, corretta via per ottenere un dato risultato. Ma com’è possibile che “ci si faccia fregare” così facilmente da un modello LLM (Large Language Model) come ChatGPT? Ecco alcuni esempi.

1. Il viaggio perso per un errore di AI

L’influencer spagnola, Mery Caldass si è affidata a ChatGPT relativamente alla lista di documenti da produrre per andare in Costa Rica. Tra la documentazione mancava l’Esta, una autorizzazione elettronica richiesta per entrare negli Stati Uniti. Risultato: volo perso. La cosa paradossale? L’episodio non è rimasto confinato in aeroporto: la ragazza ha pubblicato video in lacrime sui social, diventando virale. Così il fallimento personale si è trasformato in spettacolo collettivo, condivisione compulsiva, caccia di visibilità e una catena di like che hanno premiato la sua ingenuità (qui la notizia). È la dimostrazione plastica che la dipendenza dalla scorciatoia non solo ti blocca ai controlli di frontiera, ma ti spinge anche a mercificare la tua frustrazione pur di ottenere attenzioni.

2. Studente espulso da un dottorato per uso improprio dell’IA

Un dottorando dell’Università del Minnesota è stato escluso dal programma dopo che i docenti hanno scoperto che il suo esame era troppo “neutro”, con risposte simili a quelle generate da ChatGPT. Gli insegnanti hanno riprodotto le stesse frasi usando l’IA e lo hanno inchiodato con software di detection. Non si tratta solo di un fallimento accademico: parliamo di anni di studio spazzati via, di reputazione compromessa, di carriere spezzate per sempre. L’illusione di risparmiare tempo con un modello linguistico si è trasformata in una condanna accademica, segno che la dipendenza dall’IA non ti fa solo “barare”, ma ti può costare una vita di lavoro (qui la notizia).

3. Il caos in aula: “l’articolo lo sento algido e finto”

In UK, più della metà degli studenti dichiara di usare ChatGPT per i compiti, ma un’inchiesta del Guardian ha mostrato come l’università sia sprofondata in una sorta di limbo. Non è quasi più possibile distinguere il plagio dalla dipendenza, la malafede dall’incapacità critica. I professori raccontano di testi scritti in un inglese perfetto da studenti solitamente zoppicanti in grammatica, testi talmente perfetti da sembrare finti, privi di anima, pensiero critico e originalità. Non si tratta solo di frode, ma di un impoverimento culturale: generazioni intere rischiano di non imparare più a scrivere, a ragionare e a sbagliare. E senza errore non c’è apprendimento.

4. Le “hallucinations” accademiche

ChatGPT e i suoi simili hanno un vizio congenito: generano citazioni che non esistono. Titoli di articoli inventati o autori mai esistiti. Non è solo un errore tecnico: è come se in un libro di storia trovassimo citato “Carlo Magno, filosofo del positivismo francese”. Un’assurdità che mina alla radice la fiducia nella ricerca scientifica. L’università si fonda sul principio della verifica e della replicabilità: se le fonti non esistono, il sapere diventa fumo. E affidare le tesi a questi modelli significa costruire la conoscenza sulla sabbia.

ChatGPT: trampolino o trappola?

Non stiamo dicendo che ChatGPT sia il diavolo. Il pericolo è più sottile: trasformarsi in un ente di copia-e-incolla, dove la linea tra plausibilità e verità si confonde. Un modello linguistico calcola la parola successiva, non verifica fonti. E, sorpresa, ti spinge ad aggiornare la carta di credito per avere la versione “premium”. Eppure, va detto: queste tecnologie sono fantastiche quando le usi per spingerti oltre. Aiutano a semplificare processi complessi, suggerire letture di valore, generare idee filosofiche, persino ricette da immortalare su Instagram.

Ma esiste anche un modello più elevato in cui le moderne IA ci aiutano a comprendere pattern matematici complessi, ci aiutano a interpretare dati statistici, ci aiutano a capire la fisica moderna e la fisica quantistica. Non parliamo dei semplici modelli LLM come ChatGPT ma di veri e propri laboratori di Intelligenza Artificiale che utilizzano hardware estremamente potenti, performanti e costosi.

Gli scienziati moderni hanno una marcia in più per interpretare sequenze di Dna, tradurre lingue morte da millenni, comprendere simboli e immagini, pattern psicologici, malattie, leggere dati Lidar (utili, tra l’altro, per i sensori dell’auto) e persino calcolare la traiettoria di un asteroide proveniente dallo spazio profondo.

L’importanza di educare giovani e genitori

La tecnologia è una lama a doppio taglio: può aprire sentieri straordinari o tagliare corto la fatica in modi che ci indeboliscono. Non serve demonizzare ChatGPT o DeepSeek, serve educare i giovani (ma soprattutto i genitori) alla calma, alla verifica, al dubbio critico e alla verifica delle fonti. Perché senza sacrificio, senza guida e senza consapevolezza, si rischia di crescere come utenti passivi di un mondo che produce testi perfetti ma poveri di idee.

*Nereo De Cesari (pseudonimo)
Cyber Security Specialist

Foto: Pixabay

Leggi anche: Privacy al telefono, come proteggere i figli da app e tracciamenti online

Condividi su: