di M.T.
L’intelligenza artificiale non è più confinata ai laboratori: è ovunque, dalla rete alle aule scolastiche. Studenti e docenti la interrogano per preparare verifiche o costruire lezioni; i dirigenti cercano regole per orientarsi. La domanda non è più se usarla, ma come — con quali strumenti, limiti e consapevolezza.
Molti interagiscono con questi modelli senza comprenderne davvero la natura. ChatGpt, Gemini, Grok e simili non pensano: trasformano testi in numeri, analizzano miliardi di parole e calcolano la successiva più probabile. Producono frasi coerenti, ma restano strumenti statistici, programmati per imitare, non per comprendere. Sono rastrelli cognitivi: moltiplicano velocità e mani del lavoro, privi di giudizio o volontà.
Portare questo concetto nella scuola significa insegnare non solo a usare l’Ia, ma a smontarla, riconoscerne limiti e funzionamento. Solo così si evita la doppia trappola dell’entusiasmo ingenuo e della paura sterile.
Altri Paesi procedono in modo sistemico. Il Regno Unito ha linee guida operative per docenti; Singapore integra da anni moduli di Ia nella piattaforma nazionale; negli Stati Uniti i principi di “uso equo e sicuro” sono nelle linee federali; la Cina avvia progetti fin dalle primarie.
In Italia, il quadro resta frammentato. Pnrr Scuola 4.0 e Scuola Futura hanno potenziato infrastrutture e formazione digitale, ma l’esplosione dei linguaggi generativi dal 2023 ha cambiato le priorità. «Per gestire l’Ia servono meno PowerPoint e più pensiero critico», osservano gli esperti. Mancano piattaforme comuni, regole condivise, tracciabilità e valutazioni indipendenti sull’impatto reale.
Pedagogisti sottolineano che la sfida non è far scrivere temi alla macchina, ma liberare tempo umano per ciò che nessun algoritmo può fare: porre domande nuove, sviluppare pensiero critico, empatia e creatività. L’Ia può supportare, ma deve restare strumento dell’uomo, non il contrario.
Fuori dalle scuole, la rivoluzione è già realtà. Analisi su 65mila articoli in inglese raccolti da CommonCrawl mostrano che dal novembre 2024 la maggior parte dei contenuti sul web è generata da modelli linguistici. Scrivere costa, far scrivere all’Ia costa poco. Blog, testate digitali e piattaforme commerciali lo sfruttano per riempire siti con testi coerenti e ottimizzati in pochi minuti.
Studi del Mit e di Originality AI indicano che i lettori spesso non distinguono tra contenuti umani e artificiali. Ma molti testi generati restano invisibili: troppo simili, perfetti, uniformi. È come se il web si difendesse isolando la sovrapproduzione automatica.
Quando la parola non nasce più dall’uomo, la scrittura diventa processo industriale, non più gesto culturale. Alcuni propongono di invertire le etichette: segnalare ciò che è scritto da persone reali, con un futuro bollino «human verified», a garanzia di mente e voce dietro le parole.
