L'ANALISI
23 Settembre 2025 - 05:30
Oggi ho insegnato ai miei studenti a farsi risolvere i compiti dall’intelligenza artificiale. Prima, però, ho letto loro ‘La macchina per fare i compiti’ di Gianni Rodari. Lo riassumerò brevemente, rovinando così la magia del racconto, che invito a leggere in originale.
Un giorno si presentò alla porta di una casa un omino minuscolo, ‘alto poco più di due fiammiferi’, con una borsa enorme. Disse di vendere macchine speciali e mostrò una straordinaria invenzione: una macchina che faceva i compiti da sola. Bastava premere un bottone e in un minuto risolveva problemi, scriveva temi o imparava la geografia.
Nella casa abitava un bambino, che supplicò il padre di comprargliela, ma l’omino non voleva denaro: in cambio pretendeva il cervello del piccolo, «tanto, se i compiti li fa la macchina, a che serve?». Il padre inizialmente inorridì, ma poi cedette alle suppliche del bambino. Così l’omino prese il cervello e il bambino, diventato leggero come l’aria, cominciò a volare nella stanza.
Per non farlo scappare, venne chiuso in una gabbia come un uccellino, perché senza cervello sarebbe volato via. La gabbia però era stretta e soffocante, e il bambino si sentiva sempre più disperato … finché non si svegliò di soprassalto: era stato solo un sogno! Sollevato, si mise con impegno a fare i suoi compiti.
Pare che la macchina per fare i compiti esista veramente, e davvero chi la vende pretenda in cambio il cervello di chi la usa (male).
Uno studio recente del Massachusetts Institute of Technology (MIT) ha rivelato come l’uso di Large Language Models (LLM) per scrivere saggi riduca l’attività cerebrale e il coinvolgimento cognitivo rispetto a chi scrive senza strumenti o usando motori di ricerca. Nel lungo periodo (quattro mesi), chi ha usato gli LLM ha mostrato prestazioni inferiori a livello neurale, linguistico e comportamentale. Il passaggio dall’uso di LLM ad un approccio senza strumenti ha portato a una riduzione della connettività cerebrale, mentre il passaggio inverso ha migliorato memoria e attivazione di alcune aree cerebrali. In sintesi, sebbene gli LLM siano comodi, lo studio evidenzia potenziali costi cognitivi e solleva preoccupazioni per le implicazioni educative a lungo termine.
Vietiamo quindi l’intelligenza artificiale? A parte che sarebbe impossibile, la soluzione non è il divieto ma l’utilizzo consapevole. In sostanza, anziché lasciarci sedurre “dal lato oscuro della forza”, accumulando debito cognitivo e sviluppando dipendenza, possiamo utilizzare l’AI per sviluppare la forza cognitiva. Per non rimanere sul vago, ho raccontato agli studenti un mio esperimento. Ho scelto a caso un tema d’esame del mio corso e ho chiesto a Claude (un altro LLM, tipo ChatGPT) di risolverlo. Ho scelto Claude per due motivi: il primo è che pare sia più efficiente nel generare codice software, il secondo è che Sam Altman, amministratore delegato di OpenAI, l’azienda che ha creato ChatGPT, non mi è molto simpatico. Con un solo movimento del mouse ho quindi trasferito il file PDF a Claude e chiesto di risolvere il tema d’esame.
Con il solito orgoglio un po’ stucchevole delle risposte tipiche fornite dagli LLM, Claude ha fornito la soluzione. Sbagliata. L’errore era a monte: Claude ha sbagliato a tradurre le equazioni nel testo. In effetti, gli LLM sono stati addestrati sul linguaggio naturale, mentre le equazioni vengono codificate in linguaggio matematico. Ho quindi chiesto a Claude di tradurre il file in un linguaggio più consono a descrivere le equazioni (LaTeX) ma anche questa volta la traduzione è risultata sbagliata. Ho quindi scritto direttamente le equazioni e Claude mi ha fornito un’altra soluzione, ancora sbagliata. Questa volta però mi sono accorto che era sbagliata solo perché conoscevo la soluzione esatta. Ho quindi segnalato l’errore e finalmente Claude, dopo essersi profuso in ringraziamenti e attestazioni di stima nei miei confronti (li trovo insopportabili!), ha fornito la soluzione corretta.
Il ‘messaggio da portare a casa’ non è che non si deve usare l’intelligenza artificiale perché ci atrofizza il cervello o può sbagliare. Probabilmente da oggi Claude è capace di fornire subito la soluzione corretta al mio tema d’esame, perché se c’è una capacità in cui ChatGPT e company sono micidiali è la capacità di imparare dagli errori (su questo noi umani dovremmo lavorare un po’). Il messaggio è che per essere sicuri che l’intelligenza artificiale dia la risposta corretta bisogna conoscere la risposta corretta. In sintesi, se si risolve prima il problema, e dopo si confronta la soluzione con quella fornita dall’AI, possono succedere due cose: o l’AI ci convince che la nostra soluzione è sbagliata, e in tal caso impariamo la soluzione corretta, oppure ci conforta sul fatto che la nostra soluzione è corretta, il che vuol dire che abbiamo già imparato. Questione di un prima e di un dopo. È possibile che con il tempo l’intelligenza artificiale, dopo tanti e tanti errori, diventi infallibile? Al momento non si sa. Sarà comunque sempre indispensabile essere capaci di usare il cervello per imparare, se non altro per non volare via lontano, nel vento, come un palloncino.
Mediagallery
Prossimi EventiScopri tutti gli eventi
Tipologia
Data di inizio 27 settembre 2025 - 09:00
Fiori, orti e affini nel centro della città
Tipologia
Data di inizio 27 settembre 2025 - 09:00
Tipologia
Data di inizio 27 settembre 2025 - 10:00
Tipologia
Data di inizio 27 settembre 2025 - 10:00
Copyright La Provincia di Cremona © 2012 Tutti i diritti riservati
P.Iva 00111740197 - via delle Industrie, 2 - 26100 Cremona
Testata registrata presso il Tribunale di Cremona n. 469 - 23/02/2012
Server Provider: OVH s.r.l. Capo redattore responsabile: Paolo Gualandris