Il cervello umano apprende e si adatta costantemente, rimodellando se stesso ad ogni nuova esperienza. Le macchine, per quanto avanzate, non “imparano” nello stesso modo profondo e ricco. In questo articolo voglio spiegare perché l’apprendimento umano resta unico e perché, nonostante i progressi dell’intelligenza artificiale, le macchine non imparano davvero come noi.
«Il cervello umano è in grado di astrarre e di generalizzare quanto ha appreso grazie all’esperienza; mentre un network neurale di deep learning è ancora estremamente limitato sotto questi aspetti».
Il cervello impara in modo continuo e plastico
Il nostro cervello è un organo plastico: può modificare la propria struttura fisica e il modo di funzionare in risposta alle esperienze e agli stimoli ambientali. In pratica ogni volta che impariamo qualcosa di nuovo – che sia una lingua straniera o andare in bicicletta – il cervello si riorganizza. Nuove connessioni tra neuroni si formano (sinaptogenesi) e quelle inutilizzate vengono eliminate (potatura sinaptica) per ottimizzare l’efficienza delle reti neurali. Questo rimodellamento costante spiega perché possiamo apprendere lungo tutto l’arco della vita e adattarci a situazioni nuove.
Un altro aspetto fondamentale è il ruolo delle emozioni nell’apprendimento umano. Le emozioni non sono un semplice “accessorio”, ma influenzano direttamente attenzione, motivazione e memoria. Eventi carichi di gioia o paura vengono consolidati più facilmente nei nostri ricordi proprio grazie all’attivazione emotiva: l’amigdala, struttura profonda del cervello, collega le emozioni alle altre facoltà mentali, in particolare memoria e apprendimento. Ciò significa che impariamo meglio ciò che ci emoziona. Un insegnante appassionato, un gioco coinvolgente, una forte motivazione personale: sono tutti fattori che potenziano l’apprendimento perché evocano emozioni. Le macchine, invece, non hanno emozioni e questo le priva di un ingrediente chiave del nostro apprendere.
Come “imparano” le macchine (e i loro limiti)
Quando diciamo che un computer “impara”, in realtà usiamo una metafora. Gli algoritmi di machine learning e le reti neurali vengono addestrati fornendo enormi quantità di dati e regolando milioni (o miliardi) di parametri interni finché il sistema non riesce a svolgere un compito (per esempio riconoscere volti o tradurre frasi). Ma una volta completato questo addestramento iniziale, la conoscenza della macchina resta fissata in quei parametri. Un modello di intelligenza artificiale addestrato nel 2023, ad esempio, non “sa” nulla di eventi avvenuti nel 2024, a meno che i suoi sviluppatori non lo addestrino di nuovo con nuovi dati. Il cervello umano, al contrario, apprende continuamente dal flusso di esperienza quotidiana, integrando nuove informazioni ogni giorno in modo naturale.
Anche il concetto di memoria funziona in modo molto diverso. Io posso ricordare conversazioni avute mesi o anni fa e usarle per ragionare nel presente. Un’IA conversazionale classica, invece, tende a “dimenticare” tutto al di fuori del prompt corrente. Ad esempio, finora chiacchierare con un assistente AI significava che ogni nuova sessione ripartiva da zero: se la sera gli raccontavo del mio progetto, la mattina dopo l’IA si comportava come se non mi avesse mai incontrato. Questo perché la maggior parte dei modelli linguistici non ha una memoria persistente tra una sessione e l’altra. Sono sistemi stateless: generano risposte in base all’input immediato, senza un ricordo duraturo.
AI che si aggiorna? Progressi 2024–2025
Negli ultimissimi anni, tuttavia, la ricerca sta cercando di colmare queste lacune. Ad esempio, ChatGPT (basato su GPT-4) ha iniziato a introdurre una sorta di memoria personale: OpenAI ha testato la capacità di ricordare alcune informazioni fornite dall’utente per usarle in conversazioni future. Oggi ChatGPT Plus è in grado di personalizzare le risposte in base a preferenze e dettagli che l’utente gli ha chiesto esplicitamente di ricordare, così ogni nuova conversazione può diventare più mirata. È un primo passo verso assistenti AI più “coscienti” del contesto a lungo termine dell’utente.
Un’altra linea di progresso riguarda il fine-tuning dinamico dei modelli linguistici. In passato, per aggiornare un modello con nuove conoscenze bisognava ri-addestrarlo da capo (operazione costosa e lenta). Oggi si studiano modalità per aggiornare i modelli in tempo reale o quasi. Ad esempio, i ricercatori di Amazon hanno sviluppato un’architettura denominata MemoryLLM: combina un classico trasformatore con un pool di memoria interno su cui il modello può scrivere e da cui può leggere durante il ragionamento. In questo modo l’IA può auto-aggiornarsi con nuove informazioni testuali man mano che le riceve, memorizzandole senza dimenticare le conoscenze precedenti. I test hanno mostrato che questo approccio permette di incorporare nuovi dati in modo efficace (senza degradare le prestazioni), mantenendo memoria di informazioni imparate anche dopo milioni di aggiornamenti.
Parallelamente, stanno prendendo piede le architetture cosiddette ad apprendimento continuo (o continual learning), pensate per evitare il “catastrophic forgetting”. Si tratta di algoritmi che imparano sequenzialmente da flussi di dati, cercando di non sovrascrivere completamente quanto appreso in precedenza. In pratica, il sistema aggiunge gradualmente conoscenze nuove senza perdere le vecchie, un po’ come facciamo noi umani quando accumuliamo esperienza. Siamo ancora lontani dalla flessibilità totale del cervello, ma è un’area di ricerca molto attiva.
Infine, c’è un’altra strategia oggi molto utilizzata: non far apprendere tutto al modello, ma fargli recuperare informazioni quando servono. Si chiama Retrieval-Augmented Generation (RAG). Invece di affidarsi solo a ciò che la rete ha già “imparato” nei pesi, il sistema interroga una base di conoscenza esterna (documenti, database, web) e ottiene i dati aggiornati o specifici per quella domanda. Il risultato è un’IA ibrida: parte memoria interna (quella nei suoi parametri), parte memoria esterna (il knowledge base che consulta in tempo reale). È così, per esempio, che funzionano i motori di ricerca con AI o le versioni di ChatGPT con browsing: l’LLM recupera i fatti dall’esterno e li integra nella risposta, invece di fare affidamento solo sul “bagaglio” appreso in fase di training.
Perché il cervello resta unico
Tutti questi progressi sono entusiasmanti – e li seguo da vicino (ne parlo approfonditamente anche nel mio libro Pensiero umano, intelligenza artificiale). Eppure, ribadisco con convinzione la provocazione del titolo: il cervello impara, le macchine no (davvero). Almeno, non nel senso pieno in cui apprendiamo noi esseri umani.
Il cervello biologico opera su principi diversi da qualsiasi computer. È un sistema vivo che unisce informazione ed esperienza: apprendere per noi significa incorporare nuove conoscenze cambiando fisicamente il cervello (nuove sinapsi), integrando elementi cognitivi ed emotivi, costruendo significati contestualizzati nella nostra vita. L’IA, anche nelle sue forme più avanzate, rimane legata a dati e calcoli. Può simulare molti aspetti dell’intelligenza, ma non possiede autocoscienza né motivazioni intrinseche. Una rete neurale finge di apprendere – in realtà sta ottimizzando parametri matematici – ma non prova curiosità, non ha desideri, non percepisce il significato delle cose come noi.
Le macchine stanno diventando strumenti sempre più potenti e “intelligenti” nel risolvere problemi specifici. Possono generare testi stupefacenti, ma il talento innato del cervello umano nell’imparare rimane unico. Come sottolineo in Pensiero umano, intelligenza artificiale, abbiamo superpoteri cognitivi – creatività, empatia, buon senso, capacità di apprendere dal minimo indizio – che nessuna macchina potrà mai replicare del tutto. Ed è proprio in questo gap, in questa irriducibile differenza, che risiede la nostra umanità e la nostra forza.
L’Autore
Luigi Resta, esperto di tecnologia e comunicazione, autore del libro “Pensiero Umano, Intelligenza Artificiale”. Da anni mi occupo del rapporto tra uomo e tecnologia, con un’attenzione particolare al valore dell’intelligenza umana nell’era digitale.