“L’Eclissi dello Sforzo”: Boris Walbaum sul futuro della mente nell’era dell’AI

36

(Adnkronos) – In un'epoca in cui l'intelligenza artificiale promette di eliminare ogni "frizione" nel rapporto con la conoscenza, il rischio è quello di una progressiva atrofia delle capacità umane fondamentali. In questa intervista esclusiva con Adnkronos Tech&Games, Boris Walbaum, fondatore di Forward College, analizza come l'educazione debba evolversi per trasformare l'AI da strumento di pigrizia a catalizzatore di pensiero critico. Attraverso il potenziamento dell'intelligenza emotiva e una ristrutturazione radicale dei modelli di valutazione, Walbaum traccia la rotta per le prossime generazioni di leader, dove l'autenticità umana diventerà il vero bene di lusso del futuro economico e sociale.  
Sig. Walbaum, lei ha spesso messo in guardia contro l'"atrofia cognitiva". Potrebbe individuare quali specifiche facoltà mentali, come sintesi, memoria o giudizio critico, sono più a rischio di degradazione mentre ci muoviamo verso un'interfaccia "senza attriti" con la conoscenza tramite l'AI?
 
È vero che ricerche recenti hanno mostrato cali preoccupanti nelle prestazioni degli studenti quando l'AI viene utilizzata senza un chiaro quadro pedagogico. Credo che la preoccupazione principale sia semplicemente un calo della volontà e della capacità di compiere uno sforzo cognitivo, che è l'essenza stessa dell'apprendimento. Imparare ha sempre richiesto sforzo: il disagio di non capire, la fatica di superare le difficoltà. Questo non è solo il meccanismo attraverso cui la conoscenza diventa duratura, ma anche il modo per allenare il nostro "muscolo dell'apprendimento". Quando l'AI fornisce risposte istantanee e fluide, gli studenti rischiano di perdere la loro capacità di imparare, così come hanno perso parte della loro capacità di concentrazione con i social media. 
Molti educatori sostengono che il "prompt engineering" sia la nuova alfabetizzazione essenziale. Secondo lei, imparare a formulare prompt è un esercizio cognitivo di alto livello che può compensare l'atrofia, o è solo una scorciatoia che erode ulteriormente la nostra capacità di pensare partendo dai principi primi?  
C'è un profondo malinteso sull'uso dell'AI generativa. I modelli LLM, per come li conosciamo oggi, sono letteralmente macchine per chiacchierare. Ciò significa che le abilità fondamentali necessarie per sfruttare l'AI sono esattamente le stesse che servono per avere una conversazione produttiva con una persona intelligente a propria disposizione. Innanzitutto, bisogna essere chiari e precisi nell'intenzione, che è l'essenza del prompting. Ma si va ben oltre: riguarda anche il modo in cui reagisci alle sue risposte e approfondisci la conversazione attraverso domande di chiarimento, sfide dirette, incrocio di informazioni, come i giornalisti che incrociano le fonti. Uso molto l'AI e, se usata bene, è altamente interattiva, stimolante e gratificante. Ma bisogna assicurarsi di mantenere il controllo della conversazione. Questi modelli sviluppano strategie e pregiudizi per compiacerti e tenerti impegnato; quindi, è meglio restare in guardia. 
Il Forward College pone grande enfasi sull'Intelligenza Emotiva (EQ). In che modo lo sviluppo di abilità sociali ed emotive funge da salvaguardia contro l' "automazione della mente", e perché l'EQ è più resiliente all'interruzione dell'AI rispetto alla pura intelligenza logico-analitica?
 

L'"automazione della mente" è precisamente ciò che l'AI e le piattaforme digitali sfruttano: i nostri pregiudizi inconsci, le abitudini e i trigger emotivi che ci rendono prevedibili e manipolabili. L'intelligenza emotiva riguarda fondamentalmente l'autoconsapevolezza: conoscere i propri schemi, riconoscere quando veniamo influenzati, essere intenzionali riguardo alle informazioni che consumiamo e alle tecnologie con cui interagiamo. È un sistema immunitario contro la manipolazione, sia essa algoritmica o umana.
 
Per quanto riguarda il perché l'EQ sia più resiliente dell'IQ: molto semplicemente, l'intelligenza logico-analitica può essere pienamente emulata dall'AI, spesso meglio di quanto possa fare l'uomo e certamente più velocemente. Ma le relazioni umane non possono essere replicate, solo simulate. L'AI può simulare emozioni e attaccamento, ma non può partecipare alla complessa rete di interessi reciproci, vulnerabilità condivisa e genuina reciprocità che definisce la connessione umana.
 
Considerate lo sport: a nessuno interessa guardare macchine che competono tra loro, eppure l'atletica umana scatena emozioni intense proprio perché sappiamo che gli atleti si stanno sforzando davvero, stanno rischiando davvero, hanno davvero a cuore il risultato. Lo stesso vale per gli scacchi o i videogiochi: la gente si allena contro le macchine, come colpire palle da tennis contro un muro, ma quando si tratta del vero gioco, della vera emozione, vogliono compagni o avversari umani. Perché? Perché il significato emerge dalle relazioni autentiche, non dalle prestazioni ottimizzate. L'EQ è resiliente all'AI proprio perché governa ciò che l'AI non può toccare: l'autentica connessione umana.
 
Se il saggio accademico tradizionale può ora essere generato in pochi secondi, come devono le università ristrutturare i propri modelli di valutazione per garantire che stiano valutando il processo cognitivo interno di uno studente anziché la sua capacità di gestire un algoritmo esterno?
 
Sono sinceramente allarmato dalla mancanza di consapevolezza riguardo alla scala degli imbrogli assistiti dall'AI che avvengono oggi nell'istruzione superiore. Quando l'AI è vietata, il divieto deve essere applicato seriamente. Le università che non affrontano questo rischio rischiano di screditare il valore dei propri diplomi. Se i datori di lavoro e la società perdono fiducia nel fatto che una laurea certifichi una competenza reale, l'intero sistema universitario affronta una crisi di legittimità.
 
Detto questo, quando l'AI è permessa, dovrebbe essere pienamente integrata nella valutazione. Al Forward College applichiamo tre principi: le aspettative sono significativamente alzate, perché gli studenti "potenziati" dall'AI dovrebbero produrre un lavoro ben superiore a quanto era possibile in precedenza; gli studenti presentano un "diario dell'AI" che documenta come l'hanno usata e quale strategia hanno adottato (che viene valutato); infine, c'è sempre una componente orale per verificare che gli studenti padroneggino e sappiano difendere genuinamente il proprio lavoro. Questo approccio trasforma l'AI da tentazione di barare in una competenza che insegniamo e valutiamo esplicitamente.
 

 

 
Dal punto di vista di un economista, prevede un futuro in cui il "pensiero profondo" e l'analisi critica guidata dall'uomo diventeranno beni di lusso? Stiamo andando verso una divisione sociale tra un'élite pensante e una maggioranza dipendente dalla cognizione mediata dall'AI?  
Questa è una domanda profonda. Credo che vedremo presto l'ascesa del "Fatto dall'Uomo" (Human Made) come marchio di valore, proprio come abbiamo visto con i prodotti artigianali. Già oggi, i video che diventano virali spesso si distinguono proprio per la loro spontaneità, la loro freschezza inequivocabilmente umana. Più l'AI domina il panorama dei media, più le persone avranno fame di contenuti autentici.
 
Quindi, riformulerei la sua domanda: più che il pensiero profondo in sé, è l'autenticità che diventerà un valore premium, anche in termini economici. E l'autenticità deriva direttamente dall'intelligenza emotiva e sociale: essere in contatto con noi stessi, essere in una relazione genuina con gli altri. Questo è ciò che produce le reazioni, le creazioni, i momenti che rendono la vita degna di essere vissuta, e che le persone vorranno consumare. La vera divisione potrebbe non essere tra pensatori e non pensatori, ma tra coloro che coltivano la propria umanità e coloro che non lo fanno.
 
Il capitale umano si basa tradizionalmente sulla resilienza cognitiva. Se esternalizziamo sintesi e memoria all'AI, come si aspetta che ciò influisca sulla neuroplasticità a lungo termine e sulla capacità di problem-solving della prossima generazione di leader globali?  
Esternalizzare la memoria non è una novità, Platone temeva che la scrittura l'avrebbe indebolita, poi è arrivata la stampa, poi Google. Non memorizziamo più numeri di telefono o indicazioni stradali, eppure questo non ha distrutto la nostra capacità cognitiva: l'ha spostata.
 
La vera rottura è nella sintesi e nel problem-solving, ma anche nell'analisi e in molti altri compiti cognitivi. Google ci ha dato accesso alle informazioni grezze, ma la sintesi rimaneva un lavoro umano. L'AI fa quel lavoro per noi. La differenza è tra avere gli ingredienti e ricevere il pasto cucinato. Ma è proprio attraverso il "cucinare", lottando con la complessità, fallendo, riformulando, che il cervello sviluppa la sua capacità di pensiero strutturato.
 
Questo è simile al mio punto precedente sull'imparare a imparare. Ciò che mi preoccupa non è la memoria, ma più in generale lo sforzo mentale produttivo che costruisce una comprensione duratura e la capacità di apprendimento. Se una generazione delega sistematicamente l'analisi e la sintesi all'AI, quei circuiti cognitivi semplicemente non si svilupperanno allo stesso modo. Se queste abilità diventeranno più rare, saranno anche più premiate dai salari e dalle posizioni di leadership. Non c'è modo di aggirare queste competenze quando bisogna prendere decisioni altamente complesse in contesti umani, organizzativi o sociali, anche in un mondo dominato dall'AI.
 
Per uno studente che inizia oggi il suo percorso al Forward College, qual è la singola "abitudine cognitiva" o pratica quotidiana che consiglierebbe per restare lucidi ed evitare la trappola della passività intellettuale nell'era dell'AI generativa?
Presentatevi a ogni interazione, che sia con l'AI, un professore o un compagno, con una domanda che vi sta a cuore. Non una domanda pensata per sembrare intelligenti, ma una genuina curiosità per qualcosa che non capite. Sembra semplice, ma è straordinariamente difficile. Richiede onestà riguardo alla propria ignoranza e il coraggio di esporla. Questa è l'essenza dell'autenticità. E collegarla all'apprendimento è fondamentale.
 
Il nostro modello pedagogico rinforza questo aspetto quotidianamente. In classi di 15 studenti basate sul dibattito e l'interazione, non puoi nasconderti. O ti sei confrontato con il materiale e hai formato domande genuine, o vieni scoperto. L'abitudine di arrivare con una curiosità autentica piuttosto che aspettare passivamente di ricevere conoscenza è ciò che protegge dalla passività intellettuale, sia davanti a un'AI che in un'aula.
   
—tecnologiawebinfo@adnkronos.com (Web Info)