Erik Larson su miti e limiti dell’AI: perché le macchine non possono pensare come noi umani | Festina Lente - Notizie, recensioni e approfondimenti sull’intelligenza artificiale | Turtles AI

Erik Larson su miti e limiti dell’AI: perché le macchine non possono pensare come noi umani
Seguiteci nella scoperta delle intuizioni stimolanti di Erik J. Larson sui miti che circondano l’intelligenza artificiale, le sue limitazioni e il futuro dell’intelligenza umana e delle macchine.
DukeRem7 settembre 2024

Benvenuti in una nuova entusiasmante intervista, esclusiva per Turtle’s AI. Oggi abbiamo il piacere di presentare Erik J. Larson, autore di "The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do", un libro pubblicato nel 2021 quando l’AI era ancora un argomento per "pochi" e ChatGPT era almeno a un anno dall’apparire sugli schermi di milioni di persone. Scrive per il popolare Substack Colligo, dove esplora l’intersezione tra tecnologia e società, avvicinandosi a una "teoria umanistica in un’era di dati".

Erik J. Larson non è solo un autore affermato, ma anche un esperto scienziato informatico e imprenditore. Il dottorato di Larson presso l’Università del Texas ad Austin era un ibrido e includeva docenti di informatica, filosofia e linguistica. Ha dato contributi significativi all’intelligenza artificiale, in particolare nell’elaborazione del linguaggio naturale e nell’apprendimento automatico. Ha fondato due startup finanziate da DARPA ed è stato coinvolto nel progetto Cyc presso Cycorp, un ambizioso tentativo di costruire una base di conoscenza di buon senso. La sua vasta esperienza nella ricerca e nello sviluppo dell’AI, in particolare nelle tecniche di classificazione gerarchica e nei metodi di apprendimento supervisionato, ha informato la sua prospettiva critica sui limiti dell’AI e sui miti che circondano il suo potenziale.

Per questo motivo, l’intervista mira a esplorare una gamma di temi discussi in quel libro "ante litteram", portando in primo piano molte domande contemporanee di natura tecnologica, semiotica e psicologica relative all’AI.

Inoltre, Erik sta attualmente lavorando a un nuovo libro che esplorerà il nuovo concetto di "Elusive Intelligence", un argomento che, solo dal nome, mi incuriosisce profondamente.

Vi lascio con questa intervista esclusiva, che, come sempre, è una fonte di arricchimento anche per me, nonostante io sia nel campo del machine learning da oltre 25 anni.


Duke Rem: Iniziamo "in sordina"... Come differenzi tra intuizione umana e ingegnosità delle macchine, e perché credi che le macchine non possano replicare l’intuizione?

Erik Larson: Ho appreso della distinzione in quello che potremmo chiamare la "filosofia della matematica" e Turing ha sviluppato i concetti in qualche modo nella sua tesi di dottorato. Grossomodo, (e come inteso da Turing), "intuizione" è quella facoltà della cognizione che "vede" qualcosa su cui concentrarsi. Nel caso della matematica, l’intuizione del matematico lo guida verso problemi interessanti. L’intuizione, secondo Turing, si trova al di fuori del sistema formale in cui il matematico lavorerà. L’intuizione stabilisce il contesto, si potrebbe dire. Al contrario, l’ingegnosità è la capacità cognitiva di risolvere il problema. Non sono sicuro che le macchine possano replicare l’intuizione umana nel modo non vincolato che penso Turing intendesse. Un problema nell’attribuire questo tipo di facoltà alle macchine è che sembra coinvolgere concetti consapevoli come "interesse" e "motivazione". Se questo possa essere replicato da una macchina è, suppongo, ancora una questione aperta, ma sono scettico sul fatto che l’intelligenza artificiale raggiunga ogni angolo delle menti umane: non siamo solo cognizione, ma anche questa qualità di attenzione, concentrazione e interesse.

 

Duke Rem: Nel discutere "The Intelligence Error", critichi la visione secondo cui l’intelligenza umana può essere ridotta alla risoluzione dei problemi. Puoi approfondire le implicazioni filosofiche di questo errore?

Erik Larson: Filosoficamente, ridurre l’intelligenza alla risoluzione dei problemi è una semplificazione eccessiva. La risoluzione dei problemi è certamente una componente dell’intelligenza, ma non rappresenta l’intero quadro. L’intelligenza umana è profondamente intrecciata con le nostre esperienze soggettive, la nostra capacità di comprendere il contesto e la nostra capacità di pensiero astratto, che non sono facilmente riducibili ad algoritmi o processi computazionali. È vero che l’AI continua a progredire su aspetti dell’intelligenza non direttamente legati a questa visione riduzionista, ma qui c’è una curiosa inversione in atto, in cui il metro di giudizio della risoluzione dei problemi viene applicato a noi, apparentemente perché è ben definito per i computer. Davvero, dovremmo pensare all’intelligenza in termini dei nostri giudizi più ampi e più espansivi sul nostro potenziale, e poi guardare ai computer come a una tecnologia e un artefatto che speriamo possa catturare sempre di più ciò a cui teniamo. Ma l’idea di partire dalla "risoluzione dei problemi" perché si adatta bene a interpretazioni semplici dei programmi di intelligenza artificiale non è molto ispirante. Limita la nostra concezione dell’intelligenza a ciò che è computazionalmente trattabile, piuttosto che a ciò che è significativo per gli esseri umani. La nostra visione dell’intelligenza dovrebbe essere espansiva: la riconcettualizzazione dello spazio e del tempo da parte di Einstein era qualcosa di più della "risoluzione dei problemi".

 

Duke Rem: Quali sono i tuoi pensieri sul potenziale delle macchine di raggiungere l’intelligenza generale, dati i limiti attuali dell’AI delineati nel tuo libro? Sentiti libero di aggiornare i tuoi pensieri con i (molti) progressi degli ultimi 3 anni.

Erik Larson: ChatGPT ha certamente spostato l’ago della bilancia nel mio campo, l’elaborazione del linguaggio naturale. Non c’è dubbio su questo. Ma, e ricevo questa domanda molto spesso, come ci si può aspettare, non penso che cambi nulla di sostanziale nel mio argomento. Il modo più semplice per vederlo è avventurarsi nel mondo fisico reale, dove l’AI affronta grandi sfide non risolte. Mentre la robotica sta facendo progressi, sarebbe pura follia rilasciare il robot più avanzato su una strada trafficata in una grande città. Per ragioni simili, non si sente più molto parlare di auto a guida autonoma, in gran parte perché non c’è un reale progresso da segnalare verso il Livello 5, la guida completamente autonoma. La differenza? A differenza del regno cibernetico del web, dove ChatGPT "vive", il mondo reale è aperto e gli scenari che si possono incontrare sono effettivamente infiniti. Anche nell’ambiente più controllato dei dati web e dei transformer, vediamo che la difficoltà nei sistemi a livello di token è passare al livello logico e concettuale. Alcuni ricercatori di intelligenza artificiale sono profondamente preoccupati per le allucinazioni, cioè i casi in cui i modelli generano informazioni errate o insensate. Inizialmente, pensavo che queste allucinazioni sarebbero state eliminate nel tempo, ma quasi due anni dopo il lancio di ChatGPT, sembra che le allucinazioni siano intrinseche all’approccio. Questo segnala fortemente che non siamo sulla strada per raggiungere l’intelligenza artificiale generale (AGI). Senza una vera comprensione a livello concettuale, sarà impossibile riprodurre in modo affidabile un’intelligenza simile a quella umana. L’AGI richiede non solo il riconoscimento dei modelli o la risoluzione dei problemi all’interno di un set di dati definito, ma la capacità di navigare e comprendere un mondo aperto e imprevedibile, qualcosa con cui l’AI attuale, nonostante i suoi progressi, continua a lottare in modo fondamentale.

 

Duke Rem: Menzioni che i recenti progressi dell’AI sono simili a raccogliere "frutti a bassa quota" (mi piace molto questa metafora, tra l’altro). Quali pensi siano le sfide più significative che l’AI deve superare per andare oltre le applicazioni ristrette?

Erik Larson: Bene, vedi la mia risposta precedente! Ma, più in generale, è estremamente improbabile che possiamo continuare a nutrire le reti neurali profonde con più dati tokenizzati e aspettarci di fare progressi verso l’AGI. Ero solito evitare parole e frasi aperte come "comprensione", ma dopo che ChatGPT ha dimostrato la capacità di simulare efficacemente senza "comprendere", sono più incline a dire che la sfida per l’AI è sviluppare una prova convincente di un "macchina della comprensione". Possiamo vedere che i modelli linguistici di grandi dimensioni possono rispondere a domande su causa ed effetto e persino simulare l’inferenza abduttiva, cioè ragionare da un effetto osservato a una causa plausibile. Ma negli errori possiamo vedere che il sistema non ha raggiunto una comprensione a livello concettuale di ciò di cui sta parlando. Questa è la sfida, e proprio come ho scritto in The Myth, non abbiamo davvero idea di come farlo.

 

Duke Rem: Come immagini il ruolo del ragionamento abduttivo nel raggiungere un’intelligenza simile a quella umana, e perché pensi che sia stato largamente ignorato nella ricerca sull’AI?

Erik Larson: Il ragionamento abduttivo, spesso descritto come inferenza alla miglior spiegazione, è cruciale per ottenere un’intelligenza simile a quella umana perché ci permette di generare ipotesi e fare congetture informate in situazioni di incertezza. È un modo di pensare che va oltre il semplice riconoscimento dei modelli o la deduzione; implica il riempimento creativo di lacune quando i dati sono incompleti, qualcosa che gli esseri umani fanno naturalmente, ma con cui l’AI fatica. Il motivo per cui è stato largamente ignorato nella ricerca sull’AI è che l’abduzione è intrinsecamente difficile da formalizzare all’interno dei rigidi quadri che l’AI tipicamente utilizza. La maggior parte dei modelli di AI eccelle nell’elaborare grandi quantità di dati per trovare modelli o ottimizzare risultati basati su regole chiare, ma il ragionamento abduttivo richiede una flessibilità e una comprensione contestuale che i modelli attuali non hanno. Questa lacuna può derivare dal concentrarsi sullo sviluppo di sistemi in grado di gestire problemi ben definiti in modo efficiente, piuttosto che quelli in grado di navigare nella natura ambigua e spesso disordinata delle situazioni del mondo reale. Di conseguenza, i sistemi di AI oggi sono ancora lontani dal replicare la capacità umana di risolvere problemi creativamente e ottenere intuizioni, che è profondamente legata alla nostra capacità di ragionare abduttivamente.

 

Duke Rem: Puoi espandere il concetto di "kitsch tecnologico" e come si relaziona alle percezioni pubbliche e scientifiche sull’AI?

Erik Larson: Il "kitsch tecnologico" si riferisce alle rappresentazioni semplificate, sentimentali o esteticamente piacevoli della tecnologia che mascherano le sue complessità e limitazioni sottostanti. Nel contesto dell’AI, questo concetto evidenzia come sia il pubblico che le comunità scientifiche possano essere sedotte da dimostrazioni appariscenti, interfacce utente eleganti e promesse esagerate su ciò che l’AI può realizzare. Questo kitsch presenta l’AI come una soluzione magica a quasi tutti i problemi, alimentando aspettative irrealistiche e oscurando le sfide genuine, spesso complesse, coinvolte nello sviluppo di sistemi veramente intelligenti. Il pericolo del kitsch tecnologico è che incoraggia una comprensione superficiale dell’AI, portando sia a un ottimismo eccessivo che a paure mal riposte. Riduce l’AI a una serie di trucchi impressionanti piuttosto che a un campo di seria indagine con profonde implicazioni per la società. Questo ha l’effetto di distorcere la percezione pubblica e persino influenzare le agende di ricerca, dove l’attenzione si sposta su ciò che sembra bello o vende bene piuttosto che su ciò che è scientificamente ed eticamente solido.

 

Duke Rem: Quali sono i pericoli del mito culturale che circonda l’AI, ora che l’AI sta raggiungendo la maggior parte delle persone, in varie forme?

Erik Larson: Il mito culturale che circonda l’AI—cioè che sia sul punto di diventare intelligente come o persino superare gli esseri umani—pone significativi pericoli man mano che l’AI raggiunge più persone in varie forme. Questo mito può portare a un falso senso di sicurezza, in cui le persone si fidano troppo dei sistemi di AI in settori critici come la sanità, la finanza e il diritto, assumendo che questi sistemi abbiano un livello di comprensione e giudizio che non possiedono. Può anche alimentare paure infondate, come la convinzione che l’AI inevitabilmente prenderà il controllo di tutti i lavori o rappresenti una minaccia esistenziale per l’umanità. Entrambi gli estremi distraggono dai veri problemi, come le implicazioni etiche dell’uso dei dati, il rafforzamento dei pregiudizi nei modelli di AI e il divario crescente tra coloro che beneficiano dell’AI e coloro che ne sono emarginati. Inoltre, questo mito può deviare risorse e attenzione dall’affrontare le sfide reali nello sviluppo dell’AI, come la creazione di sistemi trasparenti, responsabili e allineati con i valori umani. In sostanza, il mito dell’AI come intelligenza quasi umana può distorcere la comprensione pubblica, la definizione delle politiche e le priorità di ricerca, portando a impatti sociali che sono sia fuorviati che potenzialmente dannosi.

 

Duke Rem: Come vedi evolversi la relazione tra l’AI e la cognizione umana nel futuro (prossimo e lontano)?

Erik Larson: Nel prossimo futuro, vedo l’AI complementare alla cognizione umana, servendo come uno strumento potente che può migliorare le nostre capacità di elaborare informazioni, identificare modelli e prendere decisioni. L’AI continuerà probabilmente a eccellere in compiti specifici e ben definiti, agendo come un potenziamento dell’intelligenza umana piuttosto che come un sostituto. Ad esempio, l’AI può assistere nell’analisi di grandi set di dati, suggerire nuove strade per la ricerca o persino fornire raccomandazioni in tempo reale in scenari complessi come la diagnostica medica. Tuttavia, questa relazione sarà una di partnership piuttosto che di parità: l’AI amplificherà le nostre capacità cognitive, ma si affiderà ancora al giudizio, alla creatività e al ragionamento etico umano per navigare nelle complessità del mondo reale.

Nel lontano futuro, la relazione tra l’AI e la cognizione umana potrebbe diventare più integrata, con i sistemi di AI sempre più profondamente inseriti nelle nostre vite quotidiane e nei processi decisionali. Tuttavia, rimarranno sfide significative nel raggiungere una vera cognizione simile a quella umana, specialmente in aree che richiedono comprensione, empatia e adattabilità in ambienti aperti. Francamente, non sono sicuro di quanto lontano possa andare questa integrazione mantenendo comunque una direzione sicura e fruttuosa per la società. Ma l’evoluzione in corso solleverà probabilmente importanti domande etiche e sociali, specialmente riguardo ai confini del ruolo dell’AI nei processi decisionali e alla preservazione dell’autonomia e dell’agenzia umana.

 

Duke Rem: Quali spunti della tua analisi dei teoremi di incompletezza di Gödel ritieni siano più rilevanti per lo sviluppo futuro dell’AI?

Erik Larson: I teoremi di incompletezza di Gödel rivelano che all’interno di qualsiasi sistema formale sufficientemente complesso esistono verità che non possono essere dimostrate all’interno del sistema stesso. Anche se non ho approfondito molto questo aspetto nel mio libro, credo che abbia implicazioni profonde per l’AI, in particolare nella ricerca dell’intelligenza artificiale generale (AGI). L’intuizione più rilevante è che i sistemi di AI, che sono fondamentalmente basati su regole formali e algoritmi, incontreranno sempre delle limitazioni nella loro capacità di replicare pienamente il ragionamento e la comprensione umana.

Per lo sviluppo dell’AI, una posizione “consapevole di Gödel” potrebbe significare il riconoscimento che ci sono limiti intrinseci a ciò che può essere ottenuto attraverso approcci puramente algoritmici. Ovviamente, l’argomento che usa il teorema di Gödel applicato alla questione dell’AI ha ormai decenni, e come ci si potrebbe aspettare, gli esperti sono ancora in disaccordo. Per quanto mi riguarda, sono a mio agio nel credere che le implicazioni dell’incompletezza nei sistemi formali suggeriscano che il meccanismo abbia dei limiti; come sosteneva una volta Turing, l’intuizione si trova “al di fuori del sistema”.

 

Duke Rem: Suggerisci spesso (senza affermarlo direttamente) che l’intelligenza umana è intrinsecamente sociale e contestuale. In che modo (e perché) questa prospettiva sfida le metodologie attuali dell’AI?

Erik Larson: La cognizione umana è profondamente radicata nelle interazioni sociali, nelle norme culturali e nei contesti specifici in cui operiamo. Impariamo, ragioniamo e prendiamo decisioni non solo in un vuoto, ma in ambienti dinamici in cui comprendere le intenzioni, le emozioni e le prospettive degli altri gioca un ruolo cruciale. La natura sociale dell’intelligenza umana significa che gran parte di ciò che sappiamo e come agiamo è influenzata dalle nostre interazioni con gli altri. Una sfida ovvia per la ricerca sull’AI odierna è che l’AI attuale non impara dinamicamente da una conversazione. Quindi, non c’è davvero possibilità di catturare il "sociale" in una vera conversazione. Fare progressi in questo campo ci porta in acque profonde, e non sono sicuro di cosa si rivelerà utile o meno. Penso che la questione dell’apprendimento dinamico sia almeno una componente importante.

 

Duke Rem: Come interpreti il termine "Elusive Intelligence", che hai intenzione di esplorare nel tuo prossimo libro? Puoi darci un’anteprima?

Erik Larson: Sto lavorando con Chee-We Ng, un investitore di venture capital a Los Altos con un forte background in machine learning e intelligenza artificiale dal MIT, e negli aspetti commerciali dell’AI dalla Harvard Business School. Ci siamo uniti per scrivere Elusive Intelligence dopo aver scoperto che condividiamo una profonda intuizione: l’AI è incredibilmente potente e utile, ma l’intelligenza stessa rimane un mistero scientifico irrisolto. Troppo spesso, "gli affari come al solito" nel campo dell’AI ignorano questo fatto, rallentando i progressi sia nel campo che nella società in generale.

L’AI ha fatto progressi straordinari, ma anche i suoi maggiori sostenitori ammettono che l’intelligenza rimane sfuggente. Il campo rischia la stagnazione se non esce dai suoi paradigmi attuali. Sosteniamo che una comprensione più profonda delle neuroscienze e del cervello sarà essenziale, soprattutto nella ricerca dell’AGI. Infatti, è probabile che il cervello detenga le chiavi per sbloccare il prossimo livello di sistemi intelligenti. Esaminiamo alcuni lavori recenti sulla neocorteccia ed esploriamo temi come l’apprendimento naturale rispetto a quello artificiale.

Culturalmente, vediamo anche che la discussione sull’AI oggi manca il bersaglio. I progressi nell’AI vengono spesso presentati come una corsa per sostituire l’intelligenza umana, ma ciò sottolinea quanto sia straordinaria l’intelligenza naturale. La vera opportunità risiede nell’uso dell’AI per amplificare ciò che ci rende unicamente umani. Nel libro, sosteniamo un approccio audace: non imitare l’intelligenza umana, ma elevarla. Se riusciamo a ottenere questa sinergia, l’AI e l’intelligenza umana insieme potrebbero ottenere risultati straordinari.

 

Duke Rem: Nel tuo libro, discuti i limiti dell’apprendimento automatico. Quali sono i malintesi più significativi sull’apprendimento automatico e sull’AI nel discorso popolare?

Erik Larson: Un grande malinteso sull’apprendimento automatico e sull’AI è la convinzione che siano vicini a replicare l’intelligenza umana. L’apprendimento automatico si basa fondamentalmente sull’inferenza induttiva, che gli consente di riconoscere schemi all’interno di compiti ristretti e predefiniti. Tuttavia, l’induzione da sola non è sufficiente per raggiungere l’intelligenza generale: manca il contesto, il buon senso e il vero ragionamento. Un altro mito è che l’AI possa prendere decisioni autonome in scenari complessi del mondo reale; in realtà, questi modelli sono efficaci solo quanto i dati su cui sono addestrati e possono fallire in situazioni non familiari.

C’è anche l’idea errata che più dati e potenza di calcolo porteranno naturalmente a un’AI più intelligente. Sebbene questi fattori possano migliorare le prestazioni, non risolvono i problemi fondamentali, come la mancanza di vera comprensione o l’incapacità di generalizzare tra domini. L’hype spesso oscura questi limiti, portando a aspettative gonfiate e a una comprensione errata della profonda complessità dell’intelligenza umana.

 

Duke Rem: Critichi l’idea di "superintelligenza" come presentata da Nick Bostrom e altri. Quali sono i difetti fondamentali di questo concetto secondo la tua analisi?

Erik Larson: Il concetto di "superintelligenza", come presentato da Nick Bostrom e altri, presenta diversi difetti fondamentali. Primo, non c’è evidenza che supporti l’idea che un sistema intelligente possa creare una versione più intelligente di se stesso, portando a un "esplosione di intelligenza". Questo scenario sembra poco realistico; ciò che è più probabile è che le macchine replichino se stesse per svolgere compiti specifici. Tuttavia, anche in questo caso, saranno i progettisti umani a supervisionare e guidare il processo, piuttosto che osservarlo passivamente.

Bostrom opera anche sotto un modello di progresso lineare, dove l’intelligenza può essere continuamente "aggiunta" ai sistemi come se fosse un semplice accumulo. Questo è un eccesso di semplificazione rispetto a come l’intelligenza si sviluppa e funziona realmente.

Inoltre, Bostrom introduce la nozione di motivazioni e autonomia nelle AI, suggerendo che le macchine potrebbero un giorno avere obiettivi propri. Questo è più un tocco filosofico che una realtà basata sull’ingegneria. Nella pratica, non vediamo emergere tali attributi nei sistemi computazionali; motivazioni e autonomia sono caratteristiche distintamente umane che non sono intrinsecamente presenti nell’AI. Questi errori portano a una narrativa speculativa che, pur intrigante, non regge a un’analisi più attenta.

 

Duke Rem: Come vedi l’emergere recente di modelli di AI generativa, come GPT, nel contesto delle tue argomentazioni sui limiti dell’AI? Ritieni che rappresentino un passo significativo verso l’intelligenza generale, o sono un’altra forma di "kitsch tecnologico"?

Erik Larson: Non andrei fino a dire che si tratta di kitsch tecnologico, poiché i modelli di linguaggio di grandi dimensioni (LLM) e altri approcci basati sui transformer hanno effettivamente spostato l’ago della bilancia in molti compiti e test nell’elaborazione del linguaggio naturale. Dubito, tuttavia, che rappresentino un passo significativo verso l’intelligenza generale, per il semplice motivo che quasi tutti coloro che interagiscono con loro—anche se chiaramente impressionati—si rendono conto che i sistemi simulano la comprensione. Un sistema di AGI non può essere una versione ingrandita di un’intelligenza simulata; deve aver decifrato il segreto per ottenere una vera comprensione e intuizione di un dominio o di un argomento. Per quanto posso dire, questo rimane ancora un mistero ingegneristico; non è solo una questione di scala.

Questa distinzione è cruciale. Mentre gli LLM eccellono nel generare testo coerente e contestualmente rilevante, mancano dei meccanismi sottostanti per comprendere veramente il significato o generare intuizioni. L’AGI, per definizione, richiederebbe un livello di comprensione e adattabilità che va ben oltre il riconoscimento di schemi. Fino a quando non sbloccheremo i principi ingegneristici che permettono una vera comprensione, stiamo ancora trattando con strumenti molto avanzati, non con un’intelligenza generale che può ragionare e apprendere autonomamente in vari domini.

 

Duke Rem: In che modo il contesto storico dello sviluppo dell’AI, influenzato da figure come Alan Turing e Kurt Gödel, incide sugli attuali paradigmi di ricerca?

Erik Larson: Credo che questa domanda si sovrapponga a quelle già trattate, quindi perdonami se torno su alcuni concetti già espressi. Il contesto storico dello sviluppo dell’AI, in particolare i contributi di figure come Alan Turing e Kurt Gödel, ha avuto un impatto duraturo sugli attuali paradigmi di ricerca. Il lavoro di Turing ha gettato le basi per la teoria computazionale, introducendo l’idea che le macchine potessero svolgere compiti tradizionalmente associati all’intelligenza umana. Il suo concetto del Test di Turing continua a influenzare il modo in cui pensiamo all’intelligenza delle macchine oggi, inquadrando la sfida dell’AI come una questione di simulazione del comportamento umano.

Tuttavia, i teoremi di incompletezza di Gödel ci ricordano che esistono limiti intrinseci ai sistemi formali, limiti che spesso vengono trascurati nella spinta a sviluppare AI sempre più potenti. Gödel ha dimostrato che anche all’interno di un sistema logicamente coerente, ci sono verità che non possono essere dimostrate all’interno di quel sistema, evidenziando la complessità e i limiti intrinseci di qualsiasi approccio computazionale all’intelligenza. Questa intuizione è cruciale perché sottolinea la differenza tra l’intelligenza umana, che opera al di là della logica formale, e l’AI, che rimane vincolata da essa.

 

Duke Rem: Quale ruolo vedi per la creatività nello sviluppo dell’AI, alla luce della tua discussione sull’intuizione e l’ingegnosità?

Erik Larson: La creatività gioca un ruolo cruciale nello sviluppo dell’AI, ma è un ruolo che viene spesso frainteso o semplificato eccessivamente. Nel contesto dell’AI, la creatività implica molto di più del semplice generare risultati nuovi: richiede intuizione e ingegnosità per affrontare problemi complessi e aperti in modi che vanno oltre la forza computazionale bruta. I sistemi di AI attuali, sebbene capaci di produrre output creativi come arte o musica, lo fanno ricombinando schemi e dati esistenti piuttosto che attraverso una vera comprensione o ispirazione.

La vera creatività, come la vediamo nell’intelligenza umana, implica la capacità di andare oltre ciò che è dato, di fare connessioni che non sono immediatamente ovvie e di intuire soluzioni di fronte all’incertezza. Questo tipo di creatività è profondamente legato all’intuizione umana e alla capacità di afferrare l’essenza di un problema in un modo che l’AI, allo stato attuale, non può replicare. Sviluppare un’AI che possa davvero impegnarsi nel pensiero creativo richiederebbe una svolta nel modo in cui comprendiamo e modelliamo l’intelligenza stessa, andando oltre gli approcci attuali che si basano sul riconoscimento di schemi e sull’induzione.

Nello sviluppo dell’AI, la creatività dei ricercatori umani è indispensabile. Sono la loro ingegnosità e intuizione a guidare i progressi dell’AI, dopotutto. Ma fino a quando l’AI non sarà in grado di sviluppare una propria forma di vero pensiero creativo, il suo ruolo rimarrà limitato a quello di uno strumento potente, a mio avviso.

 

Duke Rem: Come risponderesti ai sostenitori dell’AI che sostengono che i progressi nell’hardware porteranno eventualmente all’intelligenza vera?

Erik Larson: I progressi nell’hardware miglioreranno indubbiamente l’efficienza e le capacità dei sistemi di AI, ma non porteranno automaticamente all’intelligenza vera. Sebbene un hardware migliore consenta di effettuare calcoli più potenti e modelli più grandi, non affronta i limiti fondamentali degli approcci attuali dell’AI, come ho discusso sopra. L’intelligenza vera richiede svolte nel modo in cui modelliamo e replichiamo le complessità dell’intelligenza umana, non solo una maggiore potenza computazionale. Semplicemente aumentare le capacità hardware può migliorare le prestazioni in compiti ristretti, ma non colmerà il divario per raggiungere l’intelligenza generale.

 

Duke Rem: Discuti la "trappola della ristrettezza" nello sviluppo dell’AI. Puoi fornire esempi di come questo si sia manifestato nelle recenti tecnologie di AI?

Erik Larson: L’idea di base con il concetto di "trappola della ristrettezza" è che l’AI ha successo quando i suoi progettisti scelgono un problema che la computazione può risolvere, e poi ingegnerizzano una soluzione per esso. La ristrettezza è incorporata, poiché è il problema e la sua soluzione a guidare il processo di ingegnerizzazione. Finora, tutta l’AI funziona così, compresi i modelli linguistici di grandi dimensioni (LLM). Gli LLM possono fornire capacità di conversazione su vari argomenti o domini, ovviamente, ma i loro progettisti ora definiscono il loro addestramento come "pre-training", e il resto dell’addestramento è adattato a un problema specifico o a un’esigenza dell’utente. Ristrettezza, ristrettezza. In un certo senso, non è nemmeno una "trappola", come l’ho definita nel The Myth, ma è così che l’AI ha successo. Se prendiamo sul serio l’AGI, però, continuare a progettare soluzioni ristrette per problemi specifici è certamente una trappola.

 

Duke Rem: Quali teorie psicologiche o semiotiche pensi spieghino meglio la tendenza umana ad antropomorfizzare l’AI (tra l’altro, una cosa che personalmente odio)?

Erik Larson: La tendenza umana ad antropomorfizzare l’AI deriva dal nostro istinto naturale di vedere schemi e attribuire significati dove non ce ne sono. Proiettiamo qualità umane sull’IA perché essa imita le interazioni umane, anche se solo superficialmente. La Theory of Mind (teoria della mente) gioca un ruolo fondamentale in questo processo, poiché tendiamo istintivamente a proiettare i nostri pensieri e le nostre emozioni su macchine che interagiscono con noi in modo simile a come farebbero altri esseri umani. Questo può essere frustrante, poiché porta a fraintendimenti, facendoci credere che i sistemi di IA abbiano una comprensione o una coscienza umana, cosa che non è affatto vera.

Nei miei scritti, ho discusso molto di questo tema, perché è la fonte di molta confusione. La mia principale frustrazione, ironicamente, è che il vero processo di progettazione e sviluppo dei sistemi di AI richiede una visione chiara di cosa siano le macchine e di cosa stiamo facendo quando le programmiamo. In un certo senso, antropomorfizzare l’AI grava il campo, introducendo una visione distorta che ostacola una comprensione chiara e scientifica di ciò che le macchine sono capaci di fare. Ciò porta a un eccesso di aspettative e paure che non riflettono i veri limiti e le potenzialità della tecnologia.

 

Duke Rem: Come immagini il futuro della ricerca sull’AI se i miti attuali che la circondano venissero smantellati?

Erik Larson: Se i miti attuali che circondano l’AI venissero smantellati, immagino un futuro in cui la ricerca sull’IA diventerebbe più realistica e radicata. Invece di inseguire il sogno illusorio di replicare l’intelligenza umana, i ricercatori potrebbero concentrarsi sullo sviluppo dell’AI come uno strumento potente che integra le capacità umane. Questo approccio più pratico potrebbe portare a applicazioni più significative, in cui l’AI viene utilizzata per risolvere problemi specifici e reali senza il peso di aspettative gonfiate.

Riconoscendo i limiti dell’AI, potremmo destinare risorse e innovazione verso aree in cui l’AI può fare davvero la differenza, promuovendo una collaborazione tra intelligenza umana e artificiale piuttosto che una competizione. Questo approccio pragmatico potrebbe portare a progressi più significativi e concreti nel campo, con un impatto più positivo e tangibile sulla società. Potremmo concentrarci su creare sistemi che siano più trasparenti, responsabili e allineati con i valori umani, evitando al contempo di alimentare miti irrealistici sull’intelligenza delle macchine.

 

Duke Rem: C’è qualcosa che vorresti aggiungere, ponendoti un’ultima domanda?

Erik Larson: Una cosa che vorrei aggiungere è che sto continuando la discussione iniziata con The Myth of Artificial Intelligence su Substack, attraverso la mia newsletter Colligo. La piattaforma è cresciuta in modi che non avevo previsto, e ci ha dato lo spazio per approfondire davvero i temi importanti riguardanti l’IA e il suo impatto più ampio sulla società. La comunità che si è formata lì è incredibilmente coinvolta, ed è stato estremamente gratificante esplorare queste conversazioni in tempo reale con lettori che si preoccupano genuinamente del futuro della tecnologia e del suo ruolo nelle nostre vite. Invito i tuoi lettori a trovarmi lì e unirsi alla discussione.

 

Duke Rem: Grazie infinite, Erik!