Verso l’AI Globale: una nuova architettura che sfrutta la complessità neuronale | Large language models book | Large language models paper | Llm italiano | Turtles AI

Verso l’AI Globale: una nuova architettura che sfrutta la complessità neuronale
Un modello ispirato al cervello umano propone un’alternativa efficiente alle reti neurali tradizionali, aprendo nuovi scenari per l’evoluzione dell’AI
Isabella V9 settembre 2024

 

 
Una nuova architettura computazionale promette di avvicinare l’AI globale (AGI), un traguardo che da tempo affascina ricercatori e scienziati. Il recente studio propone un cambiamento di paradigma nell’addestramento dei modelli AI, enfatizzando l’importanza della complessità interna dei neuroni artificiali.

Punti chiave:

  • Un nuovo modello di calcolo ispirato alla struttura del cervello umano potrebbe ridurre significativamente il consumo energetico dei modelli di AI avanzati.
  • L’architettura proposta si basa sul modello di Hodgkin-Huxley, noto per la sua accuratezza nella simulazione dei neuroni biologici.
  • La complessità interna dei neuroni artificiali è posta al centro dell’attenzione, piuttosto che l’ampliamento esterno delle reti neurali.
  • Sebbene l’AGI sia ancora lontana, questa ricerca suggerisce nuovi percorsi per avvicinarsi a tale obiettivo.


La possibilità di sviluppare un’intelligenza artificiale generale (AGI) si fa sempre più concreta grazie a una nuova architettura computazionale ideata da scienziati cinesi, che potrebbe rappresentare un passo avanti significativo nel campo dell’AI. Lo studio, pubblicato il 16 agosto sulla rivista "Nature Computational Science", introduce un approccio incentrato sulla complessità interna dei neuroni artificiali, un cambiamento di paradigma che potrebbe superare alcune delle limitazioni attuali delle reti neurali.

Le reti neurali, utilizzate nei modelli di AI avanzati come i grandi modelli linguistici (LLM) tipo ChatGPT, si basano su algoritmi che cercano di emulare il funzionamento del cervello umano. Queste reti, tuttavia, sono limitate dalla loro dipendenza dai dati di addestramento e dalla loro capacità di ragionamento, che rimane inferiore a quella umana. Mentre alcuni ricercatori sostengono che l’ampliamento delle reti neurali esistenti potrebbe portare all’AGI, altri ritengono che tale approccio sia inefficiente e richieda un uso eccessivo di risorse energetiche e computazionali.

Il nuovo studio propone un’alternativa: invece di espandere le reti neurali rendendole più grandi e complesse, i ricercatori suggeriscono di aumentare la complessità interna dei singoli neuroni artificiali. Per raggiungere questo obiettivo, è stato utilizzato il modello di Hodgkin-Huxley (HH), una rappresentazione computazionale che simula l’attività dei neuroni biologici con elevata accuratezza. Questo modello è particolarmente efficace nel replicare i "spike" neuronali, ovvero gli impulsi che i neuroni usano per comunicare. La sua validità è supportata da ricerche precedenti, come uno studio del 2021, che dimostra la plausibilità del modello HH nel rappresentare il comportamento neurale reale.

Nello specifico, i ricercatori hanno creato una rete neurale basata su questo modello, evidenziando che anche un piccolo modello con elevata complessità interna può ottenere prestazioni paragonabili a quelle di modelli convenzionali molto più grandi. Questo approccio potrebbe ridurre significativamente il consumo energetico e la necessità di risorse computazionali, un aspetto cruciale per lo sviluppo futuro dell’AGI. I risultati suggeriscono che l’incremento della complessità interna potrebbe essere una strada più praticabile per raggiungere l’AGI rispetto all’ampliamento esterno delle reti neurali.

In parallelo, altre iniziative come quella di SingularityNET si concentrano sulla creazione di reti di supercalcolo distribuite per l’addestramento di modelli di AGI, indicando che la ricerca in questo campo è estremamente dinamica e multidirezionale. Sebbene l’AGI rimanga una meta distante, la diversità di approcci e innovazioni come quella presentata in questo studio contribuiscono a mantenere vivo il dibattito e l’interesse scientifico sul tema.

La ricerca su nuove architetture computazionali rappresenta un capitolo fondamentale nello sviluppo dell’AI, aprendo la strada a soluzioni più efficienti e potenti.