Lancia Llama 3.2: Nuove Funzionalità per l’AI | Meta AI WhatsApp Italia | Meta AI WhatsApp number | Meta AI APK | Turtles AI

Lancia Llama 3.2: Nuove Funzionalità per l’AI
Modelli multimodali e leggeri progettati per migliorare le applicazioni su dispositivi mobili e edge
Isabella V

 

Oggi Meta ha svelato il nuovo Llama 3.2, un’innovativa gamma di modelli di AI che integra capacità visive con modelli leggeri adatti a dispositivi edge e mobili. Questi sviluppi sono orientati a facilitare la creazione di applicazioni avanzate in ambiti quali il riassunto di testi e l’analisi delle immagini, supportando una vasta gamma di hardware, inclusi i processori Qualcomm e MediaTek. Con la disponibilità immediata di Llama 3.2 su piattaforme come llama.com e Hugging Face, gli sviluppatori possono iniziare a sfruttare le nuove funzionalità multimodali sin dal primo giorno. 

Punti chiave:

  •  Llama 3.2 include modelli LLM visivi (11B e 90B) e modelli leggeri di solo testo (1B e 3B).
  •  I modelli leggeri sono ottimizzati per dispositivi mobili e edge, con una lunghezza di contesto di 128K token.
  •  Llama Stack semplifica l’integrazione dei modelli in vari ambienti di sviluppo.
  •  Il supporto visivo permette applicazioni in tempo reale, come motori di ricerca visiva e analisi documentale.

Il lancio di Llama 3.2 rappresenta un passo significativo per Meta, che continua a espandere il proprio portafoglio di modelli di AI. Le nuove varianti, in particolare i modelli 11B e 90B, sono progettate per gestire compiti complessi legati alla comprensione delle immagini, come l’analisi di grafici e diagrammi o la generazione di didascalie per immagini. Grazie a un’architettura innovativa, questi modelli possono ora interagire con input visivi e testuali, offrendo agli sviluppatori la possibilità di creare applicazioni interattive più sofisticate.

I modelli leggeri, con 1B e 3B di parametri, sono stati sviluppati per l’uso su hardware a bassa potenza, rendendo le tecnologie di AI accessibili anche ai dispositivi mobili. La loro capacità di operare localmente non solo migliora la reattività delle applicazioni, ma garantisce anche una maggiore privacy per gli utenti, poiché i dati non vengono inviati al cloud per l’elaborazione. Questa scelta strategica si allinea con le crescenti preoccupazioni riguardanti la protezione dei dati personali.

Meta ha collaborato con oltre 25 partner, tra cui giganti come Google Cloud e Microsoft Azure, per garantire che i modelli siano pronti per l’uso immediato su una vasta gamma di piattaforme. Con l’introduzione di Llama Stack, gli sviluppatori hanno ora accesso a strumenti semplificati che facilitano l’implementazione di applicazioni basate su generazione aumentata dal recupero (RAG) e funzionalità di sicurezza integrate.

Le prestazioni dei modelli Llama 3.2 sono state testate su oltre 150 set di dati benchmark, dimostrando la loro competitività rispetto a modelli consolidati nel settore, come Claude 3 Haiku e GPT4o-mini. La versatilità dei modelli 1B e 3B è stata particolarmente apprezzata in compiti di generazione testuale e gestione delle istruzioni. Grazie all’integrazione di un adattatore per l’elaborazione delle immagini, Llama 3.2 rappresenta un’ulteriore evoluzione nell’ambito dei modelli multimodali, consentendo una comprensione approfondita delle interazioni tra testo e immagini.

Meta, nel presentare questa nuova versione, sottolinea l’importanza di un approccio aperto all’innovazione, affermando che l’accesso ai modelli Llama 3.2 contribuirà a stimolare la creatività e la responsabilità nello sviluppo delle tecnologie AI. La comunità open source gioca un ruolo cruciale in questo processo, e Meta è impegnata a fornire le risorse necessarie per garantire che gli sviluppatori possano lavorare in modo efficace e responsabile con le nuove tecnologie.

Il lancio di Llama 3.2 rappresenta un’opportunità unica per gli sviluppatori di esplorare nuovi orizzonti nel campo dell’AI, favorendo applicazioni innovative e responsabili.