Con Tiiny AI Pocket L’AI entra in tasca: il mini-computer che pensa senza cloud | | | | Turtles AI

Con Tiiny AI Pocket L’AI entra in tasca: il mini-computer che pensa senza cloud
Tiiny AI Pocket Lab debutta al CES con un record mondiale e porta modelli linguistici da oltre 100 miliardi di parametri su un dispositivo personale, автономo e a basso consumo energetico
Editorial Team8 gennaio 2026

 

Tiiny AI Pocket Lab, mini-computing AI portatile certificato Guinness, porta modelli linguistici fino a 120 miliardi di parametri completamente offline, con hardware efficiente e open-source, presentato da Tiiny AI Inc. al CES 2026 tra grande curiosità e dibattito sul futuro dell’AI. 

Punti chiave:

  •  Tiiny AI Pocket Lab è stato certificato dal Guinness World Records come il mini-PC più piccolo al mondo capace di eseguire un LLM da 100 + miliardi di parametri interamente sul dispositivo. 
  •  La startup statunitense Tiiny AI ha svelato il dispositivo a CES 2026 a Las Vegas, attirando l’attenzione internazionale dei media tech.
  •  Funziona offline, con 80 GB di memoria LPDDR5X e 1 TB di SSD, consumando circa 65 W, ed esegue modelli fino a 120 miliardi di parametri senza cloud né GPU dedicate. 
  •  Il sistema supporta installazioni con un clic di modelli e agent open source e include innovazioni proprietarie come TurboSparse e PowerInfer per efficienza AI.

 

Al CES di Las Vegas Tiiny AI Inc., giovane startup deep-tech statunitense, ha tolto il velo da quella che definisce «la più piccola macchina personale in grado di far girare modelli di linguaggio vasti» " il Tiiny AI Pocket Lab " un concentrato di calcolo che pare tanto un power bank quanto un laboratorio di pensiero artificiale nelle tue mani, e che ha già guadagnato un record dal Guinness World Records per la categoria “Smallest MiniPC capable of running 100B+ LLM locally”.  Con un design compatto di circa 14,2 × 8 × 2,53 cm e un peso di circa 300 g, il Pocket Lab sfida la narrativa consolidata per cui l’intelligenza artificiale più profonda debba essere rinchiusa in server farms o carosissime GPU: qui tutto avviene offline, senza rete né dipendenza dal cloud. 

Il cuore di questo dispositivo, alimentato da una CPU ARMv9.2 a 12 core e un modulo AI eterogeneo con circa 190 TOPS, è supportato da 80 GB di memoria LPDDR5X e 1 TB di storage interno; numeri che, per anni, sarebbero stati associati solo a workstation di fascia altissima, rendendo però l’idea di come in un piccolo chassis si possa ora far girare modelli con centinaia di miliardi di parametri.  Il sistema, con un consumo di circa 65 W, gestisce modelli fino a 120 miliardi di parametri – potenzialmente paragonabili, sul piano delle capacità di ragionamento e contesto, alle generazioni di LLM più evolute disponibili nel cloud  e lo fa sotto gli occhi dei giornalisti e degli sviluppatori riuniti al CES.

In un momento in cui l’ecosistema AI globale si trova a fare i conti con costi energetici crescenti, vincoli di sostenibilità, timori per la riservatezza dei dati e una spesa operativa legata ai servizi cloud sempre più onerosa, Tiiny AI mette in primo piano un’alternativa: un’“intelligenza personale” che lavora localmente, alleggerendo l’onere di connessioni costanti e server remoti.  Secondo la compagnia, rivolgere lo sguardo verso un modello di calcolo meno dipendente dall’infrastruttura centralizzata non solo riduce latenza e costi, ma dà anche agli individui e alle piccole organizzazioni la possibilità di mantenere i propri dati sotto controllo diretto.

Sotto la scocca non mancano soluzioni tecniche pensate per spremere il massimo da ogni watt: TurboSparse gestisce l’attivazione selettiva dei neuroni per ottimizzare le prestazioni senza intaccare l’intelligenza del modello, mentre PowerInfer distribuisce dinamicamente i carichi di lavoro tra la CPU e l’unità neurale dedicata, rendendo possibili operazioni AI di livello server in un dispositivo palmare.  Accanto all’hardware c’è anche un ecosistema software che consente l’installazione con un clic di modelli open source e agenti AI come OpenAI GPT-OSS, Llama, Qwen, DeepSeek, Mistral e Phi, oltre a framework di agenti come OpenManus e Flowise, ampliando le possibilità d’uso per sviluppatori, creatori e studenti. 

Nel corso della presentazione Tiiny AI ha illustrato come il Pocket Lab possa non solo eseguire compiti di generazione di contenuti, analisi multistep e gestione sicura di informazioni sensibili, ma anche offrire una sorta di memoria personale criptata a livello bancario, memorizzando localmente preferenze, documenti e dati degli utenti, cosa che l’approccio cloud convenzionale difficilmente può garantire.  

Sullo sfondo di un mercato dei grandi modelli linguistici stimato in miliardi di dollari e in forte crescita nei prossimi anni, l’idea di portare la capacità di calcolo “sulla scrivania” o addirittura “in tasca” apre uno scenario dibattuto tra entusiasmo, curiosità e domande sulla transizione verso modelli di AI sempre più personali e decentrati.