AMD mette le ali all’AI di OpenAI: ma chi riesce davvero a decollare? | ChatGPT immagini | OpenAI API | Chat GPT gratis italiano | Turtles AI
AMD ha annunciato il supporto ufficiale per i nuovi modelli AI GPT-OSS 20B e 120B di OpenAI attraverso le sue CPU Ryzen AI e GPU Radeon. Solo il chip Ryzen AI MAX+ 395 è in grado di eseguire nativamente il modello GPT‑OSS 120B.
Punti chiave:
- Supporto Day‑0 per GPT‑OSS 20B e 120B su hardware AMD Ryzen AI e Radeon
- Ryzen AI MAX+ 395 è l’unico processore in grado di gestire GPT‑OSS 120B
- Modelli open-weight progettati per ragionamento avanzato e capacità agentiche
- Integrazione completa con LM Studio per testare i modelli su dispositivi compatibili
AMD lancia ufficialmente il guanto di sfida nel campo dell’AI ad alte prestazioni con l’annuncio del supporto completo ai nuovi modelli GPT‑OSS 20B e GPT‑OSS 120B di OpenAI. Presentati come gli eredi open-weight dell’ormai storico GPT‑2, questi modelli rappresentano una nuova frontiera nella distribuzione di AI avanzata. E AMD, puntando sulla potenza delle sue soluzioni hardware più recenti, è tra i primi a integrarne il supporto a livello nativo, offrendo agli utenti prestazioni da data center direttamente sui sistemi consumer e professionali. Il protagonista indiscusso è il nuovo Ryzen AI MAX+ 395, attualmente l’unico chip in commercio in grado di gestire in modo fluido e locale il massiccio GPT‑OSS 120B grazie a un’infrastruttura di memoria senza precedenti: 128 GB di VRAM dinamica, perfetta per sostenere i circa 61 GB necessari al caricamento del modello in formato MXFP4 convertito in GGML. A completare l’offerta ci pensano le schede grafiche della famiglia Radeon RX 9000, RX 7000 e Radeon AI PRO R9000, che possono gestire senza problemi il modello più leggero GPT‑OSS 20B, purché dotate di almeno 16 GB di memoria video.
Questi modelli GPT‑OSS sono stati progettati con un’architettura mixture‑of‑experts (MoE), attivando solo una parte selezionata dei parametri totali a ogni token elaborato: GPT‑OSS 120B contiene 128 esperti per livello, con 4 esperti attivi per token, per un totale di circa 5,1 miliardi di parametri calcolati dinamicamente a ogni passo. Ciò consente un bilanciamento intelligente tra efficienza e capacità, rendendo possibile l’esecuzione anche al di fuori dei tradizionali ambienti cloud. In questo contesto, AMD ha ottimizzato le sue architetture Ryzen AI per ospitare localmente questi carichi, specialmente grazie alla nuova piattaforma Strix Halo e alla sua ampia larghezza di banda interna.
Per gli utenti che vogliono iniziare subito a testare i modelli, AMD consiglia di aggiornare il proprio sistema al driver AMD Software: Adrenalin Edition versione 25.8.1 WHQL o successiva. Una volta installato il driver, è possibile sfruttare LM Studio, un ambiente di sviluppo dedicato che consente il caricamento, la configurazione e l’esecuzione dei modelli GPT‑OSS. La procedura è semplice: dopo l’installazione, basta saltare l’onboarding, cercare "gpt-oss" nella scheda Scopri e selezionare la variante più adatta in base al proprio hardware. Gli utenti Ryzen AI possono ottimizzare la memoria grafica variabile direttamente dal software AMD, mentre chi utilizza GPU Radeon può semplicemente selezionare il modello e avviare il caricamento. Per il modello 120B, è normale un’attesa prolungata durante la fase di loading, soprattutto su SSD consumer, a causa delle dimensioni elevate del modello. Una volta operativo, il sistema può raggiungere velocità fino a 30 token al secondo, un risultato di tutto rispetto considerando che si tratta di modelli di fascia data center.
Chi possiede invece sistemi basati su Radeon RX 9070 XT da 16 GB, può contare su una soluzione potente e accessibile per eseguire il modello GPT‑OSS 20B con tempi di risposta minimi (TTFT molto ridotti), ideali per test in contesti computazionali intensi o per esplorare capacità agentiche tramite implementazioni MCP (Model Context Protocol).
In parallelo, AMD continua a collaborare con l’ecosistema di sviluppo per estendere la compatibilità e ottimizzare ulteriormente le prestazioni dei modelli AI più avanzati. Con l’adozione di questi strumenti da parte di una platea sempre più ampia, e grazie all’approccio open-weight di OpenAI, si apre la strada a una nuova era di AI locale accessibile, scalabile e adattabile a molteplici scenari d’uso.
Una nuova generazione di modelli AI open-weight è qui, e AMD è pronta ad accoglierla al massimo delle sue potenzialità.


