ZLUDA torna in sviluppo con supporto multi-GPU | | | | Turtles AI
ZLUDA, la libreria per il porting del codice, è tornata in fase di sviluppo con un focus sulla compatibilità multi-GPU per applicazioni di AI. Sotto un nuovo sponsor anonimo, si prevede che apporti significative innovazioni per i carichi di lavoro AI, aprendo a nuove possibilità per l’hardware di AMD e NVIDIA.
Punti chiave:
- ZLUDA riprende lo sviluppo con focus su carichi di lavoro AI e compatibilità multi-GPU.
- La libreria supporterà architetture AMD e NVIDIA, compresi i framework come PyTorch e TensorFlow.
- Sarà compatibile con le GPU RDNA di AMD e lo stack ROCm 6.1+.
- La fase di sviluppo richiederà circa un anno prima di portare a termine il progetto.
La libreria ZLUDA, conosciuta nel panorama del porting del codice, sta vivendo una nuova fase di sviluppo che punta a potenziare la compatibilità multi-GPU, in particolare per le applicazioni legate all’AI. Inizialmente concepita per supportare le GPU Intel all’interno dell’ecosistema software di NVIDIA, ZLUDA ha subito una trasformazione significativa, grazie all’intervento di AMD e a una comunità di sviluppatori dedicati, che hanno reso possibile l’accesso al framework CUDA di NVIDIA anche su hardware AMD. Tuttavia, il progetto aveva subito un arresto a causa di problematiche legali, ma ora ZLUDA è pronta a rinascere con una nuova visione, sostenuta da uno sponsor anonimo. Andrzej Janik, lo sviluppatore originale della libreria, ha rivelato che il focus principale sarà ora orientato verso carichi di lavoro di AI e machine learning, anziché sui tradizionali ambiti professionali. Ciò implica che ZLUDA lavorerà per garantire compatibilità con librerie ampiamente utilizzate nel settore, come Llama.cpp, PyTorch e TensorFlow. Un aspetto particolarmente interessante è l’intenzione di rielaborare i percorsi di codice di NVIDIA, per adattarli a diverse architetture GPU. I test iniziali sono già in corso utilizzando le GPU della serie RDNA di AMD, e si prevede che la libreria supporterà le architetture RDNA1 e successive, integrandosi con lo stack di elaborazione ROCm 6.1 e oltre. Questo sviluppo si configura come un elemento chiave per il panorama delle GPU AMD, che potrebbe trarre beneficio dall’ottimizzazione delle prestazioni in ambito AI. Sebbene non siano stati forniti dettagli specifici sulla tempistica del rilascio, Janik ha indicato che saranno necessari circa dodici mesi per finalizzare il progetto. In caso di successo, ZLUDA potrebbe consentire una maggiore interoperabilità tra le diverse architetture di GPU, contribuendo così a una sinergia nell’utilizzo delle risorse hardware per applicazioni di AI.
Con l’arrivo di ZLUDA, il settore del calcolo AI potrebbe vivere una fase di transizione significativa nel modo in cui le architetture GPU vengono sfruttate.