Amazon sfida Nvidia con nuovi chip AI per i suoi data center | App intelligenza artificiale iphone | App intelligenza artificiale aranzulla | Large language models wikipedia | Turtles AI

Amazon sfida Nvidia con nuovi chip AI per i suoi data center
L’azienda intensifica gli investimenti in soluzioni personalizzate per ridurre i costi e aumentare l’efficienza dei servizi cloud
Isabella V13 novembre 2024

 


Amazon sta preparando il lancio dei suoi nuovi chip AI, progettati per sfidare la posizione dominante di Nvidia nel settore dei semiconduttori per data center. L’azienda mira a ridurre i costi e a migliorare l’efficienza dei suoi servizi cloud, con un occhio attento alla personalizzazione della propria infrastruttura. La competizione nel settore cresce, con grandi player tecnologici che sviluppano soluzioni interne per sostenere la crescita dell’AI.

Punti chiave:

  •  Amazon sviluppa chip AI personalizzati, con il nuovo "Trainium 2" pronto per il lancio.
  •  L’iniziativa è guidata da Annapurna Labs, la start-up acquisita da Amazon nel 2015.
  •  L’obiettivo è ridurre i costi operativi e offrire un’alternativa a Nvidia, leader di mercato.
  •  La spesa di Amazon in infrastrutture per l’AI è destinata a crescere notevolmente nei prossimi anni.

Amazon è pronta a lanciare i suoi nuovi chip pensati per l’AI, parte di una strategia più ampia per ridurre la sua dipendenza dalle soluzioni di Nvidia, leader assoluto nel mercato dei semiconduttori per AI. La spinta verso questa nuova direzione è guidata dalla divisione cloud dell’azienda, che sta investendo in modo significativo in tecnologie proprie. Al centro di questo processo c’è Annapurna Labs, la start-up texana acquisita nel 2015 per 350 milioni di dollari, che ora è diventata il cuore pulsante della progettazione dei chip di Amazon. Il prossimo passo per Amazon è il lancio di "Trainium 2", una nuova generazione di chip destinati all’addestramento di modelli di AI, che secondo i piani dell’azienda vedrà la sua distribuzione su larga scala a partire dal mese prossimo. Questo chip è già in fase di test presso alcuni grandi nomi dell’industria tech, come Anthropic, Databricks e Deutsche Telekom, e Amazon spera che possa competere efficacemente con le unità grafiche di Nvidia, che dominano attualmente il mercato.

L’approccio di Amazon alla creazione di chip personalizzati si inserisce in un contesto più ampio di verticalizzazione dell’infrastruttura cloud, volto a offrire ai clienti una soluzione altamente specializzata e meno dipendente dai fornitori esterni. A differenza dei chip tradizionali che vengono progettati per essere strumenti universali, i chip sviluppati da Amazon sono ottimizzati per specifici carichi di lavoro, come quelli necessari per l’AI, garantendo un’efficienza superiore sotto molti aspetti. "Trainium 2", infatti, dovrebbe consentire ad Amazon Web Services (AWS) di abbattere i costi di gestione dei data center, con risparmi che potrebbero arrivare fino al 40% rispetto alle soluzioni concorrenti. Questi margini di risparmio, sebbene possano sembrare minimi in scenari più piccoli, possono fare la differenza quando si parla di operazioni su larga scala, come nel caso dei grandi clienti AWS che gestiscono milioni di dollari in servizi cloud.

La competizione nel settore dei semiconduttori per l’AI sta diventando sempre più accesa, con altri giganti del cloud come Microsoft e Google che stanno anch’essi sviluppando soluzioni proprie, cercando di ridurre la loro dipendenza da Nvidia e migliorare l’efficienza delle proprie operazioni. Tuttavia, mentre Amazon cerca di farsi largo in questo mercato, la sua divisione cloud deve fare i conti con la supremazia attuale di Nvidia, che nel secondo trimestre del 2024 ha registrato vendite per oltre 26 miliardi di dollari per i suoi chip destinati ai data center, cifra che corrisponde grosso modo al fatturato complessivo di AWS per lo stesso periodo. La posizione di Nvidia rimane robusta, con una quota di mercato che supera il 90%, e Amazon è ben consapevole della difficoltà di scalzare un tale colosso.

L’infrastruttura AI di Amazon si distingue però per il fatto che l’azienda sta cercando di costruire tutto il sistema da zero, compreso il silicio, i server e il software. Questo approccio "integrato" permette ad Amazon di avere un maggiore controllo sul ciclo produttivo, riducendo i costi a lungo termine e ottimizzando la gestione energetica, un aspetto fondamentale per i data center che operano in ambienti ad alta intensità di calcolo. Inoltre, la possibilità di sviluppare chip ad hoc per esigenze specifiche permette ad Amazon di migliorare le prestazioni rispetto ad altre soluzioni generiche come quelle fornite da Nvidia, che pur essendo molto potenti, non sono sempre ottimizzate per ogni tipo di applicazione.

Il mercato dei chip AI è in pieno fermento, con l’innovazione che non si limita solo ai chip ma anche all’intero ecosistema tecnologico che li supporta. Grandi aziende come Apple, OpenAI e Meta stanno investendo enormi risorse nella creazione di chip proprietari, mosse dettate dalla volontà di abbassare i costi di produzione, migliorare i margini e ottenere una maggiore indipendenza da fornitori esterni. Questa corsa a sviluppare una propria infrastruttura chip sta cambiando rapidamente le dinamiche del mercato, con i giganti della tecnologia che cercano di ritagliarsi un posto al sole in un settore ad altissima crescita come quello dell’AI.

In questo contesto, la scelta dei clienti di cloud diventa sempre più orientata verso chi può garantire non solo performance ma anche controllo sui costi e sulla tecnologia. Amazon, pur affrontando la dura concorrenza di Nvidia, sta investendo in modo massiccio in questa direzione, con una spesa per infrastrutture che, nel 2024, dovrebbe toccare i 75 miliardi di dollari, un cifra che rappresenta un significativo aumento rispetto all’anno precedente.

Il mercato dei chip AI è ormai un campo di battaglia su cui si gioca una buona parte del futuro tecnologico globale, e Amazon è pronta a combattere per guadagnarsi un ruolo da protagonista.

Video