L’attesa cresce per DeepSeek R2: Il modello AI che promette di abbattere i costi e sfidare i leader del settore | Large language models wikipedia | Chatgpt app | Llm italiano | Turtles AI

L’attesa cresce per DeepSeek R2: Il modello AI che promette di abbattere i costi e sfidare i leader del settore
Con costi ridotti e una potenza di calcolo senza precedenti, DeepSeek R2 punta a cambiare le regole del gioco nel mercato AI globale
Isabella V27 aprile 2025

 

 DeepSeek R2 è il prossimo modello di AI sviluppato dalla startup cinese DeepSeek. Si prevede che utilizzi un’architettura Mixture-of-Experts (MoE) avanzata e chip Huawei Ascend 910B, offrendo prestazioni elevate a costi significativamente inferiori rispetto ai concorrenti occidentali. Tuttavia, al momento non esistono conferme ufficiali riguardo alle specifiche tecniche e alle tempistiche di lancio.

Punti chiave:

  • DeepSeek R2 potrebbe adottare un’architettura MoE avanzata con 1,2 trilioni di parametri.
  • Si prevede che utilizzi i chip Huawei Ascend 910B, con una potenza di calcolo di 512 PetaFLOPS.
  • I costi per token potrebbero essere inferiori del 97% rispetto a GPT-4.
  • DeepSeek R2 potrebbe essere addestrato utilizzando risorse interne, riducendo la dipendenza da fornitori esterni.

DeepSeek, startup cinese emergente nel campo dell’AI, ha attirato l’attenzione internazionale con il suo modello R1, noto per l’efficienza dei costi e le prestazioni competitive rispetto ai modelli occidentali. Secondo indiscrezioni, la società sta sviluppando il modello R2, che potrebbe rappresentare un ulteriore passo avanti in termini di capacità e accessibilità. Le informazioni disponibili provengono principalmente da fonti non ufficiali e potrebbero non riflettere le specifiche finali del prodotto.

L’architettura proposta per DeepSeek R2 potrebbe essere una versione avanzata del modello Mixture-of-Experts (MoE), che consente di attivare solo una parte dei parametri durante l’inferenza, ottimizzando l’efficienza computazionale. Si ipotizza che il modello possa raggiungere 1,2 trilioni di parametri, offrendo prestazioni comparabili a modelli come GPT-4 Turbo e Gemini 2.0 Pro di Google. Tuttavia, l’effettiva implementazione e l’efficacia di questa architettura rimangono da confermare.

Per quanto riguarda l’infrastruttura hardware, si prevede che DeepSeek R2 utilizzi i chip Huawei Ascend 910B, con una potenza di calcolo di 512 PetaFLOPS. Questi chip sono progettati per ottimizzare l’inferenza, riducendo la necessità di hardware costoso come le GPU Nvidia H100. L’adozione di risorse interne potrebbe anche ridurre la dipendenza da fornitori esterni, un aspetto strategico in un contesto di crescente rivalità tecnologica internazionale.

In termini di costi, si ipotizza che DeepSeek R2 possa offrire tariffe per token significativamente inferiori rispetto a modelli come GPT-4, potenzialmente riducendo i costi unitari per token di oltre il 97%. Questo potrebbe rendere l’adozione dell’AI più accessibile per aziende e sviluppatori, stimolando una maggiore diffusione della tecnologia.

Tuttavia, è importante sottolineare che tutte queste informazioni sono basate su fonti non ufficiali e potrebbero non riflettere le specifiche finali del prodotto. DeepSeek non ha ancora rilasciato dichiarazioni ufficiali riguardo alle caratteristiche e alla disponibilità di DeepSeek R2. Pertanto, le aspettative attuali devono essere considerate con cautela.

 DeepSeek R2 potrebbe rappresentare un significativo passo avanti nell’evoluzione dei modelli di AI, offrendo prestazioni elevate a costi contenuti.

Tuttavia, fino a quando non saranno disponibili informazioni ufficiali, è difficile valutare con certezza le reali capacità e l’impatto di questo modello sul mercato.