Ex-intel CEO Gelsinger: le GPU AI sono 10.000 volte troppo costose e Nvidia è stato fortunato

Quando leggi quel titolo, probabilmente sembra che l'ex CTO Intel e il CEO Gelsinger abbiano un caso di uva acida. Certo, l'uomo è molto più maturo ed esperto di così. I suoi commenti sono arrivati ​​mentre parlava al podcast acquisito come ospite invitato alla conferenza GTC 2025 di NVIDIA, in cui il fornitore GPU ha presentato Blackwell Ultra GB300. Gelsinger, parlando nel podcast pre-show, ha detto questo ai padroni di casa:

Jensen e io abbiamo avuto numerose conversazioni sul “throughput computing” – per cui ci riferiamo ad esso come “calcolo accelerato” – Versus Scalar Computing. Sai: previsione del ramo e condutture di latenza corta rispetto a “Ehi, chi si preoccupa per quanto tempo è la pipeline? Basta massimizzare il throughput e creare la programmabilità.” E ovviamente all'epoca, la CPU era il re della collina, e applaudo Jensen per la sua tenacia nel solo dire: “No, non sto cercando di costruirne uno; sto cercando di consegnare contro il carico di lavoro a partire dalla grafica” e, quindi, è diventato questa visione più ampia, e poi è stato fortunato, giusto? con AI.

Inarticle Horizontal

È abbastanza chiaro, nel contesto delle dichiarazioni complete di Gelsinger, cosa intende con questo. Intel e Nvidia hanno entrambi sostenuto il proprio approccio al supercomputer: Intel con i suoi potenti CPU che offrono forti prestazioni di calcolo a thread e a bassa latenza e Nvidia con le sue enormi GPU che eccellono nel throughput multi-thread. Ciò che Gelsinger sta dicendo è che Nvidia e Jensen sono stati davvero fortunati in quanto il team verde aveva già gettato le basi per esattamente il tipo di calcolo di cui AI ha bisogno, il che significa che GeForce e Cuda sono diventati essenzialmente la piattaforma predefinita per l'elaborazione di AI.

Inarticle Horizontal
Gelsinger parlando

Nell'intervista, Gelsinger continua dicendo questo:

Oggi, se pensiamo, ad esempio, al carico di lavoro di formazione, ok, ma questo deve lasciare il posto a qualcosa tanto più ottimizzato per l'inferimento. Sai, una GPU è troppo costosa; Sostengo che è 10.000 volte troppo costoso per realizzare pienamente cosa vogliamo fare con lo spiegamento di inferenze per l'intelligenza artificiale, e poi, ovviamente, cosa c'è al di là?

Sta dicendo che Nvidia sta sovraccaricando per le sue GPU AI? Non esattamente. Gelsinger sta parlando del prossimo futuro del mondo tecnologico, dove, proprio come ha affermato Jensen, spenderemo molto più calcolo e potere sull'inferenza dell'intelligenza artificiale piuttosto che l'allenamento. Ciò che Gelsinger sta sottolineando è che, sebbene tu abbia assolutamente bisogno di uno (o più) delle enormi GPU di Nvidia per fare una formazione di intelligenza artificiale in un periodo di tempo ragionevole, l'inferenza è molto più semplice e non ha bisogno di quel tipo di hardware.

Inarticle Horizontal

In altre parole, se l'IA proliferarà il modo in cui i giganti della tecnologia lo vogliono, ci dovranno essere dispositivi che sono in grado di rapida inferenza di intelligenza artificiale a bassa potenza e, soprattutto, a basso costo. Gelsinger smette di dire che tipo di processori potrebbero essere, ma potrebbe parlare di “NPU”-ASICS dedicato al compito di eseguire l'inferenza di intelligenza artificiale.

L'intera intervista è piuttosto interessante e vale la pena guardare. Ci sono molti altri ospiti di tutto il settore che hanno intuizioni rilevanti sul futuro della tecnologia e dell'IA.

(TagstoTranslate) nvidia

Inarticle Horizontal