svilupperà chip AI specifici per LLM

Un paio di ex progettisti di chip di Google hanno lasciato il gigante della ricerca statunitense, formando una nuova startup MatX per costruire processori AI appositamente progettati per LLM (Large Language Models).

Apri Galleria 2

VISUALIZZA GALLERIA – 2 IMMAGINI

Mike Gunter e Reiner Pope lavoravano presso Google, formando MatX, che ha un obiettivo: progettare silicio di prossima generazione appositamente per l’elaborazione dei dati necessari per alimentare modelli linguistici di grandi dimensioni (LLM). Gli LLM sono la base su cui poggia il mondo dell’intelligenza artificiale generativa, con artisti del calibro di ChatGPT di OpenAI, Gemini di Google e altre piattaforme di intelligenza artificiale generativa basate su LLM.

Gunter si concentrava sulla progettazione di hardware come chip per eseguire software di intelligenza artificiale, mentre Pope scriveva il software di intelligenza artificiale stesso per Google. Google ha lavorato duramente per costruire i propri processori AI interni con processori Tensor Core, progettati per la prima volta prima che i LLM diventassero una cosa e all’epoca erano troppo generici per le attività.

Advertisement

Il Papa ha detto: “Stavamo cercando di far funzionare più velocemente modelli linguistici di grandi dimensioni su Google e abbiamo fatto dei progressi, ma era un po’ difficile. All’interno di Google c’erano molte persone che volevano modifiche ai chip per ogni genere di cose, ed era difficile concentrarsi solo sui LLM. Abbiamo scelto di partire per questo motivo“.

NVIDIA domina in modo assoluto il mercato del silicio AI ormai da un po’ di tempo, con la sua attuale generazione di GPU Hopper H100 e le prossime GPU AI H200 che si stanno comportando molto bene, mentre la GPU AI Blackwell B200 di prossima generazione è stata annunciata e sarà lanciata entro la fine dell’anno.

Advertisement

La flotta di GPU AI di NVIDIA è fantastica nel gestire una gran quantità di piccole attività e l’azienda ha scommesso molto sul futuro del software CUDA e AI più di 10 anni fa. L’azienda suddivide lo spazio disponibile sulle sue GPU per gestire vari lavori informatici, comprese grandi quantità di dati attorno al chip, inclusa la memoria HBM. Alcune delle scelte progettuali di NVIDIA possono anche essere legate alle “epoche passate” dell’informatica piuttosto che al boom dell’intelligenza artificiale, e presentano compromessi in termini di prestazioni.

I nuovi fondatori di MatX ritengono che lo spazio extra sulla GPU aggiunga costi inutili e un’enorme complessità nella nuova era dell’intelligenza artificiale. MatX sta facendo le cose in modo diverso, progetterà silicio con un unico grande core di elaborazione volto a moltiplicare i numeri il più rapidamente possibile – che è ciò che richiedono i LLM – e l’azienda sta scommettendo molto su questo futuro.

Il Papa ha detto: “NVIDIA è un prodotto davvero potente e chiaramente il prodotto giusto per la maggior parte delle aziende, ma riteniamo di poter fare molto meglio“.

Advertisement