Google annuncia Axion, la sua prima CPU basata su Arm per i data center

Il Google Cloud Next 2024 è iniziato e l'azienda sta dando il via all'evento con alcuni annunci importanti, tra cui il nuovo processore Axion. Si tratta della prima CPU Arm di Google progettata specificamente per i data center e basata sulla CPU Neoverse V2 di Arm.

Secondo Google, Axion è il 30% più potente dei più veloci strumenti cloud general-purpose basati su Arm e il 50% migliore delle più recenti macchine virtuali comparabili basate su x86. Axion è anche più efficiente dal punto di vista energetico del 60% rispetto alle stesse macchine virtuali basate su x86. Google sta già utilizzando Axion in servizi come BigTable e Google Earth Engine e in futuro lo estenderà ad altri servizi.

Con l'introduzione di Axion, Google potrebbe competere con Amazon, che è il leader nel campo delle CPU basate su Arm per i data center. La divisione cloud dell'azienda, Amazon Web Services (AWS), ha lanciato il processore Graviton nel 2018, seguito dalla seconda e terza iterazione nei due anni successivi. L'azienda sviluppatrice di chip NVIDIA ha lanciato la sua prima CPU basata su Arm per i data center, chiamata Grace, nel 2021, e anche aziende come Ampere hanno fatto progressi in questo settore.

Google sviluppa i propri processori da diversi anni, ma si concentra principalmente sui prodotti di consumo. Il Tensor originale, basato su un braccio, è stato utilizzato per la prima volta negli smartphone Pixel 6 e 6 Pro, lanciati alla fine del 2021. I telefoni Pixel successivi sono stati tutti alimentati da versioni aggiornate del Tensor. Google aveva già sviluppato la Tensor Processing Unit (TPU) per i suoi centri dati. L'azienda ha iniziato a utilizzarla internamente nei suoi data center nel 2015, l'ha annunciata pubblicamente nel 2016 e l'ha resa disponibile a terzi nel 2018.

I processori basati su Arms sono spesso un'opzione più economica ed efficiente dal punto di vista energetico. L'annuncio di Google è arrivato poco dopo che Rene Haas, CEO di Arms, ha lanciato un allarme sul consumo energetico dei modelli di intelligenza artificiale, secondo quanto riportato dal Wall Street Journal. Ha descritto modelli come ChatGPT come "insaziabili" in termini di consumo energetico. Più informazioni raccolgono, più diventano intelligenti, ma più informazioni raccolgono per diventare più intelligenti, più energia richiedono", ha detto Haas. Entro la fine del decennio, i data center di intelligenza artificiale potrebbero consumare il 20-25% della domanda di elettricità degli Stati Uniti. Oggi, probabilmente, è il quattro per cento o meno. A dire il vero, non è molto sostenibile". Ha sottolineato la necessità di una maggiore efficienza per mantenere il ritmo delle scoperte.

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *