Die Google Cloud Next 2024 hat begonnen, und das Unternehmen startet die Veranstaltung mit einigen wichtigen Ankündigungen, darunter der neue Axion-Prozessor. Dabei handelt es sich um die erste Arm-basierte CPU von Google, die speziell für Rechenzentren entwickelt wurde und auf der Neoverse V2-CPU von Arm basiert.
Laut Google ist Axion 30 Prozent leistungsfähiger als die schnellsten Arm-basierten Allzweck-Cloud-Werkzeuge und 50 Prozent besser als die neuesten vergleichbaren x86-basierten VMs. Außerdem soll Axion 60 Prozent energieeffizienter sein als die gleichen x86-basierten VMs. Google setzt Axion bereits in Diensten wie BigTable und Google Earth Engine ein und wird dies in Zukunft auf weitere Dienste ausweiten.
Mit der Einführung von Axion könnte Google in Konkurrenz zu Amazon treten, das im Bereich der Arm-basierten CPUs für Rechenzentren führend ist. Die Cloud-Sparte des Unternehmens, Amazon Web Services (AWS), brachte 2018 den Graviton-Prozessor auf den Markt, dem in den beiden darauffolgenden Jahren die zweite und dritte Iteration folgten. Der befreundete Chipentwickler NVIDIA brachte 2021 seine erste Arm-basierte CPU für Rechenzentren namens Grace auf den Markt, und auch Unternehmen wie Ampere haben Fortschritte in diesem Bereich gemacht.
Google entwickelt seit einigen Jahren eigene Prozessoren, die sich jedoch hauptsächlich auf Verbraucherprodukte konzentrieren. Der ursprüngliche, auf einem Arm basierende Tensor wurde erstmals in den Smartphones Pixel 6 und 6 Pro ausgeliefert, die Ende 2021 auf den Markt kamen. Die nachfolgenden Pixel-Telefone wurden alle von aktualisierten Versionen des Tensors angetrieben. Zuvor hatte Google die Tensor Processing Unit (TPU) für seine Rechenzentren entwickelt. Das Unternehmen begann 2015 mit dem internen Einsatz in seinen Rechenzentren, kündigte ihn 2016 öffentlich an und machte ihn 2018 für Dritte verfügbar.
Arms-basierte Prozessoren sind oft eine kostengünstigere und energieeffizientere Option. Die Ankündigung von Google erfolgte kurz nachdem Rene Haas, CEO von Arms, laut Wall Street Journal eine Warnung über den Energieverbrauch von KI-Modellen ausgesprochen hatte. Er bezeichnete Modelle wie ChatGPT als “unersättlich” in Bezug auf ihren Stromverbrauch. Je mehr Informationen sie sammeln, desto klüger werden sie, aber je mehr Informationen sie sammeln, um klüger zu werden, desto mehr Strom brauchen sie”, so Haas. Bis zum Ende des Jahrzehnts könnten KI-Rechenzentren 20 bis 25 Prozent des US-Strombedarfs verbrauchen. Heute sind es wahrscheinlich vier Prozent oder weniger. Das ist nicht sehr nachhaltig, um ehrlich zu sein. Er betonte die Notwendigkeit einer höheren Effizienz, um das Tempo der Durchbrüche aufrechtzuerhalten.