Google Cloud hat leistungsstarke Infrastrukturinnovationen für Ihre KI-zentrierte Zukunft angekündigt. Dazu gehören die TPU der sechsten Generation, Trillium, A3 Ultra VMs mit NVIDIA H200 Tensor Core GPUs, Hypercompute Cluster, C4A VMs basierend auf den benutzerdefinierten Arm-Prozessoren Axion, Verbesserungen am Jupiter-Rechenzentrumsnetzwerk und der Titanium-Host-Offload-Funktion sowie der Hyperdisk ML-Speicherservice. Diese Verbesserungen zielen darauf ab, die Leistung, Benutzerfreundlichkeit und Kosteneffizienz der KI-Infrastruktur für Kunden zu verbessern. Trillium bietet im Vergleich zu TPU v5e erhebliche Leistungsverbesserungen, darunter eine 4-fache Verbesserung der Trainingsleistung, einen bis zu 3-fachen Anstieg des Inferenzdurchsatzes und eine 67%ige Steigerung der Energieeffizienz. A3 Ultra VMs wurden entwickelt, um einen deutlichen Leistungssprung gegenüber früheren Generationen zu erzielen, mit doppelter GPU-zu-GPU-Netzwerkbandbreite und einer fast doppelt so hohen LLM-Inferenzleistung. Hypercompute Cluster vereinfacht die Verwaltung von KI-Beschleuniger-Clustern und ermöglicht zuverlässige und wiederholbare Bereitstellungen über einen einzigen API-Aufruf. C4A VMs sind jetzt allgemein verfügbar und bieten verbesserte Leistung und Effizienz für eine breite Palette von allgemeinen Workloads. Titanium und das Jupiter-Netzwerk wurden verbessert, um KI-Workloads zu unterstützen, wobei der neue Titanium ML-Netzwerkadapter 3,2 Tbit/s GPU-zu-GPU-Traffic über RoCE bietet. Hyperdisk ML ist jetzt allgemein verfügbar und bietet Hochleistungsspeicher für KI- und HPC-Workloads mit schnelleren Datenladezeiten und höherer Kosteneffizienz.