Perlombaan komputasi AI terus mengalami percepatan saat Nvidia mengungkapkan generasi perangkat keras berikutnya yang dirancang untuk mendukung beban kerja kecerdasan buatan yang paling menuntut. Membangun arsitektur Blackwell yang sudah mengesankan, perusahaan telah mengumumkan peningkatan signifikan dengan Blackwell Ultra GB300, menjanjikan peningkatan performa substansial dan kapasitas memori yang diperluas untuk menangani model AI yang semakin kompleks.
![]() |
---|
Nvidia Blackwell Ultra GB300 merepresentasikan peningkatan signifikan dalam teknologi komputasi AI |
Blackwell Ultra GB300: Lompatan Performa untuk Komputasi AI
Blackwell Ultra GB300 yang baru diumumkan oleh Nvidia merepresentasikan evolusi substansial dari platform komputasi AI perusahaan. Dijadwalkan untuk pengiriman pada paruh kedua tahun 2025, GB300 mempertahankan performa AI 20 petaflops per chip sama seperti Blackwell original tetapi secara signifikan meningkatkan kapasitas memori menjadi 288GB memori HBM3e, naik dari 192GB di versi standar. Peningkatan memori sebesar 50% ini memungkinkan penanganan model AI yang lebih besar dan beban kerja yang lebih kompleks. Solusi skala-rak GB300 NVL72 menghubungkan 72 GPU Blackwell Ultra dengan 36 CPU berbasis Arm Neoverse, berfungsi sebagai satu GPU masif yang mampu memberikan performa komputasi FP4 sebesar 1,1 exaflops.
Spesifikasi Utama Nvidia Blackwell Ultra (GB300):
- Performa AI: 20 petaflops per chip (sama dengan Blackwell standar)
- Memori: 288GB HBM3e (peningkatan 50% dari 192GB)
- Performa Rak GB300 NVL72: 1,1 exaflops komputasi FP4
- Memori GB300 NVL72: 20TB memori HBM, 40TB "memori cepat"
- Bandwidth NVLink: 130TB/detik
- Jaringan: 14,4 TB/detik
- Jadwal Rilis: Paruh kedua tahun 2025
Kemampuan Penalaran AI yang Ditingkatkan
Salah satu kemajuan paling signifikan dalam Blackwell Ultra adalah kemampuannya untuk mempercepat tugas penalaran AI. Menurut Nvidia, konfigurasi GB300 NVL72 dapat menjalankan salinan interaktif dari DeepSeek-R1 671B dan memberikan jawaban hanya dalam sepuluh detik, dibandingkan dengan 1,5 menit yang dibutuhkan oleh generasi sebelumnya H100. Peningkatan dramatis ini berasal dari kemampuan untuk memproses 1.000 token per detik, sepuluh kali lipat dari chip Nvidia tahun 2022. Peningkatan ini memungkinkan model AI untuk mengeksplorasi jalur solusi yang berbeda dan memecah permintaan kompleks menjadi beberapa langkah, menghasilkan respons berkualitas lebih tinggi.
Perbandingan Kinerja:
- Blackwell Ultra vs. H100: 11x lebih cepat dalam inferensi pada model bahasa besar
- Blackwell Ultra vs. H100: 7x lebih banyak komputasi
- Blackwell Ultra vs. H100: 4x memori lebih besar
- Pemrosesan token Blackwell Ultra: 1.000 token/detik (10x lebih cepat dari chip tahun 2022)
- Rak Rubin Ultra vs. rak Blackwell Ultra: peningkatan kinerja 14x
Memperluas Akses dengan DGX Station
Dalam perbedaan menarik dari rilis perangkat keras AI high-end sebelumnya, Nvidia akan membuat chip Blackwell Ultra tunggal tersedia dalam format desktop yang disebut DGX Station. Workstation yang kuat ini dilengkapi dengan satu GPU Blackwell Ultra GB300, 784GB memori sistem terpadu, dan jaringan Nvidia 800Gbps bawaan. Produsen utama termasuk Asus, Dell, HP, Boxx, Lambda, dan Supermicro akan menawarkan versi sistem desktop ini, membawa kemampuan komputasi AI yang sebelumnya berskala rak ke workstation individu.
Roadmap Masa Depan: Vera Rubin dan Seterusnya
Melihat ke depan, Nvidia juga mengungkapkan arsitektur Vera Rubin yang akan datang, dijadwalkan untuk paruh kedua tahun 2026, yang akan menawarkan performa FP4 50 petaflops per chip—2,5 kali performa Blackwell Ultra. Ini akan diikuti oleh Rubin Ultra pada paruh kedua tahun 2027, yang secara efektif berisi dua GPU Rubin yang terhubung bersama untuk memberikan performa FP4 100 petaflops dan memori hampir empat kali lipat sebesar 1TB. Rak penuh NVL576 dari Rubin Ultra diperkirakan akan menyediakan inferensi FP4 15 exaflops dan pelatihan FP8 5 exaflops, mewakili peningkatan performa 14x dibandingkan dengan rak Blackwell Ultra tahun ini.
Peta Jalan GPU Nvidia:
- Blackwell Ultra (GB300): Semester 2 2025, 288GB HBM3e
- Vera Rubin: Semester 2 2026, 50 petaflops FP4
- Rubin Ultra: Semester 2 2027, 100 petaflops FP4, 1TB memori
- Feynman: 2028
Dampak Pasar dan Permintaan Industri
CEO Nvidia Jensen Huang menekankan selama pengumuman bahwa industri membutuhkan 100 kali lebih banyak dari yang kita pikir kita butuhkan tahun lalu untuk mengimbangi permintaan komputasi AI. Pernyataan ini muncul saat Nvidia mengungkapkan bahwa mereka telah mengirimkan perangkat keras Blackwell senilai 11 miliar dolar AS, dengan empat pembeli teratas saja membeli 1,8 juta chip Blackwell sejauh ini pada tahun 2025. Angka-angka ini menggarisbawahi pertumbuhan eksplosif dalam persyaratan komputasi AI dan posisi dominan Nvidia dalam memasok perangkat keras yang diperlukan.
Melihat Lebih Jauh ke Depan
Di luar Vera Rubin, Nvidia mengumumkan bahwa arsitektur 2028 mereka akan diberi nama Feynman, kemungkinan besar mengacu pada fisikawan teoretis terkenal Richard Feynman. Roadmap berkelanjutan ini menunjukkan komitmen Nvidia untuk mempertahankan posisi kepemimpinannya dalam perangkat keras komputasi AI untuk masa depan yang dapat diperkirakan, dengan setiap generasi menjanjikan peningkatan performa signifikan untuk memenuhi permintaan beban kerja kecerdasan buatan yang tumbuh pesat.