Dalam perubahan signifikan dari pendekatan ekosistem tertutupnya selama ini, Nvidia telah mengumumkan program NVLink Fusion di Computex 2025 di Taipei. Inisiatif ini memungkinkan mitra untuk mengintegrasikan teknologi interkoneksi kecepatan tinggi milik Nvidia dengan CPU non-Nvidia dan akselerator AI kustom, yang berpotensi mengubah lanskap arsitektur komputasi AI perusahaan.
![]() |
---|
CEO Jen-Hsun Huang memperkenalkan program NVLink Fusion di Computex 2025, memamerkan teknologi spine yang inovatif |
Mendobrak Hambatan dalam Infrastruktur AI
Selama bertahun-tahun, teknologi NVLink milik Nvidia telah menjadi landasan dominasinya dalam beban kerja AI, menyediakan bandwidth dan latensi yang superior dibandingkan dengan antarmuka PCIe standar. Hingga saat ini, interkoneksi eksklusif ini sebagian besar dibatasi untuk silicon buatan Nvidia sendiri, dengan pengecualian terbatas seperti kolaborasi awal dengan IBM. Program NVLink Fusion yang baru menandai perubahan strategis, membuka teknologi ini kepada ekosistem mitra yang lebih luas termasuk Qualcomm dan Fujitsu untuk CPU, serta Marvell dan MediaTek untuk akselerator AI kustom.
Kemampuan Teknis yang Mendefinisikan Ulang Skala
Spesifikasi teknis NVLink Fusion sangat mengesankan. Menurut CEO Nvidia Jen-Hsun Huang, satu NVLink spine dapat mentransfer data dengan kecepatan hingga 130 TB/s, yang diklaim melebihi kapasitas lalu lintas seluruh Internet. Meskipun perbandingan seperti itu mungkin dapat diperdebatkan (dengan beberapa sumber menyarankan bahwa tingkat transfer puncak Internet melebihi 1.200 Tb/s), teknologi ini tidak dapat disangkal menawarkan bandwidth transformatif untuk kluster komputasi AI. Sistem ini memungkinkan skalabilitas yang masif, menghubungkan hingga 72 GPU melalui arsitektur spine tunggal.
Mitra Utama NVLink Fusion:
- Mitra CPU: Qualcomm, Fujitsu
- Mitra Silicon/Akselerator: Marvell, MediaTek, Alchip
- Mitra Interkoneksi: Astera Labs
- Penyedia Alat Desain: Cadence, Synopsys
Spesifikasi Teknis NVLink:
- Kecepatan transfer spine tunggal: Hingga 130 TB/detik
- Maksimum GPU per spine: 72
- Keunggulan bandwidth dibandingkan PCIe: Hingga 14X
Kemitraan Strategis Memperluas Ekosistem
Ekosistem NVLink Fusion telah menarik mitra-mitra penting. Qualcomm, yang baru-baru ini mengkonfirmasi rencana untuk memasuki pasar CPU server, kini dapat memastikan kompatibilitas dengan infrastruktur AI dominan Nvidia. Fujitsu akan mengintegrasikan teknologi ini dengan CPU Monaka 144-core yang akan datang, yang menampilkan core 3D-stacked inovatif di atas memori. Mitra silicon termasuk Marvell, MediaTek, dan Alchip akan mengembangkan akselerator AI kustom yang kompatibel dengan sistem ini, sementara Astera Labs bergabung untuk menyediakan komponen interkonektivitas khusus. Penyedia alat desain Cadence dan Synopsys melengkapi ekosistem dengan sumber daya perangkat lunak dan IP yang diperlukan.
![]() |
---|
Diagram yang menunjukkan integrasi CPU kustom dan akselerator pihak ketiga ke dalam arsitektur NVLink Fusion dari Nvidia |
Implementasi Melalui Arsitektur Chiplet
Implementasi teknis NVLink Fusion melibatkan integrasi fungsionalitas ke dalam chiplet yang ditempatkan berdampingan dengan paket komputasi. Pendekatan ini memungkinkan mitra untuk mempertahankan desain inti CPU atau akselerator mereka sambil menambahkan kompatibilitas NVLink. Nvidia juga merilis perangkat lunak Mission Control baru untuk menyatukan operasi dan orkestrasi, merampingkan validasi tingkat sistem dan manajemen beban kerja untuk mempercepat waktu ke pasar untuk sistem terintegrasi yang kompleks ini.
Metode Implementasi:
- Integrasi melalui chiplet yang diposisikan berdekatan dengan paket komputasi
- Kompatibel dengan arsitektur skala rak
- Didukung oleh perangkat lunak Nvidia Mission Control untuk orkestrasi
Persaingan dan Standar Industri
Yang patut dicatat adalah ketidakhadiran pesaing utama Nvidia dalam daftar kemitraan NVLink Fusion: AMD, Intel, dan Broadcom. Perusahaan-perusahaan ini justru bergabung dengan konsorsium Ultra Accelerator Link (UALink), yang bertujuan menciptakan interkoneksi standar industri terbuka sebagai alternatif dari teknologi eksklusif Nvidia. Perkembangan paralel ini menyoroti ketegangan yang sedang berlangsung antara ekosistem eksklusif dan standar terbuka dalam lanskap perangkat keras AI yang berkembang pesat.
Implikasi untuk Penerapan AI Perusahaan
Pembukaan teknologi NVLink merupakan langkah strategis oleh Nvidia untuk memperluas pengaruhnya sambil memenuhi permintaan pelanggan untuk opsi infrastruktur AI yang lebih fleksibel. Dengan memungkinkan integrasi dengan CPU non-Nvidia, perusahaan mempertahankan dominasi GPU-nya sambil mengakomodasi organisasi yang mungkin lebih memilih arsitektur CPU alternatif untuk beban kerja spesifik atau persyaratan kedaulatan. Pendekatan ini berpotensi memperluas pasar yang dapat dijangkau Nvidia sambil tetap memanfaatkan kekuatan intinya dalam akselerasi AI.
Prospek Masa Depan
Meskipun NVLink Fusion terutama menargetkan pusat data dan aplikasi perusahaan daripada komputasi konsumen, pengembangannya menandakan pergeseran penting dalam bagaimana infrastruktur komputasi AI dapat berkembang. Teknologi ini memungkinkan kemungkinan baru untuk komputasi heterogen dalam skala besar, yang berpotensi mempengaruhi pendekatan masa depan terhadap arsitektur sistem di seluruh industri. Seiring beban kerja AI terus bertambah dalam kompleksitas dan skala, kemampuan untuk menghubungkan sumber daya komputasi yang beragam secara efisien menjadi semakin penting untuk kinerja dan efisiensi energi.