Inovasi chip terbaru dari Google menandai pergeseran signifikan dalam pendekatan perusahaan terhadap komputasi kecerdasan buatan, yang kini berfokus pada tuntutan inferensi AI yang semakin meningkat, bukan hanya pada pelatihan. Raksasa teknologi ini menyadari bahwa seiring evolusi model AI menuju kemampuan penalaran, biaya komputasi semakin bergeser dari pengembangan ke penerapan.
Pergeseran ke Komputasi Inferensi
Pada acara Google Cloud Next 25, Google memperkenalkan Ironwood, Tensor Processing Unit (TPU) generasi ke-7. Berbeda dengan generasi sebelumnya yang terutama diposisikan untuk beban kerja pelatihan AI, Ironwood mewakili perubahan strategis menuju inferensi - proses membuat prediksi dari model AI terlatih sebagai respons terhadap permintaan pengguna. Pergeseran ini mengakui titik infleksi ekonomi dalam kecerdasan buatan, di mana industri bergerak dari proyek penelitian eksperimental menuju implementasi praktis dan luas model AI oleh bisnis.
Kemajuan Teknis
Ironwood memberikan peningkatan teknis yang mengesankan dibandingkan pendahulunya, TPU Trillium generasi ke-6. Google mengklaim chip baru ini mencapai kinerja dua kali lipat per watt, menghasilkan 29,3 triliun operasi floating-point per detik. Kapasitas memori telah ditingkatkan secara dramatis menjadi 192GB memori bandwidth tinggi (HBM) per chip - enam kali lebih banyak dari Trillium. Selain itu, bandwidth memori telah ditingkatkan 4,5 kali lipat mencapai 7,2 terabit per detik, memungkinkan pergerakan data yang jauh lebih besar baik di dalam chip maupun antar sistem.
Spesifikasi Ironwood TPU vs. Generasi Sebelumnya (Trillium)
Fitur | Ironwood (Generasi ke-7) | Trillium (Generasi ke-6) | Peningkatan |
---|---|---|---|
Performa per watt | 29,3 TFLOPS | ~14,65 TFLOPS | 2x |
Kapasitas memori HBM | 192GB per chip | 32GB per chip | 6x |
Bandwidth memori | 7,2 TBps | 1,6 TBps | 4,5x |
Komputasi puncak per chip | 4.614 TFLOPs | Tidak ditentukan | - |
Penskalaan maksimum | 9.216 chip per pod | "ratusan ribu" | - |
Total komputasi pada skala penuh | 42,5 exaflops | Tidak ditentukan | - |
Kemampuan Penskalaan
Mungkin yang paling mengesankan adalah kemampuan penskalaan Ironwood. TPU ini dapat diskalakan hingga 9.216 chip per pod, menghasilkan daya komputasi yang luar biasa sebesar 42,5 exaflops. Untuk memberikan perspektif, Google mencatat bahwa ini lebih dari 24 kali daya komputasi El Capitan, yang saat ini merupakan superkomputer terbesar di dunia. Potensi penskalaan yang masif ini semakin ditingkatkan oleh tumpukan perangkat lunak Pathways yang dirancang oleh Google DeepMind, yang memungkinkan pengembang memanfaatkan puluhan ribu TPU Ironwood yang bekerja secara bersamaan.
Implikasi Ekonomi
Waktu peluncuran Ironwood sangat signifikan mengingat meningkatnya biaya infrastruktur AI. Analis Wall Street semakin fokus pada biaya besar yang terkait dengan pembangunan dan penerapan sistem AI, terutama karena model seperti Gemini dari Google bergerak menuju kemampuan penalaran yang secara dramatis meningkatkan tuntutan komputasi. Dengan mengembangkan chip inferensi berkinerja tinggi sendiri, Google mungkin dapat mengurangi ketergantungannya pada vendor seperti Nvidia, AMD, dan Intel, berpotensi menghemat miliaran dalam biaya infrastruktur.
Positioning Pasar
Meskipun Google telah mengembangkan TPU selama lebih dari satu dekade melalui enam generasi sebelumnya, positioning eksplisit Ironwood sebagai chip yang mengutamakan inferensi merupakan perubahan dari pendekatan sebelumnya. Sebelumnya, Google telah menggambarkan TPU sebagai investasi yang diperlukan untuk penelitian mutakhir tetapi bukan alternatif untuk chip dari vendor mapan. Pasar inferensi dianggap bervolume tinggi di dunia chip, karena harus memenuhi kebutuhan ribuan atau jutaan pelanggan yang memerlukan prediksi sehari-hari dari jaringan neural terlatih.
Pengembangan Perangkat Lunak
Bersamaan dengan pengumuman perangkat keras, Google juga mengungkapkan bahwa mereka menjadikan perangkat lunak Pathways tersedia untuk publik melalui Pathways on Cloud. Perangkat lunak ini mendistribusikan beban kerja komputasi AI di berbagai komputer, berpotensi memungkinkan pelanggan mencapai efisiensi dan pemanfaatan sumber daya AI mereka yang lebih besar.
Masa Depan Komputasi AI
Dengan Ironwood, Google memposisikan dirinya di garis depan dari apa yang dilihatnya sebagai generasi berikutnya dari komputasi AI - bergerak dari model responsif yang hanya menyajikan informasi ke sistem proaktif yang mampu melakukan interpretasi dan inferensi. Seperti yang dinyatakan oleh Amin Vahdat, VP/GM of ML, Systems & Cloud AI di Google, Ironwood dirancang khusus untuk menggerakkan model AI yang berpikir dan melakukan inferensi dalam skala besar, menandakan visi Google untuk aplikasi AI yang lebih canggih yang dapat bernalar melalui masalah kompleks daripada sekadar merespons perintah.