Perpecahan Besar: Definisi AI Terbuka dari OSI Memicu Perdebatan Tentang Persyaratan Data Pelatihan

BigGo Editorial Team
Perpecahan Besar: Definisi AI Terbuka dari OSI Memicu Perdebatan Tentang Persyaratan Data Pelatihan

Pemungutan suara yang akan datang oleh Open Source Initiative ( OSI ) mengenai Definisi AI Sumber Terbuka telah memicu perdebatan sengit dalam komunitas teknologi, khususnya mengenai apakah data pelatihan harus dianggap penting agar sistem AI benar-benar bersifat sumber terbuka. Diskusi ini mengungkapkan ketegangan mendasar antara implementasi praktis dan cita-cita filosofis dalam perkembangan pengembangan AI.

Kontroversi Utama

Aspek paling kontroversial dari definisi OSI berpusat pada perlakuannya terhadap data pelatihan sebagai manfaat daripada persyaratan. Keputusan ini telah membagi komunitas menjadi dua kubu yang berbeda:

Argumen Menentang Posisi OSI

  • Perbandingan Biner : Banyak pengembang berpendapat bahwa model AI tanpa data pelatihan setara dengan mendistribusikan biner yang dikompilasi tanpa kode sumber. Mereka berpendapat bahwa data pelatihan adalah kode sumber sebenarnya dari sistem AI.
  • Masalah Audit : Tanpa akses ke data pelatihan, menjadi hampir mustahil untuk mengaudit sistem AI untuk bias, kerentanan keamanan, atau potensi celah keamanan.
  • Implikasi Regulasi : Beberapa komentator menunjukkan bahwa definisi ini dapat menciptakan celah berbahaya dalam European AI Act, yang membebaskan AI sumber terbuka dari persyaratan pengawasan tertentu.

Argumen Mendukung Posisi OSI

  • Realitas Praktis : Melatih model AI modern dapat menghabiskan biaya ratusan juta dolar dalam sumber daya komputasi, membuat reproduksi penuh tidak praktis bagi kebanyakan pengguna.
  • Praktik Saat Ini : Bahkan pengembang asli terutama menggunakan fine-tuning daripada pelatihan ulang dari awal ketika memodifikasi model yang ada.
  • Bentuk yang Disukai : Pendukung berpendapat bahwa bobot model adalah bentuk yang disukai untuk membuat modifikasi dalam praktik, memenuhi definisi sumber terbuka tradisional.

Sikap Free Software Foundation

FSF telah mengambil posisi yang lebih bernuansa, mengakui bahwa meskipun data pelatihan harus diperlukan untuk kebebasan sejati, mungkin ada alasan etis yang valid (seperti privasi medis) untuk tidak merilis data tersebut. Mereka membedakan antara kasus penggunaan non-bebas dan tidak etis, menunjukkan bahwa menggunakan AI non-bebas bisa diterima secara etis dalam fungsi sosial tertentu yang vital.

Proposal Alternatif

Beberapa pendekatan alternatif telah muncul dari diskusi komunitas:

  1. Membuat kategori terpisah untuk tingkat keterbukaan yang berbeda
  2. Mengembangkan kerangka lisensi baru khusus untuk model AI
  3. Meninggalkan istilah sumber terbuka sepenuhnya untuk sistem AI dan mengembangkan terminologi baru

Pandangan ke Depan

Perdebatan ini menyoroti momen penting dalam evolusi prinsip-prinsip sumber terbuka saat mereka menghadapi paradigma teknologi baru. Dengan pemungutan suara dewan OSI yang dijadwalkan pada 27 Oktober 2024, dan publikasi direncanakan pada 28 Oktober, hasilnya dapat secara signifikan mempengaruhi bagaimana industri mendekati pengembangan dan distribusi AI.

Kontroversi ini juga memunculkan pertanyaan penting tentang apakah konsep kebebasan perangkat lunak tradisional dapat atau harus diterapkan pada sistem AI, atau apakah kita membutuhkan kerangka kerja yang sepenuhnya baru untuk memastikan transparansi dan hak pengguna di era kecerdasan buatan.

Catatan: Perdebatan ini terjadi dalam konteks teknologi AI yang berkembang pesat dan kerangka regulasi, termasuk European AI Act dan berbagai inisiatif perusahaan dalam pengembangan AI.