Microsoft Copilot Mengekspos Ribuan Repositori GitHub Privat

BigGo Editorial Team
Microsoft Copilot Mengekspos Ribuan Repositori GitHub Privat

Asisten AI milik Microsoft tertangkap mengungkapkan informasi yang seharusnya tetap tersembunyi, menimbulkan kekhawatiran serius tentang keamanan bagi para pengembang di seluruh dunia. Peneliti keamanan telah menemukan bahwa Microsoft Copilot dapat mengakses dan mengungkapkan konten dari repositori GitHub yang telah diatur sebagai privat, berpotensi mengekspos data perusahaan dan kredensial sensitif.

Penemuan Pelanggaran Keamanan

Peneliti keamanan di Lasso, sebuah perusahaan keamanan siber yang berfokus pada ancaman terkait AI, menemukan kerentanan signifikan dalam Microsoft Copilot. Tim tersebut menemukan bahwa Copilot dapat mengakses salah satu repositori GitHub mereka sendiri yang telah diatur sebagai privat. Repositori tersebut sempat berstatus publik sebelum diubah kembali menjadi status privat, tetapi jendela waktu yang singkat itu sudah cukup bagi mesin pencari Bing milik Microsoft untuk mengindeks dan menyimpan kontennya. Bahkan setelah repositori tersebut diamankan dengan benar, Copilot terus mengakses dan mengungkapkan informasi yang seharusnya privat ini ketika diberikan pertanyaan yang tepat.

Skala Eksposur

Setelah penemuan awal mereka, Lasso melakukan investigasi yang lebih luas yang mengungkapkan hasil yang mengkhawatirkan. Perusahaan keamanan tersebut mengidentifikasi lebih dari 20.000 repositori GitHub yang telah diatur sebagai privat pada tahun 2024 tetapi tetap dapat diakses melalui Microsoft Copilot. Eksposur ini mempengaruhi sekitar 16.000 organisasi, termasuk perusahaan teknologi besar seperti IBM, Google, PayPal, Tencent, dan Microsoft sendiri. Cakupan masalah keamanan ini cukup besar, berpotensi membahayakan kekayaan intelektual, data perusahaan, dan kredensial keamanan di seluruh industri teknologi.

Temuan utama dari penelitian Lasso:

  • Lebih dari 20.000 repositori GitHub privat yang dapat diakses melalui Copilot
  • Sekitar 16.000 organisasi terkena dampak
  • Perusahaan teknologi besar yang terkena dampak termasuk IBM, Google, PayPal, Tencent, Microsoft
  • Kerentanan dilaporkan ke Microsoft pada November 2024
  • Microsoft mengklasifikasikan masalah ini sebagai "tingkat keparahan rendah"
Teknologi yang saling terhubung menyoroti skala besar data pribadi yang terekspos di berbagai organisasi akibat pelanggaran keamanan AI
Teknologi yang saling terhubung menyoroti skala besar data pribadi yang terekspos di berbagai organisasi akibat pelanggaran keamanan AI

Informasi Sensitif yang Berisiko

Repositori yang terekspos berpotensi mengandung informasi yang sangat sensitif yang dapat dieksploitasi oleh pelaku jahat. Menurut temuan Lasso, penjahat siber berpotensi dapat memanipulasi Copilot untuk mengungkapkan informasi rahasia seperti kunci akses, token keamanan, dan kode kepemilikan. Perusahaan keamanan tersebut menyarankan organisasi yang terkena dampak untuk segera mengambil tindakan dengan merotasi atau mencabut kredensial keamanan yang telah dikompromikan untuk mengurangi potensi kerusakan dari eksposur ini.

Tanggapan Microsoft

Ketika Lasso melaporkan kerentanan ini kepada Microsoft pada November 2024, tanggapan perusahaan tersebut cukup mengabaikan. Microsoft mengklasifikasikan masalah ini sebagai tingkat keparahan rendah dan menggambarkan perilaku caching sebagai hal yang dapat diterima. Meskipun Microsoft telah menghapus hasil pencarian yang di-cache terkait dengan data yang terkena dampak dari Bing pada Desember 2024, Lasso memperingatkan bahwa Copilot masih menyimpan data tersebut dalam model AI-nya, yang berarti informasi tersebut tetap berpotensi dapat diakses melalui prompt yang tepat.

Implikasi Lebih Luas untuk Keamanan AI

Insiden ini menyoroti kekhawatiran yang semakin besar tentang bagaimana sistem AI dilatih dan informasi apa yang mereka simpan. Karena chatbot AI dan asisten terus memindai internet untuk data pelatihan, mereka mungkin menangkap dan menyimpan informasi yang hanya sementara bersifat publik atau tidak pernah dimaksudkan untuk distribusi luas. Kurangnya regulasi seputar pengumpulan dan penyimpanan data ini menciptakan risiko keamanan yang signifikan, terutama ketika berurusan dengan informasi perusahaan yang sensitif atau data pribadi.

Langkah Pencegahan untuk Pengembang

Mengingat penemuan ini, pengembang dan organisasi yang menggunakan GitHub harus meninjau praktik keamanan repositori mereka. Bahkan eksposur publik sementara dari repositori sensitif dapat menyebabkan risiko keamanan jangka panjang karena sistem AI mengindeks dan menyimpan informasi tersebut. Rotasi rutin kredensial keamanan, pengelolaan hati-hati pengaturan visibilitas repositori, dan audit informasi yang berpotensi terekspos menjadi praktik penting dalam lingkungan pengembangan yang didukung AI.