AI Google dengan Percaya Diri Membuat Arti Palsu untuk Frasa yang Tidak Masuk Akal

BigGo Editorial Team
AI Google dengan Percaya Diri Membuat Arti Palsu untuk Frasa yang Tidak Masuk Akal

Kecerdasan buatan terus mengubah cara kita berinteraksi dengan teknologi, namun tidak selalu ke arah yang lebih baik. Fitur eksperimental AI Overviews dari Google baru-baru ini mendapat sorotan karena adanya kelemahan yang mengkhawatirkan: fitur ini dengan percaya diri menghasilkan penjelasan yang sepenuhnya dibuat-buat untuk frasa dan idiom yang tidak pernah ada, menimbulkan pertanyaan serius tentang keandalan hasil pencarian yang didukung AI.

Masalah Halusinasi

AI Overviews dari Google, sebuah fitur eksperimental yang terintegrasi ke dalam Google Search, menunjukkan kecenderungan mengkhawatirkan untuk berhalusinasi definisi untuk frasa yang tidak masuk akal atau fiksi. Pengguna telah menemukan bahwa dengan hanya mengetikkan kombinasi kata acak yang diikuti dengan kata meaning (arti) di kotak pencarian, AI Google dengan percaya diri memberikan penjelasan dan asal-usul yang rumit untuk ungkapan yang sepenuhnya dibuat-buat. Perilaku ini merusak tujuan mendasar mesin pencari—untuk memberikan informasi akurat, bukan fiksi yang disajikan sebagai fakta.

Bagaimana Masalah Ini Bekerja

Prosesnya sangat sederhana. Ketika pengguna mencari frasa seperti you can't lick a badger twice atau a duckdog never blinks twice dan menambahkan kata meaning pada kueri mereka, AI Overviews Google menghasilkan penjelasan terperinci dan terdengar otoritatif untuk frasa yang tidak masuk akal ini. Yang membuat hal ini sangat bermasalah adalah definisi palsu ini muncul bersama hasil pencarian yang sah, dengan hanya disclaimer kecil yang mencatat bahwa Generative AI bersifat eksperimental.

Contoh-contoh halusinasi AI:

  • Frasa: "You can't lick a badger twice" → Penjelasan AI: Tidak dapat menipu seseorang dua kali
  • Frasa: "A duckdog never blinks twice" → Beberapa penjelasan yang saling bertentangan diberikan dalam pencarian yang berbeda
  • Google memberi label pada AI Overview ini sebagai "eksperimental" tetapi menampilkannya bersama dengan hasil pencarian faktual

Respons yang Tidak Konsisten

Menambah kekhawatiran adalah ketidakkonsistenan respons AI. Ketika pengguna mencari idiom palsu yang sama beberapa kali, Google sering memberikan penjelasan yang sama sekali berbeda pada setiap pencarian. Misalnya, seorang pengguna mencari a duckdog never blinks twice pada beberapa kesempatan dan menerima interpretasi yang bervariasi—pertama menyarankan bahwa itu merujuk pada anjing pemburu yang sangat fokus, kemudian mengklaim itu menggambarkan sesuatu yang tidak dapat dipercaya atau mustahil untuk diterima, dan akhirnya menawarkan penjelasan berbeda lainnya.

Tanggapan Google

Google telah mengakui masalah ini melalui juru bicara, menjelaskan bahwa ketika pengguna memasukkan pencarian yang tidak masuk akal atau 'premis palsu', sistem mereka berusaha menemukan hasil yang relevan berdasarkan konten web yang terbatas yang tersedia. Perusahaan menyebut skenario ini sebagai kekosongan data, yang menyajikan tantangan bagi semua mesin pencari. Google mengklaim telah menerapkan perbaikan untuk membatasi AI Overviews agar tidak muncul dalam situasi seperti itu untuk mencegah konten yang menyesatkan.

Tanggapan resmi Google: "Ketika orang melakukan pencarian yang tidak masuk akal atau 'berdasarkan premis yang salah', sistem kami akan mencoba menemukan hasil yang paling relevan berdasarkan konten web terbatas yang tersedia. Hal ini berlaku untuk Pencarian secara keseluruhan, dan dalam beberapa kasus, AI Overviews juga akan diaktifkan dalam upaya memberikan konteks yang bermanfaat."

Implikasi Lebih Luas

Kelemahan dalam AI Overviews Google ini menimbulkan kekhawatiran signifikan tentang keandalan alat pencarian yang didukung AI. Selama beberapa dekade, melakukan pencarian Google telah menjadi sinonim dengan pengecekan fakta dan verifikasi informasi. Jika pengguna tidak lagi dapat membedakan antara informasi faktual dan fiksi yang dihasilkan AI yang disajikan dengan keyakinan yang sama, kepercayaan mendasar pada mesin pencari bisa sangat terganggu.

Bukan Kesalahan AI Pertama

Ini bukan pertama kalinya fitur AI Google menghadapi kritik karena halusinasi. Sekitar setahun yang lalu, AI Overviews menjadi viral karena menyarankan resep aneh seperti pizza lem dan spaghetti bensin. Sifat berulang dari masalah ini menyoroti tantangan berkelanjutan dalam mengembangkan sistem AI yang andal untuk pengambilan dan peringkasan informasi.

Masa Depan Integritas Pencarian

Seiring AI semakin terintegrasi ke dalam fungsi pencarian, keseimbangan antara inovasi dan akurasi menjadi lebih penting. Meskipun AI dapat meningkatkan pengalaman pencarian dengan menyediakan ringkasan cepat dan informasi kontekstual, insiden seperti ini menunjukkan bahwa teknologi ini masih memiliki keterbatasan signifikan dalam membedakan fakta dari fiksi. Bagi pengguna, mempertahankan skeptisisme yang sehat terhadap konten yang dihasilkan AI tetap penting, terutama ketika informasi yang diberikan tampak tidak biasa atau tidak memiliki atribusi yang jelas.