Artificial Intelligence (AI)

Google Tak Akan Perbaiki Serangan “ASCII Smuggling” Baru di Gemini AI

Google memutuskan untuk tidak memperbaiki celah keamanan baru di Gemini yang memungkinkan penyerang melakukan manipulasi tersembunyi terhadap model AI melalui teknik yang disebut ASCII smuggling — berpotensi digunakan untuk menyebarkan informasi palsu, mengubah perilaku model, hingga meracuni data pelatihan (data poisoning).


⚙️ Apa Itu ASCII Smuggling?

ASCII smuggling memanfaatkan karakter khusus dari blok Unicode “Tags” untuk menyisipkan instruksi tersembunyi yang tidak terlihat oleh pengguna, namun tetap dibaca dan diproses oleh model AI seperti Gemini.

Teknik ini mirip dengan serangan lain seperti CSS injection atau GUI manipulation, yang mengeksploitasi perbedaan antara apa yang dilihat pengguna dan apa yang sebenarnya dibaca mesin.

Sebelumnya, metode seperti ini hanya berisiko jika pengguna secara manual menyalin dan menempelkan prompt berbahaya. Namun, dengan munculnya AI agenik (agentic AI) seperti Gemini yang dapat mengakses data sensitif (email, kalender, dokumen, dsb.) dan bertindak secara otomatis, tingkat ancamannya meningkat drastis.


🧪 Penelitian oleh FireTail

Peneliti keamanan Viktor Markopoulos dari perusahaan keamanan siber FireTail menguji teknik ASCII smuggling terhadap berbagai AI populer, dan hasilnya:

Model AIRentan?Catatan
Gemini (Google)✅ YaRentan di email & Calendar
DeepSeek✅ YaRentan melalui prompt input
Grok (X)✅ YaRentan di posting publik
Claude (Anthropic)❌ TidakSudah ada sanitasi input
ChatGPT (OpenAI)❌ TidakInput difilter
Microsoft Copilot❌ TidakAman dari injeksi ASCII

(Sumber: FireTail Research)


meeting

📅 Contoh Eksploitasi di Google Workspace

Kerentanan ini menjadi berbahaya karena Gemini terintegrasi langsung dengan Google Workspace, termasuk Gmail dan Calendar.

Markopoulos menunjukkan bahwa:

  • Penyerang dapat menyembunyikan instruksi berbahaya di judul undangan kalender,
  • Memalsukan identitas penyelenggara rapat (organizer spoofing), dan
  • Menyisipkan deskripsi rapat atau tautan berbahaya tanpa terlihat oleh pengguna.

📸 Contoh:
Di tampilan pengguna, undangan rapat terlihat normal. Namun, saat Gemini membaca data tersebut, model mendeteksi dan menjalankan instruksi tersembunyi, misalnya membuka situs berbahaya atau menampilkan informasi palsu.


✉️ Risiko dari Email

Jika akun Gemini terhubung ke Gmail, sebuah email biasa dengan karakter tersembunyi bisa memerintahkan AI untuk mencari pesan sensitif atau bahkan mengirimkan data kontak ke luar sistem, menjadikannya alat otomatis untuk ekstraksi data tanpa disadari pengguna.

Selain itu, jika Gemini digunakan untuk menjelajahi situs web, model ini bisa secara tidak sengaja membaca payload tersembunyi di deskripsi produk yang mengarah ke tautan berbahaya.


🚫 Google: “Bukan Bug Keamanan”

Markopoulos melaporkan temuannya ke Google pada 18 September 2025, namun Google menolak laporan tersebut, menyatakan bahwa masalah ini “bukan kerentanan keamanan” dan hanya relevan dalam konteks rekayasa sosial (social engineering).

Meski begitu, peneliti menunjukkan bukti bahwa ASCII smuggling dapat mengelabui Gemini untuk memberikan informasi palsu.
Contohnya, sebuah instruksi tersembunyi membuat Gemini merekomendasikan situs penipuan seolah-olah itu adalah toko ponsel resmi dengan diskon besar.


🛡️ Pendekatan Berbeda dari Perusahaan Lain

Beberapa perusahaan besar lain menanggapi isu ini lebih serius:

  • Amazon telah menerbitkan panduan resmi tentang keamanan terhadap Unicode character smuggling.
  • OpenAI dan Anthropic telah menerapkan sanitasi input dan validasi teks agar model mereka tidak membaca instruksi tersembunyi semacam ini.

🔍 Kesimpulan

Keputusan Google untuk tidak memperbaiki celah ini menimbulkan kekhawatiran karena:

  • Gemini terhubung ke data sensitif pengguna melalui Workspace,
  • ASCII smuggling tidak terlihat oleh pengguna biasa, dan
  • Risiko manipulasi model dan disinformasi meningkat seiring penggunaan AI otonom.

Walaupun secara teknis serangan ini memerlukan skenario sosial tertentu, potensi dampaknya terhadap privasi dan keandalan AI sangat signifikan — terutama bagi pengguna bisnis yang mengandalkan Gemini untuk manajemen data dan komunikasi.


Sumber: FireTail, BleepingComputer, Google

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button