Google Tak Akan Perbaiki Serangan “ASCII Smuggling” Baru di Gemini AI
Google memutuskan untuk tidak memperbaiki celah keamanan baru di Gemini yang memungkinkan penyerang melakukan manipulasi tersembunyi terhadap model AI melalui teknik yang disebut ASCII smuggling — berpotensi digunakan untuk menyebarkan informasi palsu, mengubah perilaku model, hingga meracuni data pelatihan (data poisoning).
⚙️ Apa Itu ASCII Smuggling?
ASCII smuggling memanfaatkan karakter khusus dari blok Unicode “Tags” untuk menyisipkan instruksi tersembunyi yang tidak terlihat oleh pengguna, namun tetap dibaca dan diproses oleh model AI seperti Gemini.
Teknik ini mirip dengan serangan lain seperti CSS injection atau GUI manipulation, yang mengeksploitasi perbedaan antara apa yang dilihat pengguna dan apa yang sebenarnya dibaca mesin.
Sebelumnya, metode seperti ini hanya berisiko jika pengguna secara manual menyalin dan menempelkan prompt berbahaya. Namun, dengan munculnya AI agenik (agentic AI) seperti Gemini yang dapat mengakses data sensitif (email, kalender, dokumen, dsb.) dan bertindak secara otomatis, tingkat ancamannya meningkat drastis.

🧪 Penelitian oleh FireTail
Peneliti keamanan Viktor Markopoulos dari perusahaan keamanan siber FireTail menguji teknik ASCII smuggling terhadap berbagai AI populer, dan hasilnya:
| Model AI | Rentan? | Catatan |
|---|---|---|
| Gemini (Google) | ✅ Ya | Rentan di email & Calendar |
| DeepSeek | ✅ Ya | Rentan melalui prompt input |
| Grok (X) | ✅ Ya | Rentan di posting publik |
| Claude (Anthropic) | ❌ Tidak | Sudah ada sanitasi input |
| ChatGPT (OpenAI) | ❌ Tidak | Input difilter |
| Microsoft Copilot | ❌ Tidak | Aman dari injeksi ASCII |
(Sumber: FireTail Research)

📅 Contoh Eksploitasi di Google Workspace
Kerentanan ini menjadi berbahaya karena Gemini terintegrasi langsung dengan Google Workspace, termasuk Gmail dan Calendar.
Markopoulos menunjukkan bahwa:
- Penyerang dapat menyembunyikan instruksi berbahaya di judul undangan kalender,
- Memalsukan identitas penyelenggara rapat (organizer spoofing), dan
- Menyisipkan deskripsi rapat atau tautan berbahaya tanpa terlihat oleh pengguna.
📸 Contoh:
Di tampilan pengguna, undangan rapat terlihat normal. Namun, saat Gemini membaca data tersebut, model mendeteksi dan menjalankan instruksi tersembunyi, misalnya membuka situs berbahaya atau menampilkan informasi palsu.
✉️ Risiko dari Email
Jika akun Gemini terhubung ke Gmail, sebuah email biasa dengan karakter tersembunyi bisa memerintahkan AI untuk mencari pesan sensitif atau bahkan mengirimkan data kontak ke luar sistem, menjadikannya alat otomatis untuk ekstraksi data tanpa disadari pengguna.
Selain itu, jika Gemini digunakan untuk menjelajahi situs web, model ini bisa secara tidak sengaja membaca payload tersembunyi di deskripsi produk yang mengarah ke tautan berbahaya.
🚫 Google: “Bukan Bug Keamanan”
Markopoulos melaporkan temuannya ke Google pada 18 September 2025, namun Google menolak laporan tersebut, menyatakan bahwa masalah ini “bukan kerentanan keamanan” dan hanya relevan dalam konteks rekayasa sosial (social engineering).
Meski begitu, peneliti menunjukkan bukti bahwa ASCII smuggling dapat mengelabui Gemini untuk memberikan informasi palsu.
Contohnya, sebuah instruksi tersembunyi membuat Gemini merekomendasikan situs penipuan seolah-olah itu adalah toko ponsel resmi dengan diskon besar.
🛡️ Pendekatan Berbeda dari Perusahaan Lain
Beberapa perusahaan besar lain menanggapi isu ini lebih serius:
- Amazon telah menerbitkan panduan resmi tentang keamanan terhadap Unicode character smuggling.
- OpenAI dan Anthropic telah menerapkan sanitasi input dan validasi teks agar model mereka tidak membaca instruksi tersembunyi semacam ini.
🔍 Kesimpulan
Keputusan Google untuk tidak memperbaiki celah ini menimbulkan kekhawatiran karena:
- Gemini terhubung ke data sensitif pengguna melalui Workspace,
- ASCII smuggling tidak terlihat oleh pengguna biasa, dan
- Risiko manipulasi model dan disinformasi meningkat seiring penggunaan AI otonom.
Walaupun secara teknis serangan ini memerlukan skenario sosial tertentu, potensi dampaknya terhadap privasi dan keandalan AI sangat signifikan — terutama bagi pengguna bisnis yang mengandalkan Gemini untuk manajemen data dan komunikasi.
Sumber: FireTail, BleepingComputer, Google








