Teknik Font Rendering Baru Sembunyikan Perintah Berbahaya dari AI

Peneliti keamanan menemukan metode baru yang memungkinkan perintah berbahaya disembunyikan dari deteksi asisten AI. Teknik ini memanfaatkan manipulasi font dan tampilan halaman web, sehingga AI melihat konten yang berbeda dari yang ditampilkan kepada pengguna.
Serangan ini dinilai berbahaya karena mengandalkan celah antara cara AI membaca halaman (berbasis teks HTML) dan cara browser menampilkan konten secara visual.
Manipulasi Tampilan untuk Menipu AI
Teknik ini dikembangkan oleh peneliti dari perusahaan keamanan LayerX melalui proof-of-concept (PoC). Metodenya menggunakan font kustom yang memetakan ulang karakter (glyph substitution) serta CSS untuk menyembunyikan teks asli.
Dengan pendekatan tersebut, konten berbahaya dapat disamarkan dalam HTML sebagai teks tidak berbahaya. Namun, saat halaman dirender di browser, pengguna justru melihat perintah berbahaya secara jelas.
Sebaliknya, asisten AI hanya menganalisis struktur HTML dan gagal mendeteksi instruksi berbahaya yang sebenarnya ditampilkan.
Cara Kerja Serangan
Dalam skenario serangan, pengguna diarahkan ke halaman yang tampak aman dan menawarkan sesuatu yang menarik, seperti hadiah atau fitur tersembunyi.
Di balik layar, halaman tersebut menyimpan perintah berbahaya dalam bentuk teks yang telah dikodekan. AI yang diminta untuk memeriksa keamanan halaman hanya melihat versi “aman” dari konten tersebut.
Sementara itu, browser menerjemahkan kode tersebut melalui font khusus dan menampilkan instruksi berbahaya kepada pengguna.
Akibatnya, pengguna bisa mendapatkan rekomendasi yang keliru dari AI dan berpotensi menjalankan perintah berbahaya tanpa menyadarinya.
Banyak AI Terdampak
Berdasarkan pengujian hingga Desember 2025, teknik ini berhasil mengecoh berbagai asisten AI populer, termasuk ChatGPT, Claude, Copilot, Gemini, hingga Grok dan Perplexity.
Fenomena ini terjadi karena adanya perbedaan mendasar antara representasi teks (DOM) yang dibaca AI dan hasil visual yang dilihat pengguna.
Respons Vendor Beragam
LayerX telah melaporkan temuan ini kepada berbagai vendor AI. Namun, sebagian besar menganggap masalah ini berada di luar cakupan karena bergantung pada rekayasa sosial.
Microsoft menjadi salah satu vendor yang menanggapi serius laporan tersebut dan langsung melakukan penanganan melalui Microsoft Security Response Center (MSRC).
Sementara itu, Google sempat mengkategorikan laporan ini sebagai prioritas tinggi, namun kemudian menurunkannya dengan alasan risiko terhadap pengguna dinilai terbatas.
Rekomendasi Keamanan
Peneliti menekankan bahwa pengguna tidak boleh sepenuhnya mengandalkan asisten AI untuk menilai keamanan suatu perintah atau halaman web.
Sebagai solusi jangka panjang, disarankan agar model AI mampu membandingkan antara struktur HTML dan hasil rendering visual halaman. Dengan demikian, perbedaan mencurigakan dapat terdeteksi.
Selain itu, vendor juga disarankan untuk memperlakukan font sebagai potensi vektor serangan, serta meningkatkan kemampuan analisis terhadap elemen visual seperti warna, transparansi, dan ukuran teks.
Teknik ini menjadi pengingat bahwa serangan siber terus berkembang, termasuk dengan memanfaatkan kelemahan pada teknologi AI yang semakin banyak digunakan.








