Klaim Anthropic soal Serangan Siber Otomatis oleh Claude AI Tuai Keraguan Besar

Anthropic memicu kontroversi besar setelah merilis laporan bahwa kelompok peretas China GTG-1002 diduga melakukan operasi spionase siber yang 80–90% dijalankan secara otomatis oleh model AI milik mereka, Claude Code.

Namun, klaim tersebut langsung disambut skeptis oleh komunitas keamanan siber—banyak pakar menyebut laporan ini “aneh”, “dibesar-besarkan”, dan berbau marketing”.


Peneliti Keamanan Meragukan Klaim Anthropic

Sejumlah pakar menyebut laporan Anthropic tak memiliki bukti teknis memadai.

“Laporan GenAI Anthropic ini aneh… Tidak ada IoC. Itu mencurigakan,”
Kevin Beaumont, pakar keamanan siber.

Peneliti lain menilai kemampuan AI saat ini belum memungkinkan otomatisasi penuh seperti yang digambarkan.

“Ini cuma marketing. AI bukan Skynet. Mereka melebih-lebihkan,”
Daniel Card, peneliti keamanan.

Anthropic juga tidak menanggapi permintaan informasi teknis dari media, termasuk BleepingComputer, sehingga memperkuat keraguan soal validitas klaim tersebut.


Apa Klaim Anthropic? Serangan Otonom AI Pertama di Dunia

Meski disambut skeptis, Anthropic mengklaim bahwa mereka menahan kampanye spionase siber berskala besar pada September 2025, dan bahwa:

Anthropic menyebut serangan ini sebagai kasus pertama intrusi siber berskala besar yang hampir sepenuhnya dijalankan oleh AI.


Bagaimana Serangan Berjalan Menurut Anthropic

Anthropic menggambarkan enam fase serangan yang diduga terjadi:

1. Pembingkaian & Penipuan AI

Operator menipu Claude dengan role-playing agar model percaya ia sedang menjalankan tugas pentest legal.

2. Pemindaian Otomatis

Claude:

3. Eksploitasi Awal

AI:

4. Pergerakan Lateral

Claude mengekstrak kredensial, mengakses layanan internal, dan menavigasi jaringan.

5. Pengumpulan Data & Backdoor

AI:

6. Dokumentasi Lengkap

Claude otomatis mencatat seluruh langkah, mempermudah pergantian tim operator dan memperkuat keberlanjutan serangan.

Menurut Anthropic, operasi ini menggunakan lebih banyak tool open-source ketimbang malware khusus—membuktikan AI dapat memanfaatkan alat publik untuk intrusi efektif.


Kelemahan Claude: Hallucination & Hasil Palsu

Anthropic mengakui Claude kadang:

Ini semakin memicu keraguan bahwa AI mampu menjalankan intrusi kompleks sepenuhnya otomatis.


Respons Anthropic: Pemblokiran & Mitigasi

Setelah dugaan penyalahgunaan terdeteksi, Anthropic melakukan:

Namun, karena laporan tidak menyertakan indikator kompromi (IoC), banyak pakar menilai langkah ini tidak transparan.


Kesimpulan: Ancaman Nyata atau Hype Marketing?

Ketiadaan detail teknis membuat laporan Anthropic memunculkan dua pandangan:

1. Jika benar, ini bisa menjadi contoh pertama AI “agen” yang mampu:

2. Jika berlebihan, laporan Anthropic dapat dianggap:

Hingga kini, tanpa bukti teknis dan IoC, banyak pihak masih meragukan klaim tersebut.

Exit mobile version