Siapa sangka, teknologi yang seharusnya aman justru bisa dimanfaatkan dengan cara yang nggak diduga. Baru-baru ini, peneliti dari SPLX menemukan bahwa ChatGPT bisa dimanipulasi untuk melewati CAPTCHA sistem keamanan yang biasanya jadi benteng utama melawan bot otomatis.
Baca Juga : Cara Bikin Poster Pakai Ai: Bebas Revisi Sesuka Hati
Temuan ini jelas bikin heboh, karena menunjukkan ada celah besar baik di sisi keamanan AI maupun sistem anti-bot yang selama ini dianggap kokoh.

Celah di Balik Prompt Injection
Penelitian SPLX mengungkap teknik bernama prompt injection, yaitu cara memanipulasi AI agar melanggar aturan yang sudah ditanamkan ke dalamnya. Lewat metode ini, ChatGPT ternyata bisa dipaksa untuk menyelesaikan CAPTCHA mulai dari yang sederhana sampai tantangan berbasis gambar yang lebih rumit.
Eksperimen ini sekaligus membuka mata bahwa AI masih rentan salah tafsir konteks. Dalam skala perusahaan, manipulasi serupa bisa jadi ancaman serius, misalnya untuk melewati kontrol internal atau bahkan mengakses data sensitif.
ChatGPT dan CAPTCHA

Sebenarnya, CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) dirancang khusus untuk menyaring bot. AI seperti ChatGPT pun secara default diprogram untuk menolak permintaan menyelesaikan CAPTCHA.
Benar saja, saat peneliti meminta ChatGPT mengerjakan CAPTCHA di sebuah situs uji coba publik, jawabannya tegas: menolak karena melanggar kebijakan penggunaan.
Tapi ceritanya jadi beda ketika multi-turn prompt injection attack dijalankan. Caranya ada dua langkah utama:
- Priming model. Peneliti mulai dengan ChatGPT-4o dan menyamarkan percakapan seolah-olah mereka sedang menguji CAPTCHA “palsu” untuk sebuah proyek. AI pun “setuju” bahwa tugas itu sah.
- Manipulasi konteks. Seluruh percakapan tadi kemudian ditempel ke sesi baru ChatGPT, disajikan sebagai diskusi sebelumnya. Karena mewarisi konteks yang sudah dipelintir, ChatGPT jadi mau menyelesaikan CAPTCHA tanpa menolak.
Jadi, bukan aturan internal yang jebol, melainkan AI dikelabui lewat konteks yang “beracun”.
Jenis CAPTCHA yang Bisa Ditembus
Menariknya, kemampuan ChatGPT ternyata lumayan mengesankan. Beberapa CAPTCHA yang berhasil dilewati antara lain:
- reCAPTCHA V2, V3, hingga versi Enterprise
- Puzzle sederhana berbasis teks atau centang kotak
- Cloudflare Turnstile
Meski kesulitan dengan puzzle yang butuh gerakan presisi, seperti slider atau rotasi, AI tetap berhasil mengerjakan sebagian CAPTCHA berbasis gambar, termasuk reCAPTCHA V2 Enterprise. Bahkan ini disebut sebagai kasus pertama yang terdokumentasi di mana GPT bisa menyelesaikan tantangan visual sekompleks itu.
Lebih mengejutkan lagi, dalam salah satu percobaan, AI sempat menulis komentar: “Belum berhasil. Saya akan coba lagi dengan menggeser lebih pelan, biar mirip gerakan manusia.”
Artinya, tanpa diminta, AI mengembangkan strategi baru agar terlihat lebih natural di mata sistem deteksi bot.
Dampaknya bagi Keamanan Data
Eksperimen ini jadi alarm bahwa pagar keamanan AI berbasis aturan tetap (rule-based) atau deteksi niat sederhana masih rapuh. Jika AI bisa diyakinkan bahwa kontrol keamanan itu “palsu”, maka proteksi bisa dilewati dengan mudah.
Bayangkan skenario di perusahaan: AI agent bisa saja diminta membocorkan data penting, mengakses sistem terbatas, atau membuat konten terlarang, dengan dalih itu adalah tugas sah yang sudah disetujui sebelumnya.
Langkah Antisipasi
Dari temuan SPLX, ada beberapa hal yang perlu jadi perhatian ke depan:
- Pemeriksaan konteks lebih dalam untuk mencegah manipulasi percakapan.
- Manajemen memori (memory hygiene) agar AI tidak gampang terkontaminasi oleh konteks beracun dari interaksi sebelumnya.
- Red teaming berkelanjutan, yaitu pengujian keamanan intensif untuk menemukan dan menambal celah sebelum disalahgunakan.
Baca Juga : Gemini Jadi No.1 di App Store Berkat Model AI Gambar Baru, Nano Banana
Kasus ChatGPT yang berhasil bypass CAPTCHA ini menunjukkan satu hal penting: teknologi AI, sehebat apa pun, tetap bisa dimanfaatkan dengan cara yang nggak terduga. Buat dunia bisnis maupun pengguna biasa, ini jadi pengingat bahwa keamanan siber nggak bisa hanya mengandalkan aturan kaku. Kita perlu kombinasi strategi yang lebih cerdas dan adaptif agar selalu selangkah lebih maju dari potensi ancaman.