KONTAN.CO.ID - Sebuah penemuan yang cukup mengkhawatirkan diungkapkan oleh peneliti keamanan siber: sistem AI canggih seperti ChatGPT dapat dibajak untuk membocorkan informasi sensitif, termasuk kunci lisensi Windows. Semua ini terjadi melalui mekanisme yang tampak sederhana, sebuah game tebak-tebakan. Sebuah artikel Marco Figueroa yang tayang di 0din.ai menyebut sebuah penelitian yang dipublikasikan tahun lalu menunjukkan bahwa beberapa pengguna berhasil mengakali sistem pengaman (guardrails) milik AI generatif seperti GPT-4o dan GPT-4o-mini.
Apa Itu Guardrails dan Mengapa Penting?
Guardrails merupakan fitur pengaman yang dirancang untuk membatasi AI dalam memproses atau membagikan informasi yang bersifat:- Sensitif (seperti password dan lisensi software),
- Berbahaya (misalnya resep bom atau narkotika),
- Dilarang oleh hukum atau ketentuan layanan.
Modus: Game Sederhana, Hasil Berbahaya
Berikut ini langkah-langkah bagaimana celah tersebut dimanfaatkan:- Dibungkus sebagai Game: Peneliti memulai percakapan dengan memosisikan pertanyaan sebagai bagian dari permainan tebak-tebakan. Dengan menggunakan pendekatan yang terlihat tidak berbahaya, sistem AI gagal mengenali niat sebenarnya di balik pertanyaan tersebut.
- Memaksa Partisipasi AI: Dalam skenario game, AI “diharuskan” mengikuti aturan permainan, termasuk tidak boleh berbohong dan harus memberikan jawaban. Permintaan ini memanipulasi sistem agar terus menuruti instruksi pengguna, seolah bagian dari logika game.
- Kata Kunci: “I Give Up”: Kalimat "I give up" (saya menyerah) digunakan sebagai pemicu. Setelah pengguna mengucapkannya, AI merasa perlu memberikan “jawaban akhir”—yang dalam konteks ini adalah kunci produk Windows 10. Formatnya mirip dengan hasil akhir dari permainan tebak-tebakan.
Mengapa Ini Bisa Terjadi?
Beberapa faktor utama memungkinkan celah ini muncul:- Kunci Bersifat Publik dan Tidak Unik: Kunci produk yang diberikan bukanlah kunci unik, melainkan jenis yang biasa ditemukan di forum atau dokumentasi publik Microsoft. Hal ini membuat AI menganggap informasi tersebut tidak terlalu sensitif.
- Taktik Obfuscation (Pengaburan): Peneliti menyisipkan informasi penting menggunakan tag HTML atau elemen visual tersembunyi, membuat AI sulit mengenali bahwa yang diminta adalah data terlarang. Ini menjadi bukti bahwa sistem guardrail belum cukup matang dalam mengenali konten yang disamarkan secara kreatif.
Implikasi Serius bagi Dunia Keamanan Siber
Meskipun tampak remeh, celah ini menunjukkan bahwa sistem AI masih rentan terhadap teknik manipulatif. Potensi penyalahgunaannya sangat luas, mulai dari pencurian lisensi, penyebaran malware, hingga penyelundupan informasi ilegal. Menurut pakar keamanan digital, rekayasa sosial berbasis AI akan menjadi ancaman baru dalam dunia siber modern. Kemampuan AI untuk menjawab berdasarkan konteks, logika, dan bahkan permainan peran, membuka ruang eksploitasi yang sangat luas. Baca Juga: Cara Pakai ChatGPT Lewat WhatsApp Tanpa Aplikasi TambahanLangkah-Langkah Pencegahan dan Rekomendasi
Agar kejadian serupa tidak terulang, berikut beberapa langkah yang disarankan oleh para ahli:- Perkuat sistem pendeteksi konten terselubung seperti obfuscation via HTML.
- Tambahkan lapisan moderasi manusia untuk interaksi tertentu yang mencurigakan.
- Tingkatkan pelatihan AI terhadap pola manipulasi sosial seperti permainan, jebakan logika, dan narasi yang menyesatkan.