Memitigasi Risiko Keamanan AI Generatif

Pelaku UMKM mencoba aplikasi Gemini dengan gawainya saat mengikuti pelatihan pemanfaatan kecerdasan buatan (artificial intelligence/AI) pada program Gemini Academy di Kantor Kementerian Perdagangan, Jakarta, Jumat (21/2/2025). Pelatihan yang diinisiasi Ke-Indrianto Eko Suwarso/nym- ANTARA FOTO
BACA JUGA:Kelalaian Keamanan Siber, Ancaman bagi Keamanan Nasional
Di Inggris, sebuah layanan telemedicine berbasis AI disusupi oleh penyerang yang berhasil menembus sistem chatbot kesehatan. Dengan mengubah pertanyaan mereka agar terdengar seperti permintaan resmi dokter, mereka memperoleh akses ke ribuan catatan medis pasien tanpa izin.
Insiden ini menyoroti bagaimana AI generatif dapat lebih mengutamakan logika linguistik daripada kontrol akses keamanan.
Sementara itu, di China, sebuah e-commerce raksasa mengalami serangan AI yang menyebabkan harga produk turun drastis secara otomatis. Para pelaku menggunakan teknik context poisoning untuk secara bertahap mengubah pemahaman sistem AI tentang harga yang wajar, hingga akhirnya AI mulai memberikan diskon besar-besaran pada produk tertentu, tanpa persetujuan manajemen.
Kerugian akibat insiden ini diperkirakan mencapai lebih dari 50 juta dolar AS, sebelum sistem berhasil dikoreksi.
Salah satu kerentanan utama sistem AI adalah serangan prompt-injection, di mana penyerang memanipulasi model agar mengungkapkan data sensitif atau mengubah logika pengambilan keputusannya.
BACA JUGA:Mengatasi Konflik dengan Kebijakan Ekonomi
Uji coba chatbot perbankan mengungkapkan risiko lain yang sama berbahayanya, yakni eskalasi hak istimewa. Penguji berpura-pura menjadi administrator, menyetujui pinjaman tanpa izin dan memodifikasi data backend.
Asisten AI di sektor kesehatan juga telah dikompromikan, karena peneliti keamanan berhasil mengekstrak catatan pasien yang bersifat rahasia dengan sedikit mengubah pertanyaan mereka. Alih-alih secara langsung meminta riwayat medis, penyerang merancang pertanyaan mereka agar terlihat seperti permintaan yang sah dari dokter.
Dengan melakukan itu, mereka mengungkap kelemahan lain, AI seringkali lebih memprioritaskan logika linguistik dibandingkan kontrol akses keamanan.
Kerentanan ini tidak hanya terbatas pada sektor perbankan dan kesehatan. Banyak aplikasi AI memanfaatkan sistem agen otonom, yang mengambil data real-time untuk membuat keputusan secara mandiri, menciptakan peluang bagi penyerang.
BACA JUGA:Momentum Nuzulul Qur’an: Refleksi Perbaikan Ekonomi Umat
Misalnya, dalam evaluasi keamanan chatbot layanan pelanggan berbasis AI, ditemukan bahwa penyerang dapat mengeksploitasi validasi API yang lemah untuk memanipulasi LLM untuk mengungkap kode diskon internal dan rincian inventaris.
Adaptabilitas AI juga dapat dimanfaatkan melalui teknik context poisoning. Dengan secara bertahap membentuk respons model dari waktu ke waktu, penyerang dapat mengarahkan responsnya ke arah rekomendasi yang salah atau berbahaya.
Dalam sebuah eksperimen, chatbot spa yang terpapar masukan yang mengklaim bahwa bahan berbahaya sebenarnya aman akhirnya mulai merekomendasikan produk perawatan kulit yang berbahaya.