Memitigasi Risiko Keamanan AI Generatif

Pelaku UMKM mencoba aplikasi Gemini dengan gawainya saat mengikuti pelatihan pemanfaatan kecerdasan buatan (artificial intelligence/AI) pada program Gemini Academy di Kantor Kementerian Perdagangan, Jakarta, Jumat (21/2/2025). Pelatihan yang diinisiasi Ke-Indrianto Eko Suwarso/nym- ANTARA FOTO

Kecerdasan buatan (AI) generatif menghadirkan risiko yang tidak terduga, mulai dari pelanggaran data hingga output yang dimanipulasi, yang membuat model keamanan tradisional menjadi usang.

Seperti industri penerbangan yang mendapatkan kepercayaan publik dengan menerapkan protokol keamanan yang ketat, perusahaan AI harus mengidentifikasi dan mengatasi kerentanan kritis sebelum menyebabkan kerugian di dunia nyata.

Dalam uji keamanan terbaru, chatbot AI generatif perbankan yang dirancang untuk membantu pelanggan dalam pengajuan pinjaman telah dimanipulasi untuk mengungkapkan informasi keuangan sensitif. Penguji berhasil melewati kontrol keamanan dan mengekstrak daftar persetujuan pinjaman secara lengkap, termasuk nama pelanggan.

Kasus ini menyoroti masalah mendasar, yaitu AI generatif dapat merevolusi berbagai industri, tetapi tanpa protokol keamanan yang kuat, teknologi ini juga dapat menyebabkan konsekuensi yang merugikan.

BACA JUGA:Mengatasi Defisit Akhlak Anak dengan Tradisi Bertutur

Teknologi transformasional seperti AI generatif menuntut pendekatan baru dalam keamanan siber. Seperti jet supersonik, AI generatif adalah teknologi revolusioner dengan potensi besar. Namun, tanpa operator yang terlatih, sistem yang dirancang dengan baik, dan perlindungan yang kokoh, risiko kegagalan yang berbahaya terlalu besar untuk diabaikan.

Dengan menerapkan protokol keselamatan yang ketat, perjalanan udara telah menjadi salah satu moda transportasi yang paling aman. Demikian pula, AI memiliki potensi yang luar biasa, tetapi masa depannya bergantung pada bagaimana risiko keamanannya ditangani.

Menurut sebuah studi dari Boston Consulting Group (BCG), tiga dari empat eksekutif bisnis melihat keamanan siber sebagai hambatan utama dalam meningkatkan skala AI.

Berbeda dengan perangkat lunak tradisional, AI generatif bergantung pada probabilitas, yang dapat menyebabkan hasil yang tidak dapat diprediksi. Model bahasa besar (LLM) memperkenalkan perilaku yang tidak terdeterministik, menciptakan titik buta dalam keamanan siber.

BACA JUGA:Dari Kemudi ke Cangkul, Menanam Harapan di Ladang Cabai

Selain itu, ketergantungan mereka pada input bahasa alami, pembelajaran adaptif, dan integrasi yang luas dengan alat serta layanan lain membuat mereka sangat rentan.

Seperti halnya penerbangan yang membutuhkan pendekatan keselamatan multifaset, keamanan siber harus tertanam di setiap lapisan AI, mulai dari arsitektur hingga manajemen data dan pengawasan manusia. Tanpa fondasi semacam ini, masa depan AI akan tetap tidak pasti.

Salah satu kasus penyalahgunaan AI generatif yang paling terkenal terjadi di Amerika Serikat pada tahun 2023.

Sebuah kelompok peretas berhasil mengeksploitasi chatbot perbankan AI untuk melakukan serangan rekayasa sosial yang memungkinkan mereka memperoleh akses ke sistem internal. Dengan menyamar sebagai pelanggan, mereka mengelabui AI untuk mereset kredensial login pengguna lain, menciptakan gelombang penipuan yang merugikan bank hingga 20 juta dolar AS.

Tag
Share
Berita Terkini
Berita Terpopuler
Berita Pilihan