Amerika Serikat bersama negara-negara sekutunya merilis panduan global untuk mengamankan penggunaan AI otonom (agentic AI) yang kini mulai masuk ke infrastruktur kritis. Peringatan utama: banyak organisasi memberi akses terlalu luas pada AI tanpa kontrol memadai, membuka risiko besar bagi keamanan siber.
Fokus:
■ AI otonom sudah digunakan di infrastruktur kritis, namun kontrol dan pengawasan masih jauh dari memadai.
■ Risiko terbesar datang dari akses berlebih, perilaku tak terduga, dan lemahnya akuntabilitas sistem AI.
■ Pemerintah dorong pendekatan keamanan klasik seperti zero trust tetap jadi fondasi pengamanan AI.
Ketika kecerdasan buatan tak lagi sekadar memberi rekomendasi, melainkan mulai mengambil keputusan dan bertindak sendiri di sistem nyata, risiko keamanan melonjak ke level baru. Pemerintah Amerika Serikat bersama sekutu utamanya mengeluarkan peringatan keras yang menyoroti soal banyaknya organisasi yang sudah menggunakan AI otonom tanpa perlindungan memadai.
Koalisi badan keamanan siber dari Amerika Serikat, Australia, Kanada, Selandia Baru, dan Inggris—yang dikenal sebagai aliansi “Five Eyes”—secara resmi merilis panduan bersama terkait keamanan implementasi agentic AI, Jumat (1/5).
Panduan global dari AS dan sekutu mengungkap risiko besar AI otonom di infrastruktur kritis. Akses berlebih dan kontrol lemah jadi ancaman utama.
Panduan ini digawangi oleh Cybersecurity and Infrastructure Security Agency (CISA) dan National Security Agency (NSA), bersama lembaga sejenis dari negara mitra. Fokusnya jelas: memastikan teknologi AI otonom yang kini mulai digunakan di sektor strategis tidak menjadi celah baru bagi serangan siber.
Agentic AI merupakan sistem berbasis model bahasa besar (LLM) yang tidak hanya memproses informasi, tetapi juga mampu merencanakan, mengambil keputusan, dan menjalankan aksi secara mandiri. Untuk bekerja optimal, sistem ini terhubung dengan berbagai perangkat eksternal—mulai dari database, tools otomatis, hingga sistem jaringan internal.
Masalahnya, konektivitas luas ini justru menjadi titik rawan. “Banyak organisasi memberikan akses jauh lebih besar daripada yang dapat mereka pantau atau kendalikan,” demikian peringatan utama dalam dokumen tersebut mengutip Cyberscoop.com.
Risiko Nyata di Infrastruktur Kritis
Yang lebih mengkhawatirkan, teknologi ini disebut sudah digunakan di sektor infrastruktur kritis dan pertahanan—dua area yang sangat sensitif terhadap gangguan.
Data global menunjukkan adopsi AI di sektor enterprise meningkat pesat. Laporan McKinsey Global Survey 2025 mencatat lebih dari 65% perusahaan besar telah mengintegrasikan AI dalam operasi bisnis mereka, sementara sekitar 25% mulai menguji sistem AI otonom. Namun, kesiapan keamanan belum sejalan.
Lima Risiko Utama
Panduan tersebut mengidentifikasi lima kategori risiko utama:
Pertama, akses berlebih (privilege).
AI yang diberi hak akses luas berpotensi menyebabkan kerusakan besar jika diretas.
Kedua, kesalahan desain dan konfigurasi.
Celah keamanan bisa muncul sejak awal akibat setup yang buruk.
Ketiga, risiko perilaku. AI dapat menjalankan perintah dengan cara yang tidak pernah diprediksi oleh pengembangnya.
Keempat, risiko struktural. Interkoneksi antar sistem AI dapat memicu kegagalan berantai di seluruh organisasi.
Kelima, akuntabilitas. Keputusan AI sulit dilacak karena prosesnya kompleks dan log-nya tidak transparan.
Dampaknya bukan sekadar teoritis. Sistem AI yang gagal bisa mengubah file penting, memodifikasi akses, bahkan menghapus jejak audit.
Ancaman Prompt Injection
Panduan juga menyoroti ancaman klasik yang belum terselesaikan: prompt injection—teknik menyisipkan instruksi berbahaya dalam data untuk memanipulasi perilaku AI.
Beberapa perusahaan teknologi bahkan mengakui masalah ini kemungkinan tidak akan pernah sepenuhnya teratasi.
Identitas dan Kontrol Jadi Kunci
Salah satu fokus utama adalah manajemen identitas. Setiap agen AI disarankan memiliki identitas terverifikasi secara kriptografis, menggunakan kredensial jangka pendek, serta komunikasi terenkripsi.
Untuk aksi berisiko tinggi, manusia tetap harus menjadi pengambil keputusan akhir.
Yang menarik, panduan ini menegaskan bahwa penentuan batasan tersebut adalah tanggung jawab desainer sistem—bukan AI.
Keamanan Belum Siap
Para penyusun panduan juga mengakui bahwa praktik keamanan saat ini belum sepenuhnya siap menghadapi karakter unik agentic AI. “Selama praktik keamanan, metode evaluasi, dan standar belum matang, organisasi harus mengasumsikan bahwa sistem AI otonom (agentic AI) dapat berperilaku tidak terduga dan merencanakan implementasinya dengan pendekatan tersebut, dengan memprioritaskan ketahanan, kemampuan pemulihan (reversibilitas), serta pengendalian risiko dibandingkan peningkatan efisiensi,” demikian bunyi peenyataan tim penyusun.
Artinya, organisasi diminta lebih mengutamakan ketahanan sistem dibanding sekadar efisiensi. ■
Digionary:
● Agentic AI: Sistem AI yang mampu mengambil keputusan dan bertindak secara mandiri tanpa intervensi manusia langsung.
● Defense-in-depth: Strategi keamanan berlapis untuk melindungi sistem dari berbagai jenis ancaman.
● Identity management: Proses mengelola identitas digital dan hak akses pengguna atau sistem.
● Least privilege: Prinsip pemberian akses minimum yang diperlukan untuk menjalankan fungsi tertentu.
● Prompt injection: Teknik manipulasi AI melalui input berbahaya yang mengubah perilaku sistem.
● Zero trust: Model keamanan yang mengharuskan verifikasi ketat terhadap semua akses tanpa asumsi kepercayaan.
#AI #ArtificialIntelligence #CyberSecurity #AgenticAI #ZeroTrust #DigitalSecurity #TechPolicy #FiveEyes #NSA #CISA #AIRegulation #DataSecurity #PromptInjection #CyberDefense #DigitalTransformation #TechRisk #AIAdoption #EnterpriseAI #SecurityFramework #RiskManagement
