Ketika Singapura bersiap menjadi negara pertama yang merilis regulasi komprehensif Agentic AI pada 2026, Indonesia menghadapi ujian berbeda. Dalam kaitan ini, OJK tidak cukup sekadar meniru model Monetary Authority of Singapore (MAS). Dengan 370 juta lebih percobaan serangan siber pada 2024, dominasi sektor informal, sistem perbankan lama, dan literasi digital yang belum merata, Indonesia perlu merancang tata kelola AI yang kontekstual—menggabungkan bounded autonomy, explainable AI, audit berbasis teknologi, serta pengawasan aktif—agar otonomi mesin tidak berubah menjadi risiko sistemik.
Oleh Tuhu Nugraha *)
Ketika Monetary Authority of Singapore (MAS) merancang kerangka tata kelola untuk Agentic AI, langkah itu bukan inisiatif spontan. Ia merupakan kelanjutan dari instrumen kebijakan yang telah dibangun bertahun-tahun. Komitmen MAS menerbitkan aturan komprehensif pertama di dunia untuk Agentic AI pada 2026 menegaskan bahwa benchmarking ke Singapura bukan sekadar pilihan regional, melainkan rujukan pada regulator yang bergerak paling awal dan sistematis.

Sejak 2018, MAS memperkenalkan prinsip FEAT (Fairness, Ethics, Accountability, and Transparency) untuk penggunaan AI dan data analytics di sektor keuangan. Prinsip ini menekankan bahwa sistem AI harus adil, dapat dipertanggungjawabkan, transparan, dan selaras dengan standar etika industri.
Singapura akan merilis regulasi Agentic AI pertama di dunia pada 2026. Indonesia tak bisa sekadar meniru. Dengan 370 juta percobaan serangan siber dan dominasi sektor informal, OJK perlu merancang tata kelola AI yang kontekstual, adil, dan aman.
Pada 2019, MAS bersama Infocomm Media Development Authority (IMDA) merilis Model AI Governance Framework, yang kemudian diperbarui untuk memperkuat aspek risk management dan human oversight. Di sektor keuangan, inisiatif seperti Project Veritas mengembangkan metodologi pengujian fairness dan explainability secara terukur. Dalam konteks Agentic AI yang lebih otonom—yang dipahami sebagai action-taking entities—MAS memperluas pendekatannya melalui kerangka yang menekankan bounded autonomy, risk-tiered deployment, keharusan human-in-the-loop untuk fungsi berdampak tinggi, serta auditability-by-design sebelum sistem dilepas melalui regulatory sandbox.
Secara substantif, kerangka MAS menegaskan empat hal utama: pembatasan ruang gerak agen sejak desain arsitektur, klasifikasi risiko berdasarkan dampak sistemik, kewajiban dokumentasi dan jejak audit yang dapat diverifikasi, serta pengujian di sandbox sebagai mekanisme mitigasi sebelum implementasi produksi.
Namun diskursus tata kelola AI di kawasan tidak berhenti di Singapura. ASEAN sendiri telah mengadopsi ASEAN Guide on AI Governance and Ethics sebagai rujukan normatif regional yang menekankan prinsip transparansi, akuntabilitas, berpusat pada manusia, serta pengelolaan risiko yang proporsional. Kerangka ini tidak sepreskriptif pendekatan Uni Eropa, namun tetap memberikan fondasi etis bersama bagi negara-negara dengan tingkat kesiapan digital yang berbeda.
Secara substantif, kerangka MAS menegaskan empat hal utama: pembatasan ruang gerak agen sejak desain arsitektur, klasifikasi risiko berdasarkan dampak sistemik, kewajiban dokumentasi dan jejak audit yang dapat diverifikasi, serta pengujian di sandbox sebagai mekanisme mitigasi sebelum implementasi produksi.
Bagi Indonesia, ASEAN Ethics menjadi jembatan antara pendekatan teknokratis MAS dan pendekatan normatif Organisation for Economic Co-operation and Development (OECD) atau Uni Eropa, sekaligus memberi ruang adaptasi kontekstual tanpa kehilangan legitimasi regional. Namun sebelum Indonesia membicarakan adopsi, kita perlu jujur terhadap satu hal: struktur risiko digital Indonesia berbeda secara fundamental dari Singapura.
Tantangan Digital Indonesia Tak Relevan bagi Singapura
Mengapa tantangan digital Indonesia tidak relevan bagi Singapura? Pertama, skala dan permukaan serangan. Indonesia mencatat lebih dari 370 juta percobaan serangan siber pada 2024. Singapura menghadapi risiko siber, tetapi kompleksitas geografis, jumlah institusi, dan heterogenitas infrastruktur Indonesia menciptakan attack surface yang jauh lebih luas.
Kedua, ketergantungan pada legacy system. Banyak bank Indonesia masih beroperasi dengan core banking system lama yang telah mengalami banyak patch dan integrasi parsial. Agentic AI yang terhubung ke sistem seperti ini berpotensi memperbesar celah jika arsitekturnya tidak dibersihkan terlebih dahulu.
Ketiga, fragmentasi pengawasan dan koordinasi lintas lembaga. Singapura memiliki koordinasi regulator yang sangat terpusat. Indonesia memiliki multi-otoritas dengan koordinasi yang lebih kompleks, terutama ketika menyangkut data, perlindungan konsumen, dan stabilitas sistem keuangan.
Keempat, ekspansi inklusi berbasis AI scoring. Indonesia mendorong inklusi keuangan secara agresif. Namun penggunaan model AI dalam penilaian kredit bagi segmen unbanked membawa risiko bias dan otomatisasi berlebihan jika Agentic AI diberi ruang terlalu luas.
Kelima, dimensi syariah dan nilai lokal. Indonesia memiliki ekosistem perbankan syariah yang signifikan. Sistem insentif dalam model AI tidak hanya harus optimal secara statistik, tetapi juga konsisten dengan prinsip kehati-hatian dan perlindungan aset.
Di sinilah letak perbedaan mendasar: regulasi yang efektif di negara kota dengan kapasitas tinggi belum tentu otomatis aman ketika diterapkan pada negara kepulauan dengan kompleksitas sosial-ekonomi seperti Indonesia. Variabel-variabel ini mungkin tidak sepenuhnya relevan bagi Singapura, tetapi justru sangat menentukan bagi Indonesia.
Dari Imitasi ke Kalibrasi
Agentic AI tidak bisa diatur dengan pendekatan satu variabel. Ia adalah hasil permutasi antara kualitas data, arsitektur infrastruktur, literasi pengguna, nilai sosial, serta kapasitas pengawasan regulator. Jika satu variabel berubah, desain otonominya pun harus berubah. Di sinilah Indonesia tidak cukup meniru, tetapi harus melakukan kalibrasi berbasis konteks.
Otoritas Jasa Keuangan (OJK) telah memiliki fondasi melalui Tata Kelola AI Perbankan 2025 dan Supervisory Technology (SupTech) OJK Supervisory Integrated Data Analytics (OSIDA). Namun fondasi regulasi tidak otomatis berarti kesiapan menghadapi otonomi algoritmik, terutama mengingat lima risiko struktural yang telah disebutkan di atas tadi.
Meniru MAS tanpa mengkalibrasi struktur risiko domestik hanya akan menghasilkan otonomi semu. Dalam konteks 370 juta percobaan serangan siber, controlled autonomy berarti membatasi ruang gerak agen agar tidak memiliki akses langsung ke fungsi kritikal tanpa autentikasi berlapis. Otonomi harus didesain dengan asumsi sistem akan diserang dan kegagalan dapat bersifat sistemik.
Otoritas Jasa Keuangan (OJK) telah memiliki fondasi melalui Tata Kelola AI Perbankan 2025 dan Supervisory Technology (SupTech) OJK Supervisory Integrated Data Analytics (OSIDA). Namun fondasi regulasi tidak otomatis berarti kesiapan menghadapi otonomi algoritmik, terutama mengingat lima risiko struktural yang telah disebutkan di atas tadi.
Dalam konteks sistem inti perbankan lama (core banking system), controlled autonomy berarti tidak semua modul dapat terhubung langsung dengan agen otonom. Integrasi harus melalui layer isolasi dan monitoring ketat agar kelemahan arsitektur lama tidak diperbesar oleh kemampuan bertindak otomatis. Agentic AI yang ditempelkan pada fondasi yang rapuh justru mempercepat akumulasi risiko.
Dalam konteks fragmentasi pengawasan, setiap agen harus memiliki identitas unik yang dapat ditelusuri lintas sistem dan lintas otoritas. Identitas unik bagi setiap agen bukan sekadar fitur teknis. Ia memastikan setiap keputusan dapat ditelusuri dengan jelas sehingga tanggung jawab tidak saling lempar saat terjadi insiden. Pada akhirnya, yang bertanggung jawab tetap manusia—baik pengembang, manajemen bank, maupun pengawas. Agentic AI tidak boleh menjadi tameng untuk mengaburkan akuntabilitas.
Ketika algoritma menolak kredit atau mengubah kondisi pembiayaan, nasabah memiliki hak untuk memahami dasar keputusannya, selaras dengan prinsip dalam Undang-Undang Perlindungan Data Pribadi (UU PDP) mengenai hak atas penjelasan keputusan otomatis. Tanpa penjelasan yang dapat dipahami, risiko bias dan diskriminasi akan sulit dideteksi, dan kepercayaan publik bisa terkikis.
Dalam konteks inklusi berbasis AI scoring, fungsi berisiko tinggi seperti penolakan kredit massal atau perubahan limit besar tetap memerlukan checkpoint manusia. Explainable AI menjadi syarat legitimasi, bukan tambahan opsional.
Ketika algoritma menolak kredit atau mengubah kondisi pembiayaan, nasabah memiliki hak untuk memahami dasar keputusannya, selaras dengan prinsip dalam Undang-Undang Perlindungan Data Pribadi (UU PDP) mengenai hak atas penjelasan keputusan otomatis. Tanpa penjelasan yang dapat dipahami, risiko bias dan diskriminasi akan sulit dideteksi, dan kepercayaan publik bisa terkikis.
Inklusi Tanpa Diskriminasi: Tantangan Sektor Informal
Sektor informal di Indonesia adalah tulang punggung ekonomi yang seringkali “tak kasat mata” dalam data formal. Risiko terbesar Agentic AI adalah kecenderungan mendiskriminasi secara sistemik melalui variabel proksi. Tanpa regulasi yang ketat, algoritma bisa saja menolak kredit seorang pedagang pasar hanya karena pola lokasi, jenis perangkat seluler, atau pola transaksi yang dianggap tidak ideal oleh mesin.
Di sinilah Explainable AI (XAI) beralih fungsi dari sekadar fitur teknis menjadi instrumen keadilan. XAI harus mampu memberikan hak atas penjelasan bagi pelaku sektor informal, sehingga penolakan kredit bukan lagi menjadi jalan buntu, melainkan umpan balik bagi mereka untuk memperbaiki profil risiko digitalnya. Agentic AI harus mampu membaca konteks, bukan hanya teks data. Tanpa itu, inklusi keuangan berbasis AI justru berpotensi memperluas eksklusi yang sebelumnya ingin diatasi.
Dalam konteks risiko manipulasi, bias, dan sengketa, jejak keputusan tidak boleh bergantung pada log internal yang dapat dimodifikasi. Di sinilah consortium blockchain menjadi relevan, bukan sebagai tren teknologi, tetapi sebagai mekanisme transparansi struktural. Dengan mencatat keputusan penting—timestamp, identitas agen, dan versi model—lapisan audit menjadi immutable. Ketika muncul tuduhan diskriminasi, kesalahan model, atau penyalahgunaan wewenang, regulator dapat menelusuri secara objektif siapa yang merancang, siapa yang mengaktifkan, dan siapa yang membiarkan sistem tersebut berjalan.
Penggunaan blockchain memperjelas garis tanggung jawab, memastikan bahwa meskipun agen bertindak otonom, akuntabilitas tetap berada pada manusia dan institusi. Tanpa mekanisme pencatatan yang tamper-proof dan narasi keputusan yang transparan, Agentic AI berpotensi menciptakan moral hazard algoritmik: sebuah ruang abu-abu di mana institusi dapat melepaskan tanggung jawab atas kegagalan sistemik dengan berdalih pada kompleksitas mesin yang tidak terpahami.
Di era Agentic AI, risiko bukan lagi sekadar kesalahan individual, melainkan bagaimana kesalahan tersebut dapat menyebar cepat dan memengaruhi stabilitas sistem keuangan secara luas.
Pendekatan inilah yang menjawab risiko-risiko spesifik Indonesia: bukan menolak Agentic AI, tetapi mendesain otonomi yang sadar terhadap skala, kerentanan infrastruktur, kompleksitas pengawasan, potensi bias, serta kenyataan bahwa akuntabilitas pada akhirnya tidak pernah bisa dialihkan sepenuhnya kepada mesin.
Dalam horizon lima tahun, kalibrasi tersebut perlu diterjemahkan menjadi peta jalan yang konkret. Pada Fase 1 (2026–2027), selain bounded autonomy dan identitas agen, OJK perlu menyusun Standar Etika Data Alternatif—menentukan variabel apa saja yang tidak boleh digunakan oleh Agentic AI untuk menghindari bias demografis dan ekonomi terhadap sektor informal. Pada Fase 2 (2028–2029), perlu diberlakukan Mandatory Fairness Audit, di mana setiap institusi keuangan wajib membuktikan secara berkala bahwa agen AI mereka tidak melakukan diskriminasi terhadap kelompok tertentu, baik berdasarkan gender, wilayah rural, maupun karakteristik sosial-ekonomi lainnya.
Pendekatan inilah yang menjawab risiko-risiko spesifik Indonesia: bukan menolak Agentic AI, tetapi mendesain otonomi yang sadar terhadap skala, kerentanan infrastruktur, kompleksitas pengawasan, potensi bias, serta kenyataan bahwa akuntabilitas pada akhirnya tidak pernah bisa dialihkan sepenuhnya kepada mesin.
Menuju Model Tata Kelola Global South
Indonesia tidak sekadar mengejar ketertinggalan regulasi, tetapi diuji apakah mampu merumuskan arsitektur tata kelola yang lahir dari realitasnya sendiri—bukan sekadar mengimpor standar dari konteks berbeda.
Jika Indonesia mampu mengintegrasikan bounded autonomy, keterlacakan berbasis blockchain, explainable AI, dan pengawasan aktif melalui SupTech, maka Indonesia tidak hanya mengurangi risiko. Indonesia justru berpeluang menawarkan kerangka yang lebih relevan bagi banyak negara di Global South yang menghadapi tantangan serupa.
Banyak negara berkembang beroperasi dalam kondisi literasi digital yang belum merata, ketersediaan data yang tidak lengkap atau tidak terstandarisasi, serta dominasi sektor informal yang sulit dimodelkan secara presisi. Di Indonesia, jutaan pelaku Usaha Mikro, Kecil, dan Menengah (UMKM) tidak memiliki histori kredit formal yang memadai. Data sering kali terfragmentasi, kualitasnya bervariasi, dan tidak selalu siap untuk langsung diproses oleh sistem AI canggih seperti yang diasumsikan dalam kerangka OECD atau Uni Eropa.
Selain itu, infrastruktur digital Indonesia tidak seragam. Ada wilayah dengan konektivitas tinggi, tetapi juga ada daerah dengan akses terbatas. Heterogenitas ini menciptakan tantangan yang tidak sepenuhnya dipahami oleh model regulasi yang lahir di negara dengan penetrasi digital hampir merata. Agentic AI yang dirancang untuk konteks data lengkap dan stabil bisa menghasilkan bias atau eksklusi ketika diterapkan di lingkungan data yang parsial dan dinamis.
Dimensi sosial juga berbeda. Tingkat literasi keuangan dan pemahaman terhadap keputusan algoritmik masih beragam. Jika explainability tidak dirancang secara kontekstual, keputusan otomatis justru berpotensi memperlebar kesenjangan kepercayaan. Di sinilah Indonesia dapat mengembangkan standar explainable AI yang tidak hanya teknis, tetapi komunikatif dan inklusif bagi masyarakat dengan latar belakang pendidikan yang beragam.
MAS telah menunjukkan bagaimana negara kecil dengan kapasitas tinggi dapat mengantisipasi risiko Agentic AI secara terstruktur dan presisi. Namun Indonesia memiliki peluang berbeda: membuktikan bahwa negara besar dengan kompleksitas tinggi, data yang tidak selalu sempurna, literasi yang beragam, serta sektor informal yang dominan tetap dapat mendesain batas otonomi secara disiplin dan kontekstual.
Lebih jauh lagi, banyak negara Global South berbagi karakteristik dengan Indonesia: regulasi yang berkembang, kapasitas pengawasan yang sedang bertumbuh, dominasi UMKM, ekonomi berbasis komunitas, serta kebutuhan untuk menjaga stabilitas sosial di tengah transformasi digital. Kerangka yang terlalu kompleks atau mahal seperti yang diasumsikan dalam beberapa pendekatan Eropa bisa sulit diimplementasikan secara realistis di lingkungan ini.
MAS telah menunjukkan bagaimana negara kecil dengan kapasitas tinggi dapat mengantisipasi risiko Agentic AI secara terstruktur dan presisi. Namun Indonesia memiliki peluang berbeda: membuktikan bahwa negara besar dengan kompleksitas tinggi, data yang tidak selalu sempurna, literasi yang beragam, serta sektor informal yang dominan tetap dapat mendesain batas otonomi secara disiplin dan kontekstual. Jika berhasil, model ini justru akan lebih relevan bagi mayoritas negara berkembang dibandingkan pendekatan yang lahir dari ekonomi berpendapatan tinggi.
Dalam lima tahun ke depan, pertanyaannya bukan apakah Agentic AI akan hadir di sektor keuangan Indonesia. Pertanyaannya adalah apakah Indonesia akan sekadar mengadopsi kerangka yang lahir dari konteks OECD dan Uni Eropa, atau membangun standar yang lebih adaptif terhadap realitas Global South—yang mempertimbangkan keterbatasan data dan keragaman sosial tanpa mengorbankan stabilitas sistemik.
Jika dikelola dengan tepat, Agentic AI bukan sekadar risiko, melainkan peluang mempercepat distribusi kredit yang lebih adil, memperkuat perlindungan konsumen secara real-time, dan membangun sistem keuangan yang lebih responsif. Otonomi yang dipercaya (trusted autonomy) bukan tentang melepas kontrol, melainkan tentang mendesain kemungkinan terbaik dengan pengawasan yang matang.
Dalam lima tahun ke depan, pertanyaannya bukan apakah Agentic AI akan hadir di sektor keuangan Indonesia. Pertanyaannya adalah apakah Indonesia akan sekadar mengadopsi kerangka yang lahir dari konteks OECD dan Uni Eropa, atau membangun standar yang lebih adaptif terhadap realitas Global South—yang mempertimbangkan keterbatasan data dan keragaman sosial tanpa mengorbankan stabilitas sistemik.
Pada akhirnya, kesuksesan OJK dalam mengelola Agentic AI tidak diukur dari seberapa canggih teknologi yang diadopsi perbankan kita, melainkan dari seberapa mampu teknologi tersebut merangkul mereka yang selama ini berada di pinggiran sistem keuangan. Kita harus memastikan bahwa di balik kecanggihan kode dan algoritma, tetap ada ruang bagi empati dan keadilan yang tidak bisa dikompromikan.
*) Tuhu Nugraha, Principal Indonesia Applied Digital Economy & Regulatory Network (IADERN), kini aktif menjadi pembicara di banyak forum internasional mengenai AI, strategi digital dan tata kelola teknologi negara-negara berkembang.
Ilustrasi: Fintech News Singapore
Digionary:
● Agentic AI: Sistem AI yang tidak hanya menganalisis, tetapi mampu mengambil tindakan otomatis.
● Auditability-by-Design: Desain sistem yang sejak awal memungkinkan pelacakan dan audit keputusan.
● Bounded Autonomy: Otonomi AI yang dibatasi oleh parameter dan kontrol ketat.
● Explainable AI (XAI): Pendekatan AI yang memungkinkan keputusan algoritma dijelaskan secara transparan.
● Fairness Audit: Pemeriksaan berkala untuk memastikan sistem AI tidak diskriminatif.
● Global South: Negara-negara berkembang dengan karakteristik sosial-ekonomi serupa.
● Human-in-the-Loop: Mekanisme yang mewajibkan campur tangan manusia dalam keputusan penting AI.
● Moral Hazard Algoritmik: Risiko ketika institusi melepaskan tanggung jawab dengan menyalahkan sistem otomatis.
● Regulatory Sandbox: Lingkungan uji coba terbatas sebelum teknologi dilepas ke publik.
● SupTech: Teknologi yang digunakan regulator untuk meningkatkan efektivitas pengawasan.
#AgenticAI #OJK #RegulasiAI #ArtificialIntelligence #InklusiKeuangan #KeamananSiber #FintechIndonesia #AIethics #GlobalSouth #DigitalTransformation #SupTech #ExplainableAI #FairnessAudit #BlockchainGovernance #ASEANAI #EUAIAct #PerbankanIndonesia #DataProtection #TeknologiKeuangan #AIRegulation
