Otoritas Jasa Keuangan (OJK) harus bertransformasi dari regulator administratif menjadi “Arsitek Algoritma” untuk mengamankan stabilitas perbankan Indonesia di era Kecerdasan Buatan (AI), mengingat lonjakan deepfake fraud dan penggunaan AI secara masif oleh perbankan digital. Langkah strategis yang mendesak adalah pembentukan kerangka AI compliance yang mewajibkan explainable AI (XAI) dan auditabilitas algoritma untuk meniadakan “kotak hitam,” pembentukan regulatory sandbox AI untuk menguji model risiko tinggi sebelum digunakan, serta pembentukan unit pengawasan AI yang mampu melakukan stress-test diskriminasi algoritma, karena kegagalan dalam pengawasan operasional AI akan mempertaruhkan keadilan algoritma dan potensi memicu risiko sistemik.
Fokus Utama:
1. OJK harus mentransformasi diri dari regulator administratif menjadi ‘Arsitek Algoritma’ dengan mewajibkan transparansi, auditabilitas, dan Explainable AI (XAI) untuk model-model risiko tinggi di perbankan.
2. Pembentukan ‘regulatory sandbox AI’ khusus perbankan adalah mendesak untuk menguji model-model AI berisiko tinggi, termasuk generative AI, guna mencegah deepfake fraud dan penyebaran risiko sistemik.
3. Diperlukan pembentukan ‘AI supervision unit’ yang mampu melakukan stress-test diskriminasi algoritma dan memonitor model AI secara real-time untuk memastikan keadilan algoritma dan stabilitas finansial.
OJK harus segera membuat kerangka ‘AI compliance’ dan unit pengawasan algoritma untuk mencegah diskriminasi kredit, deepfake fraud, dan risiko sistemik akibat AI black box di sektor perbankan Indonesia.
Tahun 2024, di kawasan Asia Tenggara, volume penipuan perbankan berbasis deepfake melonjak hingga mencapai 300% (Sumsub). Pada saat yang bersamaan, merujuk data McKinsey, 70% bank digital regional di kawasan ini sudah menanamkan kecerdasan buatan (artificial intelligence/AI) untuk menilai risiko kredit. Kedua data ini menunjukkan dilema yang dihadapi negara-negara di Asia Tenggara, termasuk Indonesia, terhadap adopsi AI. AI memang menjanjikan efisiensi dan pertumbuhan, namun di sisi lain juga membuka gerbang risiko sistemik baru yang bergerak dengan kecepatan digital yang sangat dasyat.
Indonesia, dengan industri perbankan yang masif dan penetrasi bank digital yang cepat, tidak bisa lagi puas dengan regulasi yang hanya menyentuh permukaan. Penerbitan Tata Kelola Kecerdasan Artifisial Perbankan Indonesia oleh Otoritas Jasa Keuangan (OJK), 29 April 2025, adalah langkah penting. Tapi itu baru sebatas fondasi. OJK harus bergerak dari regulator administratif menjadi ‘arsitek algoritma’ yang memastikan setiap baris kode AI di sektor keuangan tidak hanya efisien, tetapi juga etis, akuntabel, juga stabil.
Fakta mengungkapkan Indonesia kini memasuki fase adaptasi AI di sektor finansial secara masif. Konsekuensinya, AI tidak lagi hanya menjadi alat bantu (tools); melainkan telah menjelma menjadi core engine yang menentukan pemberian kredit, mencegah fraud, hingga mempersonalisasi produk-produk investasi. Pemerintah Indonesia saat ini tengah merampungkan dua regulasi strategis terkait kecerdasan buatan, yakni Peta Jalan AI Nasional dan Perpres Keamanan AI. Keduanya akan menjadi landasan hukum pertama untuk mengatur inovasi sekaligus risiko AI di Tanah Air. Nah, setelah Peraturan Presiden (Perpres) tentang AI terbit, posisi OJK sebagai regulator sektoral di sektor keuangan akan menjadi krusial.
Tanpa intervensi pengawasan yang mendalam dan bersifat operasional terhadap logic AI, potensi diskriminasi algoritma, risiko sistemik dari model yang cacat, dan ancaman deepfake fraud akan melumpuhkan kepercayaan publik dan stabilitas perbankan. Regulasi AI OJK harus melampaui kerangka kebijakan umum, menuntut transparansi algoritma, serta menciptakan mekanisme audit yang ketat.
Fakta mengungkapkan Indonesia kini memasuki fase adaptasi AI di sektor finansial secara masif. Konsekuensinya, AI tidak lagi hanya menjadi alat bantu (tools); melainkan telah menjelma menjadi core engine yang menentukan pemberian kredit, mencegah fraud, hingga mempersonalisasi produk-produk investasi.
Apa yang Mesti Segera Dilakukan OJK?
Lantas apa yang mesti dilakukan OJK menyusul akan keluarnya regulasi pemerintah soal roadmap AI nasional dan mengenai keamanan AI?
Langkah pertama yang harus dilakukan OJK adalah membangun pilar kepatuhan AI (AI compliance). OJK harus membangun kerangka kepatuhan yang ketat, menjembatani gap antara kebijakan tingkat tinggi dengan implementasi teknis di lapangan.
Kewajiban utama harus fokus pada standar Alaudit AI (AI auditability framework) dimana bank tidak boleh menggunakan algoritma sebagai “kotak hitam” (black box) yang kebal pengawasan. Setiap keputusan AI—misalnya penolakan kredit UMKM—harus memiliki jejak audit yang jelas. Ini bukan hanya masalah transparansi, tapi pertahanan terhadap kerugian finansial. Bank Indonesia (BI) misalnya, mencatat kredit UMKM mencapai Rp1.405 triliun pada 2024 lalu. Jika AI scoring kredit UMKM bermasalah, dampaknya bisa sistemik, menghambat pertumbuhan sektor riil dan memicu kredit macet yang tak terdeteksi.
OJK juga harus mewajibkan ‘explainable AI’ (XAI). Nasabah yang keputusannya dipengaruhi AI (misalnya, ditolak investasinya) berhak atas penjelasan yang bisa dipahami manusia. Ini adalah bentuk kedaulatan data dan keadilan algoritma. Dalam konteks global, General Data Protection Regulation (GDPR) Eropa sudah menuntut ‘hak untuk mendapatkan penjelasan’. Indonesia tidak boleh tertinggal dalam hal perlindungan nasabah yang menjadi otoritas OJK.
Kedua, membangun regulatory sandbox AI sebagai laboratorium risiko. Inovasi tanpa pengujian adalah malapetaka. OJK perlu meniru langkah Financial Conduct Authority (FCA) di Inggris atau Monetary Authority of Singapore (MAS) dengan menciptakan ‘regulatory sandbox AI’ khusus perbankan. Sandbox ini berfungsi sebagai laboratorium yang menguji model AI yang punya risiko tinggi sebelum dilepas ke publik.
OJK juga harus mewajibkan ‘explainable AI’ (XAI). Nasabah yang keputusannya dipengaruhi AI (misalnya, ditolak investasinya) berhak atas penjelasan yang bisa dipahami manusia. Ini adalah bentuk kedaulatan data dan keadilan algoritma. Dalam konteks global, General Data Protection Regulation (GDPR) Eropa sudah menuntut ‘hak untuk mendapatkan penjelasan’. Indonesia tidak boleh tertinggal dalam hal perlindungan nasabah yang menjadi otoritas OJK.
Model AI yang wajib diuji ketat a.l. AI anti-pencucian uang (AML/CTF), AI penilaian risiko kredit, dan yang paling mendesak adalah generative AI untuk layanan nasabah. Beberapa bank digital di Indonesia mulai menggunakan AI generatif untuk rekomendasi transaksi. Tapi, tanpa pengawasan dini di sandbox, AI ini rentan atau berpotensi menyesatkan nasabah, memberikan saran investasi yang tidak sesuai, atau bahkan, melalui celah keamanan bisa menjadi pintu masuk deepfake fraud.

Ketiga, klasifikasi risiko AI dan unit pengawasan khusus. Perlu kita pahami bersama bahwa tidak semua AI diciptakan sama. OJK harus secara tegas memisahkan antara AI berisiko tinggi dan AI berisiko rendah. AI risiko tinggi dapat memengaruhi keputusan finansial nasabah (kredit, investasi, penolakan transaksi mencurigakan). Sedangkan AI risiko rendah domainnya hanya mencakup soal efisiensi operasional atau chatbot informasi dasar.
Pengawasan dan tingkat kepatuhan yang dituntut harus jauh berbeda. AI risiko tinggi memerlukan validasi model (model validation) yang ketat dan pengujian diskriminasi. OJK harus membangun unit pengawasan AI (AI supervision unit) seperti ‘cyber patrol’ untuk sistem keuangan. Unit ini harus memiliki kemampuan untuk:
● Melakukan stress-test terhadap algoritma, menguji apakah AI secara tersembunyi menciptakan diskriminasi terhadap kelompok tertentu (gender, wilayah, atau jenis pekerjaan).
● Memantau model AI secara real-time untuk mendeteksi drift—pergeseran performa model yang berpotensi memicu kerugian kolektif.
● Mempersiapkan respon terhadap ancaman yang kian nyata (AI-based phishing dan deepfake fraud yang mampu meniru suara dan wajah eksekutif bank untuk mencuri dana misalnya).
Pasar Tak Bisa Menyelesaikan Risiko Sistemik
Ada pandangan yang menyatakan bahwa regulasi AI yang terlalu ketat akan menghambat inovasi dan membebani bank dengan biaya kepatuhan yang mahal. Mereka berargumen bahwa pasar dan persaingan akan secara otomatis memperbaiki model AI yang buruk. Namun, argumen ini tak bisa kita telan bulat-bulat. Pasar tidak bisa menyelesaikan risiko sistemik dan masalah etika algoritma. Risiko dari AI black box di sektor keuangan jauh lebih besar daripada sekadar kerugian komersial; ia berpotensi meruntuhkan stabilitas sistem.
Kasus krisis keuangan 2008 menunjukkan bagaimana model risiko yang cacat dan tidak transparan dapat menyebabkan kerugian triliunan dolar. Dalam era digital, AI bisa mempercepat penyebaran risiko itu dalam hitungan detik.
Tentu, langkah OJK bukan untuk menghambat inovasi perbankan, melainkan untuk memastikan inovasi yang bertanggung jawab (responsible innovation). Dengan menggandeng Bank Indonesia (BI) untuk stabilitas sistem pembayaran dan Badan Siber dan Sandi Negara (BSSN) untuk keamanan, OJK dapat memastikan AI di bank memiliki sertifikasi teknis yang setara dengan standar keamanan internasional mirip ISO atau Payment Card Industry Data Security Standard (PCI-DSS), tetapi spesifik untuk AI. Ini akan menciptakan arena bermain yang adil dan aman.
Kita sama-sama setuju bila AI disebut pedang bermata dua. Ia menjanjikan pertumbuhan tak tertandingi sekaligus sarat akan ancaman risiko yang belum terbayangkan. Jika OJK hanya berhenti sebagai regulator administratif, hanya berfokus pada kelengkapan dokumen tanpa masuk ke pengawasan algoritma, maka sektor perbankan akan memasuki era AI tanpa kontrol yang cerdas.
Tentu, langkah OJK bukan untuk menghambat inovasi perbankan, melainkan untuk memastikan inovasi yang bertanggung jawab (responsible innovation). Dengan menggandeng Bank Indonesia (BI) untuk stabilitas sistem pembayaran dan Badan Siber dan Sandi Negara (BSSN) untuk keamanan, OJK dapat memastikan AI di bank memiliki sertifikasi teknis yang setara dengan standar keamanan internasional mirip ISO atau Payment Card Industry Data Security Standard (PCI-DSS), tetapi spesifik untuk AI. Ini akan menciptakan arena bermain yang adil dan aman.
Bank akan menjadi sangat efisien, tetapi di balik layar, AI bisa menghasilkan diskriminasi kredit yang meluas, salah rekomendasi investasi yang merugikan jutaan nasabah, hingga penipuan generatif yang nyaris mustahil dibuktikan.
Era AI di perbankan bukan hanya tentang inovasi bisnis—ini adalah tentang kedaulatan data dan keadilan algoritma. OJK memiliki mandat untuk melindungi nasabah dan stabilitas sistem. Mandat ini hanya dapat dipenuhi OJK dengan menjadi ‘arsitek algoritma’, yang menuntut transparansi, auditabilitas, dan akuntabilitas dari setiap bank digital. Kegagalan untuk bertindak sekarang sama saja dengan mempertaruhkan stabilitas finansial Indonesia di tangan sebuah ‘black box’ yang tak terpantau.
*) Deddy H. Pakpahan, senior editor digitalbank.id.
IN-HOUSE TRAINING TATA KELOLA AI: Berkolaborasi dengan DigitalBank Academy bekerja sama dengan Indonesia Applied Digital Economy & Regulatory Network (IADERN), digitalbank.id menawarkan program “AI Governance & Responsible AI for Banking Executive & Management”, sebuah program in-house training strategis yang dirancang khusus untuk memastikan dewan komisaris, dewan direksi dan jajaran eksekutif perbankan mampu membangun dan menguatkan “Kerangka Kerja AI yang Bertanggung Jawab” (Responsible AI Framework) secara komprehensif, memenuhi standar kepatuhan, dan siap memenuhi kewajiban pelaporan OJK.
Program in-house training ini dipandu trainer yang memiliki keahlian soal tata kelola AI dan punya ribuan jam terbang training di dalam dan luar negeri serta memiliki penguasaan yang baik mengenai ‘big picture’ AI dalam konteks global maupun nasional dan implementasinya pada perbankan nasional. Beberapa bank yang telah mengikuti in-house training ini menyatakan program ini sangat bermanfaat bagi perbankan yang dituntut untuk mempersiapkan tata kelola AI, audit dan bahkan nantinya pelaporan rutin ke OJK. Tak sekadar training, kami juga memberikan jasa pendampingan (advisory) untuk penggarapan roadmap AI perbankan dan pembentukan Komite AI di perbankan sehingga adopsi dan implementasi AI sejalan dengan Tata Kelola AI OJK.
Untuk informasi lebih lanjut mengenai program in-house training ini bisa menghubungi kami di nomor WA 081314188319 dan HP 087882915126.
Digionary:
● AI Compliance (Kepatuhan AI): Kerangka kepatuhan yang ketat yang dibangun oleh OJK untuk menjembatani kesenjangan antara kebijakan tingkat tinggi dengan implementasi teknis AI di perbankan, guna memastikan AI digunakan secara bertanggung jawab, etis, dan aman.
● AI Risk Classification (Klasifikasi Risiko AI): Pengelompokan sistem AI berdasarkan tingkat risikonya. AI Risiko Tinggi (seperti untuk penilaian kredit) memerlukan pengawasan ketat, sementara AI Risiko Rendah (seperti chatbot informasi) memiliki tuntutan kepatuhan yang lebih ringan.
● AI Supervision Unit (Unit Pengawasan AI): Unit khusus di dalam OJK yang bertugas mengawasi operasional AI di perbankan, dengan kemampuan melakukan stress-test diskriminasi, pemantauan real-time, dan respons terhadap ancaman berbasis AI.
● Algorithmic Discrimination (Diskriminasi Algoritma): Kecenderungan sistem AI untuk menghasilkan keputusan yang bias dan tidak adil terhadap kelompok tertentu (berdasarkan gender, wilayah, atau jenis pekerjaan) secara tersembunyi, yang perlu diuji melalui stress-test.
● Arsitek Algoritma: Sebutan untuk peran transformatif OJK yang tidak hanya mengatur aspek administratif, tetapi juga mendesain, mengawasi, dan memastikan setiap logika dan kode AI di perbankan bersifat etis, akuntabel, dan stabil.
● Auditabilitas Algoritma (Algorithm Auditability): Kewajiban bagi bank untuk memastikan setiap keputusan AI (seperti penolakan kredit) memiliki jejak audit yang jelas dan dapat ditelusuri, sehingga tidak beroperasi sebagai “kotak hitam”.
● Black Box AI (Kotak Hitam AI): Sistem AI yang kompleks dan tidak transparan, di mana proses pengambilan keputusannya tidak dapat dipahami atau dijelaskan, sehingga kebal terhadap pengawasan dan berpotensi menimbulkan risiko.
● Deepfake Fraud (Penipuan Deepfake): Jenis penipuan keuangan yang menggunakan teknologi kecerdasan buatan generatif untuk memalsukan suara, wajah, atau video guna menipu nasabah atau institusi perbankan. Volume penipuan ini dilaporkan melonjak drastis.
● Explainable AI (XAI): Prinsip yang mewajibkan bahwa keputusan yang diambil oleh AI harus dapat dijelaskan dengan alasan yang dapat dipahami oleh manusia. Ini merupakan bentuk perlindungan dan kedaulatan data bagi nasabah.
● Model Validation (Validasi Model): Proses pengujian dan validasi yang ketat terhadap model AI berisiko tinggi sebelum digunakan, untuk memastikan keakuratan, keadilan, dan keamanannya.
● Peta Jalan AI Nasional: Regulasi strategis pemerintah Indonesia yang menjadi landasan hukum untuk mengatur inovasi dan risiko pengembangan kecerdasan buatan di Tanah Air.
● Regulatory Sandbox AI (Kandang Uji Regulasi AI): Sebuah lingkungan pengujian yang dikontrol dan diawasi oleh regulator (seperti OJK) untuk menguji model-model AI berisiko tinggi (seperti generative AI) sebelum benar-benar diluncurkan ke publik, guna mengidentifikasi potensi malapetaka dini.
● Risiko Sistemik: Risiko kegagalan dalam sistem keuangan yang dapat memicu efek domino dan mengganggu stabilitas ekonomi secara keseluruhan. Kegagalan model AI yang cacat di sektor perbankan berpotensi memicu risiko ini dengan kecepatan digital.
● Stress-Test Diskriminasi: Pengujian yang dilakukan oleh unit pengawasan AI untuk mensimulasikan berbagai kondisi guna mengungkap bias atau diskriminasi tersembunyi dalam suatu algoritma.
● Tata Kelola Kecerdasan Artifisial Perbankan Indonesia: Peraturan yang diterbitkan oleh OJK pada 29 April 2025 sebagai fondasi dasar pengaturan penggunaan AI di sektor perbankan Indonesia.
#OJK #RegulasiAI #KecerdasanBuatan #BankDigital #Fintech #AICompliance #ExplainableAI #BlackBoxAI #TataKelolaAI #StabilitasFinansial #FraudDeepfake #PerbankanIndonesia #KeadilanAlgoritma #Sistemik #DigitalEconomy #InovasiBertanggungJawab #AIrisikoTinggi #RegulatorAI
