Perusahaan global mulai beralih dari chatbot ke AI agent, yaitu sistem kecerdasan buatan yang dapat menjalankan tugas secara mandiri, mengambil keputusan, dan berinteraksi langsung dengan berbagai aplikasi bisnis. Namun, di balik tren tersebut, sebagian besar proyek AI agent masih berhenti di tahap uji coba (pilot project) karena terbentur masalah data, integrasi sistem, keamanan, dan rendahnya kepercayaan pengguna terhadap keputusan AI.
Fokus:
■ Hampir 50% penggunaan AI agent saat ini masih berfokus pada software engineering dan pengembangan kode.
■ Banyak proyek AI agent gagal berkembang karena data perusahaan belum rapi, aman, dan mudah diakses.
■ Risiko AI agent jauh lebih besar dibanding chatbot karena sistem ini bisa bertindak, bukan sekadar memberi jawaban.
Perusahaan-perusahaan besar kini tidak lagi puas hanya menggunakan chatbot untuk menjawab pertanyaan pelanggan atau membantu pekerjaan administratif. Fokus mereka mulai bergeser ke AI agent, yakni sistem kecerdasan buatan yang mampu menjalankan tugas secara mandiri, membuat keputusan, hingga berinteraksi langsung dengan sistem dan aplikasi bisnis.
AI agent dinilai sebagai fase berikutnya dalam perkembangan kecerdasan buatan. Jika chatbot hanya menjawab pertanyaan, AI agent bisa melakukan lebih banyak hal seperti membaca email, memproses laporan, mencari data, memperbarui sistem, memesan layanan, menjalankan workflow, bahkan menyelesaikan pekerjaan multi-tahap tanpa campur tangan manusia secara terus-menerus.
“Agentic merujuk pada sistem AI yang dapat mengambil tindakan atas nama pengguna, bukan sekadar menghasilkan teks atau menjawab pertanyaan,” kata Andrew McNamara dari Shopify mengutip laman Info World.
Di sektor teknologi, AI agent mulai digunakan untuk menangani insiden TI, membantu tim software engineering, memproses data keuangan, mendukung tim pemasaran, hingga merespons keluhan pelanggan. Dalam banyak kasus, AI agent dapat mengakses database, membaca dokumen perusahaan, hingga berkomunikasi dengan aplikasi lain melalui API.
Meski potensinya besar, implementasi AI agent ternyata tidak semudah yang dibayangkan. Banyak perusahaan masih gagal membawa proyek AI mereka dari tahap uji coba menjadi sistem yang benar-benar digunakan dalam operasional sehari-hari.
Riset Alteryx terhadap 1.400 pemimpin bisnis dan TI global menunjukkan hanya kurang dari satu dari empat proyek AI yang berhasil naik dari tahap pilot project menjadi implementasi penuh. Kurang dari separuh perusahaan mengaku AI benar-benar memberikan dampak nyata terhadap target bisnis mereka. Bahkan, 47% responden menyebut eksperimen awal dengan AI agent belum menghasilkan dampak yang terukur.
Sebenarnya kalau kita mau telusuri lebih dalam, masalah utamanya bukan pada model AI, melainkan pada kesiapan data dan sistem internal perusahaan. Banyak organisasi masih memiliki data yang tersebar di berbagai departemen, tidak sinkron, sulit diakses, dan belum memiliki standar tata kelola yang baik.
Riset Alteryx mengungkapkan, sebanyak 49% pemimpin perusahaan menyebut data yang berkualitas, mudah diakses, dan terkelola dengan baik menjadi faktor terpenting agar AI agent dapat bekerja maksimal. Namun, realitas di lapangan menunjukkan banyak perusahaan masih terjebak dengan sistem lama, dokumentasi yang buruk, dan integrasi yang rumit antar-aplikasi.
Di sisi lain, AI agent juga menghadirkan risiko yang jauh lebih besar dibanding chatbot biasa. Jika chatbot hanya memberikan saran, AI agent bisa langsung melakukan tindakan di dalam sistem, mulai dari mengubah akses pengguna, memperbarui database, memicu workflow, hingga melakukan transaksi.
“Anda tidak lagi mengamankan perangkat lunak yang hanya memberi saran, tetapi perangkat lunak yang bisa bertindak,” kata Anurag Gurtu dari AIRRIVED.
“Begitu agen AI dapat mengubah akses, memicu workflow, atau menangani insiden, setiap keputusan berpotensi menjadi kegagalan kontrol jika tidak diatur dengan baik,” tambah Anurag.
Karena itulah, keamanan kini menjadi isu utama dalam pengembangan AI agent. Banyak perusahaan mulai menerapkan pendekatan Zero Trust, yaitu memperlakukan AI agent seperti manusia yang harus memiliki identitas, hak akses, batas kewenangan, serta rekam jejak aktivitas yang jelas.
Pendekatan ini dianggap penting karena AI agent berpotensi membuka celah keamanan baru. Jika tidak diawasi, AI dapat mengakses data sensitif, memproses informasi pribadi, atau menjalankan perintah yang tidak semestinya.
Menurut survei Dynatrace, sekitar 50% proyek AI agent masih terjebak di tahap proof of concept karena perusahaan khawatir terhadap risiko keamanan, privasi, dan kepatuhan regulasi.
Sebanyak 52% responden menyebut isu keamanan dan compliance menjadi hambatan utama, sementara 51% lainnya mengaku kesulitan mengintegrasikan AI agent ke sistem skala besar.
Meski begitu, perusahaan tetap meningkatkan anggaran untuk AI. Sebanyak 89% organisasi berencana mempertahankan atau menambah investasi AI pada 2026, sementara 48% perusahaan akan meningkatkan belanja untuk infrastruktur dan tools AI.
Penggunaan AI agent saat ini masih paling dominan di sektor software engineering. Data Anthropic menunjukkan hampir 50% aktivitas AI agent saat ini berada di bidang pengembangan perangkat lunak, jauh di atas bidang lain seperti layanan pelanggan, penjualan, keuangan, dan pemasaran.
Anthropic juga menemukan bahwa AI agent kini bisa bekerja secara mandiri lebih dari 45 menit dalam satu sesi, naik hampir dua kali lipat dibanding beberapa bulan sebelumnya. Seiring meningkatnya pengalaman pengguna, banyak orang mulai mengurangi pengawasan manual dan memberi AI kebebasan lebih besar untuk bekerja sendiri.
Namun, tren itu juga memunculkan kekhawatiran baru. Banyak pengguna mulai beralih dari pola “menyetujui setiap tindakan AI” menjadi “membiarkan AI berjalan sendiri dan hanya campur tangan jika ada masalah.”
Pengembang AI secara alami akan beralih dari pola ‘setiap tindakan harus disetujui’ menjadi ‘biarkan saja berjalan, saya akan campur tangan jika diperlukan’. Itu mengubah seluruh model keamanan.
Perubahan perilaku ini dianggap berbahaya karena bisa menciptakan ilusi bahwa AI masih diawasi, padahal pada praktiknya banyak keputusan sudah dibiarkan berjalan otomatis tanpa pemeriksaan yang memadai.
Para ahli memperkirakan perusahaan di masa depan tidak lagi hanya menggunakan satu AI agent umum, tetapi membangun tim AI yang terdiri dari banyak agen spesialis. Akan ada agen untuk mencari data, agen untuk mengambil keputusan, agen untuk memverifikasi hasil, hingga agen yang bertugas memeriksa kepatuhan dan risiko.
Namun, para pakar menegaskan bahwa AI agent tidak boleh diperlakukan sebagai teknologi yang bisa langsung dipasang dan dibiarkan bekerja sendiri. Perusahaan harus membangun aturan, guardrails, audit trail, dan pengawasan manusia agar AI benar-benar bisa memberikan manfaat tanpa menciptakan risiko baru.
Digionary:
● Agentic AI: Sistem AI yang dapat bertindak mandiri untuk menyelesaikan tugas tanpa instruksi terus-menerus.
● API: Jalur koneksi yang memungkinkan aplikasi saling bertukar data dan perintah.
● Audit Trail: Rekaman aktivitas yang menunjukkan siapa melakukan apa, kapan, dan bagaimana dalam sistem.
● Guardrails: Aturan dan pembatas yang dipasang agar AI tidak melakukan tindakan berbahaya atau di luar kewenangan.
● Human-in-the-loop: Keterlibatan manusia dalam memeriksa, menyetujui, atau mengawasi keputusan AI.
● Pilot Project: Tahap percobaan awal sebelum suatu teknologi diimplementasikan secara penuh.
● Proof of Concept: Uji coba untuk membuktikan apakah sebuah teknologi dapat bekerja sesuai harapan.
● Software Engineering: Proses merancang, membangun, dan memelihara perangkat lunak.
● Workflow: Rangkaian proses kerja yang saling terhubung untuk menyelesaikan tugas tertentu.
● Zero Trust: Pendekatan keamanan yang mewajibkan semua pengguna, sistem, atau AI diverifikasi sebelum diberi akses.
#AI #ArtificialIntelligence #AIAgent #AgenticAI #GenerativeAI #MachineLearning #EnterpriseAI #Automation #SoftwareEngineering #CyberSecurity #DigitalTransformation #AIAdoption #DataGovernance #AIGovernance #FutureOfWork #HumanInTheLoop #TechTrends #BusinessTechnology #EnterpriseSoftware #ZeroTrust
