Peneliti Korea Selatan menemukan metode baru yang membuat kecerdasan buatan (AI) mampu mengakui “tidak tahu” ketika menghadapi informasi yang belum dikenalnya. Terobosan ini dinilai penting untuk mengurangi fenomena hallucination atau jawaban palsu yang selama ini menjadi kelemahan utama chatbot AI seperti ChatGPT dan model generatif lainnya, terutama di sektor berisiko tinggi seperti kesehatan, keuangan, hingga kendaraan otonom.
Digi-Highlights:
■ Peneliti Korea Selatan mengembangkan AI yang mampu mengenali informasi yang tidak diketahuinya.
■ Metode baru ini diklaim dapat mengurangi “halusinasi” AI yang kerap menghasilkan jawaban salah dengan percaya diri tinggi.
■ Teknologi tersebut dinilai penting bagi sektor sensitif seperti kesehatan, perbankan, dan kendaraan otonom.
Kemampuan chatbot AI menjawab hampir semua pertanyaan sering kali terlihat mengesankan. Namun di balik kecanggihannya, ada satu masalah besar yang terus menghantui industri kecerdasan buatan: AI terlalu percaya diri, bahkan ketika jawabannya salah.
Kini, sekelompok peneliti dari Korea Advanced Institute of Science and Technology atau KAIST mengklaim menemukan pendekatan baru yang dapat membuat AI belajar mengakui ketidaktahuannya—sesuatu yang selama ini justru lebih manusiawi dibanding perilaku banyak chatbot modern.
Temuan tersebut dipublikasikan dalam jurnal ilmiah Nature Machine Intelligence dan disebut berpotensi menjadi langkah penting untuk mengurangi fenomena hallucination, yaitu ketika AI menciptakan informasi palsu tetapi menyampaikannya dengan keyakinan tinggi.
Masalah ini selama beberapa tahun terakhir menjadi sorotan serius di industri teknologi global. Model AI generatif seperti OpenAI melalui ChatGPT, maupun chatbot lain seperti xAI lewat Grok dan DeepSeek, kerap menghasilkan jawaban yang terdengar meyakinkan tetapi tidak akurat.
Dalam konteks tertentu, kesalahan seperti itu mungkin terlihat sepele. Namun di sektor kritikal seperti diagnosis medis, perbankan, keamanan siber, hingga kendaraan otonom, kesalahan AI dapat memicu konsekuensi serius.
Masalah Utama AI: Terlalu Percaya Diri
Selama ini, sebagian besar model AI dirancang untuk selalu mencoba menjawab pertanyaan pengguna. Akibatnya, sistem lebih memilih “menebak” dibanding mengakui bahwa mereka tidak memiliki informasi yang cukup.
Peneliti KAIST menilai akar masalah tersebut berasal dari proses awal pembelajaran jaringan saraf (neural network) yang menjadi tulang punggung AI modern.
Kesalahan kecil pada tahap awal pelatihan dapat berkembang menjadi bias besar saat model terus belajar. Dampaknya, AI tetap menunjukkan tingkat kepercayaan tinggi meskipun sebenarnya tidak memahami informasi yang diberikan.
Para peneliti menemukan bahwa ketika data acak dimasukkan ke dalam jaringan saraf pada fase awal, model tetap merespons dengan keyakinan tinggi meski belum benar-benar belajar apa pun. Pola inilah yang memicu hallucination.
Meniru Cara Kerja Otak Manusia
Untuk mengatasi masalah tersebut, tim peneliti mengambil inspirasi dari cara kerja otak manusia.Mereka menjelaskan bahwa otak manusia sejak sebelum lahir sudah menghasilkan sinyal internal meski belum menerima rangsangan dari luar.
Proses alami ini membantu manusia membangun pemahaman dasar mengenai ketidakpastian. Pendekatan serupa kemudian diterapkan ke AI. Peneliti menciptakan sistem “pemanasan awal” (warm-up training) dengan memberikan masukan berupa gangguan acak (random noise) ke jaringan saraf AI sebelum model mulai mempelajari data sebenarnya.
Metode itu membantu AI membangun “baseline ketidakpastian” sehingga sistem tidak langsung merasa yakin terhadap semua jawaban yang dihasilkannya.
Hasilnya cukup signifikan. Model AI yang menggunakan metode tersebut menunjukkan kemampuan lebih baik dalam mengenali kondisi ketika mereka sebenarnya tidak mengetahui jawaban.
“Model dengan warm-up training menunjukkan peningkatan yang jelas dalam kemampuannya menurunkan tingkat kepercayaan dan mengenali bahwa mereka ‘tidak tahu’,” tulis peneliti dalam publikasi tersebut seperti dikutip independent.co.uk.
Penting untuk Dunia Nyata
Peneliti menilai kemampuan AI untuk membedakan antara “apa yang diketahui” dan “apa yang tidak diketahui” akan menjadi fondasi penting bagi pengembangan AI generasi berikutnya.
Se-Bum Paik, salah satu penulis studi tersebut, mengatakan pendekatan ini membuat AI lebih mendekati pola berpikir manusia.
“Penelitian ini menunjukkan bahwa dengan mengadopsi prinsip utama perkembangan otak manusia, AI dapat mengenali kondisi pengetahuannya sendiri dengan cara yang lebih mirip manusia,” ujar Paik.
“Hal ini penting karena membantu AI memahami kapan mereka tidak yakin atau mungkin salah, bukan sekadar meningkatkan seberapa sering mereka memberikan jawaban benar,” tambahnya.
Di tengah ledakan penggunaan AI global, isu reliabilitas kini menjadi perhatian utama. Menurut laporan berbagai lembaga riset industri teknologi, adopsi AI generatif meningkat pesat sepanjang 2025–2026, terutama di sektor layanan pelanggan, keuangan, pendidikan, dan kesehatan.
Namun semakin luas AI digunakan, semakin besar pula risiko ketika sistem menghasilkan jawaban keliru dengan tingkat keyakinan tinggi.
Karena itu, banyak pakar menilai masa depan AI tidak lagi hanya ditentukan oleh seberapa pintar mesin menjawab pertanyaan, tetapi juga oleh kemampuannya mengenali batas pengetahuannya sendiri.
Dan mungkin, di tengah perlombaan membangun AI paling cerdas di dunia, kemampuan mengatakan “saya tidak tahu” justru menjadi tanda kecerdasan yang paling penting. ■
Digi-Insights:
Terobosan yang membuat AI mampu mengatakan “saya tidak tahu” sebenarnya jauh lebih penting dibanding sekadar peningkatan akurasi jawaban chatbot. Selama ini, masalah terbesar AI bukan hanya soal salah menjawab, tetapi karena AI sering salah dengan tingkat kepercayaan yang sangat tinggi. Dalam dunia nyata—terutama di sektor perbankan, kesehatan, hukum, dan keamanan siber—kesalahan seperti itu bisa memicu keputusan fatal. Karena itu, kemampuan AI mengenali batas pengetahuannya sendiri mulai dilihat sebagai fondasi baru dalam membangun sistem AI yang benar-benar layak dipercaya.
Di sisi lain, riset ini juga menunjukkan arah baru evolusi AI global: industri teknologi mulai menyadari bahwa kecerdasan bukan hanya soal kemampuan menjawab cepat, tetapi juga kemampuan memahami ketidakpastian. Ironisnya, kemampuan mengakui “tidak tahu” justru merupakan salah satu karakter paling manusiawi yang selama ini hilang dari AI generatif. Ke depan, persaingan AI kemungkinan tidak lagi hanya tentang siapa yang memiliki model paling pintar, tetapi siapa yang mampu membangun AI paling reliabel, paling sadar risiko, dan paling aman digunakan dalam pengambilan keputusan penting. ■
Digionary:
● AI Generatif: Teknologi kecerdasan buatan yang mampu membuat teks, gambar, audio, atau video secara otomatis.
● Chatbot: Program berbasis AI yang dirancang untuk berkomunikasi dengan manusia melalui percakapan digital.
● Deep Learning: Metode pembelajaran AI menggunakan jaringan saraf berlapis untuk mengenali pola kompleks.
● Hallucination AI: Kondisi ketika AI menghasilkan informasi salah atau palsu tetapi terdengar meyakinkan.
● Jaringan Saraf (Neural Network): Sistem komputasi yang meniru cara kerja otak manusia dalam memproses informasi.
● Machine Learning: Teknologi yang memungkinkan sistem komputer belajar dari data tanpa diprogram secara manual.
● Overconfidence AI: Kondisi ketika AI terlalu yakin terhadap jawaban yang sebenarnya tidak akurat.
● Random Noise: Data acak yang digunakan dalam pelatihan model AI untuk menguji respons sistem.
● Warm-up Training: Tahap pelatihan awal AI untuk membangun pemahaman dasar sebelum mempelajari data utama.
#AI #ArtificialIntelligence #ChatGPT #DeepSeek #GrokAI #MachineLearning #TeknologiAI #AIHallucination #KecerdasanBuatan #NeuralNetwork #OpenAI #Teknologi #InovasiAI #FutureTech #AIResearch #DigitalTechnology #TechNews #KAIST #GenerativeAI #AIChatbot
