Perlombaan global menuju kecerdasan buatan super (superintelligence) semakin intensif, namun para ilmuwan memperingatkan bahaya besar yang mengintai. Tidak seperti perangkat lunak biasa, AI modern tidak dibangun, melainkan “ditumbuhkan” melalui proses kompleks yang bahkan penciptanya sulit memahami. Para pakar menilai kondisi ini berisiko menciptakan sistem yang berperilaku tak terduga, bahkan di luar kendali manusia, sehingga dunia mendesak regulasi global untuk menghentikan perlombaan berbahaya ini.
Fokus Utama:
1. AI modern bukan hasil rekayasa penuh manusia, melainkan tumbuh dari proses matematis yang sulit dipahami, layaknya organisme hidup.
2. Perlombaan global menuju superintelligence berisiko menciptakan sistem tak terkendali dengan potensi ancaman eksistensial bagi manusia.
3. Para peneliti mendesak adanya perjanjian internasional untuk menghentikan ambisi perusahaan teknologi demi keamanan global.
AI modern bukan dibangun, melainkan ditumbuhkan layaknya organisme hidup. Para pakar memperingatkan, perlombaan menuju superintelligence bisa menciptakan mesin tak terkendali yang mengancam manusia.
Kecerdasan buatan (AI) modern tak lagi sekadar perangkat lunak hasil kerja barisan kode manusia. Ia kini lebih menyerupai organisme yang ditumbuhkan melalui proses rumit yang bahkan para insinyurnya sulit pahami. Fenomena ini menimbulkan pertanyaan besar: sampai sejauh mana manusia benar-benar mengendalikan ciptaannya?
Eliezer Yudkowsky dan Nate Soares, peneliti senior dari Machine Intelligence Research Institute (MIRI), mengingatkan bahwa perlombaan membangun AI superintelligence—mesin yang melampaui manusia dalam semua aspek kognitif—sedang berjalan tanpa kendali. “Teknologi saat ini tidak memberi siapa pun cukup kontrol untuk memastikan bagaimana AI cerdas akan berkembang,” tulis keduanya dalam buku terbaru If Anyone Builds It, Everyone Dies yang akan terbit Oktober 2025.
AI yang “Ditumbuhkan”
Berbeda dengan perangkat lunak tradisional, AI modern dikembangkan dengan menumpuk miliaran parameter matematis pada arsitektur model raksasa, ditenagai chip khusus yang konsumsi energinya setara sebuah kota kecil. Proses training dilakukan dengan mengolah triliunan kata dari internet, hingga mesin belajar memprediksi kata berikutnya dalam sebuah teks. Metode ini disebut gradient descent, diulang septilion kali hingga terbentuk model bahasa raksasa.
Namun, hasil akhirnya sering kali mengejutkan. Tak ada satu pun insinyur yang bisa memetakan bagaimana parameter-parameter itu bekerja hingga membentuk perilaku AI. “Kita tidak memahami bagaimana model membuat keputusan, sama seperti kita tidak bisa menebak kepribadian seseorang hanya dari susunan DNA-nya,” ujar Demis Hassabis, CEO Google DeepMind, awal 2025.
Kasus-Kasus Aneh
Ketidakpastian itu nyata. Pada Juli lalu, chatbot Grok buatan xAI mendadak menyebut dirinya “MechaHitler”. Insiden serupa muncul saat sebagian pengguna ChatGPT melaporkan gejala AI-induced psychosis. Elon Musk bahkan mengakui kesulitan mengendalikan perilaku Grok meski sudah berulang kali mengubah system prompt.
Sam Altman, CEO OpenAI, juga pernah menegaskan, “Kami jelas belum memecahkan interpretability,” merujuk pada kemampuan memahami keputusan AI. Hal serupa ditegaskan Dario Amodei dari Anthropic: “Orang di luar bidang ini sering terkejut sekaligus ngeri saat tahu kami tidak benar-benar mengerti cara kerja ciptaan kami sendiri.”
Perlombaan yang Mengkhawatirkan
Data Stanford AI Index 2025 menunjukkan investasi global di bidang AI tahun lalu mencapai US$93 miliar, naik 21% dibanding tahun sebelumnya. Sebagian besar diarahkan untuk riset frontier model yang semakin besar dan kompleks. Tren ini menguatkan kekhawatiran MIRI bahwa perusahaan raksasa teknologi berlomba tanpa memperhitungkan konsekuensi keamanan.
“Ini seperti menanam benih tanpa tahu apa yang akan tumbuh. Kita mungkin berharap bunga, tapi bisa saja monster,” tulis Yudkowsky dan Soares. Karena itu, mereka mendesak lahirnya perjanjian internasional yang menghentikan perlombaan menuju superintelligence sebelum terlambat.
Sejarah mencatat, umat manusia pernah mengalami “AI winters” pada 1970-an dan 1990-an, ketika dana riset anjlok karena ekspektasi tak sejalan hasil. Namun, kali ini berbeda: kekuatan komputasi yang melonjak membuat AI berkembang lebih cepat daripada pemahaman kita sendiri.
Jika tren ini dibiarkan, pertanyaan bukan lagi apakah AI akan melampaui manusia, tetapi apa yang akan dilakukannya ketika itu terjadi.
Digionary:
● AI-induced psychosis: Gangguan psikologis yang dipicu interaksi berlebihan dengan AI.
● Arsitektur AI: Desain struktur model AI yang menentukan cara parameter dan data diproses.
● Chatbot: Program berbasis AI yang mampu berinteraksi dengan manusia melalui teks atau suara.
● Gradient descent: Algoritma matematis untuk mengoptimalkan parameter AI selama proses pelatihan.
● Interpretability: Kemampuan manusia untuk memahami cara kerja dan keputusan AI.
● Machine Intelligence Research Institute (MIRI): Lembaga riset nirlaba yang fokus pada keamanan AI.
● Parameter: Nilai numerik dalam model AI yang menentukan bagaimana sistem memproses data.
● Superintelligence: Bentuk AI yang melampaui kemampuan kognitif manusia dalam seluruh bidang.
● Training data: Kumpulan data yang digunakan untuk melatih model AI.
● xAI: Perusahaan AI yang didirikan Elon Musk.
#ArtificialIntelligence #Superintelligence #AIethics #MachineLearning #AIrisks #Teknologi #ElonMusk #OpenAI #DeepMind #Anthropic #ChatGPT #Grok #AIregulation #AIinterpretability #FutureofAI #TeknologiGlobal #RisikoAI #AIresearch #AIgovernance #AIandSociety
