Dari Wozniak hingga Prince Harry: Koalisi Global Peringatkan Bahaya Eksistensial AI Super

- 24 Oktober 2025 - 13:13

Ratusan tokoh global, termasuk pendiri Apple Steve Wozniak dan “Bapak AI” Geoffrey Hinton, mendesak penghentian pengembangan Kecerdasan Buatan Super (Artificial Superintelligence/ASI) melalui petisi Future of Life Institute. Mereka memperingatkan ancaman eksistensial mulai dari keusangan ekonomi manusia hingga kepunahan spesies, dan menyerukan moratorium hingga ada konsensus keamanan dan regulasi yang ketat.


Fokus Utama:

1. Ancaman Eksistensial: AI Super berpotensi menyebabkan keusangan ekonomi manusia, hilangnya kendali, pelanggaran HAM, hingga risiko kepunahan spesies manusia.
2. Desakan Regulasi: 75% warga AS mendukung regulasi ketat AI canggih, dengan 60%-nya bersikap AI superhuman tidak boleh dikembangkan sebelum terbukti aman.
3. Lomba Teknologi yang Berbahaya: Kompetisi sengit antara raksasa teknologi seperti xAI (Elon Musk) dan OpenAI (Sam Altman) dinilai mengabaikan prinsip kehati-hatian demi keunggulan kompetitif.


Steve Wozniak, Geoffrey Hinton dan 22.000 orang mendesak stop perkembangan AI Super. Mereka peringatkan risiko dari keusangan ekonomi hingga kepunahan manusia.


Mereka adalah para arsitek dan pionir yang meletakkan fondasi dunia kecerdasan buatan(AI) yang kita kenal sekarang. Kini, dengan suara lantang dan penuh kekhawatiran, mereka justru meminta umat manusia untuk menahan diri—berhenti sejenak sebelum melompat terlalu jauh ke jurang yang tak dikenal. Sebuah koalisi global yang terdiri dari para pendiri teknologi, peraih Nobel, hingga mantan pejabat keamanan nasional meluncurkan seruan darurat: hentikan perlombaan menuju AI Super sebelum kita kehilangan kendali atas ciptaan kita sendiri.

Dalam sebuah petisi yang digagas Future of Life Institute(FLI) pada Rabu (22/10), lebih dari 22.000 individu menandatangani seruan moratorium pengembangan Artificial Superintelligence (ASI)—sebuah bentuk AI yang kecerdasannya akan melampaui manusia dalam hampir semua bidang kognitif. Daftar penandatangan bukan hanya nama-nama besar, tetapi juga para aktor kunci yang memahami betul kekuatan sekaligus jurang maut teknologi ini.

Di barisan depan terdapat Steve Wozniak, co-founder Apple; Geoffrey Hinton dan Yoshua Bengio, yang sering dijuluki “Godfathers of AI”; serta tokoh publik seperti Prince Harry dan Meghan Markle. Mereka bersatu dengan satu pesan: perlombaan yang dipicu oleh persaingan bisnis antara perusahaan seperti xAI milik Elon Musk dan OpenAI milik Sam Altman telah melampaui batas kehati-hatian.

Petisi tersebut memetakan sejumlah ancaman yang terdengar seperti fiksi ilmiah, namun dianggap sangat nyata oleh para penandatangan. Peringatannya jelas: prospek kecerdasan super telah “menimbulkan kekhawatiran, mulai dari usangnya ekonomi manusia dan hilangnya kekuasaan, kerugian kebebasan, hak asasi manusia, martabat, dan kendali, hingga risiko keamanan nasional dan bahkan potensi kepunahan manusia.”

Inti dari seruan ini adalah tuntutan untuk menghentikan pengembangan kecerdasan super hingga dua kondisi kunci terpenuhi: adanya dukungan publik yang kuat dan yang lebih penting, konsensus ilmiah bahwa kecerdasan super dapat dibangun dan dikendalikan dengan aman.

“Latar belakang para penandatangan ini yang begitu beragam—dari mantan Kepala Staf Gabungan AS Mike Mullen hingga mantan Penasihat Keamanan Nasional Susan Rice—menunjukkan bahwa ini bukan lagi sekadar kekhawatiran para ahli teknologi, melainkan telah menjadi isu strategis global yang menyentuh inti keamanan dan tata kelola peradaban,” kata seorang pengamat kebijakan teknologi yang enggan disebutkan namanya.

Seruan ini muncul di saat yang krusial. Baru pada Juli lalu, CEO Meta Mark Zuckerberg menyatakan bahwa pengembangan kecerdasan super kini “sudah di depan mata”. Pernyataannya seakan mengonfirmasi percepatan lomba senjata AI yang sedang berlangsung diam-diam di antara raksasa teknologi, yang telah mengucurkan dana ratusan miliar dolar untuk penelitian dan pengembangan.

Namun, di balik euforia tersebut, sejumlah ahli memandang narasi “ASI sudah dekat” dengan skeptis. Banyak yang berpendapat bahwa hal itu lebih mencerminkan manuver kompetitif dan upaya menarik investasi daripada sebuah terobosan teknis yang genuin. Terlepas dari debat waktu pencapaiannya, FLI bersikukuh bahwa prospek ASI dalam dekade mendatang membawa ancaman yang terlalu besar untuk diabaikan.

Kekhawatiran utama berpusat pada kemampuan sistem AI untuk menghindari kendali manusia dan pedoman keamanan yang telah ditetapkan, yang pada akhirnya dapat memicu tindakan yang bertentangan dengan kepentingan dan kelangsungan hidup manusia.

Dukungan publik untuk pengaturan yang lebih ketat ternyata sangat kuat. FLI merilis hasil jajak pendapat nasional di AS yang menunjukkan fakta mencengangkan: sekitar 75% warga Amerika menginginkan regulasi yang ketat terhadap AI canggih. Lebih lanjut, 6 dari 10 responden percaya bahwa AI superhuman tidak boleh dikembangkan sama sekali sampai terbukti aman atau dapat dikendalikan. Yang lebih mengejutkan, hanya 5% yang mendukung status quo pengembangan yang cepat dan tidak teratur seperti saat ini.

Data ini memberikan legitimasi politik yang kuat bagi seruan moratorium tersebut, sekaligus memberi amunisi bagi para pembuat kebijakan di Washington DC dan ibu kota negara lainnya untuk merancang kerangka regulasi yang lebih ambisius dan berhati-hati. Dalam bayangan banyak pihak, masa depan umat manusia mungkin sedang dipertaruhkan dalam perlombaan yang saat ini lebih mengandalkan kecepatan daripada keselamatan ini.


Digionary:

● Artificial Superintelligence (ASI): Bentuk kecerdasan buatan hipotetis yang secara signifikan melampaui kecerdasan dan kemampuan kognitif manusia dalam semua bidang.
●Future of Life Institute (FLI): Organisasi nirlaba yang berfokus pada risiko eksistensial yang dihadapi umat manusia, terutama dari kecerdasan buatan.
●Godfathers of AI: Julukan untuk Geoffrey Hinton, Yoshua Bengio, dan Yann LeCun yang dianggap sebagai pelopor utama dalam pengembangan deep learning dan AI modern.
●Large Language Model (LLM): Model AI yang dilatih pada dataset teks yang sangat besar untuk memahami dan menghasilkan bahasa manusia.
●Moratorium: Penghentian sementara suatu kegiatan secara resmi, dalam hal ini pengembangan teknologi AI tingkat lanjut.
●xAI: Perusahaan kecerdasan buatan yang didirikan oleh Elon Musk.

#KecerdasanBuatan #AI #ArtificialIntelligence #Superintelligence #ASI #FutureOfLifeInstitute #SteveWozniak #GeoffreyHinton #AIEthics #RegulasiAI #RisikoAI #Teknologi #Inovasi #KeamananAI #ElonMusk #OpenAI #MetaAI #AIriset #MasaDepan #UmatManusia

Comments are closed.