Machine Intelligence Research Institute (MIRI) mengeluarkan pernyataan yang menyerukan dunia untuk berhenti mengembangkan sistem AI yang lebih pintar dari manusia, karena percaya bahwa potensi risikonya dapat menyebabkan kematian umat manusia. Seruan ini didukung oleh beberapa pemimpin di industri teknologi, namun juga menimbulkan kontroversi. MIRI menekankan bahwa kecepatan perkembangan AI saat ini terlalu cepat dan sulit untuk diikuti oleh pengawasan legislatif. Oleh karena itu, langkah-langkah yang lebih proaktif, seperti pemasangan wajib "saklar mati", diperlukan untuk menangani potensi perilaku jahat dan AI. risiko yang tidak dapat diprediksi. Lembaga ini percaya bahwa pengembangan sistem AI yang lebih canggih hanya dapat dilanjutkan jika AI dipastikan aman dan terkendali.
Kelompok riset nirlaba Machine Intelligence Research Institute (MIRI) telah menyerukan dunia untuk menghentikan penelitian model dasar atau "mutakhir", karena khawatir masalah keamanannya dapat mengancam kelangsungan hidup manusia. Model dasarnya adalah sistem kecerdasan buatan yang dapat diterapkan pada berbagai mode. MIRI percaya bahwa model yang mendasarinya akan lebih pintar dari manusia dan berpotensi “menghancurkan umat manusia.”

Di bidang teknologi, beberapa tokoh terkemuka, termasuk Elon Musk dan Steve Wozniak, menyerukan moratorium pengembangan model dasar yang lebih kuat daripada GPT-4 OpenAI. Namun MIRI ingin melangkah lebih jauh, dengan strategi komunikasi yang baru-baru ini diluncurkan yang menyerukan penghentian total upaya membangun sistem yang lebih pintar dari manusia.
Kelompok tersebut mengatakan: "Para pembuat kebijakan terutama menangani masalah melalui kompromi: mereka menyerah pada suatu hal untuk mendapatkan keuntungan dari hal lain. Kami khawatir bahwa sebagian besar undang-undang yang diperlukan untuk menjaga kelangsungan hidup manusia akan melewati proses politik yang biasa dan menjadi kompromi yang tidak efektif. . Sementara itu, waktu terus berjalan dan laboratorium AI terus berinvestasi dalam pengembangan dan pelatihan sistem yang lebih kuat.”
MIRI ingin pemerintah memaksa perusahaan-perusahaan yang mengembangkan model dasar untuk memasang “saklar mematikan” yang dapat mematikan sistem AI jika mereka mengembangkan kecenderungan jahat atau “risiko-x”.
Organisasi nirlaba tersebut mengatakan mereka tetap berkomitmen pada gagasan sistem cerdas yang lebih pintar dari manusia, tetapi ingin membangunnya "sampai kita tahu cara membangun AI jenis ini dengan aman."
MIRI didirikan pada tahun 2000 oleh Eliezer Yudkowsky, dengan pendukung termasuk Peter Thiel dan Vitalik Buterin, salah satu pencipta mata uang kripto Ethereum. Future of Life Institute juga merupakan salah satu kontributor utama MIRI.
Bradley Shimmin, analis utama di perusahaan riset AI dan analisis data Omdia, mengatakan MIRI akan kesulitan meyakinkan anggota parlemen karena kurangnya penelitian pendukung. “Pasar telah mempertimbangkan isu-isu ini dan menyimpulkan bahwa model GenAI berbasis konverter saat ini dan di masa depan tidak dapat berbuat banyak kecuali menciptakan representasi yang berguna dari topik-topik kompleks,” kata Shimmin dengan tepat dalam mengidentifikasi kesenjangan pengetahuan di antara isu-isu tersebut membangun dan mengatur kecerdasan buatan.
Highlight:
- Kelompok riset nirlaba Machine Intelligence Research Institute (MIRI) menyerukan kepada dunia untuk menghentikan penelitian model dasar atau "mutakhir", karena khawatir masalah keamanannya dapat mengancam kelangsungan hidup manusia.
- MIRI ingin pemerintah memaksa perusahaan yang mengembangkan model dasar untuk memasang "saklar mematikan" yang dapat mematikan sistem AI jika mereka mengembangkan kecenderungan jahat atau "risiko-x".
- Bradley Shimmin, analis utama di perusahaan riset AI dan analisis data Omdia, mengatakan MIRI akan kesulitan meyakinkan anggota parlemen karena kurangnya penelitian pendukung.
Seruan MIRI telah memicu diskusi luas mengenai keamanan dan kecepatan pengembangan AI. Meskipun pandangannya ekstrem, seruan tersebut juga menyoroti kekhawatiran mengenai potensi risiko kecerdasan buatan dan patut mendapat refleksi dan pertimbangan serius dari industri dan pemerintah. Di masa depan, bagaimana menyeimbangkan pengembangan kecerdasan buatan dan risiko keamanan akan menjadi isu penting.