Baru -baru ini, Miles Brundage, mantan kepala penelitian kebijakan di Openai, mengkritik perubahan naratif perusahaan dalam keamanan AI, mengatakan Openai menulis ulang sejarah keamanannya dalam sistem AI. Dia mengatakan Openai dapat mengabaikan langkah-langkah keamanan jangka panjang dalam mengejar Kecerdasan Buatan Umum (AGI).

Openai telah berkomitmen untuk mempromosikan visinya yang ambisius, terutama dalam konteks meningkatnya pesaing seperti Deepseek. Dalam proses mengejar pengembangan AGI, perusahaan sering menekankan potensi agen kecerdasan buatan super, tetapi sikap ini belum diakui secara luas. Brendage percaya bahwa Openai memiliki narasi yang tidak konsisten dengan penyebaran dan keamanan model AI yang ada.
Baru -baru ini, OpenAI merilis dokumen tentang penyebaran bertahap model AI -nya untuk menunjukkan pendekatannya yang bijaksana. Mengambil GPT-2 sebagai contoh dalam dokumen menekankan bahwa tingkat kehati-hatian yang tinggi harus dipertahankan ketika berhadapan dengan sistem saat ini. Openai disebutkan dalam dokumentasi: "Dalam dunia yang tidak terputus, pelajaran keamanan berasal dari tingkat kehati-hatian yang tinggi dengan sistem saat ini, yang merupakan pendekatan yang kita ambil pada model GPT-2."
Namun, Brendage mempertanyakan hal ini. Dia percaya bahwa pelepasan GPT-2 juga mengikuti pendekatan bertahap, dan para ahli keamanan telah memuji penanganan Openai yang hati-hati. Dia percaya bahwa kehati -hatian masa lalu tidak berlebihan, tetapi praktik yang perlu dan bertanggung jawab.
Selain itu, Brendage menyatakan keprihatinan tentang klaim Openai bahwa AGI akan melalui langkah -langkah bertahap daripada terobosan mendadak. Dia percaya bahwa kesalahpahaman Openai tentang sejarah rilis GPT-2 dan narasi sejarah keamanannya mengganggu. Dia juga mencatat bahwa dokumen yang diterbitkan oleh Openai entah bagaimana dapat menyebabkan masalah keamanan dilihat sebagai reaksi berlebihan, yang dapat menimbulkan risiko signifikan dalam konteks sistem AI yang terus berkembang.
Ini bukan pertama kalinya Openai dikritik, dengan para ahli mempertanyakan apakah perusahaan telah melakukan pertukaran yang wajar antara keamanan jangka panjang dan manfaat jangka pendek. Kekhawatiran Brendage sekali lagi menarik perhatian pada keamanan AI.
Poin -Poin Kunci:
Mantan pemimpin kebijakan di Openai mempertanyakan perubahan perusahaan dalam narasi keamanan AI, percaya itu adalah kesalahpahaman sejarah.
Dokumen yang dirilis oleh Openai menekankan pentingnya pelepasan model AI yang hati -hati, tetapi telah dikritik oleh mantan karyawan.
Para ahli menyatakan keprihatinan tentang pengembangan sistem AI di masa depan.