Baru-baru ini, OpenAI terus menghadapi gelombang pengunduran diri eksekutif, yang menarik perhatian luas di industri ini. Menyusul kepergian ketua tim Super Alignment, konsultan kebijakan keamanan dan ketua tim kesiapan AGI Mil Brundage juga mengumumkan kepergiannya dari OpenAI dan mengungkapkan bahwa tim yang dipimpinnya akan dibubarkan. Rangkaian pergantian personel ini tidak hanya berdampak pada struktur internal OpenAI, namun juga menimbulkan banyak pertanyaan tentang arah pengembangan masa depan dan mekanisme budaya internalnya. Editor Downcodes akan memberikan penjelasan mendalam mengenai hal ini dan menganalisis potensi dampaknya.
Baru-baru ini, OpenAI kembali melaporkan pengunduran diri. Miles Brundage, konsultan kebijakan keamanan dan pemimpin tim persiapan AGI, mengumumkan bahwa dia akan meninggalkan perusahaan dan mengungkapkan bahwa tim yang dipimpinnya juga akan dibubarkan dan anggotanya akan dipindahkan ke departemen lain.

Brundage menjelaskan keputusannya secara detail dalam postingan di platform media sosial X. Ia mengatakan bahwa alasan utama keluarnya OpenAI adalah untuk lebih mandiri dan leluasa mempublikasikan penelitian.
Perlu dicatat bahwa Brundage bukan satu-satunya peneliti keamanan yang meninggalkan perusahaan pada level tinggi. Pada awal Mei tahun ini, OpenAI membubarkan tim Super Alignment, yang terutama bertanggung jawab atas penilaian risiko kecerdasan super buatan. Sejak itu, dua pemimpin tim, Jan Leike dan Ilya Sutsver, juga hengkang.
Selain itu, kepala bagian teknologi perusahaan Mira Murati, kepala bagian penelitian Bob McGrew dan wakil presiden penelitian Barret Zoph serta eksekutif senior lainnya Mereka juga telah keluar baru-baru ini.
Selama enam tahun terakhir, Brundage telah menjadi penasihat manajemen dan dewan direksi OpenAI untuk membantu perusahaan mempersiapkan diri menghadapi kemajuan pesat kecerdasan buatan. Kontribusinya terhadap penelitian keamanan tidak dapat dianggap remeh, termasuk pengenalan mekanisme tim merah eksternal, yang memungkinkan para ahli eksternal untuk berpartisipasi dalam mendeteksi potensi masalah pada produk OpenAI.
Brundage menyebutkan bahwa dia dan OpenAI tidak setuju atas batasan rilis penelitian, dan merasa bahwa batasan tersebut semakin sulit diterima. Ia yakin bahwa pekerjaannya di OpenAI telah memengaruhi objektivitas penelitiannya, sehingga sulit baginya untuk tetap netral mengenai masa depan kebijakan AI. Dia juga menyebutkan di media sosial bahwa ada pandangan umum dalam OpenAI bahwa "biaya untuk bersuara itu mahal, dan hanya beberapa orang yang bisa melakukannya."
Kepergian sejumlah eksekutif senior ini tidak hanya menarik lebih banyak perhatian terhadap arah masa depan OpenAI, namun juga menimbulkan lebih banyak pertanyaan tentang budaya internal dan mekanisme pengambilan keputusan.
Menyorot:
Brundage mengumumkan kepergiannya dari OpenAI, dan tim persiapan AGI juga akan dibubarkan.
Dia menginginkan lebih banyak kebebasan untuk mempublikasikan penelitian, yang mencerminkan ketidaksepakatan dengan perusahaan mengenai pembatasan penelitian.
Baru-baru ini, banyak eksekutif senior yang mengundurkan diri, dan dunia luar menaruh perhatian pada perkembangan masa depan dan budaya internal OpenAI.
Kepergian para eksekutif senior OpenAI yang terus berlanjut telah menimbulkan kekhawatiran mendalam tentang masa depan perusahaan, budaya internalnya, dan arah penelitian keselamatan AI-nya. Apakah ini menandai dimulainya babak baru perombakan di industri AI? Perkembangan selanjutnya patut mendapat perhatian terus-menerus.