Anthropic Corporation baru-baru ini mengumumkan rencana ambisius untuk mendanai pengembangan tolok ukur baru untuk mengevaluasi kinerja dan dampak model kecerdasan buatan, yang menandai langkah penting dalam bidang penilaian keamanan kecerdasan buatan. Program ini akan memberikan pendanaan kepada organisasi pihak ketiga untuk mengembangkan alat yang dapat secara efektif mengukur kemampuan tingkat lanjut model kecerdasan buatan, khususnya kemampuan model AI generatif. Langkah ini tidak hanya akan meningkatkan tingkat keseluruhan bidang keselamatan dengan kecerdasan buatan, tetapi juga akan menyediakan alat evaluasi yang berharga untuk seluruh ekosistem dan mengatasi kekurangan alat evaluasi terkait keselamatan berkualitas tinggi saat ini. Inisiatif Anthropic patut diperhatikan, namun hal ini juga memicu beberapa diskusi mengenai keadilan dan fokusnya.
Anthropic pada hari Senin mengumumkan peluncuran inisiatif baru untuk mendanai pengembangan tolok ukur baru yang dapat menilai kinerja dan dampak model kecerdasan buatan, termasuk model generatif seperti Claude miliknya.
Menurut informasi yang diposting di blog resmi Anthropic, perusahaan akan memberikan dukungan finansial kepada organisasi pihak ketiga untuk mengembangkan alat yang “secara efektif mengukur kemampuan canggih model kecerdasan buatan.” Organisasi yang berminat dapat mengajukan permohonan dan evaluasi akan dilakukan secara bergilir.

Anthropic mengatakan investasi tersebut bertujuan untuk meningkatkan keseluruhan bidang keamanan kecerdasan buatan dan menyediakan alat yang berharga untuk seluruh ekosistem. Perusahaan percaya bahwa mengembangkan penilaian terkait keselamatan yang berkualitas tinggi masih merupakan tantangan dan permintaan melebihi pasokan.
Dengan fokus pada keselamatan AI dan dampak sosial, program ini berencana untuk menciptakan tolok ukur yang menantang melalui alat, infrastruktur, dan metodologi baru. Anthropic secara khusus meminta pengujian untuk menilai kemampuan model di berbagai bidang seperti serangan siber, modifikasi senjata, manipulasi, atau penipuan. Selain itu, perusahaan sedang berupaya mengembangkan "sistem peringatan dini" untuk mengidentifikasi dan menilai risiko kecerdasan buatan terkait keamanan dan pertahanan nasional.
Anthropic juga mengatakan program baru ini akan mendukung penelitian yang mengeksplorasi potensi kecerdasan buatan untuk membantu penelitian ilmiah, berkomunikasi dalam berbagai bahasa, mengurangi bias, dan sensor mandiri. Untuk mencapai tujuan ini, perusahaan berencana membangun platform baru yang memungkinkan para ahli mengembangkan penilaian dan melakukan uji coba skala besar.
Meskipun langkah Anthropic dipuji, hal ini juga menimbulkan beberapa pertanyaan. Beberapa orang percaya bahwa dengan mempertimbangkan kepentingan komersial perusahaan, keadilan proyek yang didanai mungkin akan terpengaruh. Selain itu, beberapa ahli telah menyatakan keraguannya terhadap beberapa risiko AI yang bersifat "bencana" dan "menipu" yang dikutip oleh Anthropic, dengan alasan bahwa hal ini dapat mengalihkan perhatian dari isu-isu yang lebih mendesak dalam regulasi AI saat ini.
Anthropic berharap inisiatif ini akan membantu menjadikan penilaian AI yang komprehensif sebagai standar industri. Namun, masih harus dilihat apakah kelompok pengembangan benchmark AI independen bersedia bekerja sama dengan vendor AI komersial.
Diperlukan waktu untuk menguji apakah langkah Anthropic berhasil mendorong pengembangan bidang penilaian keselamatan dengan kecerdasan buatan dan mendorong pembentukan standar penilaian yang lebih adil dan komprehensif. Dampak jangka panjang dan potensi keterbatasan rencana masih memerlukan perhatian dan evaluasi berkelanjutan.