Editor Downcodes mengetahui bahwa Palantir, Anthropic, dan Amazon Web Services (AWS) bekerja sama untuk menciptakan platform cloud Claude yang dirancang khusus untuk departemen pertahanan dan intelijen pemerintah AS. Langkah ini mengintegrasikan Claude3 dan 3.5 ke dalam platform kecerdasan buatan Palantir dan mengandalkan kemampuan komputasi awan AWS yang kuat. Ketiga perusahaan tersebut telah menerima sertifikasi IL6 dari Departemen Pertahanan A.S., yang memungkinkan mereka menangani data tingkat rahasia dengan aman. Platform ini dirancang untuk meningkatkan efisiensi pemrosesan data, kemampuan pengenalan pola, dan kecepatan pengambilan keputusan, membantu lembaga pemerintah mengambil keputusan yang lebih tepat dalam situasi mendesak.

Berdasarkan informasi yang diungkapkan ketiga perusahaan dalam pengumuman tersebut, kerja sama ini akan mengintegrasikan Claude3 dan 3.5 ke dalam platform kecerdasan buatan Palantir, yang akan dihosting di AWS. Perlu disebutkan bahwa Palantir dan AWS telah memperoleh sertifikasi Impact Level 6 (IL6) dari Departemen Pertahanan AS, yang memungkinkan mereka memproses dan menyimpan data tingkat sangat rahasia.
Seorang juru bicara Anthropic mengatakan Claude pertama kali tersedia bagi komunitas pertahanan dan intelijen pada awal Oktober. Pemerintah AS akan menggunakan Claude untuk mengurangi waktu pemrosesan data, mengidentifikasi pola dan tren, menyederhanakan peninjauan dokumen, dan membantu pejabat membuat keputusan yang lebih tepat dalam situasi kritis sambil mempertahankan otoritas pengambilan keputusan mereka. “Palantir bangga menjadi mitra industri pertama yang menghadirkan model Claude ke dalam lingkungan rahasia,” kata Shyam Sankar, chief technology officer Palantir.
Berbeda dengan Meta, yang baru-baru ini mengumumkan akan membuka Llama bagi pemerintah AS untuk aplikasi pertahanan dan keamanan nasional, Meta menetapkan kebijakan penggunaannya sendiri. Anthropic tidak harus membuat pengecualian terhadap Kebijakan Penggunaan yang Dapat Diterima (AUP), yang memungkinkan Claude digunakan di area yang berpotensi berbahaya oleh Departemen Pertahanan AS, CIA, atau badan pertahanan dan intelijen lain yang menggunakannya.
Meskipun Anthropic telah mengidentifikasi beberapa kasus penggunaan berisiko tinggi dalam AUP-nya, Anthropic tidak membatasi penerapannya pada bidang pertahanan dan intelijen, hanya menyebutkan penggunaan di bidang-bidang seperti hukum, kesehatan, asuransi, keuangan, ketenagakerjaan, perumahan, akademisi, dan media. .Claude adalah "bidang yang berkaitan dengan kesejahteraan masyarakat dan keadilan sosial". Ketika ditanya tentang hubungan AUP dengan aplikasi pemerintah, Anthropic hanya menunjuk pada postingan blog tentang perluasan akses pemerintah ke Claude.
Dalam blognya, Anthropic mencatat bahwa mereka telah menetapkan mekanisme untuk memberikan pengecualian terhadap kebijakan penggunaan yang dapat diterima bagi pengguna pemerintah, dan menekankan bahwa pengecualian ini "dikalibrasi secara cermat untuk memungkinkan penggunaan yang bermanfaat oleh lembaga pemerintah yang dipilih dengan cermat." Namun, tidak jelas apa saja pengecualian tersebut.
Anthropic juga mengatakan struktur pengecualian yang ada memungkinkan Claude digunakan untuk analisis intelijen asing yang sah secara hukum dan untuk memberikan peringatan dini mengenai potensi aktivitas militer, membuka jendela bagi diplomasi untuk mencegah atau menghalangi konflik. Namun, pembatasan lain terkait disinformasi, desain dan penggunaan senjata, sensor, dan operasi siber yang berbahaya masih tetap berlaku.
Kerja sama ini menandai perkembangan besar lainnya dari teknologi kecerdasan buatan di bidang pertahanan dan intelijen, dan juga menyoroti potensi penerapan Claude di lingkungan dengan keamanan tinggi. Namun, transparansi lebih lanjut diperlukan mengenai pengecualian terhadap kebijakan penggunaan yang dapat diterima untuk memastikan keandalan dan keamanan dalam penerapan keamanan nasional. Redaksi Downcodes akan terus memperhatikan perkembangan selanjutnya.