Nvidia baru-baru ini meluncurkan tiga layanan mikro NIM (Nvidia Infrastructure Microservices) baru sebagai perpanjangan dari toolkit open source NeMo Guardrails, yang bertujuan untuk meningkatkan kemampuan perlindungan keamanan aplikasi agen AI perusahaan. Ketiga layanan ini masing-masing berfokus pada keamanan konten, pembatasan topik percakapan, dan mencegah jailbreak agen AI. Ketiga layanan ini secara efektif menutupi kemungkinan celah dalam kebijakan keamanan global dan memberikan jaminan keamanan yang lebih baik bagi perusahaan untuk menerapkan agen AI. Model ringan ini seperti pagar pengaman, yang sangat penting dalam konteks semakin populernya aplikasi AI.
Nvidia baru-baru ini merilis tiga layanan mikro NIM (Nvidia Infrastructure Microservices) baru sebagai perpanjangan dari toolkit open source NeMo Guardrails, yang bertujuan untuk memberikan kemampuan kontrol keamanan yang lebih baik untuk aplikasi agen AI perusahaan.
Ketiga layanan baru ini memiliki karakteristiknya masing-masing: pertama untuk keamanan konten untuk mencegah AI menghasilkan konten yang berbahaya atau bias; yang kedua adalah untuk memastikan bahwa percakapan dibatasi pada topik yang disetujui; yang ketiga adalah untuk mencegah agen AI menerobos batasan sistem atau pembobolan penjara. Dengan menerapkan model khusus yang ringan ini sebagai pagar pengaman, pengembang dapat menutup kesenjangan perlindungan yang mungkin dimiliki oleh kebijakan global.

Langkah ini mencerminkan tantangan praktis dalam penerapan AI. Meskipun CEO Salesforce Marc Benioff memperkirakan platformnya akan memiliki lebih dari 1 miliar agen AI pada tahun depan, penelitian terbaru Deloitte menunjukkan bahwa laju adopsi perusahaan lebih hati-hati: hanya 25% perusahaan diperkirakan akan menggunakan agen AI pada tahun 2025 , dan pada tahun 2027 Proporsi ini akan meningkat menjadi 50% pada tahun 2018.
Data ini menunjukkan bahwa perusahaan berhati-hati terhadap teknologi agen AI, dan kecepatan adopsinya jauh lebih lambat dibandingkan kecepatan inovasi teknologi. Layanan keamanan yang dirilis Nvidia kali ini dimaksudkan untuk mengurangi kekhawatiran perusahaan yang menggunakan agen AI dengan memperkuat keamanan dan pengendalian.
Namun, masih harus dilihat apakah alat-alat baru ini dapat secara efektif mempercepat penerapan AI perusahaan.
Langkah Nvidia bertujuan untuk mengatasi kekhawatiran perusahaan mengenai keamanan agen AI, meningkatkan kredibilitas aplikasi AI, dan dengan demikian mempromosikan penerapan teknologi AI yang lebih luas di bidang perusahaan. Namun, keberhasilan penerapan AI pada perusahaan memerlukan lebih banyak pengujian praktis dan perhatian terus-menerus terhadap masukan dari pasar.