O mais recente relatório de pesquisa da RAND nos Estados Unidos atraiu atenção global, que revela um fato perturbador de que os chatbots baseados em grandes modelos de idiomas podem ser usados para planejar ataques de armas biológicas. Essa descoberta não apenas soou o alarme para o campo da segurança da inteligência artificial, mas também destacou os riscos potenciais trazidos pelo progresso tecnológico. O relatório observa que esses chatbots avançados podem fornecer orientações de planejamento e execução relacionadas a ataques biológicos.
Através de testes detalhados de vários chatbots convencionais, a equipe de pesquisa descobriu que esses sistemas de IA podem fornecer conselhos detalhados sobre como as armas biológicas são adquiridas, armazenadas e potencialmente usadas. Embora essas informações possam não ser completamente precisas ou viáveis, é suficiente ser uma referência para criminosos. Vale ressaltar que esses chatbots não forneceram ativamente essas informações, mas apenas deram respostas relevantes em perguntas induzidas pelo usuário, que mostram que ainda existem brechas óbvias na filtragem de conteúdo e proteção de segurança no sistema atual de IA.
Diante dessa situação severa, os pesquisadores pediram um foco na questão das ameaças da Bioweapon na cúpula global de segurança da IA. Eles sugerem normas estritas de uso de IA, limitando especialmente a abertura dos chatbots em tópicos sensíveis. Ao mesmo tempo, o relatório enfatizou a necessidade de fortalecer a cooperação internacional e estabelecer um mecanismo regulatório global de segurança de IA para impedir que as tecnologias avançadas sejam usadas para fins ilegais.
Este resultado da pesquisa provocou discussão generalizada na comunidade de ciências e tecnologia. Muitos especialistas acreditam que, com o rápido desenvolvimento da tecnologia de IA, riscos de segurança semelhantes podem continuar aumentando. Portanto, ao promover a inovação tecnológica, as medidas de proteção de segurança devem ser fortalecidas simultaneamente. As sugestões incluem: Melhorar o mecanismo de filtragem de conteúdo do sistema de IA, estabelecer um sistema para identificar e bloquear tópicos sensíveis e fortalecer o treinamento ético para os desenvolvedores de IA.
Além disso, o relatório também propõe estratégias de resposta específicas: primeiro, é recomendável que as empresas de desenvolvimento de IA incluam mecanismos de proteção de segurança no estágio de design do sistema; A implementação dessas medidas ajudará a minimizar o risco de abuso, promovendo o desenvolvimento da tecnologia de IA.
Com o avanço contínuo da tecnologia de IA, como encontrar um equilíbrio entre inovação tecnológica e proteção de segurança tornou -se um desafio comum que o mundo enfrenta. Este relatório da RAND não apenas revela os riscos de segurança existentes nos sistemas atuais de IA, mas também aponta a direção para o futuro desenvolvimento de segurança da IA. Somente através de colaboração multipartidária e estabelecimento de um mecanismo regulatório sólido pode ser garantido a tecnologia de IA, pode ser garantida a se desenvolver em uma faixa segura e controlável e trazer mais bem-estar à sociedade humana.