O editor do Downcodes soube que Palantir, Anthropic e Amazon Web Services (AWS) estão trabalhando juntas para criar uma plataforma em nuvem Claude especialmente projetada para os departamentos de defesa e inteligência do governo dos EUA. Esta mudança integra Claude3 e 3.5 na plataforma de inteligência artificial da Palantir e conta com os poderosos recursos de computação em nuvem da AWS. Todas as três empresas receberam a certificação IL6 do Departamento de Defesa dos EUA, o que lhes permite lidar com segurança com dados de nível ultrassecreto. A plataforma foi projetada para melhorar a eficiência do processamento de dados, as capacidades de reconhecimento de padrões e a velocidade de tomada de decisões, ajudando as agências governamentais a tomar decisões mais informadas em situações urgentes.

De acordo com as informações divulgadas pelas três empresas no edital, esta cooperação integrará Claude3 e 3.5 na plataforma de inteligência artificial da Palantir, que será hospedada na AWS. Vale ressaltar que Palantir e AWS obtiveram a certificação Impact Level 6 (IL6) do Departamento de Defesa dos EUA, o que lhes permite processar e armazenar dados de nível ultrassecreto.
Um porta-voz da Antrópico disse que Claude ficou disponível para as comunidades de defesa e inteligência no início de outubro. O governo dos EUA usará Claude para reduzir o tempo de processamento de dados, identificar padrões e tendências, agilizar a revisão de documentos e ajudar as autoridades a tomar decisões mais informadas em situações de tempo crítico, mantendo ao mesmo tempo a sua autoridade de tomada de decisão. “A Palantir tem orgulho de ser o primeiro parceiro da indústria a trazer o modelo Claude para um ambiente confidencial”, disse Shyam Sankar, diretor de tecnologia da Palantir.
Ao contrário da Meta, que anunciou recentemente que abriria o Llama ao governo dos EUA para aplicações de defesa e segurança nacional, ela definiu suas próprias políticas de uso. A Anthropic não precisa fazer exceções à sua Política de Uso Aceitável (AUP), que permite que Claude seja usado em áreas potencialmente perigosas pelo Departamento de Defesa dos EUA, pela CIA ou por outras agências de defesa e inteligência que o utilizam.
Embora a Anthropic tenha identificado alguns casos de uso de alto risco em sua AUP, ela não limitou sua aplicação aos campos de defesa e inteligência, apenas mencionando o uso em áreas como direito, saúde, seguros, finanças, emprego, habitação, academia e mídia Claude é “um campo preocupado com o bem-estar público e a justiça social”. Quando questionada sobre a relação da AUP com aplicações governamentais, a Anthropic apontou apenas uma postagem no blog sobre a expansão do acesso governamental a Claude.
No blog, a Anthropic observou que estabeleceu um mecanismo para conceder exceções à sua política de uso aceitável para usuários governamentais, enfatizando que essas exceções são “cuidadosamente calibradas para permitir o uso benéfico por agências governamentais cuidadosamente selecionadas”. No entanto, não está claro exatamente quais são essas exceções.
A Anthropic também disse que a estrutura de exceção existente permite que Claude seja usado para análises de inteligência estrangeira legalmente autorizadas e para fornecer aviso prévio de atividade militar potencial, abrindo janelas para a diplomacia prevenir ou dissuadir conflitos. No entanto, permanecem em vigor outras restrições relacionadas com a desinformação, a conceção e utilização de armas, a censura e as operações cibernéticas maliciosas.
Esta cooperação marca outro grande desenvolvimento da tecnologia de inteligência artificial no domínio da defesa e da inteligência, e também destaca o potencial de aplicação de Claude em ambientes de alta segurança. No entanto, é necessária mais transparência no que diz respeito às exceções à sua política de utilização aceitável, para garantir a sua fiabilidade e segurança nas aplicações de segurança nacional. O editor de Downcodes continuará atento ao desenvolvimento subsequente.