Редактор Downcodes узнал, что Palantir, Anthropic и Amazon Web Services (AWS) совместно работают над созданием облачной платформы Claude, специально разработанной для оборонных и разведывательных ведомств правительства США. Этот шаг интегрирует Claude3 и 3.5 в платформу искусственного интеллекта Palantir и опирается на мощные возможности облачных вычислений AWS. Все три компании получили сертификат IL6 от Министерства обороны США, что позволяет им безопасно обрабатывать данные совершенно секретного уровня. Платформа предназначена для повышения эффективности обработки данных, возможностей распознавания образов и скорости принятия решений, помогая государственным учреждениям принимать более обоснованные решения в чрезвычайных ситуациях.

Согласно информации, раскрытой тремя компаниями в объявлении, это сотрудничество позволит интегрировать Claude3 и 3.5 в платформу искусственного интеллекта Palantir, которая будет размещена на AWS. Стоит отметить, что Palantir и AWS получили от Министерства обороны США сертификат Impact Level 6 (IL6), который позволяет им обрабатывать и хранить данные совершенно секретного уровня.
Представитель Anthropic сообщил, что Клод впервые стал доступен оборонным и разведывательным сообществам в начале октября. Правительство США будет использовать Claude для сокращения времени обработки данных, выявления закономерностей и тенденций, оптимизации проверки документов и помощи чиновникам принимать более обоснованные решения в срочных ситуациях, сохраняя при этом свои полномочия по принятию решений. «Palantir гордится тем, что является первым отраслевым партнером, который перенес модель Клода в конфиденциальную среду», — сказал Шьям Санкар, технический директор Palantir.
В отличие от Meta, которая недавно объявила, что откроет Llama правительству США для приложений обороны и национальной безопасности, она установила свою собственную политику использования. Anthropic не обязана делать исключения из своей Политики допустимого использования (AUP), которая позволяет использовать Claude в потенциально опасных областях Министерством обороны США, ЦРУ или другими оборонными и разведывательными агентствами, которые его используют.
Хотя Anthropic выявила в своем AUP несколько случаев использования с высоким уровнем риска, она не ограничила свое применение областями обороны и разведки, упоминая только использование в таких областях, как право, здравоохранение, страхование, финансы, занятость, жилье, научные круги и средства массовой информации. Клод – это «область, занимающаяся общественным благосостоянием и социальной справедливостью». Когда его спросили об отношениях AUP с правительственными заявками, Anthropic указал только на сообщение в блоге о расширении доступа правительства к Claude.
В своем блоге Anthropic отметила, что создала механизм предоставления исключений из своей политики приемлемого использования для государственных пользователей, подчеркнув, что эти исключения «тщательно выверены, чтобы обеспечить возможность полезного использования тщательно отобранными государственными учреждениями». Однако неясно, что именно представляют собой эти исключения.
Антропик также сообщил, что существующая структура исключений позволяет использовать Клода для легального анализа внешней разведки и для заблаговременного предупреждения о потенциальной военной деятельности, открывая окна для дипломатии для предотвращения или сдерживания конфликта. Однако другие ограничения, связанные с дезинформацией, разработкой и использованием оружия, цензурой и злонамеренными кибероперациями, остаются в силе.
Это сотрудничество знаменует собой еще одно важное развитие технологии искусственного интеллекта в сфере обороны и разведки, а также подчеркивает потенциал применения Клода в средах с высоким уровнем безопасности. Однако необходима дополнительная прозрачность в отношении исключений из политики допустимого использования, чтобы обеспечить ее надежность и безопасность в приложениях национальной безопасности. Редактор Downcodes продолжит уделять внимание дальнейшему развитию.