Palantir, Anthropic und Amazon Web Services (AWS) arbeiten zusammen, um eine Claude-basierte Cloud-Plattform für die Verteidigungs- und Geheimdienste der US-Regierung aufzubauen. Der Umzug integriert Claude 3 und 3.5 in die AI -Plattform von Palantir, die auf AWS gehostet wird und die Datenverarbeitungs- und Speicherzertifizierungen für vertrauliche Ebene nutzen, die die drei Unternehmen bereits erhalten haben. Der Schritt zielt darauf ab, die Datenverarbeitungseffizienz zu verbessern, die Mustererkennung und Trendanalyse zu unterstützen, die Überprüfungsprozesse der Dokumente zu vereinfachen und Regierungsbeamten letztendlich zu helfen, in Notfällen intelligentere Entscheidungen zu treffen.
Kürzlich kündigte Palantir eine Partnerschaft mit Anthropic und Amazon Web Services (AWS) an, um eine Claude -Cloud -Plattform aufzubauen, die für die Verwendung von Verteidigung und Geheimdiensten der US -Regierung geeignet ist.

Nach den Ankündigungen der drei Unternehmen wird die Zusammenarbeit Claude3 und 3.5 in die künstliche Intelligenzplattform von Palantir integrieren, die auf AWS gehostet wird. Es ist erwähnenswert, dass Palantir und AWS die vom US -Verteidigungsministerium herausgegebene Auswirkungen auf Stufe 6 (IL6) erhalten haben, die es ihnen ermöglicht, Daten auf höchstem Vertraulicher Ebene zu verarbeiten und zu speichern.
Ein Sprecher von Anthropic sagte, Claude sei zum ersten Mal Anfang Oktober der Verteidigung und der Geheimdienstgemeinschaft offen. Die US-Regierung wird Claude verwenden, um die Datenverarbeitungszeit zu verkürzen, Muster und Trends zu identifizieren, die Überprüfung der Dokumente zu vereinfachen und den Beamten zu helfen, klügere Entscheidungen zu treffen, wenn die Zeit eng ist, und gleichzeitig ihre Entscheidungsbefugnis beibehalten. "Palantir ist stolz darauf, der erste Branchenpartner zu sein, der das Claude -Modell in ein vertrauliches Umfeld bringt", sagte Shyam Sankar, CTO von Palantir.
Im Gegensatz zu Meta, das kürzlich die Eröffnung von Lama an die US -Regierung für Verteidigung und nationale Sicherheitsanträge angekündigt hat, setzen Sie relevante Nutzungsrichtlinien. Anthropic muss keine Ausnahmen von seiner akzeptablen Nutzungspolitik (AUP) machen, die es ermöglicht, dass Claude in potenziell gefährlichen Bereichen im US -Verteidigungsministerium, in der CIA oder in anderen Verteidigungs- und Geheimdienern, die sie verwenden, angewendet werden kann.
Obwohl Anthropic in seiner AUP einige Verwendungsfälle mit hohem Risiko identifiziert hat, begrenzt er seine Verwendung in Verteidigungs- und Geheimdienstbereichen nicht und erwähnt seine Verwendung in Bereichen wie Recht, Gesundheitswesen, Versicherungen, Finanzen, Beschäftigung, Wohnungsbau, akademischen und Medien nur . Auf die Frage nach der Beziehung zwischen AUP- und Regierungsanträgen erwähnte Anthropic nur einen Blog -Beitrag über die Erweiterung der staatlichen Zugang zu Claude.
In diesem Blog erwähnt Anthropic, dass der Mechanismus eingerichtet wurde, um Ausnahmen für die akzeptable Nutzungsrichtlinie für Regierungsbenutzer zu gewähren, und betont, dass diese Ausnahmen „gut kalibriert sind, um die nützliche Verwendung durch streng ausgewählte Regierungsbehörden zu ermöglichen“. Es ist jedoch unklar, was genau diese Ausnahmen sind.
Anthropic sagte auch, dass die bestehende Ausnahmestruktur es Claude ermöglicht, gesetzlich für ausländische Geheimdienste zu genehmigen und frühzeitig vor potenziellen militärischen Aktivitäten zu warnen, wodurch Fenster für die Diplomatie geöffnet werden, um Konflikte zu verhindern oder zu stoppen. Andere Einschränkungen für falsche Informationen, Waffendesign und -gebrauch, Zensur und böswillige Netzwerkoperationen bleiben jedoch bestehen.
Schlüsselpunkte:
Palantir hat sich mit Anthropic und AWS zusammengetan, um die Claude Cloud -Plattform zu starten, die für die US -Verteidigungsinformationen geeignet ist.
Claude wird für die Datenverarbeitung, Mustererkennung und Entscheidungsunterstützung verwendet, ohne Ausnahmen von Richtlinien für die akzeptable Verwendung zu verwenden.
Die akzeptable Nutzungsrichtlinie von Anthropic ermöglicht bestimmte Anwendungen im Verteidigungssektor, es gibt jedoch keine expliziten Einschränkungen für Bereiche mit hohem Risiko.
Die Zusammenarbeit integriert fortschrittliche KI-Technologien und Hochsicherheitsdatenverarbeitungsfunktionen und bietet eine starke Unterstützung für die Datenanalyse und Entscheidungsfindung der US-Regierung im Bereich Verteidigung und Intelligenz. Die Einschränkungen bei der Anwendung von Claude in Bereichen mit hohem Risiko müssen jedoch weiter geklärt werden, um die sichere und verantwortungsvolle Verwendung zu gewährleisten.