Die Anthropic Corporation kündigte kürzlich einen ehrgeizigen Plan zur Finanzierung der Entwicklung neuer Benchmarks zur Bewertung der Leistung und Wirkung von Modellen der künstlichen Intelligenz an, was einen wichtigen Schritt auf dem Gebiet der Sicherheitsbewertung künstlicher Intelligenz darstellt. Das Programm wird Drittorganisationen Mittel zur Entwicklung von Tools zur Verfügung stellen, mit denen sich die erweiterten Fähigkeiten von Modellen der künstlichen Intelligenz, insbesondere die Fähigkeiten generativer KI-Modelle, effektiv messen lassen. Dieser Schritt wird nicht nur das Gesamtniveau des Sicherheitsbereichs der künstlichen Intelligenz verbessern, sondern auch wertvolle Bewertungswerkzeuge für das gesamte Ökosystem bereitstellen und den aktuellen Mangel an hochwertigen sicherheitsbezogenen Bewertungswerkzeugen beheben. Die Initiative von Anthropic ist bemerkenswert, hat aber auch einige Diskussionen über ihre Fairness und Fokussierung ausgelöst.
Anthropic kündigte am Montag den Start einer neuen Initiative zur Finanzierung der Entwicklung neuer Benchmarks an, mit denen die Leistung und Wirkung von Modellen der künstlichen Intelligenz bewertet werden können, einschließlich generativer Modelle wie seinem eigenen Claude.
Laut Informationen im offiziellen Blog von Anthropic wird das Unternehmen Drittorganisationen finanziell unterstützen, um Tools zu entwickeln, die „die erweiterten Fähigkeiten von Modellen der künstlichen Intelligenz effektiv messen“. Interessierte Organisationen können einen Antrag einreichen und die Bewertung erfolgt fortlaufend.

Anthropic sagte, die Investition ziele darauf ab, den gesamten Bereich der Sicherheit künstlicher Intelligenz zu verbessern und wertvolle Werkzeuge für das gesamte Ökosystem bereitzustellen. Das Unternehmen ist davon überzeugt, dass die Entwicklung qualitativ hochwertiger, sicherheitsbezogener Bewertungen weiterhin eine Herausforderung darstellt und die Nachfrage das Angebot übersteigt.
Mit einem Schwerpunkt auf KI-Sicherheit und sozialen Auswirkungen plant das Programm, durch neue Tools, Infrastruktur und Methoden herausfordernde Benchmarks zu schaffen. Anthropic forderte gezielt Tests an, um die Fähigkeiten des Modells in Bereichen wie Cyberangriffe, Waffenmodifikationen, Manipulation oder Täuschung zu bewerten. Darüber hinaus arbeitet das Unternehmen an der Entwicklung eines „Frühwarnsystems“ zur Erkennung und Bewertung nationaler Sicherheits- und verteidigungsbezogener Risiken durch künstliche Intelligenz.
Anthropic sagte außerdem, dass das neue Programm die Forschung unterstützen wird, die das Potenzial künstlicher Intelligenz erforscht, um wissenschaftliche Forschung zu unterstützen, in mehreren Sprachen zu kommunizieren, Voreingenommenheit und Selbstzensur zu mildern. Um diese Ziele zu erreichen, plant das Unternehmen den Aufbau neuer Plattformen, die es Experten ermöglichen, Bewertungen zu entwickeln und groß angelegte Studien durchzuführen.
Der Schritt von Anthropic wurde zwar gelobt, warf aber auch einige Fragen auf. Einige Leute glauben, dass die Fairness der finanzierten Projekte beeinträchtigt werden könnte, wenn man die kommerziellen Interessen des Unternehmens berücksichtigt. Darüber hinaus äußerten einige Experten Skepsis gegenüber einigen der von Anthropic genannten „katastrophalen“ und „trügerischen“ KI-Risiken und argumentierten, dass dies von den dringenderen Problemen der aktuellen KI-Regulierung ablenken könnte.
Anthropic hofft, dass diese Initiative dazu beitragen wird, umfassende KI-Bewertungen zum Industriestandard zu machen. Es bleibt jedoch abzuwarten, ob unabhängige KI-Benchmark-Entwicklungsgruppen bereit sein werden, mit kommerziellen KI-Anbietern zusammenzuarbeiten.
Es wird einige Zeit dauern, um zu testen, ob Anthropics Schritt die Entwicklung des Bereichs der Sicherheitsbewertung künstlicher Intelligenz erfolgreich vorantreiben und die Einrichtung fairerer und umfassenderer Bewertungsstandards fördern kann. Die langfristigen Auswirkungen und potenziellen Einschränkungen seiner Pläne erfordern weiterhin kontinuierliche Aufmerksamkeit und Bewertung.