Google hat kürzlich seine Nutzungsbedingungen für generative KI aktualisiert und ermöglicht es Kunden, seine generativen KI-Tools zu nutzen, um automatisierte Entscheidungen in Hochrisikobereichen wie medizinischer Versorgung und Beschäftigung zu treffen, allerdings nur unter menschlicher Aufsicht. Dieser Schritt hat in der Branche Diskussionen über den Einsatz von KI in Hochrisikobereichen und Bedenken hinsichtlich der damit verbundenen Aufsicht ausgelöst. Der Schritt von Google steht im Gegensatz zu seinen Konkurrenten OpenAI und Anthropic, die strengere Beschränkungen für die automatisierte Entscheidungsfindung mit hohen Einsätzen haben. Dieses Update unterstreicht auch die dringende Notwendigkeit einer weltweiten KI-Regulierung und die Herausforderung, KI-Innovationen mit potenziellen Risiken in Einklang zu bringen.
Google hat kürzlich seine Nutzungsbedingungen für generative KI aktualisiert und erlaubt Kunden ausdrücklich die Nutzung seiner generativen KI-Tools für „automatisierte Entscheidungsfindung“ in „Hochrisikobereichen“ wie Gesundheitswesen und Beschäftigung, sofern eine menschliche Aufsicht erforderlich ist. Diese Änderung spiegelt sich in der neu veröffentlichten Richtlinie des Unternehmens wider, die den Einsatz generativer KI verbietet.

Hinweis zur Bildquelle: Das Bild wird von AI und dem Bildautorisierungsdienstleister Midjourney generiert
Gemäß der aktualisierten Richtlinie können Kunden die generative KI von Google unter Aufsicht nutzen, um automatisierte Entscheidungen zu treffen, die „erhebliche nachteilige Auswirkungen“ auf die Rechte einer Person haben könnten. Zu diesen Hochrisikobereichen gehören Beschäftigung, Wohnen, Versicherungen, Sozialfürsorge usw. Die vorherigen Bedingungen schienen ein generelles Verbot hochriskanter automatisierter Entscheidungsfindung vorzusehen, aber Google sagte, es habe tatsächlich von Anfang an den Einsatz generativer KI für solche Entscheidungen unter menschlicher Aufsicht zugelassen.
Ein Google-Sprecher antwortete den Medien mit den Worten: „Die Anforderung menschlicher Aufsicht war schon immer in unseren Richtlinien enthalten und deckt alle Bereiche mit hohem Risiko ab. Wir haben gerade einige Begriffe neu klassifiziert und einige Beispiele klarer aufgezählt, damit die Benutzer sie verstehen.“
Im Vergleich zum Ansatz von Google haben die Hauptkonkurrenten von Google wie OpenAI und Anthropic strengere Vorschriften für die automatisierte Entscheidungsfindung mit hohem Risiko. OpenAI verbietet die Nutzung seiner Dienste für automatisierte Entscheidungen in Bezug auf Kredit, Beschäftigung, Wohnen, Bildung, Sozialbewertung und Versicherung. Anthropic erlaubt seiner KI, automatisierte Entscheidungen in Hochrisikobereichen wie Recht, Versicherungen und medizinischer Versorgung zu treffen, jedoch nur unter der Aufsicht von „qualifizierten Fachleuten“ und verlangt von seinen Kunden, dass sie es klar über den Einsatz von KI für solche Entscheidungen informieren.
In Bezug auf KI-Systeme zur automatisierten Entscheidungsfindung haben die Regulierungsbehörden Bedenken geäußert, dass solche Technologien zu verzerrten Ergebnissen führen könnten. Untersuchungen zeigen beispielsweise, dass KI die historische Diskriminierung bei der Genehmigung von Kredit- und Hypothekenanträgen aufrechterhalten kann.
Human Rights Watch und andere gemeinnützige Organisationen haben ausdrücklich ein Verbot von „Social-Scoring“-Systemen gefordert und argumentiert, dass diese den Zugang der Menschen zur sozialen Sicherheit gefährden, die Privatsphäre verletzen und zu voreingenommener Profilerstellung führen könnten.
In der EU unterliegen KI-Systeme mit hohem Risiko, einschließlich solcher, die persönliche Kredit- und Beschäftigungsentscheidungen betreffen, der strengsten Aufsicht nach dem KI-Gesetz. Anbieter dieser Systeme müssen sich unter anderem in Datenbanken registrieren, ein Qualitäts- und Risikomanagement durchführen, menschliche Vorgesetzte beschäftigen und Vorfälle an die zuständigen Behörden melden.
In den Vereinigten Staaten hat Colorado kürzlich ein Gesetz verabschiedet, das KI-Entwickler dazu verpflichtet, Informationen über „hochriskante“ KI-Systeme offenzulegen und eine Zusammenfassung der Fähigkeiten und Einschränkungen des Systems zu veröffentlichen. Unterdessen verbietet die Stadt New York Arbeitgebern, automatisierte Tools zur Überprüfung von Kandidaten zu verwenden, es sei denn, das Tool wurde im vergangenen Jahr einem Bias-Audit unterzogen.
Highlight:
Google erlaubt den Einsatz generativer KI in Hochrisikobereichen, erfordert jedoch eine menschliche Aufsicht.
Andere KI-Unternehmen wie OpenAI und Anthropic haben strengere Beschränkungen für risikoreiche Entscheidungen.
Regulierungsbehörden in verschiedenen Ländern prüfen KI-Systeme auf automatisierte Entscheidungsfindung, um voreingenommene Ergebnisse zu verhindern.
Die Aktualisierung der Nutzungsbedingungen für generative KI durch Google hat weitreichende Diskussionen über die Ethik und Regulierung der KI ausgelöst. Regierungen und Institutionen auf der ganzen Welt untersuchen außerdem aktiv, wie die KI-Technologie besser reguliert werden kann, um ihre sichere und verantwortungsvolle Entwicklung zu gewährleisten. Künftig wird der Einsatz von KI in Hochrisikobereichen einer strengeren Prüfung und Überwachung unterliegen.