Meta löste kürzlich Kontroversen aus, als sein KI-Bilderkennungssystem echte Fotos fälschlicherweise als „KI-produziert“ bezeichnete. Mehrere Fotografen, darunter der frühere Fotograf des Weißen Hauses, Pete Souza, haben über ähnliche Probleme berichtet, da ihre Arbeiten fälschlicherweise als KI-generiert gekennzeichnet wurden, was Fragen zur Genauigkeit der KI-Erkennungstechnologie von Meta aufwirft und mögliche Mängel in diesem System sowie mögliche Verletzungen der Rechte der Urheber aufdeckt . Dieser Vorfall verbreitete sich schnell in den sozialen Medien und erregte große Aufmerksamkeit.
Kürzlich war der Social-Media-Riese Meta in eine Kontroverse über KI-Tags verwickelt. Mehrere Fotografen haben sich darüber beschwert, dass Meta fälschlicherweise die Bezeichnung „Made by AI“ auf echten Fotos angebracht hat, die sie aufgenommen haben, was Fragen zur Genauigkeit der KI-Erkennungssysteme des Unternehmens aufwirft.
Dieses Problem wurde erstmals vom ehemaligen Fotografen des Weißen Hauses, Pete Souza, entdeckt. Ein von ihm aufgenommenes Basketballspielfoto wurde fälschlicherweise als von Meta erstellt gekennzeichnet. Später berichteten weitere Fotografen über ähnliche Situationen, darunter auch, dass das Foto des indischen Premier-League-Meisters falsch markiert war. Interessanterweise erscheinen diese Fehlerbezeichnungen nur auf Mobilgeräten und nicht im Web.
Noch besorgniserregender ist, dass selbst äußerst geringfügige Änderungen die KI-Tags von Meta auslösen könnten. PetaPixel berichtet, dass die Verwendung des Tools „Generative Füllung“ von Adobe Photoshop zum Entfernen kleiner Kleckse aus einem Bild ausreichte, damit Meta das Foto als KI-generiert kennzeichnen konnte. Dies löste einen Aufschrei bei Fotografen aus, die argumentierten, dass solche geringfügigen Retuschen nicht als KI-generiert bezeichnet werden sollten.

Der Fotograf Noah Kalina äußerte in Threads seine Meinung: „Wenn ein ‚retuschiertes‘ Foto ‚mit KI erstellt‘ wird, dann verliert der Begriff praktisch seine Bedeutung.“ „keine wahre Darstellung“.
Angesichts der Kontroverse räumte Meta-Sprecherin Kate McLaughlin ein, dass das Unternehmen sich des Problems bewusst sei und seine Kennzeichnungsmethoden prüfe, um das Ausmaß des Einsatzes von KI in Bildern genauer wiederzugeben. Meta sagte, es verlasse sich auf branchenübliche Kennzahlen und arbeite mit anderen Unternehmen zusammen, um den Prozess zu verbessern.
Die Kontroverse geht auf einen von Meta im Februar angekündigten Plan zurück, Fotos, die mit bestimmten KI-Tools erstellt wurden, vor der Wahlsaison mit dem Label „KI-gemacht“ zu versehen. Obwohl Meta den spezifischen Auslösemechanismus nicht offengelegt hat, wird in der Branche allgemein angenommen, dass er mit den Metadaten in der Bilddatei zusammenhängt.
Mit der weit verbreiteten Anwendung der KI-Technologie in der Bildverarbeitung ist die genaue Identifizierung und Kennzeichnung von KI-generierten Inhalten zu einem heiklen Thema geworden. Die Kontroverse um Meta spiegelt nicht nur die Grenzen der aktuellen KI-Erkennungstechnologie wider, sondern löst auch bei den Menschen ein tiefes Nachdenken über die Authentizität digitaler Inhalte und die Rechte der Urheber aus. Während die Kontroverse anhält, erwartet die Branche, dass Meta sein Kennzeichnungssystem so schnell wie möglich verbessert und ein Gleichgewicht zwischen dem Schutz der Benutzer und der Achtung der Urheber findet.
Meta muss sich diesem Vorfall stellen und ernsthaft über die Genauigkeit seines KI-Erkennungssystems und die Fairness seines Algorithmus nachdenken. Nur durch kontinuierliche Verbesserung der Technologie und aktive Kommunikation mit Fotografen und anderen Content-Erstellern können wir dieses Problem endlich lösen und eine gute Internetökologie aufrechterhalten.