Metas „Made with AI“-Label löst Kontroversen aus! Mehrere Fotografen haben sich darüber beschwert, dass Meta fälschlicherweise echte Fotos, die sie aufgenommen haben, als KI-generierte Bilder bezeichnet hat. Dieses Problem betrifft die Verwendung von Fotobearbeitungssoftware. Selbst einfaches Zuschneiden und Komprimieren kann den Algorithmus von Meta auslösen und echte Fotos fälschlicherweise als KI-generierten Inhalt einschätzen. Dieser Vorfall verdeutlichte die Grenzen der KI-Bilderkennungstechnologie in praktischen Anwendungen und löste bei Fotografen auch Bedenken hinsichtlich des Urheberrechts und der Fairness von Algorithmen aus.
Berichten zufolge ist sich Meta des Problems bewusst und arbeitet an der Verbesserung seiner Bilderkennungsalgorithmen, um KI-generierte Bilder genauer zu identifizieren. Allerdings weist die aktuelle Meta-Methode immer noch Mängel auf, die den Kreationen und Werken der Fotografen Probleme bereiten. Meta sagte, es arbeite mit relevanten Unternehmen zusammen, um diesen Prozess zu verbessern, aber konkrete Lösungen und Verbesserungszeitpläne wurden noch nicht bekannt gegeben. Dieser Vorfall erinnert uns auch einmal mehr daran, dass wir bei der Entwicklung der KI-Technologie ihrem ethischen und sozialen Potenzial mehr Aufmerksamkeit schenken müssen Probleme.
Laut ausländischen Medienberichten beschwerten sich mehrere Fotografen darüber, dass Meta fälschlicherweise das Label „Made with AI“ auf echten Fotos angebracht habe, die sie aufgenommen hatten. Mehrere Fotografen haben in den letzten Monaten Beispiele geteilt, zuletzt bezeichnete Meta ein Foto eines Basketballspiels, das vom ehemaligen Fotografen des Weißen Hauses, Pete Souza, aufgenommen wurde, als KI-generiert.
In einem weiteren aktuellen Beispiel fügte Meta den Tag fälschlicherweise zu einem Instagram-Foto hinzu, auf dem die Kolkata Knight Riders eine erstklassige Cricket-Liga in Indien gewinnen. Interessanterweise wird dieser Tag, wie auch bei Sousas Foto, nur angezeigt, wenn das Bild auf einem mobilen Gerät angezeigt wird, nicht im Internet.

Souza sagte, es sei ihm nicht gelungen, das Etikett zu entfernen. Er spekulierte, dass die Verwendung des Adobe-Zuschneidetools und die Komprimierung des Bildes in das JPEG-Format den Algorithmus von Meta auslösen könnten.
Allerdings hat Meta echte Fotos auch fälschlicherweise als „Mit KI erstellt“ gekennzeichnet, als Fotografen generative KI-Tools wie Adobes Generative Fill verwendeten, um kleinste Objekte zu entfernen, berichtete PetaPixel. Die Veröffentlichung führte einen eigenen Test mit dem Werkzeug „Füllung generieren“ von Photoshop durch, um einen Fleck in einem Bild zu entfernen, den Meta dann auf Instagram als KI-generiert markierte. Als PetaPixel die Datei jedoch erneut in Photoshop hochlud und sie dann kopierte und zum Speichern in ein schwarzes Dokument einfügte, fügte Meta seltsamerweise nicht das Tag „Made with AI“ hinzu. Mehrere Fotografen haben ihren Unmut darüber geäußert, dass solche geringfügigen Bearbeitungen zu Unrecht als KI-generiert eingestuft wurden.
Der Fotograf Noah Kalina schrieb auf Threads: „Wenn alle ‚retuschierten‘ Fotos mit ‚Mit KI erstellt‘ gekennzeichnet wären, wäre der Begriff praktisch bedeutungslos. Wenn es ihnen mit dem Schutz der Menschen ernst wäre, würden sie möglicherweise automatisch jedem Foto mit der Aufschrift ‚nicht eine wahre Darstellung‘ geben.“ '."
Meta-Sprecherin Kate McLaughlin sagte in einer Erklärung, dass das Unternehmen sich des Problems bewusst sei und seinen Ansatz prüfe, „damit unsere Etiketten die Menge der in Bildern verwendeten KI widerspiegeln.“ „Wir verlassen uns darauf, dass andere Unternehmen die gleiche Technologie in ihren Tools verwenden.“ Da branchenübliche Kennzahlen enthalten sind, arbeiten wir aktiv mit diesen Unternehmen zusammen, um diesen Prozess zu verbessern und unseren Etikettierungsansatz an unsere Absicht anzupassen“, fügte McLaughlin hinzu.
Im Februar kündigte Meta an, dass es Fotos, die vor der diesjährigen Wahlsaison auf Facebook, Instagram und Threads hochgeladen werden, mit dem Tag „Made with AI“ versehen werde. Konkret sagte das Unternehmen, dass es Tags zu KI-Fotos hinzufügen wird, die mit Tools wie Google, OpenAI, Microsoft, Adobe, Midjourney und Shutterstock erstellt wurden.
Meta gab nicht bekannt, was den Auslöser für die Kennzeichnung „Made with AI“ darstellte, aber alle diese Unternehmen haben Metadaten zu Bilddateien hinzugefügt oder sind dabei, diese hinzuzufügen, um auf die Verwendung von KI-Tools hinzuweisen Fotos. Adobe hat beispielsweise letztes Jahr sein Content-Anmeldeinformationssystem eingeführt, das Informationen über die Quelle von Inhalten zu Metadaten hinzufügt.
Highlight:
– Mehrere Fotografen haben sich darüber beschwert, dass Meta echte Fotos fälschlicherweise als „Mit KI erstellt“ gekennzeichnet hat.
– Fotos, die mit Bearbeitungstools erstellt wurden, scheinen betroffen zu sein.
- Meta hat echte Fotos auch fälschlicherweise als „Mit KI erstellt“ gekennzeichnet, wenn generative KI-Tools verwendet wurden.
Die Antwort von Meta auf diese Frage zeigt, dass sie daran arbeiten, ihre Algorithmen zu verbessern, um Fehlalarme zu reduzieren. Dies zeigt aber auch die Grenzen der KI-Technologie bei der Bilderkennung und die möglichen negativen Auswirkungen in der praktischen Anwendung auf. Die Frage, wie technologische Entwicklung und Schutz der Benutzerrechte in Einklang gebracht werden können, ist immer noch ein Problem, das kontinuierlicher Aufmerksamkeit und Lösung bedarf.