Kürzlich entdeckte ein Internetnutzer auf der sozialen Plattform X, dass, als Chatgpts neueste Version von GPT-4O versuchte, ein Bild einer Rose zu erzeugen, direkt abgelehnt und behauptete, dass "ich kein Bild dieser Rose generieren kann, weil es unsere Inhaltsrichtlinie nicht einhält". Diese unerwartete Reaktion erregte schnell weit verbreitete Aufmerksamkeit, und viele Internetnutzer begannen, die Gründe dafür zu untersuchen, und versuchten, Wege zu finden, um diese Einschränkung zu umgehen.
Um dieses Phänomen zu überprüfen, führten die Internetnutzer viele Experimente durch. Egal, ob es sich in Chinesisch oder Englisch befindet oder sogar versucht, "Rose" durch spezielle Symbole zu ersetzen, es endet mit dem Versagen. Selbst wenn eine gelbe Rose angefordert wird, lehnt GPT-4O immer noch ab. Wenn sich der Benutzer jedoch an die Anfrage dreht, um andere Blumen wie Peonies zu generieren, kann GPT-4O die Aufgabe leicht erledigen, was zeigt, dass seine Bildgenerierungsfunktion selbst kein Problem darstellt.

Als sich die Diskussion vertiefte, machten die Internetnutzer verschiedene Spekulationen. Einige Leute denken, dass das Wort "Rose" möglicherweise auf die schwarze Liste steht, was dazu führt, dass das System nicht relevante Bilder erzeugt. Einige Leute spekulieren, dass Chatgpt "Rose" als einen obskuren Hinweis verstehen kann, was den Inhaltsfiltermechanismus auslöst. Interessanter ist, dass einige Benutzer scherzten, dass dies daran liegen kann, dass eine große Anzahl von Benutzern, die zum Generieren von Rosenbildern während des Valentinstags angefordert wurden, was dazu führte, dass das System dieses Schlüsselwort einschränkte.
In weiteren Tests stellten die Internetnutzer fest, dass, wenn die "Rose" durch eine Pluralform ersetzt wird oder wenn die "Rose" nicht direkt erwähnt wird, sondern die Erzeugung von Bildern durch die Beschreibung ihrer Eigenschaften fordert, GPT-4O die Aufgabe reibungslos erledigen kann. Diese Entdeckung löste eine eingehende Diskussion des KI-Inhaltsfilterungsmechanismus aus, und viele Menschen glauben, dass es sein mag, dass Entwickler hart codierte Inhaltsrichtlinien zu diesem scheinbar seltsamen Fehleinschätzungsphänomen führen.
Gleichzeitig löste dieses Tabu -Wort von Chatgpt auch die Verbände der Menschen aus. Ähnliche Situationen sind zuvor aufgetreten. Wenn Benutzer nach bestimmten Namen fragen, reagiert das System auch vage und zeigt die Vermeidung spezifischer Inhalte an. Obwohl "Generating a Rose" zu einem neuen Tabu geworden ist, können andere KI -Chatbots wie Gemini und Grok immer noch erfolgreich Rosebilder generieren, was zeigt, dass es signifikante Unterschiede in den Inhaltsbeschränkungen zwischen verschiedenen Plattformen gibt.
Als dieser Vorfall fermentiert sich die Menschen mehr Fragen zur Rationalität und Transparenz der Zensur von KI -Inhalten. Viele Menschen erwarten, dass KI in Zukunft die vielfältigen Bedürfnisse von Benutzern in einem angemessenen Bereich besser erfüllen und gleichzeitig unnötige Einschränkungen und Fehleinschätzungen vermeiden kann.