في الآونة الأخيرة ، اكتشف مستخدم الإنترنت على المنصة الاجتماعية X أنه عندما حاول أحدث إصدار من ChatGPT من GPT-4O إنشاء صورة لوردة ، رفض مباشرة ، مدعيا أنه "لا يمكنني إنشاء صورة لهذه الوردة لأنها تفشل في الامتثال لسياسة المحتوى لدينا". اجتذبت هذه الاستجابة غير المتوقعة بسرعة اهتمامًا واسع النطاق ، وبدأ العديد من مستخدمي الإنترنت في استكشاف الأسباب وراء ذلك وحاولوا إيجاد طرق لتجاوز هذا القيد.
من أجل التحقق من هذه الظاهرة ، أجرى مستخدمو الإنترنت العديد من التجارب. سواء كان ذلك باللغة الصينية أو الإنجليزية ، أو حتى محاولة استبدال "الوردة" برموز خاصة ، فإنه ينتهي بالفشل. حتى إذا تم طلب وردة صفراء ، فإن GPT-4O لا يزال يرفض. ومع ذلك ، عندما يتحول المستخدم إلى طلب إنشاء أزهار أخرى ، مثل الفاوانيا ، يمكن لـ GPT-4O إكمال المهمة بسهولة ، مما يدل على أن وظيفة توليد الصور نفسها ليست مشكلة.

مع تعمق المناقشة ، قام مستخدمو الإنترنت بتكهنات مختلفة. يعتقد بعض الناس أن كلمة "Rose" قد تكون مدرجة في القائمة السوداء ، مما يتسبب في فشل النظام في إنشاء صور ذات صلة ؛ يتكهن بعض الأشخاص بأن chatgpt قد يفهمون "Rose" كبعض تلميح غامض ، مما يؤدي إلى آلية تصفية المحتوى. والأكثر إثارة للاهتمام هو أن بعض المستخدمين مازحوا قد يكون ذلك بسبب عدد كبير من المستخدمين الذين طلبوا إنشاء صور وردة خلال يوم عيد الحب ، مما أدى إلى تقييد هذه الكلمة الرئيسية.
في اختبارات أخرى ، وجد مستخدمو الإنترنت أنه إذا تم استبدال "الوردة" بنموذج صيادي ، أو إذا لم يتم ذكر "الوردة" مباشرة ، ولكن بدلاً من ذلك يطلب توليد الصور من خلال وصف خصائصه ، يمكن لـ GPT-4O إكمال المهمة بسلاسة. أثار هذا الاكتشاف مناقشة متعمقة لآلية تصفية محتوى الذكاء الاصطناعى ، ويعتقد الكثير من الناس أن المطورين سياسات المحتوى المتشددة ، مما يؤدي إلى ظاهرة الحكم الخاطئة على ما يبدو.
في الوقت نفسه ، أثارت كلمة chatgpt المحرمة هذه جمعيات الناس. حدثت مواقف مماثلة من قبل. عندما يسأل المستخدمون عن أسماء معينة ، سيستجيب النظام أيضًا بشكل غامض ، مما يدل على تجنب محتوى معين. على الرغم من أن "توليد الورد" أصبح من المحرمات الجديدة ، إلا أنه لا يزال بإمكان برامج Chatbots الأخرى مثل Gemini و Grok توليد صور الورد بنجاح ، مما يدل على وجود اختلافات كبيرة في قيود المحتوى بين الأنظمة الأساسية المختلفة.
مع تخمير هذا الحادث ، أثار الناس المزيد من الأسئلة حول العقلانية والشفافية من الرقابة على محتوى الذكاء الاصطناعي. يتوقع الكثير من الناس أن تلبي الذكاء الاصطناعى في المستقبل الاحتياجات المتنوعة للمستخدمين بشكل أفضل ضمن نطاق معقول ، مع تجنب القيود غير الضرورية وسوء الحكم.