Baru-baru ini, seorang netizen yang ditemukan di platform sosial X bahwa ketika versi terbaru GPT-4O mencoba menghasilkan gambar mawar, ia secara langsung menolak, mengklaim bahwa "Saya tidak dapat menghasilkan gambar mawar ini karena gagal mematuhi kebijakan konten kami." Respons tak terduga ini dengan cepat menarik perhatian luas, dan banyak netizen mulai mengeksplorasi alasan di baliknya dan mencoba menemukan cara untuk melewati batasan ini.
Untuk memverifikasi fenomena ini, netizen melakukan banyak percobaan. Apakah itu dalam bahasa Cina atau Inggris, atau bahkan mencoba mengganti "mawar" dengan simbol khusus, itu berakhir dengan kegagalan. Bahkan jika mawar kuning diminta, GPT-4O masih menolak. Namun, ketika pengguna beralih untuk meminta untuk menghasilkan bunga lain, seperti peony, GPT-4O dapat dengan mudah menyelesaikan tugas, yang menunjukkan bahwa fungsi pembuatan gambar itu sendiri bukan masalah.

Ketika diskusi semakin dalam, netizen membuat berbagai spekulasi. Beberapa orang berpikir bahwa kata "mawar" mungkin masuk daftar hitam, menyebabkan sistem gagal menghasilkan gambar yang relevan; Beberapa orang berspekulasi bahwa chatgpt mungkin memahami "naik" sebagai petunjuk yang tidak jelas, yang memicu mekanisme penyaringan konten. Yang lebih menarik adalah bahwa beberapa pengguna bercanda bahwa itu mungkin karena sejumlah besar pengguna meminta untuk menghasilkan gambar mawar selama Hari Valentine, yang menyebabkan sistem membatasi kata kunci ini.
Dalam tes lebih lanjut, netizen menemukan bahwa jika "mawar" diganti dengan bentuk jamak, atau jika "mawar" tidak disebutkan secara langsung, tetapi sebaliknya meminta generasi gambar dengan menggambarkan karakteristiknya, GPT-4O dapat menyelesaikan tugas dengan lancar. Penemuan ini memicu diskusi mendalam tentang mekanisme penyaringan konten AI, dan banyak orang percaya bahwa mungkin pengembang kebijakan konten yang dikodekan, yang mengarah pada fenomena kesalahan penilaian yang tampaknya aneh ini.
Pada saat yang sama, kata tabu chatgpt ini juga memicu asosiasi orang. Situasi serupa telah terjadi sebelumnya. Ketika pengguna meminta nama spesifik tertentu, sistem juga akan merespons secara samar, menunjukkan penghindaran konten tertentu. Meskipun "menghasilkan mawar" telah menjadi tabu baru, obrolan AI lainnya seperti Gemini dan Grok masih dapat berhasil menghasilkan gambar mawar, yang menunjukkan bahwa ada perbedaan yang signifikan dalam pembatasan konten antara platform yang berbeda.
Ketika kejadian ini berfermentasi, orang -orang telah mengajukan lebih banyak pertanyaan tentang rasionalitas dan transparansi sensor konten AI. Banyak orang berharap bahwa AI di masa depan dapat dengan lebih baik memenuhi kebutuhan pengguna yang beragam dalam kisaran yang masuk akal, sambil menghindari pembatasan dan kesalahan penilaian yang tidak perlu.