يكشف أحدث بحث من مركز الأخبار الرقمية في Columbia News Review عن ظاهرة مروعة: توفر شعبية أدوات البحث من الذكاء الاصطناعي معلومات غير صحيحة أو مضللة عند الإجابة على الأسئلة. هذا الاكتشاف لا يقلق فحسب ، بل يضعف أيضًا الثقة العامة في التقارير الإخبارية مباشرةً ، مع تعريض الناشرين لمضاعفة الخسائر في حركة المرور والإيرادات.

اختبر الباحثون ثمانية chatbots من الذكاء الاصطناعي بما في ذلك chatgpt ، الحيرة ، الجوزاء وغروك ، يطلبون منهم تحديد مقتطفات من 200 مقالة إخبارية. تظهر النتائج أن أكثر من 60 ٪ من الإجابات خاطئة. غالبًا ما تقوم هذه الدردشة بتصنيع العناوين ، ولا تقتبس المقالات ، أو تقتبس محتوى غير مصرح به. حتى لو أشروا بشكل صحيح إلى الناشر ، فإن الروابط غالبًا ما تشير إلى عناوين URL غير صالحة أو الإصدارات المعاد طباعتها أو الصفحات غير المرتبطة بالمحتوى.
بشكل مخيب للآمال ، نادراً ما تعبر هذه الدردشة عن عدم اليقين ، ولكن بدلاً من ذلك توفر إجابات خاطئة بثقة غير لائقة. على سبيل المثال ، يوفر ChatGPT 134 رسالة خطأ في 200 استفسار ، لكنها أعربت عن شكوكها فقط في 15 مرة. حتى الإصدارات المدفوعة من Perplexity Pro و Grok3 ليست مرضية ، مع ارتفاع عدد الإجابات الخاطئة ، على الرغم من أنها بسعر 20 دولارًا و 40 دولارًا شهريًا ، على التوالي.
فيما يتعلق باستشهادات المحتوى ، فشلت العديد من الدردشة في متابعة محاولات الناشرين التقييدية ، وتجاهلت خمسة chatbots المعيار المقبول على نطاق واسع لبروتوكولات استبعاد الروبوت. الحيرة ذات مرة نقلت المقالات بشكل صحيح من National Geographic عندما قام الناشرون بتقييد زحفهم. في هذه الأثناء ، تلاوة Chatgpt USA TODAY مقالات من محتوى PayWall من خلال أخبار Yahoo غير المصرح بها.
بالإضافة إلى ذلك ، يوجه العديد من المستخدمين chatbots إعادة طبع مقالات على منصات مثل AOL أو Yahoo ، بدلاً من المصدر الأصلي ، حتى لو تم التوصل إلى اتفاقية تفويض مع شركات الذكاء الاصطناعي. على سبيل المثال ، استشهد Perplexity Pro بنسخة أعيد طبعها من منتدى تكساس لكنها فشلت في إعطاء التوقيع الواجب. غالبًا ما يخترع Grok3 و Gemini عناوين URL ، و 154 من إجابات Grok3 200 رابط لصفحة الخطأ.
تسلط هذه الدراسة الضوء على الأزمة المتنامية التي تواجه المنظمات الإخبارية. يستخدم المزيد والمزيد من الأميركيين أدوات الذكاء الاصطناعى كمصدر للمعلومات ، ولكن على عكس Google ، لا توجه chatbots حركة المرور إلى مواقع الويب ، ولكنها تلخص المحتوى بدلاً من ذلك ، مما يتسبب في خسارة الناشرين إيرادات الإعلانات. حذرت دانييل كوفي من تحالف وسائل الإعلام الإخبارية من أنه من دون السيطرة على الزواحف ، لن يتمكن الناشرون من "جعل المحتوى القيمة أو دفع رواتب الصحفيين" بشكل فعال ".
بعد الاتصال بـ Openai و Microsoft ، دافع فريق البحث عن نهجهما لكنه لم يستجب لنتائج بحثية محددة. قالت Openai إنها "تحترم تفضيلات الناشرين" وتساعد المستخدمين على "اكتشاف محتوى الجودة" ، بينما تدعي Microsoft أنها تتبع بروتوكول "Robots.txt". يشدد الباحثون على أن ممارسات الاقتباس الخاطئة هي قضايا منهجية ، وليس الأدوات الفردية. ودعوا شركات الذكاء الاصطناعى إلى تحسين الشفافية والدقة واحترام حقوق الناشر.
النقاط الرئيسية:
وجدت الدراسة أن معدل خطأ الإجابة في AI chatbots يتجاوز 60 ٪ ، مما يؤثر بشكل خطير على مصداقية الأخبار.
تتجاهل العديد من chatbots قيود الناشر ويقتبس من المحتوى غير المصرح به والروابط الخاطئة.
تواجه المنظمات الإخبارية أزمة مزدوجة من حركة المرور والإيرادات ، وتستبدل أدوات الذكاء الاصطناعي تدريجياً محركات البحث التقليدية.