Официальный веб-сайт www.binance.com/zh-cn :введите официальный веб-сайт ☜☜
Приложение: ☞☞official App Download☜☜
Последнее исследование Центра цифровых новостей в Columbia News Review показывает шокирующее явление: популярность инструментов поиска искусственного интеллекта предоставляет неправильную или вводящую в заблуждение информацию при ответе на вопросы. Это открытие не только беспокоит, но и непосредственно ослабляет общественное доверие к новостям, а также подвергает издателей удвоить убытки в движении и доходах.

Исследователи протестировали восемь генеративных чат -ботов ИИ, в том числе CHATGPT, Nearplensity, Gemini и Grok, попросили их определить выдержки из 200 последних новостных статей. Результаты показывают, что более 60% ответов неверны. Эти чат -боты часто изготавливают названия, не цитируют статьи и не цитируют несанкционированный контент. Даже если они правильно указывают на издатель, ссылки часто указывают на неверные URL -адреса, перепечатанные версии или страницы, которые не связаны с содержанием.
Отвечающе, что эти чат -боты редко выражают неопределенность, но вместо этого предоставляют неправильные ответы с неуместной уверенностью. Например, CHATGPT предоставляет 134 сообщения об ошибках в 200 запросах, но выразил подозрение только в 15 раз. Даже оплачиваемые версии озадачивания Pro и Grok3 не являются удовлетворительными, причем число неправильных ответов выше, хотя они стоят 20 и 40 долларов в месяц соответственно.
Что касается цитат контента, несколько чат -ботов не смогли следовать ограничительным попыткам издателей, и пять чат -ботов даже проигнорировали широко принятый стандарт протоколов исключения ботов. Смущение однажды правильно цитировала статьи из National Geographic, когда издатели ограничили их сканеров. Тем временем CHATGPT прочитал USA Today статьи о контенте Paywall через несанкционированные Yahoo News.
Кроме того, многие чат -боты направляют пользователей на перепечатанные статьи на таких платформах, как AOL или Yahoo, а не на первоначальный источник, даже если соглашение о разрешении было достигнуто с компаниями искусственного интеллекта. Например, «Смущение» процитировала перепечатанную версию Техасского форума, но не смогла дать должную подпись. Grok3 и Gemini часто изобретают URL -адреса, и 154 из 200 ответов Grok3 ссылаются на страницу ошибки.
Это исследование подчеркивает растущий кризис, стоящий перед новостными организациями. Все больше и больше американцев используют инструменты ИИ в качестве источника информации, но в отличие от Google, чат -боты не направляют трафик на веб -сайты, а вместо этого суммируют контент, не связываясь, в результате чего издатели теряют доход от рекламы. Даниэль Коффи из Союза новостных СМИ предупредила, что без контроля над скалерами издатели не смогут эффективно «создавать ценный контент или платить зарплату журналистов».
После контакта с OpenAI и Microsoft исследовательская группа защищала свой подход, но не ответила на конкретные результаты исследований. OpenAI заявил, что «уважает предпочтения издателей» и помогает пользователям «обнаруживать качественный контент», в то время как Microsoft утверждает, что он следует за протоколом «robots.txt». Исследователи подчеркивают, что неправильные методы цитирования являются систематическими проблемами, а не отдельными инструментами. Они призвали компании ИИ повысить прозрачность, точность и уважение к правам издателей.
Ключевые моменты:
Исследование показало, что частота ошибок ответов в чат -ботах ИИ превышает 60%, что серьезно влияет на доверие к новостям.
Несколько чат -ботов игнорируют ограничения издателя и цитируют несанкционированный контент и неправильные ссылки.
Новостные организации сталкиваются с двойным кризисом трафика и доходов, а инструменты ИИ постепенно заменяют традиционные поисковые системы.