Официальный веб-сайт www.binance.com/zh-cn :введите официальный веб-сайт ☜☜
Приложение: ☞☞official App Download☜☜
В последнее время появилась новая тенденция Social Platform x Elon Musk (ранее Twitter), и некоторые пользователи начали использовать Grok, чат -бот, разработанный компанией Musk's Artifical Intelligence Xai, для «проверки фактов». Эта практика выразила обеспокоенность среди профессиональных ручных проверок, которые считают, что это может еще больше использовать распространение ложной информации.

Понятно, что X -платформа открыла функцию непосредственного вызова Xai Grok, чтобы задать вопросы пользователям в начале этого месяца, и пользователи могут искать ответы от Grok по разным темам. Этот шаг аналогичен тому, как другая компания, недоумение, управляет учетной записью автоматизации на X для предоставления аналогичных услуг.
Вскоре после запуска учетной записи Xai's Grok Automation на платформе X пользователи начали пытаться задавать различные вопросы. Особенно на рынках, включая Индию, некоторые пользователи начали просить Грока с комментариями и вопросами «проверка фактов» и проблем, направленных на конкретные политические взгляды.
Тем не менее, человеческие проверки фактов обеспокоены таким способом использования Grok или любого другого подобного помощника искусственного интеллекта для выполнения «проверки фактов», потому что эти роботы могут создавать ответы способами, которые звучат убедительно, даже при предоставлении ложной информации. Грок распространял фальшивые новости и вводя в заблуждение информацию в прошлом.
Еще в августе прошлого года пять государственных секретаря США призвали Маск внести ключевые коррективы в Гроку после того, как помощник распространяет вводящую в заблуждение информацию о социальных сетях накануне выборов в США в то время. Мало того, что другие чат -боты, в том числе Chatgpt от Openai и Google Gemini, также обнаружили, что генерируют неточную информацию о выборах в прошлом году. Другие исследователи по борьбе с дизинформацией обнаружили в 2023 году, что AI чат-боты, включая CHATGPT, могут легко генерировать вводящий в заблуждение и убедительный текст.
«Помощники искусственного интеллекта, такие как Grok, очень хороши в использовании естественного языка и дают ответы, которые звучат так, как говорят настоящие люди. Таким образом, даже если продукты ИИ потенциально плохие, они могут дать чувство природы и реальности. Вот где возникает потенциальная опасность».
Один пользователь x попросил Грока «проверить факты» оператора другого пользователя. В отличие от помощников искусственного интеллекта, человеческие контролировщики фактов используют несколько доверенных источников для проверки информации. Они также возьмут на себя полную ответственность за свои выводы, назвать и прикрепить агентство для обеспечения достоверности.
Пратик Синха, соучредитель некоммерческого веб-сайта по проверке фактов Alt News, отметил, что, хотя Грок, похоже, дает убедительные ответы в данный момент, его способность полностью зависит от качества полученных данных. Он подчеркнул: «Кто решает, какие данные он получает? Правительственное вмешательство и другие проблемы последуют. Вещи, которым не хватает прозрачности, обязательно принесет вред, потому что все, что не хватает прозрачности, может быть сформировано по желанию ... его можно злоупотреблять - используется для распространения ложной информации».
В ответе, опубликованном ранее на этой неделе, официальная учетная запись Грока на X признала, что она «возможно, злоупотребляет - используется для распространения ложной информации и вторжения в конфиденциальность». Тем не менее, автоматизированная учетная запись не показывает никаких отказов от ответственности пользователю при предоставлении ответа, и если ее ответ вызван «иллюзией», в результате пользователь может быть введен в заблуждение, что также является потенциальным недостатком ИИ. «Это может изготовить информацию, чтобы дать ответ», - сказал Анушука Джайн, исследователь Digital Futures Lab, междисциплинарного исследовательского института в Гоа.
Кроме того, существуют некоторые вопросы о том, в какой степени Grok использует посты на платформе X в качестве учебных данных и каких мер контроля качества он использует для проверки подлинности этих постов. Прошлым летом платформа X внесла изменения, которые, казалось, позволили Гроку использовать публичные данные от пользователей X по умолчанию.
Другим тревожным аспектом помощников искусственного интеллекта (таких как GROK) публично распространяется информация через платформы социальных сетей, является то, что другие на платформе могут по -прежнему верить в нее, даже если некоторые пользователи четко знают, что информация, полученная от помощников ИИ, может вводить в заблуждение или не совсем правильная. Это может нанести серьезный социальный вред. Ранее в Индии ложная информация, распространяющаяся через WhatsApp, привела к массовому насилию, хотя эти серьезные инциденты произошли до генеративного ИИ, что теперь делает производство синтетического содержания проще и более реалистичным.
«Если вы видите много ответов Грока, вы можете подумать, что большинство из них верны, может быть, это так, но, безусловно, некоторые ошибочны. Каково соотношение ошибок? Это не небольшая доля. Некоторые исследования показывают, что модели AI имеют частоту ошибок до 20% ... и, как только он пойдет не так, они могут иметь серьезные последствия реальной жизни».
Компании ИИ, в том числе XAI, улучшают свои модели ИИ, чтобы общаться больше как людей, но они все еще нет-и не могут-заменить людей сейчас. В последние месяцы технологические компании изучали способы снижения своей зависимости от контролировщиков человеческих фактов. Платформы, включая X и Meta, начали пытаться краудсорсинга проверить факты через так называемые «заметки сообщества». Конечно, эти изменения также вызвали опасения между проверщиками фактов.
Alt News 'Sinha оптимистично оптимистична, что люди в конечном итоге научатся различать машины и искусственные проверки фактов и будут уделять больше внимания человеческой точности. Голландия также верит: «В конечном итоге мы увидим возвращение маятников в направлении уделения большего внимания на проверку фактов». Тем не менее, она отметила, что в течение этого периода проверки фактов могут иметь больше работы из -за быстрого распространения информации, генерируемой ИИ. «Большая часть этой проблемы зависит от того, действительно ли вы заботитесь о том, что реально или просто ищете что -то, что звучит и кажется реальным, а на самом деле не так? Потому что то, что могут предложить помощники ИИ, последнее».
Ни X, ни Xai не ответили на запросы о комментариях.
Ключевые моменты:
Робот ИИ Маск использовался для проверки фактов на платформе X, что вызвало опасения среди ручных инспекторов по поводу распространения вводящей в заблуждение информации. Помощники ИИ, такие как Грок, могут генерировать правдоподобные, но неточные ответы и не имеют прозрачного контроля качества и источников данных. Ручные проверки фактов полагаются на надежные источники информации и несут ответственность, и ИИ не может заменить роль людей в проверке информации.