ظهر اتجاه جديد مؤخرًا من قبل منصة إيلون موسك الاجتماعية X (سابقًا Twitter) ، وبدأ بعض المستخدمين في استخدام Grok ، وهي عبارة عن chatbot منظمة العفو الدولية التي طورتها شركة الذكاء الاصطناعي في Musk ، من أجل "التحقق من الحقيقة". أثارت هذه الممارسة مخاوف بين فحص الحقائق اليدوي المهني الذين يعتقدون أن هذا قد يزداد انتشارًا للمعلومات الخاطئة.

من المفهوم أن منصة X فتحت وظيفة الاتصال مباشرة بـ Xai Grok لطرح الأسئلة للمستخدمين في بداية هذا الشهر ، ويمكن للمستخدمين البحث عن إجابات من Grok حول مواضيع مختلفة. تشبه هذه الخطوة كيفية تشغيل شركة أخرى ، Perplexity ، لحساب الأتمتة على X لتوفير خدمات مماثلة.
بعد فترة وجيزة من إطلاق حساب أتمتة Grok الخاص بـ XAI على منصة X ، بدأ المستخدمون في محاولة طرح أسئلة مختلفة عليه. خاصة في الأسواق ، بما في ذلك الهند ، بدأ بعض المستخدمين في مطالبة Grok بتعليقات "التحقق من الحقائق" والقضايا التي تستهدف وجهات نظر سياسية محددة.
ومع ذلك ، فإن فصولي الحقائق البشرية تشعر بالقلق إزاء هذه الطرق لاستخدام Grok أو أي مساعد آخر مماثل من الذكاء الاصطناعي للقيام "بالتحقق من الحقائق" لأن هذه الروبوتات يمكنها بناء إجابات بطرق تبدو مقنعة ، حتى عند تقديم معلومات خاطئة. قام Grok بنشر أخبار مزيفة ومعلومات مضللة في الماضي.
في وقت مبكر من شهر أغسطس من العام الماضي ، حث خمسة من وزير الخارجية الأمريكي Musk على إجراء تعديلات رئيسية على Grok ، بعد أن نشر المساعد معلومات مضللة على الشبكات الاجتماعية عشية الانتخابات الأمريكية في ذلك الوقت. ليس ذلك فحسب ، فقد تم أيضًا العثور على مجموعات chatbots الأخرى ، بما في ذلك chatgpt من Openai و Google's Gemini ، لتوليد معلومات غير دقيقة حول الانتخابات العام الماضي. اكتشف الباحثون الآخرون في مكافحة المعلومات في عام 2023 أنه يمكن أن يولد AI chatbots ، بما في ذلك chatgpt ، نصًا مضللاً ومقنعًا بسهولة.
"إن مساعدي الذكاء الاصطناعى مثل Grok جيدون جدًا في استخدام اللغة الطبيعية وإعطاء إجابات تبدو كما يقول الأشخاص الحقيقيون. وبهذه الطريقة ، حتى لو كانت منتجات الذكاء الاصطناعي سيئة ، يمكنهم إعطاء شعور بالطبيعة والواقع. هذا هو المكان الذي يكمن فيه الخطر المحتمل."
طلب أحد مستخدمي X Grok "التحقق من حقيقة" بيان مستخدم آخر. على عكس مساعدي الذكاء الاصطناعى ، يستخدمون حقائق الإنسان مصادر موثوقة متعددة للتحقق من المعلومات. سوف يتحملون أيضًا المسؤولية الكاملة عن النتائج التي توصل إليها وتسميتها وإرفاق الوكالة لضمان المصداقية.
أشار Pratik Sinha ، المؤسس المشارك لموقع ALT News غير الربحي ، على الرغم من أنه على الرغم من أن Grok يعطي إجابات مقنعة في الوقت الحالي ، فإن قدرتها تعتمد بالكامل على جودة البيانات التي تحصل عليها. وأكد: "من الذي يقرر البيانات التي تحصل عليها؟ التدخل الحكومي والقضايا الأخرى التي ستتبعها. الأشياء التي تفتقر إلى الشفافية لا بد أن تسبب ضررًا ، لأن أي شيء يفتقر إلى الشفافية يمكن أن يتشكل في الإرادة ... يمكن استخدامه - يستخدم لنشر معلومات خاطئة."
في رد تم إصداره في وقت سابق من هذا الأسبوع ، اعترف حساب Grok الرسمي على X بأنه "ربما تعرض للإيذاء - يستخدم لنشر المعلومات الخاطئة وغزو الخصوصية". ومع ذلك ، فإن الحساب الآلي لا يظهر أي إخلاء مسؤولية للمستخدم عند إعطاء الإجابة ، وإذا كان إجابته ناتجًا عن "الوهم" ، فقد يتم تضليل المستخدم نتيجة لذلك ، وهو أيضًا عيب محتمل في الذكاء الاصطناعي. وقال أنوشوكا جاين ، الباحثة في مختبر Digital Futures Lab ، وهي مؤسسة بحثية متعددة التخصصات في GOA: "قد يتصنع المعلومات لتوفير استجابة".
بالإضافة إلى ذلك ، هناك بعض الأسئلة حول مدى استخدام Grok المنشورات على منصة X كبيانات تدريب ومقاييس مراقبة الجودة التي تستخدمها للتحقق من صحة هذه المنشورات. في الصيف الماضي ، قامت منصة X بإجراء تغيير يبدو أنه يسمح لـ Grok باستخدام البيانات العامة من مستخدمي X بشكل افتراضي.
هناك جانب آخر مثير للقلق من مساعدي الذكاء الاصطناعى (مثل Grok) الذي ينشر المعلومات علنًا من خلال منصات التواصل الاجتماعي هو أن الآخرين على المنصة قد لا يزالون يعتقدون ذلك حتى لو كان بعض المستخدمين يدركون بوضوح أن المعلومات التي تم الحصول عليها من مساعدي الذكاء الاصطناعى قد تكون مضللة أو صحيحة تمامًا. هذا يمكن أن يسبب ضررًا اجتماعيًا خطيرًا. في وقت سابق في الهند ، أدت المعلومات الخاطئة من خلال WhatsApp إلى عنف جماعي ، على الرغم من أن تلك الحوادث الخطيرة حدثت قبل الذكاء الاصطناعي التوليدي ، مما يجعل إنتاج المحتوى الصناعي أسهل وأكثر واقعية.
"إذا رأيت الكثير من إجابات Grok ، فقد تعتقد أن معظمها صحيح ، ربما يكون ذلك كذلك ، ولكن هناك بالتأكيد بعض الخطأ. ما هي نسبة الخطأ؟ هذه ليست نسبة صغيرة. تظهر بعض الدراسات أن نماذج الذكاء الاصطناعى لها معدلات خطأ تصل إلى 20 ٪ ... وبمجرد أن تكون خاطئة ، يمكن أن يكون لها عواقب واقعية خطيرة."
تعمل شركات الذكاء الاصطناعى ، بما في ذلك XAI ، على تحسين نماذج الذكاء الاصطناعى الخاصة بها لتواصل أكثر مثل البشر ، لكنها لا تزال غير-ولا يمكنهم ذلك. في الأشهر الأخيرة ، تقوم شركات التكنولوجيا باستكشاف طرق لتقليل اعتمادها على فائق الحقائق البشرية. بدأت المنصات بما في ذلك X و Meta في محاولة التعهيد الجماعي للتحقق من الحقائق من خلال ما يسمى "Notes Community Notes". بالطبع ، تسببت هذه التغييرات أيضًا في مخاوف بين المدققين.
ALT News 'Sinha متفائل بأن الناس سيتعلمون في النهاية التمييز بين الماكينة والحقائق الاصطناعية وسيوليون المزيد من الاهتمام لدقة الإنسان. يعتقد هولندا أيضًا: "سنرى في نهاية المطاف عودة البندول إلى اتجاه إيلاء المزيد من الاهتمام للتحقق من الحقائق". ومع ذلك ، أشارت إلى أنه خلال هذه الفترة ، قد يكون لدى لعبة الداما في الحقيقة مزيد من العمل بسبب الانتشار السريع للمعلومات الناتجة عن الذكاء الاصطناعى. "يعتمد جزء كبير من هذه المشكلة على ما إذا كنت تهتم حقًا بما هو حقيقي أو تبحث فقط عن شيء يبدو حقيقيًا ويشعر بالواقعية وليس في الواقع بهذه الطريقة؟ لأن ما يمكن أن يقدمه مساعدو الذكاء الاصطناعى هو الأخير."
لم يستجب X ولا Xai لطلبات التعليق.
النقاط الرئيسية:
تم استخدام Robot Grok من AI Musk للتحقق من الواقع على منصة X ، مما تسبب في مخاوف بين المفتشين اليدويين حول انتشار المعلومات المضللة. قد يولد مساعدو الذكاء الاصطناعى مثل Grok إجابات قابلة للتصديق ولكنها غير دقيقة وتفتقر إلى مصادر مراقبة الجودة الشفافة ومصادر البيانات. تعتمد المدققون اليدويون على المصادر الموثوقة للمعلومات وتولى المسؤولية ، ولا يمكن أن يحل الذكاء الاصطناعي محل دور البشر في التحقق من المعلومات.