على الرغم من أن نماذج اللغات الكبيرة (LLM) مثل ChatGPT وClaude وGemini قوية، إلا أنها تعاني أيضًا من عيب رئيسي مشترك: فهي غالبًا ما تنتج هلوسة، أي معلومات وهمية. هذا ليس محرجًا فحسب، بل يعيق أيضًا التطبيق الأوسع لماجستير القانون. حتى أن شركة آبل أعربت عن مخاوفها بشأن كيفية استجابة أنظمة الذكاء الاصطناعي الخاصة بها لهذه المشكلة. ولحل هذه المشكلة، طور الباحثون كاشفًا جديدًا للهلوسة يعمل بالذكاء الاصطناعي يمكنه التعرف بشكل فعال على المحتوى الزائف الناتج عن الذكاء الاصطناعي، مما يضع الأساس لتقدم تكنولوجيا الذكاء الاصطناعي وتطبيقات أكثر أمانًا وموثوقية.

تؤدي هذه الأوهام إلى العديد من الأخطاء المحرجة والمثيرة للاهتمام، وهي أحد الأسباب الرئيسية لعدم تحول الذكاء الاصطناعي مثل ChatGPT إلى عملية أكثر بعد. لقد رأينا ذات مرة أن جوجل مضطرة إلى مراجعة نظرة عامة على بحث الذكاء الاصطناعي لأن الذكاء الاصطناعي بدأ يخبر الناس أنه من الآمن تناول الصخور وأنه من الآمن وضع الغراء على البيتزا. كان هناك أيضًا محامون استخدموا ChatGPT للمساعدة في كتابة مستندات المحكمة، وتم تغريمهم فقط لأن برنامج الدردشة الآلي قام بتأليف الاستشهادات في المستندات.
وفقًا للورقة البحثية، يمكن للخوارزمية الجديدة التي طورها الباحثون أن تساعد في معرفة ما إذا كانت الإجابات التي يولدها الذكاء الاصطناعي دقيقة بنسبة 79 بالمائة تقريبًا من الوقت. وبطبيعة الحال، هذا ليس سجلا مثاليا، ولكنه أفضل بنسبة 10٪ من الأساليب السائدة الحالية الأخرى.
يمكن أن تكون روبوتات الدردشة مثل Gemini وChatGPT مفيدة، ولكن يمكنها أيضًا إنشاء إجابات وهمية بسهولة. وأجرى البحث أعضاء في قسم علوم الكمبيوتر في جامعة أكسفورد. وأوضح الباحثون في ورقتهم أن الطريقة التي استخدموها كانت بسيطة نسبيًا.
أولاً، طلبوا من برنامج الدردشة الآلي الرد على نفس المطالبة عدة مرات، عادةً من خمس إلى عشر مرات. ثم قاموا بحساب قيمة نسميها الإنتروبيا الدلالية، وهي مقياس لمدى تشابه أو اختلاف الإجابات في المعنى. إذا أجاب النموذج على كل عنصر موجه بشكل مختلف، فستكون درجة الإنتروبيا الدلالية أعلى، مما يشير إلى أن الذكاء الاصطناعي ربما يشكل الإجابات. ومع ذلك، إذا كانت الإجابات كلها متشابهة أو لها معاني متشابهة، فستكون درجة الإنتروبيا الدلالية أقل، مما يشير إلى أن الإجابات التي تقدمها أكثر اتساقًا ومن المرجح أن تكون صحيحة. هذا ليس جهازًا دقيقًا بنسبة 100% لكشف الهلوسة بواسطة الذكاء الاصطناعي، ولكنه أسلوب مثير للاهتمام.
وتعتمد طرق أخرى على ما يسمى بالإنتروبيا الساذجة، والتي تتحقق عادةً مما إذا كانت صياغة الإجابة مختلفة، بدلاً من التحقق من معناها. لذلك، من غير المرجح اكتشاف الهلوسة بدقة مثل حساب الإنتروبيا الدلالية لأنها لا تركز على المعنى الكامن وراء الكلمات في الجملة.
يقول الباحثون إنه يمكن إضافة الخوارزمية إلى برامج الدردشة الآلية مثل ChatGPT عبر زر يمنح المستخدمين "درجة يقين" للحصول على إجابات لمطالباتهم. من المغري بناء أجهزة كشف الهلوسة بالذكاء الاصطناعي مباشرة في روبوتات الدردشة، لذلك من المفهوم إضافة مثل هذه الأدوات إلى روبوتات الدردشة المختلفة.
على الرغم من أن كاشف الهلوسة المعتمد على الذكاء الاصطناعي ليس مثاليًا، إلا أن دقته البالغة 79% وميزة 10% على الطرق الحالية توفر أفكارًا وطرقًا جديدة لحل مشكلة هلوسة الذكاء الاصطناعي. لا شك أن هذا البحث سيعزز تقدم تكنولوجيا الذكاء الاصطناعي ويجعل أنظمة الذكاء الاصطناعي أكثر موثوقية وجديرة بالثقة.