تعد العلاقة والاختلاف بين الذكاء الاصطناعي العام (AGI) ونموذج اللغة الكبير (LLM) قضية مهمة في المجال الحالي للذكاء الاصطناعي. يتم تعريف AGI على أنه نظام يفهم تمامًا ويحاكي الذكاء البشري ، وليس فقط أداء جيدًا في مهام محددة. على الرغم من أن نموذج اللغة الكبير قد أحرز تقدمًا كبيرًا في معالجة اللغة الطبيعية ، إلا أنه لا يزال لديه العديد من القيود ، مثل إنشاء "أوهام" وعدم وجود قدرة على الاستدلال السببي. يبرز وجود هذه المشكلات الحاجة إلى بناء نموذج يفهم العالم حقًا.
جوهر AGI هو قدرته على أداء الإدراك العميق والتفكير ، وليس فقط المعالجة السطحية للبيانات. على الرغم من أن نماذج اللغة الكبيرة يمكن أن تولد نصًا سلسًا ، إلا أنها لا تزال غير كافية في فهم العلاقات السببية المعقدة وإجراء التفكير المنطقي. تجعل هذه الفجوة تنفيذ AGI هدفًا أكثر تحديا يحتاج إلى تجاوز الإطار الفني الحالي.
هناك مشكلة كبيرة في نموذج اللغة الكبير وهي أنه معرض "الوهم" ، أي إنشاء محتوى لا يتطابق مع الحقائق. تشير هذه الظاهرة إلى أن النماذج لها عيوب أساسية في فهم العالم وإجراء التفكير. في المقابل ، يجب أن يكون لدى AGI قدرات استنتاج سببية أقوى وأن تكون قادرة على استخراج الهياكل والقوانين العميقة من البيانات لاتخاذ تنبؤات وقرارات أكثر دقة.
مفتاح تنفيذ AGI هو بناء نموذج يمكن أن يؤدي الاستدلال السببي. لا يحتاج هذا النموذج إلى فهم العلاقة بين البيانات فحسب ، بل يحتاج أيضًا إلى الكشف عن العلاقة السببية وراءها. وبهذه الطريقة ، يمكن لـ AGI محاكاة العمليات المعرفية البشرية بشكل أفضل ، وبالتالي اتخاذ قرارات أكثر ذكاءً في البيئات المعقدة.
بشكل عام ، فإن الفرق بين AGI ونماذج اللغة الكبيرة هو ما إذا كان لديهم فهم حقيقي. على الرغم من أن نموذج اللغة الكبير يعمل بشكل جيد في التعامل مع مهام اللغة ، إلا أنه لا يزال يتعين تحسينه في الفهم والتفكير. يعد بناء نموذج يمكن أن يجعل الاستدلال السببي وفهم العالم اتجاهًا مهمًا لتحقيق AGI والهدف الرئيسي للتطوير المستقبلي للذكاء الاصطناعي.