
مصدر الصورة: موقع "El Pais" الإسباني
عندما يتعلق الأمر بالصناديق السوداء، يفكر الكثير من الناس في المعدات المستخدمة لتسجيل بيانات الرحلة على الطائرات أو المسارح الصغيرة المليئة بالحنين إلى الماضي. ومع ذلك، في مجال الذكاء الاصطناعي (AI)، يعد الصندوق الأسود أيضًا مصطلحًا مهمًا لا يمكن تجاهله.
أشارت صحيفة إلباييس الإسبانية إلى أنه عندما يتم تشغيل شبكة عصبية للذكاء الاصطناعي، فإن كبار الباحثين لا يعرفون شيئًا عن عملياتها الداخلية. الحديث هنا ليس عن علم الأحياء، بل عن خوارزميات الذكاء الاصطناعي، خاصة تلك التي تعتمد على التعلم العميق الذي يحاكي الروابط بين الخلايا العصبية. تشبه هذه الأنظمة الصناديق السوداء، ومن الصعب على علماء البيانات، وأفضل المواهب في الأوساط الأكاديمية، والمهندسين الحائزين على جائزة نوبل في OpenAI وGoogle الاطلاع على أسرارهم الداخلية.
النموذج والبيانات غير شفافة
وذكرت مجلة "ساينتفيك أمريكان" أن الصندوق الأسود للذكاء الاصطناعي يشير إلى نظام ذكاء اصطناعي تكون أعماله الداخلية غير مرئية تمامًا للمستخدمين. يمكن للمستخدمين إدخال المعلومات في هذه الأنظمة والحصول على المخرجات، لكن لا يمكنهم فحص التعليمات البرمجية الخاصة بهم أو فهم المنطق الذي ينتج المخرجات.
يعد التعلم الآلي، باعتباره الفرع الرئيسي للذكاء الاصطناعي، حجر الزاوية في أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT. يتكون التعلم الآلي من ثلاثة أجزاء أساسية: الخوارزمية وبيانات التدريب والنموذج. الخوارزمية هي سلسلة من تعليمات البرنامج، في التعلم الآلي، تتعلم الخوارزمية التعرف على الأنماط في البيانات من خلال كميات كبيرة من بيانات التدريب. عندما تكمل خوارزمية التعلم الآلي التدريب، يكون المنتج هو نموذج التعلم الآلي، وهو أيضًا الجزء الذي يستخدمه المستخدمون بالفعل.
قد يكون أي من هذه الأجزاء الثلاثة من نظام التعلم الآلي مخفيًا، أي يتم وضعه في صندوق أسود. عادةً ما تكون الخوارزميات متاحة للجمهور. ولكن لحماية الملكية الفكرية، غالبًا ما يضع مطورو برامج الذكاء الاصطناعي نماذج أو بيانات تدريبية في صناديق سوداء.
بنية النموذج معقدة للغاية بحيث يصعب شرحها
على الرغم من أن الرياضيات وراء العديد من خوارزميات الذكاء الاصطناعي مفهومة جيدًا، إلا أن السلوك الذي تنتجه الشبكات التي تشكلها هذه الخوارزميات بعيد المنال.
تواجه هذه المشكلة ChatGPT وGemini وClaude وLlama وأي مولد صور مثل DALL-E، بالإضافة إلى أي نظام يعتمد على الشبكات العصبية، بما في ذلك تطبيقات التعرف على الوجه ومحركات توصية المحتوى.
في المقابل، فإن خوارزميات الذكاء الاصطناعي الأخرى، مثل أشجار القرار أو الانحدار الخطي (التي تستخدم عادة في مجالات مثل الطب والاقتصاد)، تكون أكثر قابلية للتفسير. من السهل فهم عملية اتخاذ القرار وتصورها. يمكن للمهندسين متابعة فروع شجرة القرار ورؤية كيفية التوصل إلى نتيجة محددة بوضوح.
يعد هذا الوضوح أمرًا بالغ الأهمية لأنه يضخ الشفافية في الذكاء الاصطناعي ويوفر السلامة والأمان لأولئك الذين يستخدمون الخوارزميات. ومن الجدير بالذكر أن قانون الذكاء الاصطناعي للاتحاد الأوروبي يؤكد على أهمية وجود أنظمة شفافة وقابلة للتفسير. ومع ذلك، فإن بنية الشبكات العصبية نفسها تعيق هذه الشفافية. لفهم مشكلة الصندوق الأسود لهذه الخوارزميات، يجب على المرء أن يتخيل شبكة من الخلايا العصبية أو العقد المترابطة.
وأوضح خوان أنطونيو، الأستاذ في معهد الذكاء الاصطناعي التابع لمجلس البحوث الوطني الإسباني، أنه عندما تقوم بتغذية البيانات في الشبكة، فإن القيم الموجودة في العقد تؤدي إلى سلسلة من الحسابات. يتم نشر المعلومات من العقد الأولى بشكل رقمي إلى العقد اللاحقة، حيث تقوم كل عقدة بحساب رقم وإرساله إلى جميع الاتصالات، مع مراعاة الوزن (أي القيمة العددية) لكل اتصال. ستقوم العقدة الجديدة التي تتلقى هذه المعلومات بحساب رقم آخر.
تجدر الإشارة إلى أن نماذج التعلم العميق الحالية تحتوي على آلاف إلى ملايين المعلمات. تمثل هذه المعلمات عدد العقد والوصلات بعد التدريب، وهي كبيرة ومتنوعة، مما يجعل من الصعب استخلاص معادلات ذات معنى يدويًا.
وفقًا لتقديرات الصناعة، يحتوي GPT-4 على ما يقرب من 1.8 تريليون معلمة. وفقًا لهذا التحليل، سيستخدم كل نموذج لغة ما يقرب من 220 مليار معلمة. وهذا يعني أنه في كل مرة يتم طرح سؤال، هناك 220 مليار متغير يمكن أن يؤثر على استجابة الخوارزمية.
تحاول شركات التكنولوجيا فتح الصناديق السوداء
إن التعتيم المنهجي يجعل من الصعب تصحيح التحيزات ويغذي انعدام الثقة. حاليًا، يدرك اللاعبون الرئيسيون في مجال الذكاء الاصطناعي هذا القيد ويجرون أبحاثًا نشطة لفهم كيفية عمل نماذجهم بشكل أفضل. على سبيل المثال، يستخدم OpenAI شبكة عصبية لمراقبة وتحليل شبكة عصبية أخرى، واتصالات عقدة الدراسات الإنسانية ودوائر نشر المعلومات.
يعد فك تشفير الصندوق الأسود ذا فائدة كبيرة لنموذج اللغة، والذي يمكنه تجنب التفكير الخاطئ والمعلومات المضللة الناتجة عن الذكاء الاصطناعي، وحل مشكلة الإجابات غير المتسقة. ومع ذلك، بدون فهم الأعمال الداخلية للشبكة، غالبًا ما تقوم شركات التكنولوجيا بإخضاع النماذج لتدريب مكثف ثم إطلاق المنتجات بعد اجتياز الاختبارات. يمكن أن يواجه هذا الأسلوب أيضًا مشكلات، مثل قيام Google Gemini بإنشاء صور خاطئة عند إصداره لأول مرة.
المفهوم المعاكس للصندوق الأسود هو الصندوق الزجاجي. ويعني الصندوق الزجاجي القائم على الذكاء الاصطناعي أن خوارزمياته وبيانات التدريب والنماذج يمكن لأي شخص رؤيتها. الهدف النهائي من فك رموز الصناديق السوداء هو الحفاظ على السيطرة على الذكاء الاصطناعي، خاصة عندما يتم نشره في مناطق حساسة. لنفترض أن نموذج التعلم الآلي قد قام بتشخيص الحالة الصحية أو المالية للإنسان، فهل يريد المرء أن يكون النموذج صندوقًا أسود أو صندوقًا زجاجيًا؟ الجواب واضح. وهذا ليس مجرد تركيز قوي على الأعمال الداخلية للخوارزمية، ليس فقط من باب الفضول العلمي، ولكن أيضًا لحماية خصوصية المستخدم.