اجتذبت وزارة الدفاع الأسترالية مؤخرًا الانتباه لاستخدامها على نطاق واسع غير المصرح به لـ ChatGPT. وفقًا للوثائق التي حصلت عليها Crikey من خلال طلب معلومات مجاني ، استخدم موظفو وزارة الدفاع chatbot الذكاء الاصطناعي آلاف المرات دون إذن رسمي. تبرز هذه الظاهرة الثغرات التنظيمية في الإدارات الحكومية في تطبيق التقنيات الجديدة ، كما تثير مخاوف بشأن أمن البيانات.
في مواجهة مخاطر الخصوصية المحتملة ، اتخذت وزارة الدفاع الأسترالية تدابير عاجلة للحد من الوصول إلى مجال شبكة Openai ، صاحب ChatGPT. يعكس هذا القرار تركيز الحكومة على التحديات الأمنية التي قد تجلبها تكنولوجيا الذكاء الاصطناعي ، كما تكشف أوجه القصور الحالية في أستراليا في استخدام الذكاء الاصطناعي.
تجدر الإشارة إلى أن الحكومة الفيدرالية الأسترالية لم تصدر حتى الآن إرشادات موحدة حول استخدام منتجات الذكاء الاصطناعي التوليدي. قد تؤدي فجوة السياسة هذه إلى عدم وجود معايير ومواصفات واضحة للإدارات عند تطبيق تقنيات جديدة ، وزيادة خطر انتهاك البيانات وإساءة استخدامها. يعكس هذا الموقف أيضًا حقيقة أن الإدارات الحكومية تتخلف نسبيًا في صياغة السياسة عند مواجهة تكنولوجيا الذكاء الاصطناعى النامية بسرعة.
هذا الحادث لم يكشف فقط عن الثغرات في الإدارات الحكومية في إدارة تطبيقات الذكاء الاصطناعي ، ولكن أيضًا أدى إلى مناقشات مكثفة حول استخدام تكنولوجيا الذكاء الاصطناعي في المجالات الحساسة. مع التطور السريع لتكنولوجيا الذكاء الاصطناعي ، أصبحت كيفية إيجاد توازن بين التطبيقات المبتكرة والضمانات الأمنية قضية مهمة تواجه الحكومات في مختلف البلدان.
قد يصبح هذا الحادث الذي أجرته وزارة الدفاع الأسترالية فرصة مهمة لتعزيز الحكومة لصياغة معايير استخدام الذكاء الاصطناعي. في المستقبل ، تحتاج الحكومة إلى تسريع صياغة السياسات والإرشادات ذات الصلة لضمان أنه أثناء الاستمتاع بالراحة التي جلبتها تقنية الذكاء الاصطناعي ، فإنها تمنع المخاطر المحتملة بشكل فعال ويحمي أمن المعلومات الوطنية.