أصدرت جامعة هارفارد مؤخرًا دليلًا مفصلاً حول استخدام تقنيات الذكاء الاصطناعى التوليدي مثل ChatGPT في الفصل الدراسي ، بهدف مساعدة المعلمين والطلاب على استخدام هذه الأدوات الناشئة بأمان وفعالية. يؤكد الدليل على أهمية حماية البيانات ، وخاصة أمان البيانات غير العامة ، وينصح المعلمين بتجنب إدخال الواجبات المنزلية للطلاب في أنظمة الذكاء الاصطناعى التوليدي لمنع جمع هذه البيانات من قبل أطراف ثالثة واستخدامها في تدريب الذكاء الاصطناعي. تعكس هذه الخطوة جهود هارفارد لتحقيق التوازن بين الابتكار التكنولوجي وحماية الخصوصية.
في الدليل ، تقترح جامعة هارفارد ثلاث استراتيجيات مختلفة لاستخدام الذكاء الاصطناعي للأساتذة للتطبيق بمرونة في الدورة. الأول هو "سياسة التقييد القصوى" ، وهي استراتيجية تحد بدقة من استخدام الذكاء الاصطناعي في الفصل الدراسي لضمان عدم تأثر جودة التدريس وخصوصية الطالب. والثاني هو "سياسة التشجيع الشامل" ، التي تشجع الطلاب والمعلمين على الاستفادة الكاملة من تقنية الذكاء الاصطناعى لتعزيز فعالية التعلم والتدريس. أخيرًا ، هناك "طريقة هجينة" ، والتي تجمع بين مزايا الاستراتيجيتين الأوليين لضبط درجة استخدام الذكاء الاصطناعى وفقًا لاحتياجات الدورة المحددة.
هذا الدليل من جامعة هارفارد لا يوفر للمعلمين مشورة تشغيلية محددة فحسب ، بل يوفر أيضًا للطلاب إرشادات حول كيفية استخدام أدوات الذكاء الاصطناعى بأمان. من خلال توضيح تدابير حماية البيانات واستراتيجيات الاستخدام العقلاني ، ترغب جامعة هارفارد في ضمان أن تقنيات الذكاء الاصطناعى التوليدي يمكن أن تلعب دورًا نشطًا في مجال التعليم مع تجنب المخاطر والتحديات المحتملة. يمثل إصدار هذا الدليل خطوة مهمة إلى الأمام لمؤسسات التعليم العالي في معالجة الفرص والتحديات التي تقدمها تقنية الذكاء الاصطناعي.
مع التطوير المستمر لتكنولوجيا الذكاء الاصطناعى التوليدي ، فإن آفاق تطبيقها في مجال التعليم واسع. يوفر هذا الدليل من جامعة هارفارد مرجعًا قيمة للمؤسسات التعليمية الأخرى ، ويوضح كيفية الاستفادة الكاملة من تقنية الذكاء الاصطناعي لتحسين جودة التدريس وتجربة التعلم مع حماية الخصوصية وأمن البيانات. في المستقبل ، نظرًا لأن المزيد من المؤسسات التعليمية تتبنى مبادئ توجيهية مماثلة ، فمن المتوقع أن تلعب الذكاء الاصطناعي دورًا أكبر في مجال التعليم وتعزيز الابتكار التعليمي والتقدم.