في الآونة الأخيرة، جذب تحليل يعتمد على 14 مليون ملخص في PubMed الاهتمام، وكشفت الدراسة عن التأثير الكبير لمولدات نص الذكاء الاصطناعي، وخاصة ChatGPT، على كتابة المستندات العلمية. ومن خلال تحليل التغيرات في أسلوب اللغة، اكتشف الباحثون المفردات المميزة للنص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، وقدروا نسبة الملخصات المتأثرة بالذكاء الاصطناعي. لا توفر هذه الدراسة بيانات كمية فحسب، بل تستكشف أيضًا إيجابيات وسلبيات الذكاء الاصطناعي في الكتابة العلمية، بالإضافة إلى الاختلافات بين مختلف البلدان والمجلات، مما يؤدي إلى مزيد من المناقشات حول معايير الكتابة العلمية وأخلاقيات الذكاء الاصطناعي.
يُظهر تحليل 14 مليون ملخص في PubMed أن مولدات نصوص الذكاء الاصطناعي قد أثرت على ما لا يقل عن 10% من الملخصات العلمية منذ إطلاق ChatGPT، وفي بعض المجالات والبلدان تكون النسبة أعلى من ذلك. وقام باحثون من جامعة توبنجن وجامعة نورث وسترن بدراسة التغيرات اللغوية في 14 مليون ملخص علمي بين عامي 2010 و2024. ووجدوا أن ChatGPT ومولدات النص المشابهة المستندة إلى الذكاء الاصطناعي أدت إلى زيادة كبيرة في مفردات أنماط معينة. حدد الباحثون لأول مرة الكلمات التي ظهرت بشكل متكرر بشكل ملحوظ في عام 2024 مقارنة بالسنوات السابقة. تتضمن هذه الكلمات العديد من الأفعال والصفات النموذجية لأسلوب الكتابة في ChatGPT، مثل "حفر عميقًا" و"معقدًا" و"عرضًا" و"متميزًا". بناءً على هذه الكلمات المميزة، يقدر الباحثون أنه بحلول عام 2024، ستؤثر مولدات النصوص المستندة إلى الذكاء الاصطناعي على 10% على الأقل من جميع ملخصات PubMed. وفي بعض الحالات، يتجاوز هذا التأثير حتى تأثير كلمات مثل «كوفيد» أو «وباء» أو «إيبولا» في فتراتها الزمنية. وجد الباحثون أن حوالي 15% من الملخصات في مجموعات PubMed الفرعية في دول مثل الصين وكوريا الجنوبية تم إنشاؤها باستخدام ChatGPT، مقارنة بـ 3% فقط في المملكة المتحدة. ومع ذلك، هذا لا يعني بالضرورة أن المؤلفين في المملكة المتحدة يستخدمون ChatGPT بشكل أقل. في الواقع، وفقًا للباحثين، قد يكون الاستخدام الفعلي لمولدات النص المدعومة بالذكاء الاصطناعي أعلى من ذلك بكثير. يقوم العديد من الباحثين بتحرير النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لإزالة كلمات الشعار النموذجية. قد يتمتع المتحدثون الأصليون بميزة هنا لأنهم أكثر عرضة لملاحظة مثل هذه العبارات. وهذا يجعل من الصعب تحديد النسبة الحقيقية للملخصات المتأثرة بالذكاء الاصطناعي. ضمن نطاق قابل للقياس، يعد استخدام الذكاء الاصطناعي مرتفعًا بشكل خاص في المجلات، مثل حوالي 17% في مجلات Frontiers وMDPI، و20% في مجلات تكنولوجيا المعلومات. ومن بين مجلات تكنولوجيا المعلومات، تعد نسبة المؤلفين الصينيين هي الأعلى، حيث تصل إلى 35%. بالنسبة للمؤلفين العلميين، قد يساعد الذكاء الاصطناعي في جعل المقالات أكثر قابلية للقراءة. وقال مؤلف الدراسة ديمتري كوباك إن الذكاء الاصطناعي التوليدي المصمم خصيصًا للتلخيص ليس بالضرورة هو المشكلة. ومع ذلك، يمكن لمولدي النصوص باستخدام الذكاء الاصطناعي أيضًا اختلاق الحقائق، وتعزيز التحيزات، وحتى ارتكاب السرقة الأدبية، ويمكنهم أيضًا تقليل تنوع النصوص العلمية وأصالتها. يبدو من السخرية إلى حد ما أن نموذج اللغة العلمية مفتوحة المصدر "Galactica" الذي أصدرته شركة Meta قبل وقت قصير من إصدار ChatGPT قد تعرض لانتقادات شديدة من قبل بعض الأشخاص في المجتمع العلمي، مما أجبر Meta على إيقاف تشغيله. من الواضح أن هذا لم يمنع الذكاء الاصطناعي التوليدي من دخول الكتابة العلمية، لكنه ربما منع إدخال نظام مُحسّن خصيصًا لهذه المهمة. أبرز النقاط: وجد تحليل لملخصات PubMed أنه منذ إطلاق ChatGPT، تأثر ما لا يقل عن 10% من الملخصات العلمية بمولد النص AI. في مجموعة PubMed الفرعية في بلدان مثل الصين وكوريا الجنوبية، تم إنشاء ما يقرب من 15% من الملخصات باستخدام ChatGPT، مقارنة بنسبة 3% فقط في المملكة المتحدة. يدعو الباحثون إلى إعادة تقييم المبادئ التوجيهية لاستخدام مولدات نص الذكاء الاصطناعي في العلوم، حيث يمكن لمولدات نص الذكاء الاصطناعي اختلاق الحقائق وتعزيز التحيزات وحتى ارتكاب الانتحال.
تحذرنا نتائج هذه الدراسة من أن تطبيق الذكاء الاصطناعي في الكتابة العلمية يحتاج إلى التعامل معه بحذر، ويجب صياغة معايير أكثر صرامة ومبادئ توجيهية أخلاقية لضمان النزاهة الأكاديمية وموثوقية البحث. يجب أن تستكشف الأبحاث المستقبلية كيفية تحديد المخاطر الناجمة عن النصوص التي ينشئها الذكاء الاصطناعي وتجنبها بشكل أفضل وتحقيق التوازن بين سهولة الكتابة بمساعدة الذكاء الاصطناعي والتأثيرات السلبية المحتملة.