دراسة تكشف وجود أوراق بحثية منشأة بالذكاء الاصطناعي على Google Scholar

شكل العرض
  • أصغر صغير متوسط كبير أكبر
  • نسخ كوفي مدى عارف مرزا

معظم مستخدمي روبوتات الدردشة تقبلوا إمكانية أن تختلق أدوات الذكاء الاصطناعي (IA) وقائع ومعطيات غير صحيحة. وعلى الرغم من الجهود التي يبذلها كاشفو المحتوى المزيف، والمتحققون من الحقائق، والنماذج اللغوية الكبيرة (LLM) التي أصبحت أكثر تطوراً، إلا أن أي مطور لم يجد حلاً لهذا المشكلة حتى الآن. في الوقت نفسه، تزداد عواقب المعلومات المضللة سوءاً، حيث يستخدم بعض الأفراد أدوات الذكاء الاصطناعي التوليدي (gen AI) مثل ChatGPT لإنشاء بحوث مزيفة.
دراسة حديثة نُشرت في مجلة Misinformation Review التابعة لكلية هارفارد كينيدي رصدت 139 مقالاً على Google Scholar، محرك البحث الخاص بالأبحاث العلمية، والتي يبدو أنها قد تم توليدها بواسطة الذكاء الاصطناعي. ووجد الباحثون معظم المقالات "المشكوك فيها" في مجلات غير مفهرسة (غير معتمدة)، رغم أن 19 منها تم العثور عليها في مجلات مفهرسة، كما ظهرت 19 دراسة أخرى في قواعد بيانات جامعية، يبدو أنها كُتبت من قبل طلاب.

محتوى هذه المقالات يثير المزيد من القلق. 57% من الدراسات المزيفة كانت حول مواضيع مثل الصحة، والتكنولوجيا المعلوماتية، والبيئة. وهي مجالات ذات صلة بصنع السياسات، وقد تؤثر على القرارات المتخذة في هذا المجال.
بعد تحليل الوثائق، حدد الباحثون أنها ربما تكون قد أُنتجت بواسطة الذكاء الاصطناعي بسبب تضمنها "على الأقل واحدة من الجملتين الشائعتين التي تستعملها روبوتات الدردشة التي تستخدم النماذج اللغوية الكبيرة (LLM) مثل ChatGPT الخاص بشركة OpenAI". وقد استخدم الفريق محرك بحث Google  للعثور على أماكن نشر الوثائق، وحددوا عدة نسخ منها في قواعد بيانات، وأرشيفات وعلى وسائل التواصل الاجتماعي.

ويلاحظ المؤلفون أن قائمتهم ليست الأولى من الوثائق الأكاديمية المشتبه في توليدها بواسطة الذكاء الاصطناعي وأن أبحاثا جديدة تنضاف إلى القائمة.
رغم أن الدعاية والدراسات المتسرعة أو المزيفة ليست جديدة، فإن الذكاء الاصطناعي من الجيل الجديد يجعل من السهل بشكل كبير إنشاء هذا النوع من المحتوى. "وفرة من 'الدراسات' المزيفة التي تتسلل إلى جميع مجالات البحث العلمي تهدد بإغراق نظام النشر العلمي وتعريض نزاهة الأرشيف العلمي للخطر"، كما يحذر الباحثون في استنتاجاتهم. ويضيفون أنه من المقلق أن يتمكن أي شخص "بشكل مضلل" من إنشاء "محتوى يبدو علميًا مقنعًا" باستخدام الذكاء الاصطناعي وتحسينه ليتم ترتيبه على محركات البحث الشائعة مثل Google Scholar.

في أبريل الماضي، وجدت 404 Media أدلة مشابهة لكتب ومستندات أخرى تم إنشاؤها بالكامل بواسطة الذكاء الاصطناعي على Google Books وGoogle Scholar من خلال البحث عن العبارة "اعتبارًا من آخر تحديث لمعرفتي"، التي تظهر عادة في ردود ChatGPT بسبب مجموعته المحدودة سابقًا من البيانات. ومع إتاحة النسخة المجانية من ChatGPT لتصفح الإنترنت والوصول إلى المعلومات الحية، قد تصبح هذه العلامات أقل شيوعًا أو تختفي تمامًا، مما يجعل من الصعب اكتشاف النصوص التي ينتجها الذكاء الاصطناعي.
بالرغم من أن Google Scholar يحتوي على أغلب المقالات ذات الجودة العالية، إلا أنه "يفتقر إلى الشفافية والمعايير التي تتميز بها عادة قواعد بيانات الاقتباسات"، كما توضح الدراسة. يشير الباحثون إلى أنه، مثل Google Search، يعتمد Scholar على روبوتات آلية، مما يعني أن "معايير الإدراج تستند في الغالب إلى معايير تقنية، مما يتيح لأي مؤلف فردي، سواء كان له ارتباط علمي أم لا، أن يندرج ضمن المقالات العلمية التي يعرضها الموقع. كما أن المستخدمين لا يمكنهم تصفية النتائج بناءً على معايير مثل نوع المادة، أو حالة النشر، أو ما إذا كانت قد تمت مراجعتها من قبل الأقران.

Google Scholar  سهل الوصول وشديد الشعبية. وفقًا لـ  SimilarWeb، فإن محرك البحث سجل أكثر من 111 مليون زيارة الشهر الماضي، مما يجعله متقدمااً قليلاً على قواعد بيانات أكاديمية مثل ResearchGate.net. ومع استعمال العديد من المستخدمين ل Scholar، ربما بسبب الثقة التي يمنحونها لمنتجات Google الأخرى التي يستخدمونها يوميًا، فإن احتمالية أن يستشهدوا بدراسات مزيفة تزداد.

إن الفرق الأكثر وضوحااً بين ما تكتبه روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي والدراسات المزيفة تماما هو السياق. إذا كان المستخدمون الذين يستفسرون ChatGPT يعلمون أنهم يتوقعون معلومات خاطئة، فيمكنهم أخذ إجاباته بتحفظات والتحقق من ادعاءاته. ولكن إذا تم تقديم النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على أنه بحث أكاديمي خاضع للتحكيم، أجراه بشر ومفهرس على قاعدة بيانات مشهورة، فلن يكون لدى المستخدمين سبب أو وسيلة للتحقق من أن ما يقرؤونه حقيقي.

تعليقات (1)

This comment was minimized by the moderator on the site

كان الانتحال والسرقة العلمية موجودين قبل الذكاء الاصطناعي و سيظلان كذلك. تبقى التكنولوجيا محايدة، وقد يستعملها الشخص في ماهو منسجم مع الاخلاق أو في ما يتعارض معها.

التعديل الأخير على التعليق تم في قبل 2 اشهر بواسطة أنفاس نت Author محمد الأنصاري
لاتوجد تعليقات لهذا الموضوع، كن أول من يعلق.

التعليق على الموضوع

  1. التعليق على الموضوع.
المرفقات (0 / 3)
Share Your Location
اكتب النص المعروض في الصورة أدناه. ليس واضحا؟