سياسة استخدام الذكاء الاصطناعي (AI) في النشر العلمي

مجلة تاج المعرفة المعهد العالي للعلوم والتقنية تاجوراء

  1. مقدمة ونظرة عامة

تدرك هيئة تحرير "مجلة تاج المعرفة" التطور المتسارع في أدوات الذكاء الاصطناعي التوليدي (Generative AI)  وتأثيرها على البحث العلمي. تهدف هذه السياسة إلى توضيح المسموح والممنوع، وضمان التزام جميع الأطراف (مؤلفين، محكمين) بأعلى معايير النزاهة الأكاديمية والشفافية.

  1. سياسة خاصة بالمؤلفين (Authors)

أ. الذكاء الاصطناعي والتأليف  (Authorship)

  • لا يُعترف بالذكاء الاصطناعي كمؤلف: لا يجوز إدراج أي أداة من أدوات الذكاء الاصطناعي مثل ChatGPT, Gemini, Claude, etc.)) ضمن قائمة المؤلفين.
  • السبب: التأليف يتطلب القدرة على تحمل المسؤولية عن محتوى العمل، والموافقة على شروط النشر، وحمل حقوق الملكية الفكرية، وهو ما لا تملكه الأنظمة الآلية.

ب. استخدام الذكاء الاصطناعي في الكتابة والتحرير

يُسمح للمؤلفين باستخدام أدوات الذكاء الاصطناعي للأغراض التالية فقط، شريطة الإفصاح الكامل:

  1. تحسين جودة اللغة والصياغة (Proofreading & Editing).
  2. تلخيص الأفكار أو العصف الذهني الأولي.

المحظورات:

  • يحظر استخدام الذكاء الاصطناعي لكتابة أجزاء كاملة من البحث (مثل المقدمة أو المناقشة) دون تدخل بشري جوهري.
  • يحظر استخدام الذكاء الاصطناعي لتلفيق البيانات أو المراجع.

ج. المسؤولية القانونية والأخلاقية

  • يتحمل المؤلفون البشر المسؤولية الكاملة عن دقة وسلامة المحتوى الوارد في أوراقهم البحثية، حتى لو تم إنشاؤه بمساعدة الذكاء الاصطناعي.
  • المؤلف مسؤول عن التحقق من عدم وجود انتحال (Plagiarism) أو تحيز (Bias) في النصوص التي تقترحها هذه الأدوات.

د. شرط الإفصاح  (Disclosure Statement)

يجب على المؤلفين الذين استخدموا تقنيات الذكاء الاصطناعي إدراج بيان واضح في نهاية الورقة البحثية (قبل المراجع) يوضحون فيه:

  1. اسم الأداة/النموذج المستخدم.
  2. الغرض من الاستخدام (مثل: التدقيق اللغوي، إنشاء صور، تحليل بيانات).
  3. الأجزاء التي استُخدم فيها.

نموذج بيان مقترح:

"يقر المؤلفون باستخدام [اسم الأداة، الإصدار] للمساعدة في [تحديد المهمة، مثل: تحسين الصياغة اللغوية للملخص]. وقد قام المؤلفون بمراجعة وتحرير المحتوى الناتج ويتحملون المسؤولية الكاملة عنه."

 

  1. سياسة إنشاء الصور والوسائط (Generative AI for Images)
  • الصور والرسومات: يمنع منعاً باتاً استخدام الذكاء الاصطناعي لإنشاء أو تعديل الصور العلمية، المخططات البيانية، أو الأشكال التوضيحية التي تمثل بيانات تجريبية، حيث يعتبر ذلك تلاعباً بالبيانات.
  • الاستثناء: يُسمح بذلك فقط إذا كان البحث نفسه يدور حول تقنيات الذكاء الاصطناعي، وكان استخدام الصور جزءاً من المنهجية، مع ضرورة التوضيح في الشرح أسفل الصورة.

 

  1. سياسة خاصة بالمحكّمين (Reviewers)
  • السرية والأمان: يُحظر على المحكمين تحميل المخطوطات (Manuscripts) أو أجزاء منها (مثل الملخص) إلى أدوات الذكاء الاصطناعي العامة (مثلChatGPT).)
  • السبب: يعتبر هذا انتهاكاً لسرية وخصوصية بيانات المؤلفين، حيث قد تستخدم هذه المنصات البيانات للتدريب.
  • كتابة التقارير: يجب أن تكون تقارير التحكيم نابعة من الفكر النقدي للمحكم البشري. لا يُقبل استخدام الذكاء الاصطناعي لصياغة التقرير أو اتخاذ قرار القبول/الرفض نيابة عن المحكم.
  1. سياسة خاصة بالمحررين وهيئة التحرير (Editors)
  • اتخاذ القرار: لا يجوز للمحررين الاعتماد على أدوات الذكاء الاصطناعي في اتخاذ القرارات التحريرية النهائية (قبول أو رفض الورقة). القرار يجب أن يكون بشرياً بالكامل.
  • كشف الانتحال والذكاء الاصطناعي: تحتفظ المجلة بحقها في استخدام برمجيات متخصصة مثل Turnitin AI Detection  وغيرها للكشف عن المحتوى المولد بالذكاء الاصطناعي.

6.التعامل مع المخالفات

في حال ثبوت مخالفة هذه السياسة مثل عدم الإفصاح عن استخدام  AI، أو اكتشاف محتوى ملفق بواسطة AI:

  1. يتم رفض الورقة البحثية فوراً إذا كانت قيد المراجعة.
  2. إذا نُشرت الورقة، يحق للمجلة سحبها (Retraction) وإصدار بيان بذلك.
  3. قد يُحرم المؤلف من النشر في المجلة مستقبلاً.

7. مراجعة السياسة وتحديثها

نظرًا لتوقعنا تطورًا سريعًا في هذا المجال في المستقبل القريب، ستقوم هيئة التحرير بمراجعة هذه السياسة بانتظام وتعديلها عند الضرورة، لضمان توافقها مع المستجدات التقنية والمعايير الأخلاقية العالمية.