Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
منصة رقمية خاصة، تُعنى بالسياحة والثقافة، والبحث العلمي
منصة رقمية خاصة، تُعنى بالسياحة والثقافة، والبحث العلمي

دراسة علمية جديدة حول الكتابة الاكاديمية واخلاقيات الذكاء الاصطناعي

#دراسة_علمية_جديدة_بعنوان:

أصدرت مؤخرا مجلة أكاديمية علمية مرموقة، تُعد مصدراً “موثوقاً للغاية” لجميع الباحثين والاكاديميين، تسمى: مجلة “Advances in Simulation”، وهي مجلة تابعة لدار النشر العالمية “Springer Nature” دراسة علمية بعنوان: “الكتابة الأكاديمية بمساعدة الذكاء الاصطناعي: توصيات للاستخدام الأخلاقي”٫ وذلك بتاريخ 18 أفريل 2025.
✓ #مدى_مصداقية_الدراسة:
لم تكن هذه الوثيقة مجرد مقال عام، بل هي دراسة علمية رصينة للأسباب التالية:
* الخضوع للمراجعة العلمية (Peer-Review):
مرت الدراسة بعملية تدقيق علمي قبل قبولها؛ حيث قُدمت في فبراير 2025 وتم قبولها للنشر في أبريل 2025 .
* خلفية المؤلفين:
أعد الدراسة خبراء أكاديميون من مؤسسات دولية كبرى مثل جامعة كالغاري (كندا)، جامعة لويفيل (الولايات المتحدة)، وكينجز كوليدج لندن (المملكة المتحدة).
* الشفافية المهنية:
يشغل مؤلفو الدراسة مناصب قيادية في مجلات علمية، مثل رئيس تحرير مجلة “Advances in Simulation” ومحررين في مجلة “Simulation in Healthcare”.
* الاستناد إلى معايير عالمية:
تعتمد الدراسة على توصيات منظمات عالمية مرموقة مثل “لجنة أخلاقيات النشر (COPE)” و”اللجنة الدولية لمحرري المجلات الطبية (ICMJE)”.
✓ #مصدر_أكاديمي_بامتياز:
تتخذ الدراسة موقفاً نقدياً وحذراً، حيث توضح المخاطر الكبيرة لاستخدام هذه الأدوات، مثل:
* هلوسة الذكاء الاصطناعي:
إنتاج معلومات كاذبة أو مفبركة.
* المراجع المزيفة: فشل أدوات مثل ChatGPT في توثيق المراجع الطبية بدقة.
* السرقة الأدبية: خطر إنتاج نصوص تشبه المصادر الأصلية المحمية بحقوق النشر .
هذه الوثيقة هي باختصار عبارة عن دليل إرشادي أخلاقي صادر عن علماء متخصصين بهدف حماية النزاهة العلمية وتوجيه الباحثين نحو الاستخدام المسؤول للتكنولوجيا، مع التأكيد على أن الذكاء الاصطناعي لا يمكن اعتباره “مؤلفاً” ولا يغني عن التفكير البشري النقدي.
✓ #تعريب_ملخص_الوثيقة
تتناول هذه الورقة كيفية استخدام أدوات الذكاء الاصطناعي التوليدي القائمة على النماذج اللغوية الكبيرة (LLMs)، مثل ChatGPT، لدعم عملية الكتابة الأكاديمية بطريقة فعالة .
تثير الإمكانات الهائلة لهذه الأدوات، مخاوف مشروعة تتعلق بالسرقة الأدبية، و”هلوسة” الذكاء الاصطناعي، والمراجع غير الدقيقة أو المفبركة.
تقدم الوثيقة إرشادات للباحثين حول الاستخدام الأخلاقي لهذه الأدوات، وتستعرض مواقف الناشرين الأكاديميين، وتطرح أربعة مبادئ رئيسية لضمان النزاهة العلمية:
✓ #أهم_النقاط_في_الوثيقة
1. المخاطر والتحديات الرئيسية:
* الانتحال العلمي (Plagiarism):
قد تُنتج الأدوات نصوصاً تشبه المصادر الأصيلة بدقة، مما قد يؤدي إلى انتهاك حقوق الطبع والنشر دون قصد من الباحث.
* هلوسة الذكاء الاصطناعي (AI Hallucination):
ميل الأدوات إلى توليد معلومات كاذبة أو غير منطقية بأسلوب مقنع.
* فشل المراجع:
تُعد هذه الأدوات ضعيفة جداً في توثيق المراجع الطبية؛ حيث أظهرت الدراسات أن “7% فقط من المراجع التي أنتجها ChatGPT كانت دقيقة وكاملة”، بينما كانت النسبة الباقية إما مفبركة أو تحتوي على أخطاء في العناوين والروابط (DOI).
2. مستويات الاستخدام الأخلاقي:
صنفت الوثيقة استخدامات الذكاء الاصطناعي إلى ثلاث فئات بناءً على المقبولية الأخلاقية:
* المستوى الأول (مقبول أخلاقياً):
يشمل المهام التي تعيد هيكلة النصوص الموجودة بالفعل، مثل “تحسين القواعد والإملاء، تعزيز الوضوح، وترجمة اللغة”.
* المستوى الثاني (مشروط أخلاقياً):
يشمل “إنشاء مخططات أولية، تلخيص المحتوى، أو العصف الذهني للأفكار” ؛ وهنا يجب على المؤلف التأكد من أن المنتج النهائي يعكس أفكاره ورؤيته الخاصة.
* المستوى الثالث (مشتبه به أخلاقياً – لا ينصح به):
يشمل “كتابة نصوص كاملة من الصفر، تحليل البيانات، مراجعة الأدبيات، أو التحقق من الأخلاقيات”؛ حيث أن هذه المهام تتطلب تفكيراً نقدياً بشرياً عميقاً لا تستطيع الآلة تعويضه.
✓ #النزاهة_والشفافية_والمصداقية
* رفض التأليف:
لا تفي أدوات الذكاء الاصطناعي بمعايير التأليف العلمي لأنها “لا تستطيع تحمل المسؤولية” عن دقة العمل أو جودته؛ لذا لا يجوز إدراجها كمؤلف.
* الإفصاح الإلزامي:
يجب على الباحثين الإفصاح بوضوح عن استخدام الذكاء الاصطناعي في “قسم المنهجية” (Methods)، وتوضيح كيفية استخدامه والتحقق من نتائجه .
✓ #قائمة_التحقق_للمؤلف:
توصي الوثيقة الباحثين بطرح أربعة أسئلة قبل النشر، وهي:
1. هل الأفكار والتفسيرات والتحليلات النقدية “تخصني شخصياً”؟
2. هل يضمن هذا الاستخدام الحفاظ على كفاءة البشر في مهارات البحث والكتابة؟
3. هل قمت “بالتحقق المزدوج” من دقة كافة المحتويات والمراجع؟
4. هل أفصحت بوضوح وشفافية عن كيفية استخدام هذه الأدوات؟
#في_الحوصلة:
تؤكد المصادر أن الذكاء الاصطناعي هو تطور طبيعي للأدوات البحثية، لكنه يتطلب “إشرافاً بشرياً صارماً” لضمان عدم تراجع القدرات الفكرية للباحثين وضمان دقة العلم المنتج.
وبذلك فإنه يمكن تشبيه الذكاء الاصطناعي في الكتابة الأكاديمية “بجهاز التدقيق الإملائي المتقدم”, فهو يساعدك في تلميع النص وتنسيقه، لكنه لا يمكن أن يحل محل “الكاتب” الذي يمتلك القصة والرؤية والمسؤولية القانونية عما يُنشر.
شكراً للصديقة Farah Houidi على أهمية المعلومة.