كيف يسهل الذكاء الاصطناعي تزوير الأبحاث العلمية؟

mainThumb
كيف يسهل الذكاء الاصطناعي تزوير الأبحاث العلمية؟

25-03-2025 11:01 AM

printIcon

أخبار اليوم - يشهد العالم اليوم ثورة علمية مدفوعة بتقنيات الذكاء الاصطناعي، إذ تتسارع وتيرة الاكتشافات العلمية بنحو غير مسبوق، وفي خطوة تنبئ بمستقبل واعدٍ للبحث العلمي أطلقت جوجل خلال شهر فبراير الماضي، أداة ذكاء اصطناعي جديدة تُسمى (AI co-scientist)، مصممة خصوصًا لدعم العلماء في مساعيهم البحثية، إذ تسهل عليهم صياغة الفرضيات وتصميم خطط البحث، مما يُبشر بتسريع وتيرة الاكتشافات العلمية.

ومع أن تقييم فعالية هذه الأداة لا يزال مبكرًا، لكن تأثير الذكاء الاصطناعي في مسار البحث العلمي أصبح حقيقة ملموسة. ففي العام الماضي، شهدنا مثالًا بارزًا على ذلك حين فاز علماء الحاسوب بجائزة نوبل في الكيمياء لتطويرهم نموذج ذكاء اصطناعي قادرًا على التنبؤ بأشكال جميع البروتينات المعروفة للبشرية.

وقد وصف هاينر لينكه، رئيس لجنة نوبل، هذا الإنجاز بأنه تحقيق حلم دام 50 عامًا، إذ تمكن النظام من حل مشكلة ظلت عصية على العلماء منذ سبعينيات القرن الماضي. ويعكس هذا النجاح قدرة الذكاء الاصطناعي على دفع العلم نحو تحقيق إنجازات كانت تبدو بعيدة المنال لعقود، وحتى مستحيلة تمامًا.

الجانب المظلم.. الذكاء الاصطناعي يسهّل تزوير الأبحاث العلمية:
بينما يمكن للذكاء الاصطناعي أن يسرّع وتيرة الاكتشافات العلمية، ويحقق إنجازات كانت تُعدّ مستحيلة، يُلقي بظلال من الشك على نزاهة البحث العلمي، إذ يسهّل الذكاء الاصطناعي أيضًا عمليات تزوير الأبحاث، مما يؤدي إلى سحب الأوراق الأكاديمية التي تثبت عدم صحة بياناتها أو نتائجها.

وتُعدّ الأوراق الأكاديمية بمنزلة حجر الأساس في مجال البحث العلمي، ولكن عندما تتضح عدم صلاحية البيانات أو النتائج المنشورة فيها، يصبح سحبها أمرًا حتميًا، وتتعدد الأسباب التي تؤدي إلى هذا الإجراء، بدءًا من تزوير البيانات المتعمّد، والانتحال الذي يقوّض أصالة العمل، ووصولًا إلى الأخطاء البشرية غير المقصودة.

وقد شهدت السنوات الأخيرة ارتفاعًا ملحوظًا في عمليات سحب الأوراق البحثية، إذ تجاوز عددها 10,000 ورقة في عام 2023 وحده، والأمر الأكثر إثارة للقلق هو أن هذه الأوراق المسحوبة قد اُستشهد بها أكثر من 35,000 مرة، مما يشير إلى تأثيرها السلبي المحتمل في الأبحاث اللاحقة.

كما تؤكد الإحصائيات أن هذه الظاهرة أصبحت توجهًا، إذ كشفت دراسة أن نسبة بلغت 8% من العلماء الهولنديين اعترفوا بارتكاب عمليات احتيال بحثي خطيرة، وهو ضعف المعدل الذي أُبلغ عنه سابقًا، وفي مجال الأبحاث الطبية الحيوية، تضاعف معدل سحب الأوراق البحثية أربع مرات خلال العشرين عامًا الماضية، ويعود السبب الرئيسي في معظم هذه الحالات إلى سوء السلوك العلمي المتعمَّد.

كيف يسهل الذكاء الاصطناعي تزوير الأبحاث العلمية؟
يشكل الذكاء الاصطناعي تهديدًا متزايدًا لتفاقم مشكلة سوء السلوك العلمي، إذ يمنح الباحثين أدوات قوية لتزوير الأبحاث وتلفيق البيانات بسهولة غير مسبوقة، فعلى سبيل المثال، يتيح توفر أدوات الذكاء الاصطناعي التوليدي، مثل (ChatGPT) وإمكانياتها المتطورة، إنشاء أبحاث وهمية كاملة في وقت قياسي.

وقد أُثبتت هذه الإمكانية بوضوح من خلال تجربة أجراها باحثان استخدما الذكاء الاصطناعي لتوليد 288 ورقة أكاديمية مالية مزيفة بالكامل، تتضمن تنبؤات وهمية بعوائد الأسهم. ومع أن هذه التجربة كانت تهدف إلى إبراز الإمكانات الكامنة في هذه التقنية، فإنها كشفت في الوقت نفسه عن مخاطر جمة.

ومن ثم، ليس من الصعب تخيل كيف يمكن استغلال هذه التقنية في أغراض خبيثة، مثل: إنشاء بيانات تجارب سريرية وهمية للتلاعب بنتائج الأدوية، أو تعديل بيانات تجارب تعديل الجينات لإخفاء آثار جانبية خطيرة، وحتى تلفيق نتائج أبحاث علمية كاملة بغرض تحقيق مكاسب شخصية أو مؤسسية.

أوراق بحثية مزيفة تمر بعملية مراجعة الأقران:
تتزايد المخاوف المتعلقة بنزاهة البحث العلمي مع ظهور حالات موثقة لأوراق بحثية مولدة بالذكاء الاصطناعي، وقد اجتازت بنجاح عملية مراجعة الأقران، لتصل إلى مرحلة النشر. ولكن سرعان ما سُحبت هذه الأوراق بعد اكتشاف الاستخدام غير المعلن للذكاء الاصطناعي، وغالبًا ما تحتوي على عيوب جوهرية مثل المراجع الوهمية والبيانات المفبركة عمدًا.

ولم يتوقف الأمر عند هذا الحد، فبعض الباحثين يستخدمون الذكاء الاصطناعي في مراجعة عمل أقرانهم، مما يثير تساؤلات حول مدى دقة وموضوعية هذه المراجعات. فمراجعة الأقران، التي تُعدّ حجر الأساس في النزاهة العلمية، تستغرق وقتًا وجهدًا كبيرين، إذ يخصص العلماء مئات الساعات سنويًا لهذا العمل التطوعي.

وقد كشفت دراسة أجرتها جامعة ستانفورد أن ما يصل إلى 17% من مراجعات الأقران في مؤتمرات الذكاء الاصطناعي الكبرى كتبها جزئيًا الذكاء الاصطناعي.

وفي سيناريو متطرف، قد نجد أنفسنا أمام وضع يقوم فيه الذكاء الاصطناعي بكتابة الأوراق البحثية، ثم يتولى ذكاء اصطناعي آخر مراجعتها، مما يهدد بتقويض مصداقية البحث العلمي بنحو كامل.

ويفاقم هذا الخطر بالفعل مشكلة متنامية تتمثل في الزيادة الضخمة في حجم النشر العلمي، مع تناقص ملحوظ في جودة المحتوى وأصالته.

بالإضافة إلى ذلك، يمكن أن يؤدي الذكاء الاصطناعي إلى تزوير النتائج العلمية بنحو غير مقصود، وذلك بسبب ظاهرة الهلوسة التي تصيب أنظمة الذكاء الاصطناعي التوليدي. فبدلًا من الاعتراف بالجهل، قد يقوم الذكاء الاصطناعي باختلاق إجابات وهمية، مما يؤدي إلى نتائج مضللة.

وحتى الآن، لا تزال أبعاد تأثير هلوسة الذكاء الاصطناعي في دقة الأوراق العلمية غير واضحة، ولكن دراسة حديثة في مجال تطوير البرمجيات كشفت أن نسبة تبلغ 52% من الإجابات التي يولدها الذكاء الاصطناعي عن أسئلة البرمجة تحتوي على أخطاء، وأن الإشراف البشري يفشل في تصحيح هذه الأخطاء بنسبة تبلغ 39% من الحالات.

تعظيم الفوائد ومواجهة التحديات:
لا شك أن استخدام الذكاء الاصطناعي في مجال البحث العلمي يطرح العديد من التحديات الأخلاقية، ومع ذلك لا ينبغي لنا أن نتجاهل الإمكانات الضخمة التي يوفرها هذا المجال، فالذكاء الاصطناعي يقدم للعلماء أدوات قوية يمكن أن تحدث ثورة في كيفية إجراء البحوث العلمية، وتسريع وتيرة الاكتشافات العلمية.

ولقد شهدت السنوات الأخيرة استخدام نماذج ذكاء اصطناعي متخصصة لحل مشكلات علمية معقدة، مما أثبت فعالية هذه التقنية في تسريع وتيرة الاكتشافات العلمية. ومع ظهور نماذج الذكاء الاصطناعي التوليدي مثل ChatGPT، أصبح لدينا أدوات قادرة على أداء مجموعة متنوعة من المهام، والعمل بتعاون وثيق مع العلماء، إذ يمكن لهذه النماذج أن تعمل كمساعدين فعالين في المختبرات، قادرين على أداء مجموعة متنوعة من المهام، بدءًا من تحليل البيانات المعقدة ووصولًا إلى صياغة الفرضيات وتصميم التجارب، مما يوفر وقت وجهد الباحثين.

وتتجسد إحدى التطبيقات الواعدة للذكاء الاصطناعي في تطوير روبوتات مختبرية متطورة، مثل تلك التي يطورها الباحثون في هيئة البحوث الأسترالية (CSIRO)، والتي يمكن للعلماء التفاعل معها بشكل طبيعي باستخدام اللغة المنطوقة، وتكليفها بأداء مهام متكررة بدقة وكفاءة.

ومع ذلك، يجب الاعتراف بأن أي تقنية جديدة تحمل في طياتها مخاطر محتملة، لذلك، يقع على عاتق المجتمع العلمي مسؤولية وضع سياسات وضوابط صارمة تضمن الاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي في البحث العلمي.

فقد ثبتت بالفعل قدرة الذكاء الاصطناعي على تغيير عالم العلوم، المساهمة في جعل العالم مكانًا أفضل من خلال تحسين حياة البشر، ولكن لتحقيق هذا الهدف، يجب علينا أن نختار أحد مسارين: إما أن نتبنى الذكاء الاصطناعي بمسؤولية، من خلال تطوير مدونة سلوك شاملة تضمن استخدامه بطريقة أخلاقية ومسؤولة، أو أن نتقاعس ونترك المجال مفتوحًا أمام قلة من المارقين، الذين قد يستغلون هذه التقنية لأغراض غير مشروعة، مما يشوّه سمعة البحث العلمي ويحرمنا من فرص ثمينة لتحقيق التقدم.