هوش مصنوعی

بررسی‌ها نشان می‌دهد که ۱۴ درصد از مقالات علمی حاوی آثار استفاده از هوش مصنوعی هستند

یک تحقیق جدی نشان‌دهد که استفاده از ابزارهای هوش مصنوعی از جمله ChatGPT برای تولید مقالات علمی به‌طور فزاینده‌ای در حال افزایش است. براساس ارزیابی‌ها، در سال گذشته میلادی، از هر ۷ چکیده مقاله در حوزه زیست‌پزشکی، یک مورد ممکن است با بهره‌گیری از هوش مصنوعی نوشته شده باشد.

بر پایه گزارش نیچر، پژوهشگران دانشگاه توبینگن در آلمان در تحقیقی تازه به تحلیل میزان نفوذ مدل‌های زبانی بزرگ (LLM) در ادبیات علمی پرداخته‌اند. این مطالعه نشان می‌دهد که در سال ۲۰۲۴، بیش از ۲۰۰ هزار (معادل ۱۴ درصد) از کل ۱.۵ میلیون چکیده مقاله ثبت شده در پایگاه داده PubMed حاکی از وجود نشانه‌های قوی از ویرایش یا نگارش به وسیله هوش مصنوعی هستند.

بکارگیری هوش مصنوعی در نگارش مقالات علمی

از آنجا که بیشتر پژوهشگران تمایلی به بیان استفاده خود از هوش مصنوعی ندارند، شناسایی متون تولید شده توسط چت‌بات‌ها چالشی جدی است. محققان در این تحقیق سطحی نوین را در پیش گرفتند و به جای آموزش یک مدل برای شناسایی نشانه‌های هوش مصنوعی، به دنبال «واژگان غیرمعمول» بودند؛ کلماتی که پس از ارائه عمومی ChatGPT در نوامبر ۲۰۲۲، به‌طور غیرمنطقی و ناگهانی در متون افزایش یافته‌اند.

این کلمات عمدتاً «واژگان غیرتخصصی» و عمومی هستند که LLMها از آنها بسادگی استفاده می‌کنند، شامل موارد زیر:

  • Delves (کندوکاو کردن)
  • Showcasing (به نمایش گذاشتن)
  • Unparalleled (بی‌نظیر)
  • Invaluable (جمع‌آوری گرانبها)
  • Crucial (حیاتی)
فزونی کلمات به کار رفته در چکیده مقالات علمی در سال‌های اخیر

این تغییر در نحوه بیان، حتی از تغییرات واژگانی که در دوران همه‌گیری کرونا (واژه‌هایی نظیر «ماسک») شاهد بودیم، بارزتر و شدیدتر بوده است. این پژوهش نشان می‌دهد که روند استفاده از هوش مصنوعی بدون وقفه در حال «افزایش» است و در برخی قلمروها و نواحی به‌طور ویژه‌ای شایع‌تر می‌باشد. به عنوان نمونه، در حوزه‌های محاسبات و بیوانفورماتیک و در میان مقالاتی که از کشورهایی مانند چین و کره جنوبی منتشر شده‌اند، بیش از یک پنجم (۲۰ درصد) چکیده‌ها به احتمال زیاد با کمک هوش مصنوعی نوشته شده‌اند.

علاوه بر این، محققان متوجه شده‌اند که با افزایش آگاهی عمومی، نویسندگان در تلاشند تکنیک‌هایی برای پنهان‌سازی ردپای هوش مصنوعی پیدا کنند، از جمله تغییر در واژگان یا ویرایش دستورات خود به چت‌بات. اما نگرانی اصلی این است که مطالعاتی نظیر این پژوهش نمی‌توانند روش دقیق استفاده از هوش مصنوعی را مشخص نمایند. آیا پژوهشگران از آن برای کارهای مشروعی چون ویرایش متن یا کمک به ترجمه بهره برده‌اند، یا برای فعالیت‌های مشکوک‌تری مانند تولید بخش‌های کلیدی از محتوا بدون نظارت و فهم کافی؟

به‌طور کلی، این مطالعه بر لزوم تدوین دستورالعمل‌های روشن و سیاست‌های مشخص برای اطمینان از استفاده اصولی و اخلاقی از هوش مصنوعی در جامعه علمی تاکید می‌نماید.

یافته‌های این تحقیق در ژورنال Science Advances منتشر شده است.

مقالات مرتبط

دکمه بازگشت به بالا