مثل بسیاری از نویسندههای ضعیف انسانی، چتباتهای هوش مصنوعی هم تمایل دارند برخی واژهها را بیش از حد تکرار کنند. حالا دانشمندان از همین ویژگی برای شناسایی همکارانی استفاده میکنند که بهطور پنهانی از این ابزارها در کارهای خود بهره میبرند.
طبق گزارش نیویورک تایمز، دانشمندان بر اساس تحلیل واژههای پرتکرار تخمین زدهاند که صدها هزار مقالهی علمی ممکن است با کمک هوش مصنوعی نوشته شده باشند.
محققانی از دانشگاه توبینگن آلمان در پژوهشی جدید که در مجلهی Science Advances منتشر شده، ۴۵۴ واژه را شناسایی کردهاند که مدلهای زبانی بزرگ (LLM-ها) بیش از حد از آنها استفاده میکنند؛ مانند «کسبشده» (garnered)، «شامل» (encompassing) و «رو به رشد» (burgeoning). آنها دریافتند که بین ۱۳٫۵ تا ۴۰ درصد از چکیدهی مقالات زیستپزشکی یا کاملاً با هوش مصنوعی نوشته یا حداقل با کمک آن تدوین شدهاند.
با توجه به اینکه سالانه حدود ۱٫۵ میلیون مقاله در پایگاه دادهی علمی «پابمد» فهرست میشود، یافتهها بدین معنی است که احتمالاً دستکم ۲۰۰ هزار مقاله با کمک مدلهای زبانی بزرگ نوشته شدهاند. این تخمین شاید محافظهکارانه باشد؛ زیرا بسیاری از متنهای تولیدشده توسط هوش مصنوعی ممکن است بهطور هدفمند ویرایش شده باشند تا ردپاها پنهان بماند.
برخی نویسندگان متقلب مقالات تلاش میکنند استفادهشان از هوش مصنوعی را پنهان کنند، اما برخی دیگر اصلاً اهمیتی نمیدهند. مثلاً در نمونهای که «ساببارائو کمبهامپاتی»، دانشمند علوم رایانه از دانشگاه ایالتی آریزونا، در پلتفرم ایکس به اشتراک گذاشت، نویسندگان مقالهای بیکیفیت در حوزهی رادیولوژی حتی یک پیام عذرخواهی واضح از زبان چتبات را در متن مقاله رها کرده بودند: «بسیار متاسفم، اما من به اطلاعات لحظهای یا دادههای خاص بیماران دسترسی ندارم؛ چون یک مدل زبانی هوش مصنوعی هستم.»
استفاده از گزینههای بازنویسی پاسخ در رباتهای هوش مصنوعی، تشخیص متنهای نوشته شده توسط آنها را سختتر میکند
البته آنطور که وبلاگ ناظر مقالات سلب اعتبارشده (Retraction Watch) در سال ۲۰۲۳ گزارش داد، همهی اشتباهات به این اندازه واضح نیستند. اگر با قابلیتی مثل «بازسازی پاسخ» (گزینهای در چتجیپیتی که پاسخهای بیکیفیت را بازنویسی میکند) آشنا نباشید، ممکن است متوجه استفادهی آن در مقالات ظاهراً معتبر نشوید.
وبلاگ Retraction Watch همچنین یک رسوایی ناامیدکننده مربوط به مقالهای درباره هزارپاها با ارجاعات کاملاً ساختگی را گزارش کرده بود که ابتدا از یکی از پایگاههای داده پیشانتشار حذف شد، اما بعداً با همان منابع خیالی در پایگاهی دیگر دوباره منتشر شد. علاوهبراین، یک ژورنال علمی به دلیل درج تصویری ساختگی از یک موش با اندام تناسلی غیرواقعی و بزرگشده توسط هوش مصنوعی، مجبور به سلب اعتبار یک مقاله شد.
بیشتر بخوانید
ماجرا زمانی پیچیدهتر میشود که دانشمندان عمداً شروع به تغییر سبک نگارش خود میکنند تا مقالاتشان به متنهای هوش مصنوعی شبیه به نظر نرسد. همانطور که کمبهامپاتی گفته است، برخی از پژوهشگران درحالحاضر حتی واژههایی مانند «کاوشکردن» (delve) را از متنهایشان حذف میکنند؛ زیرا زیاد توسط مدلهای زبانی استفاده میشوند.
محققان دانشگاه توبینگن در مقالهی خود هشدار دادهاند که اگر استفادهی گسترده از هوش مصنوعی در مقالات علمی تأیید شود، این پدیده ممکن است تأثیری بیسابقه بر نوشتار علمی در تحقیقات زیستپزشکی بگذارد؛ تأثیری حتی فراتر از رویدادهای بزرگی مثل دنیاگیری کرونا.
بااینحال، «دیمیتری کوباک»، یکی از نویسندگان مقاله، کل وضعیت را غیرمنطقی میداند و میگوید: «به باور من، نباید چیزی به مهمی نوشتن چکیدهی مقالهتان را به هوش مصنوعی بسپارید.»
source