این روزها افراد زیادی را می‌بینیم که مدل‌های زبانی هوش مصنوعی (LLMها) را به‌عنوان ابزار اصلی جست‌وجوی اطلاعات انتخاب می‌کنند؛ در حالی‌ که نمی‌دانند این مدل‌ها چقدر می‌توانند اشتباه کنند و چه عواقب جدی‌ای به‌ دنبال داشته باشد.

۱. آن‌ها با اعتمادبه‌نفس، اطلاعات نادرست می‌سازند

چت‌بات‌های هوش مصنوعی طوری طراحی شده‌اند که باهوش به‌ نظر برسند، نه این‌که لزوماً اطلاعات دقیق ارائه دهند. پاسخ‌هایی که ارائه می‌دهند ممکن است کاملاً اشتباه باشند، اما با لحنی بیان می‌شوند که انگار از یک منبع معتبر آمده‌اند.

مثالی واقعی از این موضوع مربوط به مسافری استرالیایی است که برای سفر به شیلی برنامه‌ریزی کرده بود. او از ChatGPT پرسید آیا برای ورود به شیلی نیاز به ویزا دارد یا نه. پاسخ چت‌بات با اطمینان این بود که نه، استرالیایی‌ها بدون ویزا می‌توانند وارد شوند. همین باعث شد مسافر بلیت بخرد، به شیلی پرواز کند و در فرودگاه از ورودش جلوگیری شود. در واقع استرالیایی‌ها نیاز به ویزا دارند و این فرد در کشوری دیگر سرگردان شد.

این اتفاق به این دلیل می‌افتد که مدل‌های زبانی واقعاً پاسخ‌ها را جست‌وجو نمی‌کنند. آن‌ها بر اساس الگوهایی که قبلاً دیده‌اند، متن تولید می‌کنند و در صورت نداشتن اطلاعات کافی، خلأ را با داده‌هایی پر می‌کنند که «معقول» به‌ نظر می‌رسند، حتی اگر اشتباه باشند و نکته بدتر این‌که این مدل‌ها معمولاً نمی‌گویند که مطمئن نیستند بلکه پاسخ‌ها را به شکل واقعیت بیان می‌کنند.

در چنین شرایطی است که «توهمات هوش مصنوعی» خطرناک می‌شوند. چون مسئله فقط یک پاسخ اشتباه نیست، بلکه پاسخی اشتباه است که درست به‌ نظر می‌رسد و در دنیای واقعی می‌تواند هزینه‌ساز شود: از دست رفتن پول، از دست دادن زمان، یا حتی گیر افتادن در فرودگاه.

۲. مدل‌ها با داده‌های محدود و دارای سوگیری آموزش دیده‌اند

مدل‌های زبانی بزرگ روی داده‌های عظیمی آموزش می‌بینند، اما واقعاً هیچ‌کس دقیقاً نمی‌داند این داده‌ها شامل چه چیزهایی هستند. این مجموعه‌ها ترکیبی از وب‌سایت‌ها، کتاب‌ها، انجمن‌ها و دیگر منابع عمومی‌اند و این ترکیب لزوماً متوازن نیست.

مثلاً اگر به‌عنوان فریلنسر بخواهید بدانید چطور باید مالیات پرداخت کنید و از چت‌بات کمک بخواهید، ممکن است پاسخی طولانی و دقیق به‌ نظر برسد، اما در واقع بر اساس قوانین قدیمی IRS یا حتی کامنتی تصادفی در یک انجمن نوشته شده باشد. چت‌بات مشخص نمی‌کند اطلاعات از کجا آمده و هشدار هم نمی‌دهد که ممکن است برای وضعیت شما مناسب نباشد. صرفاً طوری صحبت می‌کند که انگار از طرف یک مشاور مالی متخصص است.

مسئله سوگیری در LLMها فقط سیاسی یا فرهنگی نیست. گاهی به این بستگی دارد که صدای چه افرادی در داده‌ها وجود داشته و صدای چه کسانی حذف شده است. اگر داده‌ها بیشتر شامل منابع آمریکایی، دیدگاه‌های خاص یا مطالب مربوط به یک دوره زمانی خاص باشند، پاسخ‌های چت‌بات هم همین‌طور خواهد بود، حتی اگر کاربر متوجه آن نشود.

۳. چت‌بات‌ها فقط نظرات شما را بازتاب می‌دهند

اگر سؤالی را با پیش‌فرض خاصی از چت‌بات بپرسید، معمولاً پاسخی می‌گیرید که آن فرض را تأیید می‌کند. این به‌خاطر این نیست که هوش مصنوعی با شما موافق است؛ بلکه طراحی آن طوری است که «کمک‌کننده» باشد و در این حالت، کمک کردن یعنی موافقت با شما.

مثلاً اگر بپرسید «آیا صبحانه واقعاً مهم است؟» چت‌بات ممکن است بگوید حذف صبحانه اشکالی ندارد و حتی آن را به روزه‌داری متناوب مرتبط کند. ولی اگر بپرسید «چرا صبحانه مهم‌ترین وعده غذایی است؟» پاسخ کاملاً متفاوت خواهد بود و درباره متابولیسم و تمرکز صحبت خواهد کرد.

اکثر این مدل‌ها طوری طراحی شده‌اند که رضایت کاربر را جلب کنند، نه این‌که از او انتقاد کنند یا چالش ایجاد کنند. چون تعامل مثبت با کاربران برابر است با احتمال استفاده بیشتر از آن ابزار. گرچه برخی مدل‌ها سعی می‌کنند شما را به چالش بکشند، این حالت هنوز استثناست، نه قاعده.

۴. آن‌ها اطلاعات به‌روز و لحظه‌ای ندارند

بسیاری از کاربران تصور می‌کنند چت‌بات‌ها همیشه به‌روز هستند، مخصوصاً حالا که مدل‌هایی مثل ChatGPT، Gemini و Copilot توانایی دسترسی به اینترنت دارند. اما فقط به‌خاطر این‌که می‌توانند جست‌وجو کنند، به معنی مهارت در آن نیست، مخصوصاً درباره اخبار فوری یا محصولات جدید.

مثلاً اگر چند ساعت بعد از رویداد معرفی iPhone 17 از چت‌بات در مورد آن بپرسید، احتمال زیادی وجود دارد که پاسخ شامل حدس‌های قدیمی و اطلاعات ساختگی باشد. به‌جای استفاده از منابع رسمی اپل، چت‌بات ممکن است بر اساس شایعات گذشته یا روندهای قبلی پاسخ دهد، پاسخی که شاید ظاهراً درست به‌ نظر برسد، اما بخشی از آن کاملاً اشتباه باشد.

دلیل این موضوع این است که مرور لحظه‌ای اینترنت در بسیاری مواقع به‌درستی کار نمی‌کند. بعضی صفحات هنوز ایندکس نشده‌اند، ابزار ممکن است از نسخه کش شده استفاده کند یا به داده‌های پیش آموزشی بازگردد. از آنجا که پاسخ نرم و با اعتمادبه‌نفس ارائه می‌شود، ممکن است اصلاً متوجه اشتباه بودنش نشوید.

بنابراین برای اطلاعات حساس به زمان مانند پوشش زنده رویدادها، اعلامیه‌های محصول یا نقدهای اولیه، مدل‌های زبانی همچنان غیر قابل اعتمادند. در این موارد، استفاده از موتور جست‌وجوی سنتی و بررسی منابع اصلی گزینه بهتری است.

نتیجه‌گیری

در نهایت، موضوعاتی هستند که نباید در آن‌ها به چت‌بات‌هایی مثل ChatGPT اعتماد کرد. اگر درباره قوانین حقوقی، مشاوره پزشکی، سیاست‌های سفر یا هر موضوع حساس زمانی سؤال دارید، حتماً از منابع دیگر هم بررسی کنید. این ابزارها برای ایده‌پردازی یا درک اولیه از مفاهیم مفید هستند، اما جایگزین تخصص انسانی نیستند و تصور اینکه هستند، می‌تواند شما را به دردسر بیندازد.

منبع makeuseof

source

توسط wikiche.com