در پژوهش، سوگیریهای انسانی شناختهشدهای مانند اجتناب از ریسک، اعتمادبهنفس بیش از حد و اثر مالکیت (اینکه برای چیزهایی که صاحبشان هستیم ارزش بیشتری قائل میشویم) در قالب سوالاتی به چتجیپیتی داده شدند تا مشخص شود که آیا هوش مصنوعی هم در همان دامهایی میافتد که انسانها گرفتارشان میشوند یا نه.
تصمیمهای منطقی، اما گاهی اوقات
دانشمندان از مدلهای زبانی بزرگ سوالاتی فرضی برگرفته از روانشناسی سنتی در زمینههایی با کاربرد تجاری در دنیای واقعی، مثل مدیریت موجودی انبار یا مذاکرات با تأمینکنندگان پرسیدند. آنها نهتنها میخواستند بدانند هوش مصنوعی از سوگیریهای انسانی تقلید میکند، بلکه بررسی کردند آیا حتی در صورت مطرحکردن پرسشهایی از حوزههای مختلف کسب و کار، این رفتار را تکرار میکند یا خیر.
بیشتر بخوانید:
هوش مصنوعی GPT-4 در پاسخگویی به مسائلی با راهحلهای ریاضی واضح، عملکرد بهتری نسبت به GPT-3.5 داشت و اشتباهات کمتری در سناریوهای مبتنی بر احتمال و منطق نشان داد؛ اما در شبیهسازیهای ذهنی و سلیقهای، مانند انتخاب گزینهای پرریسک برای رسیدن به سود، این چتبات اغلب گرایشهای غیرمنطقی مشابه انسانها را از خود نشان داد. پژوهشگران در مقاله با اشاره به گرایش هوش مصنوعی برای انتخاب نتیجههای ایمنتر و پیشبینیپذیرتر هنگام روبهرو شدن با وظایف مبهم، نوشتند: «GPT-4 حتی بیشتر از انسانها به قطعیت تمایل دارد.»
مهمتر از آن، چه در شرایطی که پرسشها به شکل مسئلههای روانشناختی انتزاعی مطرح شده بود و چه به صورت فرآیندهای عملیاتی کسب و کار، شرایط چتباتها ثابت ماند. این پژوهش نتیجهگیری کرد که سوگیریهای مشاهدهشده صرفاً محصول مثالهای حفظشده نیستند، بلکه بخشی از منطق استدلالی AI را تشکیل میدهند. یکی از نتایج شگفتانگیز این تحقیق، روشی بود که GPT-4 گاهی اوقات با آن خطاهای شبیه انسان را تقویت میکرد. نویسندگان نوشتند:
در وظیفهی سوگیری تأییدی، GPT-4 همیشه پاسخهای دارای سوگیری ارائه میداد همچنین تمایل بیشتری به توهم دست داغ (سوگیری انتظار دیدن الگو در دادههای تصادفی) نسبت به GPT-3.5 نشان داد.
در مقابل، چتجیپیتی موفق شد از برخی سوگیریهای رایج انسانی از جمله غفلت از نرخ پایه (که در آن اطلاعات آماری را به نفع شواهد موردی نادیده میگیریم) و مغالطه هزینهی هدررفته (که تصمیمگیری را بر اساس هزینهای که قبلاً انجام شده تحت تأثیر قرار میدهد و باعث میشود اطلاعات نامربوط بر قضاوت اثر بگذارد) اجتناب کند.
سوگیریهای چتجیپیتی از دادههای آموزشی سرچشمه میگیرند
به گفتهی نویسندگان، سوگیریهای شبیه انسان در چتجیپیتی از دادههای آموزشی نشأت میگیرد که خود شامل سوگیریها و میانبرهای ذهنی انسانی است. این گرایشها در مرحلهی تنظیم دقیق (fine-tuning) تقویت میشوند؛ بهویژه زمانی که بازخورد انسانی، پاسخهای قابلقبول و طبیعی را به پاسخهای کاملاً منطقی ترجیح میدهد. وقتی هوش مصنوعی با وظایف مبهمتر مواجه میشود، بیشتر به الگوهای استدلال انسانی تمایل پیدا میکند تا منطق صِرف. چن گفت: «اگر به دنبال پشتیبانی تصمیمگیری دقیق و بدون سوگیری هستید، از GPT در حوزههایی استفاده کنید که در آن به یک ماشینحساب اعتماد دارید.»
وقتی نتیجه به ورودیهای ذهنی یا استراتژیک بستگی دارد، نظارت انسانی اهمیت بیشتری پیدا میکند، حتی اگر فقط برای اصلاح سوگیریها در ورودیها باشد. مینا اندیاپان، دانشیار منابع انسانی و مدیریت در دانشگاه مکمستر کانادا و یکی از نویسندگان پژوهش، در بیانیهای گفت:
هوش مصنوعی باید مثل یک کارمند تلقی شود که تصمیمات مهمی میگیرد و نیازمند نظارت و دستورالعملهای اخلاقی است. در غیر این صورت، بهجای بهبود تفکر، تفکر معیوب را خودکارسازی میکنیم.
مطالعه در مجله Manufacturing & Service Operations Management منتشر شده است.
source