چندی پیش دستیار هوش مصنوعی متا منکر ماجرای ترور اخیر دونالد ترامپ، رئیسجمهور سابق آمریکا شد و یکی از مدیران ارشد این شرکت خطای پیشآمده را جزئ جداییناپذیر از فناوری ساخت چتباتها خواند.
جوئل کاپلان، مدیر سیاست جهانی متا، در وبلاگ شرکت متا دربارهی پاسخ اشتباه هوش مصنوعی این شرکت نوشت: «جوابهای هوش مصنوعی این شرکت به سؤالات مربوط به تیراندازی، مایه تأسف است. هوش مصنوعی متا ابتدا طوری برنامهریزی شد که به سؤالات مربوط به ترور چواب ندهد؛ اما شرکت پس از اینکه مردم متوجه این ماجرا شدند، این محدودیت را حذف کرد. بعضی مواقع، هوش مصنوعی متا به ارائه پاسخهای نادرست ادامه میدهد و بهسرعت در حال تلاش برای رسیدگی به آن هستیم.»
کاپلان این نوع پاسخها را «توهم هوش مصنوعی» مینامد و معتقد است که این خطا برای سایر شرکتهای تولیدکنندهی هوش مصنوعی مولد نیز اتفاق میافتد و کاربران نباید پاسخهای چتباتهای مبتنیبر هوش مصنوعی را خیلی جدی بگیرند. این برنامه برای ادغام حافظهی خود با اطلاعات استخراجشده از اینترنت طراحی شده است؛ اما همچنان امکان دارد چیزهایی بگوید که نادرست و غیرواقعی باشند.
پیشازاین، گوگل نیز ادعاهایی مبنیبر سانسور نتایج مربوط به سوءقصد ترامپ بهواسطهی ویژگی تکمیلکنندهی خودکار متن این شرکت را رد کرد. ترامپ با انتشار پستی در Truth Social نوشت: «تلاشی دیگر برای تقلب در انتخابات، بهدنبال متا و گوگل بروید.»
هرچند شرکتهای مانند متا و گوگل و OpenAI، سعی کردهاند چتباتهای خود را با دادههای باکیفیت و نتایج جستوجوی همزمان بهعنوان راهی برای جبران توهمات این فناوری آموزش دهند، همانطورکه مشخص است، غلبه بر آنچه مدلهای زبان بزرگ (LLM) ذاتاً برای انجام آن طراحی شدهاند، میتواند حتی برای شرکتهای بزرگ فناوری نیز سخت و دردسرآفرین باشد.
source