چندی پیش دستیار هوش مصنوعی متا منکر ماجرای ترور اخیر دونالد ترامپ، رئیس‌جمهور سابق آمریکا شد و یکی از مدیران ارشد این شرکت خطای پیش‌آمده را جزئ جدایی‌ناپذیر از فناوری ساخت چت‌بات‌ها خواند.

جوئل کاپلان، مدیر سیاست جهانی متا، در وبلاگ شرکت متا درباره‌ی پاسخ اشتباه هوش مصنوعی این شرکت نوشت: «جواب‌های هوش مصنوعی این شرکت به سؤالات مربوط به تیراندازی، مایه تأسف است. هوش مصنوعی متا ابتدا طوری برنامه‌ریزی شد که به سؤالات مربوط به ترور چواب ندهد؛ اما شرکت پس از اینکه مردم متوجه این ماجرا شدند، این محدودیت را حذف کرد. بعضی مواقع، هوش مصنوعی متا به ارائه پاسخ‌های نادرست ادامه می‌دهد و به‌سرعت در حال تلاش برای رسیدگی به آن هستیم.»

کاپلان این نوع پاسخ‌ها را «توهم هوش مصنوعی» می‌نامد و معتقد است که این خطا برای سایر شرکت‌های تولید‌کننده‌ی هوش مصنوعی مولد نیز اتفاق می‌افتد و کاربران نباید پاسخ‌های چت‌بات‌‌های مبتنی‌بر هوش مصنوعی را خیلی جدی بگیرند. این برنامه برای ادغام حافظه‌ی خود با اطلاعات استخراج‌شده از اینترنت طراحی شده است؛ اما همچنان امکان دارد چیزهایی بگوید که نادرست و غیرواقعی باشند.

پیش‌از‌این، گوگل نیز ادعاهایی مبنی‌بر سانسور نتایج مربوط به سوءقصد ترامپ به‌واسطه‌ی ویژگی تکمیل‌کننده‌ی خودکار متن این شرکت را رد کرد. ترامپ با انتشار پستی در Truth Social نوشت: «تلاشی دیگر برای تقلب در انتخابات، به‌دنبال متا و گوگل بروید.»

هرچند شرکت‌های مانند متا و گوگل و OpenAI، سعی کرده‌اند چت‌بات‌های خود را با داده‌های باکیفیت و نتایج جست‌وجوی هم‌زمان به‌عنوان راهی برای جبران توهمات این فناوری آموزش دهند، همان‌طور‌که مشخص است، غلبه بر آنچه مدل‌های زبان بزرگ (LLM) ذاتاً برای انجام آن طراحی شده‌اند، می‌تواند حتی برای شرکت‌های بزرگ فناوری نیز سخت و دردسرآفرین باشد.

source

توسط wikiche.com