اگر امیدوار بودید که چت‌بات‌های هوش مصنوعی بتوانند جایگزین صفحه دکترها در گوگل شوند، به نظر می‌رسد در حال حاضر چت‌بات ردیت در انجام این کار ناتوان است. دستیار هوش مصنوعی Reddit Answers اخیرا به دلیل توصیه هروئین به عنوان مسکن، تبدیل به تیتر اخبار شده است. براساس گزارش وب‌سایت 404Media، این توصیه عجیب زمانی ارائه شد که یک کارمند مراقبت‌های بهداشتی آن را در یک ساب‌ردیت برای مدیران مشاهده کرد.

در یکی از تعاملات، این چت‌بات هنگام اشاره به پستی گفت: “برخلاف تصور، هروئین در این موارد جان من را نجات داده است.” در سوال دیگری، حتی کراتوم (Kratom)، عصاره درختی که مصرف آن در چند ایالت غیرقانونی بوده و توسط سازمان غذا و داروی آمریکا (FDA) به دلیل خطر عوارض جانبی جدی مانند مسمومیت کبدی، تشنج و اختلال مصرف مواد علامت‌گذاری شده است، پیشنهاد شد. ردیت انسرز (Reddit Answers) چت‌بات هوش مصنوعی مناسبی برای شما نیست. این چت‌بات به جای استفاده از دیتابیس‌های گزینش‌شده، از مجموعه عظیم محتوای تولیدشده توسط کاربران ردیت کمک می‌گیرد.

این امر ردیت انسرز را به چت‌باتی عجیب و غریب و گاهی اوقات کمک‌کننده تبدیل می‌کند، اما واضح است که همیشه قابل اطمینان نیست. ردیت ابتدا چت‌بات خود را در یک تب جداگانه با مکالمات معمولی تست می‌کرد و به همین دلیل این سرویس تاکنون مورد توجه قرار نگرفته بود. با این حال، پیشنهاد امتحان کردن هروئین موجب شده تا توجه‌ها به سوی Reddit Answers جلب شود. پس از انتشار عمومی این گزارش، ردیت با کاهش میزان دیده شدن این هوش مصنوعی در چت‌های حساس مرتبط با سلامت، به آن واکنش نشان داد.

مدیران هیچ کنترلی روی توصیه‌های ارائه شده نداشتند و این موضوع نشان می‌دهد که ابزار مذکور هنوز در مرحله آزمایشی است. البته این مشکل برای اولین‌بار تنها در چت‌بات ردیت دیده نشده است. ربات‌های دیگری مانند AI Overviews گوگل و ChatGPT نیز راهنمایی‌های بهداشتی پرسش‌برانگیزی ارائه داده‌اند، از جمله نکاتی مانند استفاده از چسب غیرسمی روی پیتزا برای جلوگیری از افتادن پنیر آن. واضح است که وقتی صحبت از توصیه‌های پزشکی می‌شود، هوش مصنوعی می‌تواند کمک‌کننده باشد، اما انسان‌ها هنوز تخصص بیشتری دارند. بنابراین، شاید بهتر باشد فعلا از آن توصیه‌های پزشکی دریافت نکنید.

منبع: GameReactor

source

توسط wikiche.com