اگر امیدوار بودید که چتباتهای هوش مصنوعی بتوانند جایگزین صفحه دکترها در گوگل شوند، به نظر میرسد در حال حاضر چتبات ردیت در انجام این کار ناتوان است. دستیار هوش مصنوعی Reddit Answers اخیرا به دلیل توصیه هروئین به عنوان مسکن، تبدیل به تیتر اخبار شده است. براساس گزارش وبسایت 404Media، این توصیه عجیب زمانی ارائه شد که یک کارمند مراقبتهای بهداشتی آن را در یک سابردیت برای مدیران مشاهده کرد.
در یکی از تعاملات، این چتبات هنگام اشاره به پستی گفت: “برخلاف تصور، هروئین در این موارد جان من را نجات داده است.” در سوال دیگری، حتی کراتوم (Kratom)، عصاره درختی که مصرف آن در چند ایالت غیرقانونی بوده و توسط سازمان غذا و داروی آمریکا (FDA) به دلیل خطر عوارض جانبی جدی مانند مسمومیت کبدی، تشنج و اختلال مصرف مواد علامتگذاری شده است، پیشنهاد شد. ردیت انسرز (Reddit Answers) چتبات هوش مصنوعی مناسبی برای شما نیست. این چتبات به جای استفاده از دیتابیسهای گزینششده، از مجموعه عظیم محتوای تولیدشده توسط کاربران ردیت کمک میگیرد.
این امر ردیت انسرز را به چتباتی عجیب و غریب و گاهی اوقات کمککننده تبدیل میکند، اما واضح است که همیشه قابل اطمینان نیست. ردیت ابتدا چتبات خود را در یک تب جداگانه با مکالمات معمولی تست میکرد و به همین دلیل این سرویس تاکنون مورد توجه قرار نگرفته بود. با این حال، پیشنهاد امتحان کردن هروئین موجب شده تا توجهها به سوی Reddit Answers جلب شود. پس از انتشار عمومی این گزارش، ردیت با کاهش میزان دیده شدن این هوش مصنوعی در چتهای حساس مرتبط با سلامت، به آن واکنش نشان داد.
مدیران هیچ کنترلی روی توصیههای ارائه شده نداشتند و این موضوع نشان میدهد که ابزار مذکور هنوز در مرحله آزمایشی است. البته این مشکل برای اولینبار تنها در چتبات ردیت دیده نشده است. رباتهای دیگری مانند AI Overviews گوگل و ChatGPT نیز راهنماییهای بهداشتی پرسشبرانگیزی ارائه دادهاند، از جمله نکاتی مانند استفاده از چسب غیرسمی روی پیتزا برای جلوگیری از افتادن پنیر آن. واضح است که وقتی صحبت از توصیههای پزشکی میشود، هوش مصنوعی میتواند کمککننده باشد، اما انسانها هنوز تخصص بیشتری دارند. بنابراین، شاید بهتر باشد فعلا از آن توصیههای پزشکی دریافت نکنید.
منبع: GameReactor
source