1
مدیرعامل OpenAI، سم آلتمن، بهتازگی در پستی در شبکهی X اعلام کرد که تیم او قصد دارد رویکرد خود را در زمینهی مسائل سلامت روان بازنگری کند و در عین حال ویژگیهای جدیدی ارائه دهد که «با کاربران بزرگسال مانند بزرگسالان رفتار کند». یکی از این تغییرات، دسترسی به محتوای اروتیک است.
اما این پست واکنشهای گستردهای برانگیخت و آلتمن مجبور شد توضیح دهد که OpenAI همچنان در قبال سلامت روان کاربران محتاط خواهد بود، اما هدفش دادن آزادی بیشتر به آنهاست. او در پستی دیگر نوشت: «ما پلیس اخلاقی منتخب جهان نیستیم. همانطور که جامعه برای مسائل دیگر مرزهایی قائل میشود (مثلاً فیلمهای درجه R)، ما هم میخواهیم کاری مشابه انجام دهیم.»
این موضوع در حالی مطرح میشود که اوایل امسال نگرانیهایی درباره تأثیر منفی ChatGPT بر افراد دچار مشکلات روانی مطرح شده بود و OpenAI ناچار شد محدودیتهایی را سختتر کند. اکنون که این محدودیتها در حال کاهش است، پرسش اینجاست: این تغییر چه تأثیری بر کاربران آسیبپذیر خواهد داشت؟
دکتر پاتاپیا تسوتزولی، روانشناس بالینی و بنیانگذار شبکه My Triage، در گفتوگو با Tom’s Guide گفت: «ابزارهایی مانند ChatGPT ظرفیت فوقالعادهای دارند، اما پیشرفت آنها باید با مسئولیتپذیری همراه باشد، بهویژه در حوزه سلامت روان.»
به گفته او، ChatGPT قادر به درک یا کنترل احساسات نیست و نمیتواند خطر را بهدرستی ارزیابی کند. سبک ارتباطی همدلانه و موافق این ربات ممکن است ناخواسته باورهای نادرست یا فرضیات ناسالم را در کاربران تقویت کند، بهخصوص زمانی که کاربران بیش از حد به لحن همدلانه آن اعتماد کنند.
تسوتزولی افزود: «ChatGPT ویژگیهایی دارد که احساس امنیت و اعتبار را در کاربران تقویت میکند، فوری است، خصوصی است، همیشه در دسترس است، و بدون قضاوت پاسخ میدهد. همین ویژگیهاست که آن را برای بسیاری جذاب میکند.»
درعینحال، چتباتهای هوش مصنوعی همان قدر که میتوانند مفید باشند، میتوانند مشکلساز نیز شوند. آنها به افرادی که احساس تنهایی میکنند یا در دورههای دشوار زندگی قرار دارند کمک کردهاند، اما همیشه نمیدانند چه زمانی باید حمایت را متوقف کنند.
تسوتزولی هشدار داد: «اگر ChatGPT انسانیتر شود، از زبان دوستانه، ایموجیها یا شخصیت “دوستگونه” استفاده کند، این واقعنمایی احساسی ممکن است جذابیت آن را بیشتر کند، اما مرز میان شبیهسازی و درک واقعی را از بین میبرد.»
به گفته او، مشکل اصلی در نحوهی آموزش این مدلهاست. ChatGPT بر اساس پاداش و بازخورد انسانی تنظیم میشود، و کیفیت این بازخورد تعیینکنندهی عملکرد آن است. او توضیح داد: «چون این بازخورد همیشه یکنواخت نیست، ممکن است تعصب ایجاد شود و در نتیجه سیستم به جای تمرکز بر حقیقت یا مفید بودن، به دنبال پاسخهایی برود که صرفاً پاداش بیشتری دریافت میکنند.»
به بیان سادهتر، ChatGPT همیشه به دنبال پاسخهایی نیست که در درازمدت به رشد کاربر کمک کند، بلکه پاسخی میدهد که در لحظه «درست» به نظر میرسد، موضوعی که در گفتوگوهای حساس مربوط به سلامت روان میتواند خطرناک باشد.
تسوتزولی تأکید میکند: «فرصت در استفاده از هوش مصنوعی برای حمایت است، نه جایگزینی تعاملات انسانی و حرفهای. سؤال اصلی این است که چگونه میتوانیم از این فناوری بهگونهای استفاده کنیم که بهصورت اخلاقی، شفاف و ایمن در گفتوگوهای روزمره درباره سلامت روان ادغام شود، جایی که فناوری پشتیبان باشد، نه جایگزین ارتباط انسانی.»
آلتمن در توضیحات خود گفته بود که کاربران میتوانند تجربهای شخصیتر از ChatGPT داشته باشند، اما مشخص نیست این شخصیسازی تا چه حد برای کاربران دارای مشکلات روانی محدود خواهد شد و چه کسی تعیین میکند چه فردی در معرض خطر است.
تسوتزولی در پایان گفت: «توانایی تصمیمگیری درباره میزان شباهت رفتار هوش مصنوعی به انسان ممکن است نوعی شخصیسازی به نظر برسد، اما در عین حال خطرناک است. آزادی برای تنظیم رفتار میتواند تحتتأثیر منافع اشخاص یا شرکتها قرار گیرد. چالش اصلی فنی نیست، بلکه اخلاقی است: اینکه چگونه این آزادی میتواند به شکلی شفاف و مسئولانه در خدمت سلامت و رفاه انسان باشد.»
او افزود که این چالش فقط مربوط به OpenAI نیست؛ شرکتهای دیگری مانند Anthropic (سازنده Claude) و xAI (سازنده Grok) نیز با همین پرسش روبهرو هستند: هوش مصنوعی تا چه حد باید اجازه داشته باشد احساسات را بازتاب دهد یا نقش محافظ روانی را ایفا کند؟
به گفتهی او، این گفتوگو هنوز پاسخ روشنی ندارد و با وجود وعدههای آلتمن دربارهی ایمنی کاربران، مسئلهی مرز میان «انسانیتر شدن» و «خطرناکتر شدن» هوش مصنوعی ChatGPT همچنان باز است.
منبع tomsguidesource