مدیرعامل OpenAI، سم آلتمن، به‌تازگی در پستی در شبکه‌ی X اعلام کرد که تیم او قصد دارد رویکرد خود را در زمینه‌ی مسائل سلامت روان بازنگری کند و در عین حال ویژگی‌های جدیدی ارائه دهد که «با کاربران بزرگسال مانند بزرگسالان رفتار کند». یکی از این تغییرات، دسترسی به محتوای اروتیک است.

اما این پست واکنش‌های گسترده‌ای برانگیخت و آلتمن مجبور شد توضیح دهد که OpenAI همچنان در قبال سلامت روان کاربران محتاط خواهد بود، اما هدفش دادن آزادی بیشتر به آن‌هاست. او در پستی دیگر نوشت: «ما پلیس اخلاقی منتخب جهان نیستیم. همان‌طور که جامعه برای مسائل دیگر مرزهایی قائل می‌شود (مثلاً فیلم‌های درجه R)، ما هم می‌خواهیم کاری مشابه انجام دهیم.»

این موضوع در حالی مطرح می‌شود که اوایل امسال نگرانی‌هایی درباره تأثیر منفی ChatGPT بر افراد دچار مشکلات روانی مطرح شده بود و OpenAI ناچار شد محدودیت‌هایی را سخت‌تر کند. اکنون که این محدودیت‌ها در حال کاهش است، پرسش اینجاست: این تغییر چه تأثیری بر کاربران آسیب‌پذیر خواهد داشت؟

دکتر پاتاپیا تسوتزولی، روان‌شناس بالینی و بنیان‌گذار شبکه My Triage، در گفت‌وگو با Tom’s Guide گفت: «ابزارهایی مانند ChatGPT ظرفیت فوق‌العاده‌ای دارند، اما پیشرفت آن‌ها باید با مسئولیت‌پذیری همراه باشد، به‌ویژه در حوزه سلامت روان.»

به گفته او، ChatGPT قادر به درک یا کنترل احساسات نیست و نمی‌تواند خطر را به‌درستی ارزیابی کند. سبک ارتباطی همدلانه و موافق این ربات ممکن است ناخواسته باورهای نادرست یا فرضیات ناسالم را در کاربران تقویت کند، به‌خصوص زمانی که کاربران بیش از حد به لحن همدلانه آن اعتماد کنند.

تسوتزولی افزود: «ChatGPT ویژگی‌هایی دارد که احساس امنیت و اعتبار را در کاربران تقویت می‌کند، فوری است، خصوصی است، همیشه در دسترس است، و بدون قضاوت پاسخ می‌دهد. همین ویژگی‌هاست که آن را برای بسیاری جذاب می‌کند.»

درعین‌حال، چت‌بات‌های هوش مصنوعی همان قدر که می‌توانند مفید باشند، می‌توانند مشکل‌ساز نیز شوند. آن‌ها به افرادی که احساس تنهایی می‌کنند یا در دوره‌های دشوار زندگی قرار دارند کمک کرده‌اند، اما همیشه نمی‌دانند چه زمانی باید حمایت را متوقف کنند.

تسوتزولی هشدار داد: «اگر ChatGPT انسانی‌تر شود، از زبان دوستانه، ایموجی‌ها یا شخصیت “دوست‌گونه” استفاده کند، این واقع‌نمایی احساسی ممکن است جذابیت آن را بیشتر کند، اما مرز میان شبیه‌سازی و درک واقعی را از بین می‌برد.»

به گفته او، مشکل اصلی در نحوه‌ی آموزش این مدل‌هاست. ChatGPT بر اساس پاداش و بازخورد انسانی تنظیم می‌شود، و کیفیت این بازخورد تعیین‌کننده‌ی عملکرد آن است. او توضیح داد: «چون این بازخورد همیشه یکنواخت نیست، ممکن است تعصب ایجاد شود و در نتیجه سیستم به جای تمرکز بر حقیقت یا مفید بودن، به دنبال پاسخ‌هایی برود که صرفاً پاداش بیشتری دریافت می‌کنند.»

به بیان ساده‌تر، ChatGPT همیشه به دنبال پاسخ‌هایی نیست که در درازمدت به رشد کاربر کمک کند، بلکه پاسخی می‌دهد که در لحظه «درست» به نظر می‌رسد، موضوعی که در گفت‌وگوهای حساس مربوط به سلامت روان می‌تواند خطرناک باشد.

تسوتزولی تأکید می‌کند: «فرصت در استفاده از هوش مصنوعی برای حمایت است، نه جایگزینی تعاملات انسانی و حرفه‌ای. سؤال اصلی این است که چگونه می‌توانیم از این فناوری به‌گونه‌ای استفاده کنیم که به‌صورت اخلاقی، شفاف و ایمن در گفت‌وگوهای روزمره درباره سلامت روان ادغام شود، جایی که فناوری پشتیبان باشد، نه جایگزین ارتباط انسانی.»

آلتمن در توضیحات خود گفته بود که کاربران می‌توانند تجربه‌ای شخصی‌تر از ChatGPT داشته باشند، اما مشخص نیست این شخصی‌سازی تا چه حد برای کاربران دارای مشکلات روانی محدود خواهد شد و چه کسی تعیین می‌کند چه فردی در معرض خطر است.

تسوتزولی در پایان گفت: «توانایی تصمیم‌گیری درباره میزان شباهت رفتار هوش مصنوعی به انسان ممکن است نوعی شخصی‌سازی به نظر برسد، اما در عین حال خطرناک است. آزادی برای تنظیم رفتار می‌تواند تحت‌تأثیر منافع اشخاص یا شرکت‌ها قرار گیرد. چالش اصلی فنی نیست، بلکه اخلاقی است: اینکه چگونه این آزادی می‌تواند به شکلی شفاف و مسئولانه در خدمت سلامت و رفاه انسان باشد.»

او افزود که این چالش فقط مربوط به OpenAI نیست؛ شرکت‌های دیگری مانند Anthropic (سازنده Claude) و xAI (سازنده Grok) نیز با همین پرسش روبه‌رو هستند: هوش مصنوعی تا چه حد باید اجازه داشته باشد احساسات را بازتاب دهد یا نقش محافظ روانی را ایفا کند؟

به گفته‌ی او، این گفت‌وگو هنوز پاسخ روشنی ندارد و با وجود وعده‌های آلتمن درباره‌ی ایمنی کاربران، مسئله‌ی مرز میان «انسانی‌تر شدن» و «خطرناک‌تر شدن» هوش مصنوعی ChatGPT همچنان باز است.

منبع tomsguide

source

توسط wikiche.com