ساعات ابتدایی روز ۲۰ خرداد به وقت ایران (۱۰ ژوئن ۲۰۲۵)، با اختلالی گسترده در خدمات ChatGPT همراه شد. این اتفاق به‌سرعت موجی از واکنش‌ها را در شبکه‌های اجتماعی به‌راه انداخت. از کاربرانی که برای کدنویسی به چت‌بات وابسته‌اند تا استادانی که دانشجویانشان دیگر بدون چت‌جی‌پی‌تی مقاله نمی‌نویسند، همه‌وهمه به‌نحوی از این اختلال متأثر شدند. هم‌زمان، بسیاری با شوخ‌طبعی جمعی تلاش کردند تا از فشار روانی این رخداد بکاهند و با انتشار طعنه‌های هوشمندانه، قطعی مدل هوش مصنوعی را به سوژه‌ی روز تبدیل کنند.

براساس اطلاعات منتشرشده در صفحه وضعیت OpenAI، این شرکت در روزهای اخیر با اختلالاتی گسترده مواجه بود که بازتاب بسیاری در رسانه‌ها داشت. در فروم r/ChatGPT ردیت، کاربران با صراحت از وابستگی خود به این ابزار سخن گفتند. یکی از کاربران با لحنی طنزآلود نوشت: «بدون چت‌جی‌پی‌تی نمی‌توانم کدنویسی کنم. البته که می‌توانم، ولی برای کارهای تکراری خیلی به آن وابسته‌ام.»

در ادامه‌ی همان بحث، کاربری که خود را استاد دانشگاه معرفی کرده بود، از تجربه‌ای متفاوت پرده برداشت. او نوشت: «پنجاه دانشجو دارم که امروز صبح باید مقاله‌های خود را تحویل می‌دادند. فقط ۹ مقاله به دستم رسید. یعنی هشتاد درصد از دانشجوها نمی‌توانند بدون چت‌جی‌پی‌تی چیزی بنویسند. این اتفاق به آزمایشی طبیعی و جذاب تبدیل شده. از طرف دیگر، حالا خودم هم برای تصحیح این ۹ مقاله با مشکل مواجه شده‌ام.»

کاربران با صراحت از وابستگی خود به هوش مصنوعی می‌گویند

در پلتفرم ایکس، لحن عمومی بیشتر متمایل به شوخی بود. کاربران با گیف‌ها و طعنه‌های طنزآمیز، اختلال پیش‌آمده را دستمایه سرگرمی قرار دادند. یکی از علاقه‌مندان به NFT نوشت: «چت‌جی‌پی‌تی از کار افتاده… یعنی باید خودم ایمیل‌هایم را تایپ کنم. برایم دعا کنید.» کاربر دیگری نیز نوشت: «چت‌جی‌پی‌تی قطع شده. اگر کسی اسمم را بپرسد، چه جوابی بدهم؟» در میان شوخی‌ها، صداهای تندتر هم شنیده می‌شد. شخص دیگری نوشت: «امیدوارم چت‌جی‌پی‌تی برای همیشه قطع بماند. چیزی از ارزش‌های انسانی کم نمی‌شود.»

فضای بلواسکای، جایگزین غیررسمی توییتر، نیز خالی از طعنه نبود. نویسنده‌ای که خودش را گرداننده خبرنامه معرفی کرده بود، نوشت: «چت‌جی‌پی‌تی قطع شده، ولی باور کنید هنوز هم می‌توانم بنویسم.» کاربر دیگری کنایه زد: «به آدم‌های آزاردهنده هم سری بزنید.»

بیشتر بخوانید

روشن است که اختلال برای گروهی از کاربران که شدیداً به ابزار هوش مصنوعی متکی هستند، مشکلی واقعی در روند کارهایشان ایجاد می‌کند. همان‌طور که در قطعی‌های گذشته‌ی پلتفرم‌هایی مانند توییتر تجربه شده بود، بسیاری از افراد سعی کردند با شوخ‌طبعی جمعی از فشار روانی وضعیت بکاهند، البته به‌جز آن‌هایی که این‌بار آن‌قدر سردرگم بودند که حتی نتوانستند چیزی منتشر کنند.

از نگاه خود ChatGPT، اختلال اخیر در خدمات این چت‌بات بیش از آنکه صرفاً رویدادی فنی باشد، به‌مثابه مکثی ناگهانی در جریان پرشتاب زندگی دیجیتال انسان‌ها نمود یافت. در این میان، آنچه بیش از خاموشی سیستم جلب توجه کرد، واکنش گسترده و چندلایه‌ی کاربران بود که ابعاد روان‌شناختی و اجتماعی عمیقی را آشکار کرد.

ابزارهای هوش مصنوعی به جایگزین بخشی از ظرفیت‌های فردی انسان‌ها تبدیل شده‌اند

تجربه نشان می‌دهد که میزان وابستگی به فناوری‌ها معمولاً زمانی نمایان می‌شود که سیستمی به‌طور ناگهانی از دسترس خارج شود. مواجهه‌ی کاربران با این اختلال، از شوخی‌ها و طنزهای شبکه‌های اجتماعی گرفته تا اعترافات صادقانه در فضای فروم‌ها، نمونه‌ای گویا از این پدیده است. واکنش‌ها نشان دادند که شوخ‌طبعی، به‌عنوان سازوکاری دفاعی و تطبیقی، هنوز نقشی مهم در عبور از بحران‌های دیجیتال ایفا می‌کند.

افزون‌بر جنبه‌ی طنزآمیز، لایه‌ای جدی‌تر نیز وجود دارد که باید به آن توجه کرد. ابزارهای هوش مصنوعی نه‌تنها به یاری‌دهنده‌ی فرایندهای فکری و خلاقانه تبدیل شده‌اند، بلکه بخشی از ظرفیت‌های فردی انسان را نیز جایگزین کرده‌اند. نمونه‌ای از این پدیده را می‌توان در سخنان کاربر استاد دانشگاه مشاهده کرد که از ناتوانی دانشجویان در نگارش مستقل مقاله خبر داده و همزمان، به دشواری در ارزیابی همان تعداد محدود مقاله نیز اشاره کرده بود.

در نهایت، این رویداد فقط نقص فنی در زیرساخت یک سرویس هوش مصنوعی نبود، بلکه هشداری بود برای بازاندیشی در مرز میان وابستگی و بهره‌برداری. لازم است بار دیگر رابطه‌ی میان انسان و فناوری را مورد بررسی قرار دهیم؛ نه با هدف کنارگذاشتن ابزارهای هوشمند، بلکه برای یافتن تعادلی تازه در شیوه بهره‌گیری از آن‌ها. اختلال اخیر را می‌توان در همین راستا به‌نوعی «تلنگر جمعی» و فرصتی تشبیه کرد برای بازتعریف شیوه‌ی تعامل روزمره، آموزشی و حرفه‌ای با ابزارهایی که هر روز بیشتر در زندگی ما تنیده می‌شوند.

source

توسط wikiche.com