گفته می‌شود گوگل از نامه‌های جیمیل برای آموزش هوش مصنوعی استفاده می‌کند. در همین رابطه، گوگل در حال واکنش نشان‌ دادن به موجی از پست‌ها و مطالبی مانند مقاله منتشر شده توسط Malwarebytes است. این پست‌ها و گزارش‌ها ادعا می‌کنند که گوگل سیاست خود را تغییر داده است تا از پیام‌ها و پیوست‌های جیمیل کاربران برای آموزش مدل‌های هوش مصنوعی استفاده کند و تنها راه انصراف از این فرایند نیز غیرفعال‌کردن قابلیت‌هایی مانند اصلاح املا در بخش ویژگی‌های هوشمند است.

واکنش گوگل به ادعاها درباره آموزش هوش مصنوعی با نامه‌های جیمیل

با این حال، جنی تامسون سخنگوی گوگل، به وب‌سایت ورج گفت که این گزارش‌ها گمراه‌کننده‌اند و تغییری در تنظیمات هیچ کاربری ایجاد نشده است. به گفته او، ویژگی‌های هوشمند جیمیل سال‌هاست که وجود دارند و محتوای جیمیل کاربران برای آموزش مدل هوش مصنوعی جمینای استفاده نمی‌شود.

با وجود این توضیحات، شاید بهتر باشد کاربران تنظیمات خود را دوباره بررسی کنند؛ زیرا یکی از اعضای تحریریه وب‌سایت ورج اشاره کرده است که قبلا از برخی ویژگی‌های هوشمند انصراف داده بود اما این قابلیت‌ها دوباره برای او فعال شده‌اند. در ماه ژانویه، گوگل تنظیمات شخصی‌سازی ویژگی‌های هوشمند را به‌روزرسانی کرد تا کاربران بتوانند این قابلیت‌ها را برای مجموعه ورک‌اسپیس و همچنین برای دیگر محصولات گوگل مانند مپس و کیف پول، به‌صورت مستقل از یکدیگر غیرفعال کنند.

علاوه بر مواردی مانند اصلاح املا، فعال‌ بودن ویژگی‌های هوشمند جیمیل قابلیت‌هایی مانند پیگیری سفارش‌ها یا افزودن آسان اطلاعات پرواز از جیمیل به تقویم را نیز ممکن می‌سازد. فعال‌ کردن این قابلیت در بخش ورک‌اسپیس به‌ معنای آن است که کاربر موافقت می‌کند ورک‌اسپیس از محتوای کاری و فعالیت او برای شخصی‌سازی تجربه کاربری در سراسر سرویس استفاده کند.

با این حال، به‌گفته گوگل، این موضوع به‌هیچ‌وجه به‌معنای انتقال محتوای ایمیل‌های کاربران برای آموزش مدل‌های هوش مصنوعی نیست.

چه کسی کنترل داده‌های ما را در دست دارد؟

در نهایت، ماجرای ادعای استفاده گوگل از محتوای جیمیل برای آموزش هوش مصنوعی بیش از آن‌که یک خبر ساده باشد، نشانه‌ای از شکاف عمیق میان اعتماد عمومی و شفافیت شرکت‌های فناوری است. گوگل این گزارش‌ها را «گمراه‌کننده» می‌خواند و تأکید دارد که داده‌های شخصی کاربران بدون رضایت آن‌ها وارد چرخه آموزش نمی‌شود. اما واقعیت این است که صرفِ مطرح شدن چنین ادعاهایی نشان می‌دهد حساسیت افکار عمومی نسبت به مالکیت داده و مرزهای اخلاقی در توسعه هوش مصنوعی به نقطه‌ای بحرانی رسیده است.

از یک سو، شرکت‌های بزرگ فناوری تلاش می‌کنند با انکار یا توضیح‌های کلی، نگرانی‌ها را مدیریت کنند؛ از سوی دیگر، کاربران و نهادهای نظارتی خواستار شفافیت و پاسخگویی دقیق‌تر هستند. این تضاد، آینده رابطه میان مردم و فناوری را تعیین خواهد کرد. اگر غول‌های تکنولوژی نتوانند اعتماد از دست‌رفته را بازسازی کنند، هر پیشرفت در حوزه هوش مصنوعی با موجی از تردید و مقاومت اجتماعی همراه خواهد شد.

به بیان ساده، این پرونده نه فقط درباره گوگل و جیمیل، بلکه درباره پرسش بزرگ‌تری است: چه کسی کنترل داده‌های ما را در دست دارد و چه کسی پاسخگوی استفاده از آن‌ها در عصر هوش مصنوعی خواهد بود؟




source

توسط wikiche.com