
گفته میشود گوگل از نامههای جیمیل برای آموزش هوش مصنوعی استفاده میکند. در همین رابطه، گوگل در حال واکنش نشان دادن به موجی از پستها و مطالبی مانند مقاله منتشر شده توسط Malwarebytes است. این پستها و گزارشها ادعا میکنند که گوگل سیاست خود را تغییر داده است تا از پیامها و پیوستهای جیمیل کاربران برای آموزش مدلهای هوش مصنوعی استفاده کند و تنها راه انصراف از این فرایند نیز غیرفعالکردن قابلیتهایی مانند اصلاح املا در بخش ویژگیهای هوشمند است.
واکنش گوگل به ادعاها درباره آموزش هوش مصنوعی با نامههای جیمیل
با این حال، جنی تامسون سخنگوی گوگل، به وبسایت ورج گفت که این گزارشها گمراهکنندهاند و تغییری در تنظیمات هیچ کاربری ایجاد نشده است. به گفته او، ویژگیهای هوشمند جیمیل سالهاست که وجود دارند و محتوای جیمیل کاربران برای آموزش مدل هوش مصنوعی جمینای استفاده نمیشود.
با وجود این توضیحات، شاید بهتر باشد کاربران تنظیمات خود را دوباره بررسی کنند؛ زیرا یکی از اعضای تحریریه وبسایت ورج اشاره کرده است که قبلا از برخی ویژگیهای هوشمند انصراف داده بود اما این قابلیتها دوباره برای او فعال شدهاند. در ماه ژانویه، گوگل تنظیمات شخصیسازی ویژگیهای هوشمند را بهروزرسانی کرد تا کاربران بتوانند این قابلیتها را برای مجموعه ورکاسپیس و همچنین برای دیگر محصولات گوگل مانند مپس و کیف پول، بهصورت مستقل از یکدیگر غیرفعال کنند.
علاوه بر مواردی مانند اصلاح املا، فعال بودن ویژگیهای هوشمند جیمیل قابلیتهایی مانند پیگیری سفارشها یا افزودن آسان اطلاعات پرواز از جیمیل به تقویم را نیز ممکن میسازد. فعال کردن این قابلیت در بخش ورکاسپیس به معنای آن است که کاربر موافقت میکند ورکاسپیس از محتوای کاری و فعالیت او برای شخصیسازی تجربه کاربری در سراسر سرویس استفاده کند.
با این حال، بهگفته گوگل، این موضوع بههیچوجه بهمعنای انتقال محتوای ایمیلهای کاربران برای آموزش مدلهای هوش مصنوعی نیست.
چه کسی کنترل دادههای ما را در دست دارد؟
در نهایت، ماجرای ادعای استفاده گوگل از محتوای جیمیل برای آموزش هوش مصنوعی بیش از آنکه یک خبر ساده باشد، نشانهای از شکاف عمیق میان اعتماد عمومی و شفافیت شرکتهای فناوری است. گوگل این گزارشها را «گمراهکننده» میخواند و تأکید دارد که دادههای شخصی کاربران بدون رضایت آنها وارد چرخه آموزش نمیشود. اما واقعیت این است که صرفِ مطرح شدن چنین ادعاهایی نشان میدهد حساسیت افکار عمومی نسبت به مالکیت داده و مرزهای اخلاقی در توسعه هوش مصنوعی به نقطهای بحرانی رسیده است.
از یک سو، شرکتهای بزرگ فناوری تلاش میکنند با انکار یا توضیحهای کلی، نگرانیها را مدیریت کنند؛ از سوی دیگر، کاربران و نهادهای نظارتی خواستار شفافیت و پاسخگویی دقیقتر هستند. این تضاد، آینده رابطه میان مردم و فناوری را تعیین خواهد کرد. اگر غولهای تکنولوژی نتوانند اعتماد از دسترفته را بازسازی کنند، هر پیشرفت در حوزه هوش مصنوعی با موجی از تردید و مقاومت اجتماعی همراه خواهد شد.
به بیان ساده، این پرونده نه فقط درباره گوگل و جیمیل، بلکه درباره پرسش بزرگتری است: چه کسی کنترل دادههای ما را در دست دارد و چه کسی پاسخگوی استفاده از آنها در عصر هوش مصنوعی خواهد بود؟
source