ویرایشگران ویکی‌پدیا با برنامه بنیاد ویکیمدیا برای آزمایش خلاصه‌مقالات تولیدشده توسط هوش مصنوعی، که با مدل هوش مصنوعی Aya ساخته شرکت Cohere کار می‌کند، مخالفت کردند. این سازمان غیرانتفاعی اکنون اجرای این پروژه را متوقف کرده است. این تصمیم پس از واکنش سریع و عمدتاً منفی جامعه ویکی‌پدیا گرفته شد.

طبق گزارش اولیه سایت 404Media، قرار بود این آزمایش به مدت دو هفته و به صورت اختیاری در نسخه موبایل ویکی‌پدیا اجرا شود. اما ویرایشگران داوطلب که این دانش‌نامه را می‌سازند، بلافاصله و به شدت با این ایده مخالفت کردند. صفحه بحث مربوط به این پروژه پر از نظرات منفی شد؛ از جمله کامنت‌های ساده‌ای مثل «اه» و جملات قاطعی مانند «قوی‌ترین مخالفت ممکن» و «کاملاً مخالفم».

 

مخالفت ویکی‌پدیا با خلاصه‌سازی هوش مصنوعی و توقف پروژه توسط بنیاد ویکیمدیا

 

یکی از ویرایشگران گفت که حتی همین آزمایش می‌تواند «آسیب فوری و غیرقابل بازگشت به خوانندگان ما و اعتبار ما به‌عنوان یک منبع جدی و نسبتاً قابل اعتماد وارد کند.» او تأکید کرد که اعتبار ویکی‌پدیا بر پایه جدیت و قابل اعتماد بودن آن ساخته شده، نه بر جذابیت ظاهری. ویرایشگر دیگری ترس داشت که این کار مدل مشارکتی سایت را نابود کند. او گفت در حالی که «توده جمعی» ویرایشگران انسانی در نهایت منجر به ایجاد مجموعه‌ای زیبا و متعادل می‌شود، هوش مصنوعی می‌تواند نقش «یک ویرایشگر واحد با مشکلات شناخته‌شده در زمینه قابل اعتماد بودن و بی‌طرفی» را در رأس هر مقاله قرار دهد. همین ویرایشگر همچنین گفت:

«احساس می‌کنم خلاصه‌مقالات ساده (SAS) با بسیاری از خواسته‌های خوانندگان یک دانش‌نامه در تضاد است. خوانندگان به سایت مراجعه می‌کنند چون مطمئن‌اند که ما می‌توانیم همه اطلاعات مورد نیازشان را با منابع معتبر و رعایت بی‌طرفی (که بسیار مهم است!) ارائه دهیم. شاید بعضی خوانندگان نظر متفاوتی داشته باشند، اما بدون این دو اصل، ویکی‌پدیا فقط یک سایت دیگر خواهد بود.»

 

 

 

دلیل این حساسیت به‌خوبی قابل درک است. نگرانی ویرایشگران ریشه در شکست‌های اخیر و آشکار قابلیت‌های هوش مصنوعی شرکت‌های بزرگ فناوری دارد. برای مثال، مرور کلی هوش مصنوعی گوگل اخیراً به ۱.۵ میلیارد کاربر ماهانه رسیده است. این ویژگی به دلیل راهنمایی‌های اشتباه و خنده‌دار مثل توصیه به زدن چسب روی پیتزا یا اینکه یک سگ در NBA بازی کرده، باعث تمسخر شد. این نوع اشتباهات تحقیرآمیز چیزی است که جامعه ویکی‌پدیا به شدت تلاش می‌کند از آن دوری کند، چون می‌تواند حاصل بیش از بیست سال کار دقیق را زیر سؤال ببرد. مثال دیگر، در ژانویه امسال بود که قابلیت هوش مصنوعی اپل اشتباهاً نوتیفیکیشنی صادر کرد که در آن ادعا شده بود «لوئیجی مانجیونه» خودکشی کرده، در حالی که او زنده و در بازداشت بود.

در صفحه بحث فنی سایت، مارشال میلر (MMiller)، مدیر ارشد بنیاد ویکیمدیا، امروز به‌روزرسانی ارائه داد و ضمن پذیرش بازخوردها گفت: «واضح است که می‌توانستیم ایده را بهتر معرفی کنیم» و تأیید کرد که آزمایش فعلاً متوقف شده است. بنیاد اعلام کرد هدف از این طرح، بررسی دسترسی‌پذیری برای گروه‌های مختلف خوانندگان بود. اگرچه این آزمایش فعلاً کنار گذاشته شده، اما این سازمان هنوز به استفاده از فناوری‌های جدید علاقه دارد. میلر در پایان قول داد: «هیچ برنامه‌ای برای افزودن قابلیت خلاصه‌سازی به ویکی‌ها بدون دخالت ویرایشگران نداریم.»

یکی از سخنگویان بنیاد ویکیمدیا همچنین به 404Media گفت اگرچه این قابلیت متوقف شده، اما بنیاد همچنان علاقه‌مند به خلاصه‌سازی مقالات با هوش مصنوعی است. این سخنگو تأکید کرد هدف نهایی، ساخت سیستم‌های مدیریتی است که «انسان‌ها همچنان نقش محوری دارند» و این نوع واکنش منفی را بخشی از ویژگی پلتفرم کاملاً مشارکتی ویکی‌پدیا دانست.

source

توسط wikiche.com