مایلز براندیج، مشاور ارشد سابق OpenAI پس از خروج از این استارتاپ طی پستی اعلام کرده که هیچ‌یک از آزمایشگاه‌های از جمله OpenAI، برای مواجهه با هوش مصنوعی انسان‌گونه یا AGI آماده نیستند.

او طی پستی با عنوان چرا اوپن‌ای‌آی را ترک کردم و چه برنامه‌‌هایی برای آینده دارم نوشت: «نه اوپن‌ای‌آی و نه هیچ آزمایشگاه دیگری برای هوش مصنوعی انسان‌گونه آماده نیست و جهان نیز آمادگی مواجه شدن با آن را ندارد.»

راهنمای خرید تکراتو

هیچکس برای هوش مصنوعی انسان‌گونه آماده نیست

براندیج که در زمینه  ایمنی هوش مصنوعی فعالیت می‌کرده در این پست نوشته که آمادگی برای هوش مصنوعی جامع یا AGI به عوامل مختلفی وابسته است. این عوامل شامل نحوه‌ی اجرای فرهنگی ایمنی و امنیت، تاثیر مقررات بر انگیزه‌های سازمانی و مشکلاتی در زمینه ارائه اطلاعات دقیق در مورد قابلیت‌های هوش مصنوعی می‌شود.

وی در ادامه به یکی از مهم‌ترین دلایل خروجش از این مجموعه  نیز اشاره کرده و گفته که به دلیل محدودیت‌هایی که OpenAI در زمینه تحقیقات و آزمایش‌ها تعیین کرده، تصمیم به خروج  از این شرکت گرفته است.

 

براندیج اولین فردی نیست که از این شرکت جدا می‌شود؛ پیش از او نیز یان لکه، ایلیا سوتسکور و دو چهره‌ی کلیدی دیگر نیز از این شرکت به دلایل مشابه جدا شدند. در این میان سوتسکور استارتاپ خودش را با تمرکز بر توسعه هوش مصنوعی انسان‌گونه (AGI) تاسیس کرد.

یکی دیگر از نکات حائز اهمیت که براندیج به آن اشاره کرده، انحلال تیم «آمادگی AGI» و پیش از آن، تیم «Superalignment» است که به کاهش خطرات بلندمدت هوش مصنوعی پرداخته بود. این تغییرات به نوعی نشان‌دهنده چالش‌های جدی در مدیریت و هدایت پروژه‌های مربوط به AGI در OpenAI است.

علیرغم تمامی چالش‌‌ها و اتفاقاتی اخیری که رخ داده، براندیچ اشاره کرده که این شرکت او را در زمینه تامین بودجه؛ اعتبار API و دسترسی به مدل‌های اولیه برای برنامه‌های آینده‌اش حمایت خواهد کرد.

بیشتر بخوانید:

source

توسط wikiche.com