انقلاب هوش مصنوعی ابزارها و خدمات زیادی را در اختیار کاربران قرار داده که زندگی روزمره را در حوزه‌های مختلف، از کار و آموزش گرفته تا سرگرمی، آسان‌تر کرده است. این فناوری همچنین صنعت تکنولوژی را در مدت‌زمان کوتاهی با سرعتی چشمگیر متحول کرده است. اما برخی از افراد، از جمله اریک اشمیت ، نسبت به پیامدهای خطرناک استفاده نادرست از این فناوری هشدار داده‌اند.

به‌گزارش تکراتو به نقل از androidheadlines، ورود پلتفرم «DeepSeek» به صنعت هوش مصنوعی نه‌تنها تأثیر شدیدی بر وال‌استریت گذاشت و باعث سقوط ارزش سهام انویدیا و دیگر شرکت‌های بزرگ شد، بلکه در هفته‌های اخیر، نگرانی‌های بسیاری را در میان مقامات و کارشناسان آمریکایی برانگیخت.

راهنمای خرید تکراتو

این نگرانی‌ها عمدتا مربوط به تهدیدهای احتمالی علیه امنیت ملی و حریم خصوصی کاربران بوده است. بااین‌حال، هشدارهای اریک اشمیت حتی از این هم فراتر می‌رود.

نگرانی اصلی اریک اشمیت : امکان استفاده از هوش مصنوعی در حملات تروریستی

اریک اشمیت در گفت‌وگو با BBC نگرانی خود را درباره یکی از تهدیدهایی که کمتر مورد توجه قرار گرفته، مطرح کرد. او گفت: «نگرانی اصلی من درباره هوش مصنوعی، چیزی فراتر از آن چیزی است که اکثر مردم به آن اشاره می‌کنند.

من درباره خطرات شدید صحبت می‌کنم.» او تأکید کرد که بسیاری از نگرانی‌ها به استفاده از پلتفرم‌های چینی مرتبط است، اما در عین حال، امکان استفاده از هوش مصنوعی در حملات تروریستی را نیز مدنظر دارد.

اشمیت هشدار داد که کشورهایی مانند کره شمالی، ایران یا حتی روسیه می‌توانند از این فناوری در بدترین شکل ممکن استفاده کنند. او به‌طور خاص به احتمال طراحی سلاح‌های بیولوژیکی با کمک هوش مصنوعی اشاره کرد و گفت: «همیشه نگران سناریویی مانند اسامه بن‌لادن هستم؛ یعنی شخصی واقعاً شرور که کنترل بخشی از زندگی مدرن ما را به دست می‌گیرد و از آن برای آسیب‌رساندن به افراد بی‌گناه استفاده می‌کند.»

ناکارآمدی سیستم‌های محافظتی هوش مصنوعی در جلوگیری از سوءاستفاده‌ها

شرکت‌های بزرگ فعال در حوزه هوش مصنوعی، برخی محدودیت‌ها و سیستم‌های امنیتی را برای جلوگیری از سوءاستفاده از این فناوری در نظر گرفته‌اند. اما طبق آزمایش‌های انجام‌شده توسط شرکت‌های Anthropic و Cisco، این سیستم‌ها هنوز به‌شدت ناکارآمد هستند.

در این بررسی‌ها، مشخص شد که پلتفرم DeepSeek با نرخ موفقیت 100 درصد در عبور از این محدودیت‌ها، بدترین عملکرد را داشته است. این یعنی، این پلتفرم حتی یک درخواست مرتبط با سلاح‌های بیولوژیکی را هم مسدود نکرده است. همچنین، مدل‌های دیگر مانند GPT 1.5 Pro و Llama 3.1 405B نیز عملکرد نگران‌کننده‌ای داشته‌اند و به‌ترتیب با نرخ موفقیت 86 و 96 درصد، قادر به دور زدن این محدودیت‌ها بوده‌اند.

ضرورت تدوین قوانین نظارتی برای کنترل هوش مصنوعی

مدیرعامل سابق گوگل از وضع قوانین نظارتی بر شرکت‌های هوش مصنوعی حمایت می‌کند، اما درعین‌حال هشدار داده که سخت‌گیری بیش از حد می‌تواند نوآوری در این حوزه را با مشکل مواجه کند. او معتقد است که باید تعادلی میان توسعه فناوری و امنیت برقرار شود.

اشمیت همچنین از اعمال محدودیت‌های صادراتی بر سخت‌افزارهای هوش مصنوعی حمایت کرده است، اقدامی که در پایان دوره ریاست‌جمهوری جو بایدن برای کندکردن پیشرفت رقبا در این حوزه انجام شد. بااین‌حال، احتمال دارد که دونالد ترامپ در صورت بازگشت به قدرت، این تصمیم را لغو کند تا شرکت‌های خارجی مجبور نشوند به تأمین‌کنندگان دیگر روی بیاورند.

در این میان، گوگل نیز تغییراتی در سیاست‌های خود اعمال کرده و حالا اجازه استفاده از فناوری هوش مصنوعی خود را برای توسعه سلاح‌ها و سیستم‌های نظارتی صادر کرده است.

source

توسط wikiche.com