انقلاب هوش مصنوعی ابزارها و خدمات زیادی را در اختیار کاربران قرار داده که زندگی روزمره را در حوزههای مختلف، از کار و آموزش گرفته تا سرگرمی، آسانتر کرده است. این فناوری همچنین صنعت تکنولوژی را در مدتزمان کوتاهی با سرعتی چشمگیر متحول کرده است. اما برخی از افراد، از جمله اریک اشمیت ، نسبت به پیامدهای خطرناک استفاده نادرست از این فناوری هشدار دادهاند.
بهگزارش تکراتو به نقل از androidheadlines، ورود پلتفرم «DeepSeek» به صنعت هوش مصنوعی نهتنها تأثیر شدیدی بر والاستریت گذاشت و باعث سقوط ارزش سهام انویدیا و دیگر شرکتهای بزرگ شد، بلکه در هفتههای اخیر، نگرانیهای بسیاری را در میان مقامات و کارشناسان آمریکایی برانگیخت.

این نگرانیها عمدتا مربوط به تهدیدهای احتمالی علیه امنیت ملی و حریم خصوصی کاربران بوده است. بااینحال، هشدارهای اریک اشمیت حتی از این هم فراتر میرود.
نگرانی اصلی اریک اشمیت : امکان استفاده از هوش مصنوعی در حملات تروریستی
اریک اشمیت در گفتوگو با BBC نگرانی خود را درباره یکی از تهدیدهایی که کمتر مورد توجه قرار گرفته، مطرح کرد. او گفت: «نگرانی اصلی من درباره هوش مصنوعی، چیزی فراتر از آن چیزی است که اکثر مردم به آن اشاره میکنند.
من درباره خطرات شدید صحبت میکنم.» او تأکید کرد که بسیاری از نگرانیها به استفاده از پلتفرمهای چینی مرتبط است، اما در عین حال، امکان استفاده از هوش مصنوعی در حملات تروریستی را نیز مدنظر دارد.
اشمیت هشدار داد که کشورهایی مانند کره شمالی، ایران یا حتی روسیه میتوانند از این فناوری در بدترین شکل ممکن استفاده کنند. او بهطور خاص به احتمال طراحی سلاحهای بیولوژیکی با کمک هوش مصنوعی اشاره کرد و گفت: «همیشه نگران سناریویی مانند اسامه بنلادن هستم؛ یعنی شخصی واقعاً شرور که کنترل بخشی از زندگی مدرن ما را به دست میگیرد و از آن برای آسیبرساندن به افراد بیگناه استفاده میکند.»
ناکارآمدی سیستمهای محافظتی هوش مصنوعی در جلوگیری از سوءاستفادهها
شرکتهای بزرگ فعال در حوزه هوش مصنوعی، برخی محدودیتها و سیستمهای امنیتی را برای جلوگیری از سوءاستفاده از این فناوری در نظر گرفتهاند. اما طبق آزمایشهای انجامشده توسط شرکتهای Anthropic و Cisco، این سیستمها هنوز بهشدت ناکارآمد هستند.
در این بررسیها، مشخص شد که پلتفرم DeepSeek با نرخ موفقیت 100 درصد در عبور از این محدودیتها، بدترین عملکرد را داشته است. این یعنی، این پلتفرم حتی یک درخواست مرتبط با سلاحهای بیولوژیکی را هم مسدود نکرده است. همچنین، مدلهای دیگر مانند GPT 1.5 Pro و Llama 3.1 405B نیز عملکرد نگرانکنندهای داشتهاند و بهترتیب با نرخ موفقیت 86 و 96 درصد، قادر به دور زدن این محدودیتها بودهاند.
ضرورت تدوین قوانین نظارتی برای کنترل هوش مصنوعی
مدیرعامل سابق گوگل از وضع قوانین نظارتی بر شرکتهای هوش مصنوعی حمایت میکند، اما درعینحال هشدار داده که سختگیری بیش از حد میتواند نوآوری در این حوزه را با مشکل مواجه کند. او معتقد است که باید تعادلی میان توسعه فناوری و امنیت برقرار شود.
اشمیت همچنین از اعمال محدودیتهای صادراتی بر سختافزارهای هوش مصنوعی حمایت کرده است، اقدامی که در پایان دوره ریاستجمهوری جو بایدن برای کندکردن پیشرفت رقبا در این حوزه انجام شد. بااینحال، احتمال دارد که دونالد ترامپ در صورت بازگشت به قدرت، این تصمیم را لغو کند تا شرکتهای خارجی مجبور نشوند به تأمینکنندگان دیگر روی بیاورند.
در این میان، گوگل نیز تغییراتی در سیاستهای خود اعمال کرده و حالا اجازه استفاده از فناوری هوش مصنوعی خود را برای توسعه سلاحها و سیستمهای نظارتی صادر کرده است.
source