مذاکره در کار نیست، بمب اتم میزنیم!
به گزارش خبرگزاری خبرآنلاین، مطالعهای که در سال گذشته انجام شد، نشان داد که وقتی پای هوش مصنوعی به جنگهای شبیهسازی شده و سناریوهای دیپلماتیک میرسد، این فناوری تمایل به انتخاب رویکرد تهاجمی از جمله استفاده از سلاحهای هستهای دارد.
طی این مطالعه که در دانشگاه کرنل در ایالات متحده صورت گرفت، از پنج LLM به عنوان عوامل مستقل در جنگهای شبیهسازی شده و سناریوهای دیپلماتیک استفاده شد:
- GPT OpenAI
- Claude Anthropic
- Llama 2 Meta
بر اساس این مطالعه، هر عامل توسط همان LLM در یک شبیهسازی نیرو میگرفت و وظیفه داشت بدون نظارت انسان تصمیمات سیاست خارجی را اتخاذ کند.
طی این مطالعه همه مدلها نشانههایی از رفتار ناگهانی و غیرقابل پیشبینی را بروز دادند.
با توجه به اینکه OpenAI اخیراً شرایط خدمات خود را تغییر داده است تا دیگر موارد استفاده نظامی و جنگی از آن ممنوع شود، درک پیامدهای استفاده نظامی از LLMها از همیشه مهمتر است.
یکی از روشهایی که برای تنظیم دقیق مدلها استفاده میشود، یادگیری تقویتی از بازخورد انسانی (RLHF) است به این معنی که برخی دستورالعملهای انسانی برای دریافت خروجیهای مضر کمتر و استفاده ایمنتر داده میشود.
طبق گزارش محققان، GPT-4-Base به طور متوسط 33 درصد از مواقع حملات هستهای را پیشنهاد میداد. سناریوهای کلی، Llama-2 و GPT-3.5 خشنترین سناریوها بودند در حالی که Claude تغییرات ناگهانی کمتری را نشان داد. گفتنی است که Claude با ایده کاهش محتوای مضر طراحی شده است.
به گفته سازنده آن Anthropic، قانون اساسی Claude شامل منابع مختلفی از جمله اعلامیه حقوق بشر سازمان ملل میشود.
جیمز بلک، دستیار گروه تحقیقاتی در مباحث امنیتی و دفاعی در اروپا، که در این مطالعه شرکت نکرد، به یورونیوز نکست گفت که این یک “تمرین آکادمیک مفید” بود.
او گفت: «این بخشی از کار رو به رشدی است که توسط دانشگاهیان و مؤسسات برای درک پیامدهای استفاده از هوش مصنوعی (AI) انجام میشود.»
منبع: euronews
۲۲۷۲۲۷