نخستین حمله خودکار با بهره‌گیری از هوش مصنوعی؛ روشن شدن نقش مدل Claude در جاسوسی سایبری دولتی

شرکت Anthropic به‌عنوان اولین سازمانی اعلام می‌کند که یک تیم دولتی چینی موفق به سوءاستفاده از مدل هوش مصنوعی Claude برای راه‌اندازی یک حمله سایبری بزرگ با تا ۸۰–۹۰٪ خودگردانی شده است؛ این گزارش به‌طور جدی نگرانی‌هایی را درباره استفاده از هوش مصنوعی در حملات سایبری به وجود می‌آورد.

شرکت Anthropic به‌تازگی اعلام کرده است که در خلال یک عملیات امنیتی سایبری پیچیده، از مدل هوش مصنوعی خود، یعنی Claude، به‌منظور اجرای بخش عمده‌ای از حمله بهره برده است.
این واقعه که از نظر کارشناسان امنیتی «بی‌سابقه» قلمداد شده، نشان‌دهنده آغاز نسل جدیدی از تهدیدات سایبری مبتنی بر تکنولوژی هوش مصنوعی است.
 

گزارش جدید Anthropic درباره حمله‌ای خودگردان بر پایه AI

به نقل از ایتنا و بر اساس اطلاعات ارائه‌شده توسط Anthropic و گزارشی اختصاصی از Axios، گروهی هکری که ارتباط آن با یک دولت خارجی مطرح شده، موفق شده است با استفاده از توانمندی‌های مدل Claude، بخش عمده‌ای از فرآیندهای حمله را به‌صورت خودکار و بدون نیاز به دخالت انسان انجام دهد.
گفته می‌شود که این گروه پیش‌تر نیز در عملیات‌های مرتبط با جاسوسی سایبری مشاهده شده‌است، اما این نخستین بار است که یک مدل زبانی پیشرفته تا این حد در قلب چرخه حمله فعال می‌شود.

طبق این گزارش، مهاجمان از این مدل هوشمند برای انجام وظایفی همچون تحلیل اهداف، تولید اسکریپت‌های مخرب، بهینه‌سازی مسیر نفوذ، نگارش ایمیل‌های فیشینگ به‌طوری طبیعی و حتی خودکارسازی تصمیم‌گیری‌های عملیاتی استفاده کرده‌اند. Anthropic تأکید کرده است که تقریباً ۹۰ درصد از مراحل این حمله به‌واسطه هوش مصنوعی صورت گرفته است.
 

نقش محدود انسان و رشد نگرانی‌های امنیتی

تحقیقات امنیتی حاکی از آن است که انسان‌ها تنها وظیفه نظارت و هماهنگی نهایی را بر عهده داشته‌اند و مدل هوش مصنوعی توانسته است تعداد زیادی از وظایف پیچیده را به‌صورت مستقل انجام دهد. این موضوع بخصوص برای نهادهای امنیتی و کارشناسان سایبر یک زنگ خطر جدی تلقی می‌شود.
شرکت‌های فعال در حوزه امنیت سایبری پیش‌تر درباره خطر «خودکار شدن کامل چرخه حملات» هشدار داده بودند، اما این حادثه نخستین مورد عملی ثبت‌شده در سطح دولتی است که نشان می‌دهد مهاجمان می‌توانند از یک مدل هوش مصنوعی عمومی به‌منظور راه‌اندازی عملیات جاسوسی بهره‌برداری کنند.
 

واکنش‌ها و عواقب محتمل

پس از انتشار این گزارش، کارشناسان امنیتی ابراز نگرانی در خصوص گسترش «سلاح‌های سایبری بر مبنای AI» کرده‌اند. به گفته آن‌ها، اگر مدل‌های هوش مصنوعی بتوانند بدون نظارت کافی، چنین نقش‌هایی را ایفا کنند، در آینده‌ای نزدیک احتمال بروز حملات پیچیده‌تر، سریع‌تر و گسترده‌تر وجود دارد.

مدیران Anthropic بر این موضوع تأکید کرده‌اند که برای جلوگیری از تکرار چنین سوءاستفاده‌هایی، در حال توسعه سیستم‌های شناسایی رفتارهای خطرناک و محدودکننده‌های جدید برای بهره‌برداری از مدل‌های زبانی هستند. همچنین شرکت‌های امنیتی خواستار اعمال استانداردهای سخت‌گیرانه‌تری جهت نظارت بر استفاده از هوش مصنوعی در حوزه سایبری شده‌اند.
در زمان انتشار این خبر، نه دولت مربوطه و نه شرکت Anthropic جزئیات بیشتری درباره ابعاد حمله یا اهداف دقیق آن ارائه نکرده‌اند.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا