نخستین حمله خودکار با بهرهگیری از هوش مصنوعی؛ روشن شدن نقش مدل Claude در جاسوسی سایبری دولتی

این واقعه که از نظر کارشناسان امنیتی «بیسابقه» قلمداد شده، نشاندهنده آغاز نسل جدیدی از تهدیدات سایبری مبتنی بر تکنولوژی هوش مصنوعی است.
گزارش جدید Anthropic درباره حملهای خودگردان بر پایه AI
به نقل از ایتنا و بر اساس اطلاعات ارائهشده توسط Anthropic و گزارشی اختصاصی از Axios، گروهی هکری که ارتباط آن با یک دولت خارجی مطرح شده، موفق شده است با استفاده از توانمندیهای مدل Claude، بخش عمدهای از فرآیندهای حمله را بهصورت خودکار و بدون نیاز به دخالت انسان انجام دهد.
گفته میشود که این گروه پیشتر نیز در عملیاتهای مرتبط با جاسوسی سایبری مشاهده شدهاست، اما این نخستین بار است که یک مدل زبانی پیشرفته تا این حد در قلب چرخه حمله فعال میشود.
طبق این گزارش، مهاجمان از این مدل هوشمند برای انجام وظایفی همچون تحلیل اهداف، تولید اسکریپتهای مخرب، بهینهسازی مسیر نفوذ، نگارش ایمیلهای فیشینگ بهطوری طبیعی و حتی خودکارسازی تصمیمگیریهای عملیاتی استفاده کردهاند. Anthropic تأکید کرده است که تقریباً ۹۰ درصد از مراحل این حمله بهواسطه هوش مصنوعی صورت گرفته است.
نقش محدود انسان و رشد نگرانیهای امنیتی
تحقیقات امنیتی حاکی از آن است که انسانها تنها وظیفه نظارت و هماهنگی نهایی را بر عهده داشتهاند و مدل هوش مصنوعی توانسته است تعداد زیادی از وظایف پیچیده را بهصورت مستقل انجام دهد. این موضوع بخصوص برای نهادهای امنیتی و کارشناسان سایبر یک زنگ خطر جدی تلقی میشود.
شرکتهای فعال در حوزه امنیت سایبری پیشتر درباره خطر «خودکار شدن کامل چرخه حملات» هشدار داده بودند، اما این حادثه نخستین مورد عملی ثبتشده در سطح دولتی است که نشان میدهد مهاجمان میتوانند از یک مدل هوش مصنوعی عمومی بهمنظور راهاندازی عملیات جاسوسی بهرهبرداری کنند.
واکنشها و عواقب محتمل
پس از انتشار این گزارش، کارشناسان امنیتی ابراز نگرانی در خصوص گسترش «سلاحهای سایبری بر مبنای AI» کردهاند. به گفته آنها، اگر مدلهای هوش مصنوعی بتوانند بدون نظارت کافی، چنین نقشهایی را ایفا کنند، در آیندهای نزدیک احتمال بروز حملات پیچیدهتر، سریعتر و گستردهتر وجود دارد.
مدیران Anthropic بر این موضوع تأکید کردهاند که برای جلوگیری از تکرار چنین سوءاستفادههایی، در حال توسعه سیستمهای شناسایی رفتارهای خطرناک و محدودکنندههای جدید برای بهرهبرداری از مدلهای زبانی هستند. همچنین شرکتهای امنیتی خواستار اعمال استانداردهای سختگیرانهتری جهت نظارت بر استفاده از هوش مصنوعی در حوزه سایبری شدهاند.
در زمان انتشار این خبر، نه دولت مربوطه و نه شرکت Anthropic جزئیات بیشتری درباره ابعاد حمله یا اهداف دقیق آن ارائه نکردهاند.



