هوش مصنوعی و امنیت سایبری؛ یک چالش یا یک امکان؟

هوش مصنوعی به چه شکل امنیت سایبری را دستخوش تغییر می‌کند؟ نگاهی به دو دیدگاه مختلف درباره تأثیر AI در حملات سایبری و دفاع دیجیتال همراه با تازه‌ترین فناوری‌ها و تهدیدات هوشمند.

با پیشرفت‌های سریع در زمینه فناوری هوش مصنوعی، حوزه امنیت سایبری نیز در حال تغییر و ورود به مرحله‌ای جدید است که توأم با پیچیدگی و دوگانگی است.
امروزه، هوش مصنوعی نه تنها به عنوان یک ابزار توانمند برای مدافعین امنیت سایبری شناخته می‌شود، بلکه همان‌قدر که در خدمت آنهاست، در اختیار مهاجمان نیز قرار دارد؛ به طوری که چشم‌انداز تهدیدات و دفاع در فضای مجازی به‌سرعت در حال تغییر است.

دو روایت متفاوت درباره تأثیر هوش مصنوعی بر امنیت سایبری

به گزارش ایتنا، ظهور مدل‌های زبانی بزرگ (LLM) و ابزارهای مولد هوش مصنوعی، یکی از داغ‌ترین موضوعات محافل امنیتی به شمار می‌آید. از یک سو، گروهی از کارشناسان معتقدند که مجرمان سایبری هنوز فاقد منابع مالی و فنی کافی برای توسعه ابزارهایی قدرتمند مبتنی بر هوش مصنوعی هستند؛ بنابراین خطر فوری از سمت آنها وجود ندارد.
این دسته تأکید دارند که بهره‌برداری از LLMهای عمومی توسط مهاجمان، به دلیل محدودیت‌های امنیتی و ساختاری این مدل‌ها، چندان کارآمد و مخرب نخواهد بود. از این منظر، مدافعان زمان مناسبی دارند تا از قابلیت‌های AI برای تقابل با تهدیدات استفاده کنند.

از سوی دیگر، رویکردی بدبینانه‌تر وجود دارد که معتقد است هوش مصنوعی به طرز شگرفی قواعد بازی را تغییر داده است. بنا به نظر این گروه، مهاجمان در حال حاضر با استفاده از LLMهای متن‌باز و سفارشی‌شده، در حال ایجاد ابزارهایی برای اسکن وسیع اینترنت، شناسایی کاستی‌ها و حتی کشف آسیب‌پذیری‌های روز صفر (Zero-Day) هستند. این روند، سرعت و دقت حملات را به شدت افزایش داده و احتمال غافلگیر شدن مدافعان را به طور چشمگیری بالا برده است.

واقعیت پیچیده‌تر از آنچه به نظر می‌رسد
مایکل سیکورسکی، مدیر ارشد امنیت سایبری در شرکت Red Canary، در گفتگو با Axios هشدار داده که هرچند منابع پردازشی لازم برای اجرای عاملان پیشرفته هوش مصنوعی ممکن است در ابتدا برای مهاجمان مانع باشد، اما با گسترش دسترسی به مدل‌های سبک‌تر و کارآمدتر، این مانع به سرعت قابل عبور است.
او چشم‌اندازی از آینده‌ای نزدیک را ارائه می‌دهد که در آن، مهاجمان پس از نفوذ به زیرساخت‌های سازمان‌ها، از مدل‌های هوش مصنوعی موجود در خود سازمان‌ها علیه آنها استفاده خواهند کرد.

از سوی دیگر، موضوع مهمی که در این بین مطرح می‌شود، وضعیت نیروی انسانی در حوزه امنیت سایبری است. برخی از مدیران ابراز نگرانی کردند که این صنعت برای مواجهه با تغییرات ناشی از اتوماسیون و افزایش کاربرد AI آمادگی کافی ندارد. در حقیقت، هم‌زمان با افزایش حملات مبتنی بر هوش مصنوعی، تعداد متخصصان انسانی و توانمند برای مقابله با این تهدیدات در حال کاهش است.

پیشرفت‌های دفاعی در حوزه هوش مصنوعی

در جبهه دفاعی، نوآوری‌های چشمگیری در حال شکل‌گیری است. در جریان کنفرانس‌های امنیتی Black Hat 2025 و DEF CON، شرکت‌هایی نظیر Anthropic و Microsoft به ارائه دستاوردهای جدید خود پرداختند.
مدل هوش مصنوعی Claude که توسط Anthropic طراحی شده است، اکنون توانایی‌هایی در سطح یک تحلیل‌گر ارشد امنیتی ارائه می‌دهد و قادر به انجام تحلیل‌های تهدید در محیط‌های واقعی است.

شرکت مایکروسافت نیز نمونه اولیه‌ای از یک سیستم شناسایی بدافزار مبتنی بر AI را معرفی کرده که قابلیت شناسایی تقریباً یک‌چهارم از فایل‌های مخرب را دارد. اگرچه این رقم هنوز کامل نیست، اما گامی مهم در راستای اتوماسیون تشخیص تهدیدات به شمار می‌آید.

علاوه بر این، در چارچوب «چالش بزرگ امنیت سایبری با هوش مصنوعی» که با حمایت دولت ایالات متحده برگزار شده، چندین تیم تحقیقاتی ابزارهای متن‌باز برای شناسایی و ترمیم خودکار آسیب‌پذیری‌ها را عرضه کرده‌اند. این اقدام نشان‌دهنده شکل‌گیری نسلی تازه از ابزارهای دفاعی هوشمند است که می‌توانند به‌عنوان جایگزینی مناسب برای برخی از نیروی انسانی در زمینه تحلیل تهدیدات عمل کنند.

نبردی هوشمندانه در پیش است

در نهایت، نفوذ هوش مصنوعی به عرصه امنیت سایبری دیگر یک موضوع نظری نیست، بلکه واقعیتی عینی به شمار می‌رود که هم‌زمان می‌تواند فرصت‌ها و تهدیدات گسترده‌ای را ایجاد کند. همان‌طور که ابزارهای AI توانایی شناسایی و تحلیل تهدیدات را برای مدافعان به شدت افزایش داده، همین فناوری در دستان مهاجمان نیز قدرت نفوذ و تخریب را بالا برده است.

سازمان‌ها باید با نگاهی واقع‌بینانه و بدون اغراق یا تندروانی، خود را برای مقابله با این دوگانگی هوشمند آماده کنند؛ چرا که در نبرد هوش با هوش، تنها کسانی که می‌توانند به پیروزی دست یابند، آنها هستند که از این فناوری به شکل آگاهانه و مسئولانه بهره‌برداری کنند.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا