شعر؛ راهکار نوین برای عبور از محدودیتهای چتباتهای هوش مصنوعی

طبق گزارش ایتنا و با استناد به خبرهای Engadget، این تحقیق که در آزمایشگاه «ایکارو» انجام شده و عنوان آن «شعر خصمانه به عنوان یک راهکار جهانی برای فرار از زندان در مدلهای زبانی بزرگ» است، نشان میدهد که ابراز درخواستها به صورتی شاعرانه میتواند قسمتی از مکانیزمهای ایمنی LLMها را دور بزند.
برمبنای نتایج این مطالعه، «ساختارهای شاعرانه به عنوان ابزاری عمومی برای عبور از محدودیتها عمل میکنند». این بررسیها نشان میدهد که این روش توانسته با نرخ موفقیت ۶۲ درصد، محتوای غیرمجاز تولید کند؛ محتوایی که شامل دستورالعملهای ساخت سلاحهای هستهای، مواردی از سوءاستفاده جنسی از کودکان و همچنین اطلاعاتی در زمینه خودکشی و خودآزاری است.
در این پژوهش، تعدادی از مدلهای زبانی بزرگ شناختهشده مانند GPT شرکت OpenAI، جمینای گوگل، کلود از شرکت Anthropic و چندین مدل دیگر تحت بررسی قرار گرفتهاند. نتایج نشان میدهد که مدلهایی مانند Google Gemini، DeepSeek و MistralAI به مراتب بیشتر از سایر مدلها در برابر این روش آسیبپذیر بوده و پاسخهای ممنوعهای ارائه دادهاند؛ در حالی که GPT-5 OpenAI و Claude Haiku 4.5 Anthropic کمترین تخطی را از محدودیتهای ایمنی از خود نشان دادهاند.
تحقیقات انجام شده، به انتشار نمونههای اشعار دقیق برای دور زدن این محدودیتها نپرداختهاند. محققان در گفتوگو با Wired تأکید کردند که ارائه این نمونهها «برای عموم بسیار خطرناک» خواهد بود. اگرچه نسخهای محدود از این روش در گزارش وجود دارد که نشان میدهد عبور از سیستمهای ایمنی چتباتهای هوش مصنوعی تا چه حد میتواند ساده باشد؛ مسألهای که پژوهشگران میگویند «احتمالاً بسیار آسانتر از آنچه تصور میشود است و به همین دلیل، نیاز به احتیاط بیشتری دارد.»



