فقط ۴۴ درصد کاربران می‌توانند دیپ‌فیک را تشخیص دهند

رشد سریع ابزارهای تولید تصویر و ویدئو مبتنی بر هوش مصنوعی، از جمله Sora متعلق به OpenAI و Nano Banana از Google، تشخیص محتوای واقعی از جعلی را دشوارتر از همیشه کرده است. طبق گزارش CNET، ۹۴ درصد بزرگسالان آمریکایی با محتوای تولیدشده توسط AI مواجه شده‌اند، اما تنها ۴۴ درصد معتقدند توانایی تشخیص دیپ‌فیک را دارند؛ موضوعی که بحران جدی اعتماد در فضای دیجیتال را نشان می‌دهد.

پیشرفت سریع مدل‌های تولید تصویر و ویدئو مبتنی بر هوش مصنوعی، مرز میان واقعیت و جعل را بیش از هر زمان دیگری کمرنگ کرده است.

به گزارش ایتنا و به نقل از Phonearena، ابزارهایی مانند Sora از شرکت OpenAI و مدل Nano Banana از گوگل اکنون قادرند ویدئوهایی تولید کنند که تشخیص آنها از تصاویر واقعی تقریباً غیرممکن شده است. این موضوع باعث نگرانی گسترده درباره گسترش دیپ‌فیک‌ها در شبکه‌های اجتماعی شده است.

بر اساس گزارشی از CNET، نود و چهار درصد بزرگسالان آمریکایی اعلام کرده‌اند که با تصاویر یا ویدئوهای تولیدشده توسط هوش مصنوعی در فضای آنلاین مواجه شده‌اند. با این حال، تنها ۴۴ درصد آنها معتقدند می‌توانند تفاوت میان محتوای واقعی و ساختگی را تشخیص دهند. این آمار نشان می‌دهد اعتماد کاربران به توانایی تشخیص دیپ‌فیک‌ها چندان بالا نیست.

نمونه‌هایی از ویدئوهای وایرال در شبکه‌های اجتماعی شامل صحنه‌های نمایشی اسکیت روی یخ یا تصادف‌های هوایی مهیب هستند که برخی کاملاً جعلی‌اند. در مقابل، برخی رویدادهای تاریخی واقعی مانند سه هوم‌ران معروف Reggie Jackson در سری جهانی ۱۹۷۷ حقیقت دارند، اما در فضای فعلی حتی واقعیت نیز زیر سؤال می‌رود. این تردید گسترده، نشان‌دهنده بحرانی عمیق در اعتماد عمومی به محتوای دیجیتال است.

 

در نظرسنجی انجام‌شده، ۵۱ درصد پاسخ‌دهندگان پیشنهاد داده‌اند که ویدئوهای تولیدشده با هوش مصنوعی باید برچسب‌گذاری شفاف داشته باشند. در مقابل، ۲۱ درصد خواستار ممنوعیت کامل انتشار تصاویر و ویدئوهای AI در شبکه‌های اجتماعی شده‌اند. تنها ۱۱ درصد کاربران، محتوای تولیدی هوش مصنوعی را مفید، آموزنده یا سرگرم‌کننده دانسته‌اند.

از سوی دیگر، ۷۲ درصد بزرگسالان آمریکایی اعلام کرده‌اند که برای بررسی صحت ویدئوها اقداماتی انجام می‌دهند. ۶۰ درصد با دقت به جزئیات تصویر نگاه می‌کنند، ۲۵ درصد از جستجوی معکوس تصویر استفاده می‌کنند، ۵ درصد به ابزارهای تشخیص دیپ‌فیک مراجعه می‌کنند و ۳ درصد به‌طور پیش‌فرض هر محتوایی را جعلی فرض می‌کنند. با این حال، برخی گروه‌های سنی مانند بیبی‌بومرها (۳۶ درصد) و نسل ایکس (۲۹ درصد) هیچ اقدامی برای راستی‌آزمایی انجام نمی‌دهند.

نکته مهم این است که نشانه‌های قدیمی تشخیص دیپ‌فیک، مانند انگشتان اضافی یا ناهماهنگی‌های چهره، دیگر قابل اتکا نیستند. مدل‌های جدید آن‌قدر دقیق شده‌اند که حتی این خطاهای رایج نیز به‌ندرت دیده می‌شود. برای مثال، تصویری از جان اف کندی در حال در دست داشتن آیفون با استفاده از Nano Banana ساخته شده که بسیاری را فریب داده است.

در مجموع، رشد فناوری‌های تولید محتوای هوش مصنوعی، ضرورت تدوین قوانین شفاف، ابزارهای تشخیص پیشرفته‌تر و افزایش سواد رسانه‌ای کاربران را بیش از پیش آشکار کرده است.

مشاهده بیشتر

نوشته های مشابه

دکمه بازگشت به بالا