افزایش ۹۰۰ درصدی استفاده از جعل عمیق در سال تشخیص واقعیت از جعل عمیق دیگر امکان ندارد

به گزارش خرید بک لینک به نقل از ایسنا، در خیلی از موقعیت های روزمره بخصوص تماسهای ویدیویی باکیفیت پایین و محتوایی که در شبکه های اجتماعی دست به دست می شود، میزان واقعی بودن جعل های عمیق آن قدر بالاست که به صورت قابل اعتماد افراد ناشی را فریب می دهد. از نظر عملی، تولیدات مصنوعی برای مردم عادی و در بعضی موارد حتی برای نهادها، از داده های واقعی غیرقابل تمایز شده اند.
به نقل از گیزمودو، این جهش فقط به کیفیت محدود نمی گردد. حجم جعل های عمیق نیز به صورت انفجاری بالا رفته است. شرکت امنیت سایبری «دیپ استرایک» برآورد می کند که تعداد جعل های عمیق آنلاین از حدود ۵۰۰ هزار مورد در سال ۲۰۲۳ به حدود هشت میلیون مورد در سال ۲۰۲۵ رسیده است که رشدی سالانه نزدیک به ۹۰۰ درصد است.
یک دانشمند علوم کامپیوتر که روی جعل های عمیق و دیگر تولیدات مصنوعی پژوهش می کند، می گوید: از نظر من، وضعیت احیانا در سال ۲۰۲۶ بدتر هم خواهد شد، برای اینکه جعل های عمیق به اجراکنندگان مصنوعی تبدیل می شوند که قادرند در لحظه به انسان ها واکنش نشان دهند.
چند تحول فنی، پایه های این جهش چشم گیر را شکل داده اند. نخست، میزان واقعی بودن ویدیوها به لطف نسل جدیدی از مدلهای تولید ویدئو است که به صورت ویژه برای حفظ «انسجام زمانی» طراحی شده اند. این مدلها قادرند ویدئوهایی را بسازند که در آنها حرکت ها طبیعی و پیوسته اند، هویت افراد در طول صحنه ثابت می ماند و محتوا از یک فریم به فریم بعد منطقی، هماهنگ و باورپذیر است. این مدلها اطلاعات در ارتباط با نمایش هویت یک فرد را از اطلاعات در ارتباط با حرکت جدا می کنند؛ به شکلی که میتوان یک حرکت مشخص را به هویت های مختلف نسبت داد یا یک هویت واحد را با انواع حرکت ها نمایش داد.
درنتیجه، این مدلها چهره هایی پایدار و منسجم تولید می کنند، بدون آن سوسو زدن، اعوجاج یا تغییر شکل های ساختاری در اطراف چشم و خط فک که زمانی به عنوان شواهد قابل اعتماد برای شناسایی جعل های عمیق به کار می رفت.
عبور شبیه سازی صدا از چیزی است که او آنرا «آستانه غیرقابل تشخیص بودن» می نامد. حال چند ثانیه صدا کافی است تا یک نسخه شبیه سازی شده متقاعدکننده همراه با آهنگ گفتار طبیعی، ریتم، تاکید، احساس، مکث ها و حتی صدای نفس کشیدن ایجاد شود. این قابلیت همین حالا هم به کلاهبرداری های گسترده دامن زده است. برخی خرده فروشان بزرگ گزارش می دهند که روزانه بیشتر از هزار تماس کلاهبرداری تولیدشده با هوش مصنوعی دریافت می کنند. نشانه های شنیداری که زمانی صدای مصنوعی را لو می دادند، تا حد زیادی از بین رفته اند.
ابزارهای مصرفی هستند که مانع فنی را حدودا به صفر رسانده اند. ارتقاهای هوش های مصنوعی سورا ۲ اوپن ای آی (OpenAI Sora ۲) و وئو ۳ گوگل (Google Veo ۳)، به همراه موجی از استارتاپ ها، به این معناست که حدودا هر کسی می تواند یک ایده را توصیف کند و اجازه دهد یک مدل زبانی بزرگ مانند چت جی پی تی یا جمینای سناریوی آنرا بنویسد و در عرض چند دقیقه محتوای صوتی-تصویری تولید نماید. عامل های هوش مصنوعی می توانند کل این فرآیند را خودکار کنند. توانایی تولید جعل های عمیق منسجم و داستان محور در مقیاس بزرگ در عمل همگانی شده است.
ترکیبِ افزایش وحشتناک تعداد جعل های عمیق با «شخصیت هایی» که حدودا از انسان های واقعی قابل تشخیص نیستند، چالش های جدی برای شناسایی جعل های عمیق ایجاد می کند، بخصوص در محیط رسانه ای که توجه افراد پراکنده است و محتوا سریع تر از آن منتشر می شود که بتوان آنرا راستی آزمایی کرد. پیشتر نیز لطمه های واقعی روی داده اند؛ از اطلاعات نادرست گرفته تا آزار هدفمند و کلاهبرداری های مالی که با کمک جعل های عمیق و قبل از آنکه مردم متوجه شوند چه اتفاقی افتاده، گسترش یافته اند.
با نگاه به آینده، مسیر سال آینده روشن است: جعل های عمیق بسمت تولید در لحظه حرکت می کنند؛ یعنی ساخت ویدئوهایی که خیلی نزدیک به ظرافت های ظاهری انسان هستند و شناسایی آنها را برای سیستم های تشخیص دشوارتر می کنند. مدل هایی که محتوای زنده یا نزدیک به زنده تولید می کنند، نه کلیپ های از پیش تولید شده.
با بلوغ این توانایی ها، شکاف ادراکی میان رسانه های مصنوعی و انسانیِ واقعی همچنان کمتر خواهد شد. خط دفاعی معنادار، دیگر بر قضاوت انسان متکی نخواهد بود. در عوض، به حفاظت های زیرساختی وابسته می شود؛ همچون منشأ امن محتوا، مانند امضای رمزنگاری شده رسانه ها و ابزارهای تولید محتوا. دیگر فقط دقیق تر نگاه کردن به پیکسل ها کافی نخواهد بود.

منبع:

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا