هوش مصنوعی برای محافظت در مقابل دستکاری تصویر هوش مصنوعی فعال می شود
1 min read

هوش مصنوعی برای محافظت در مقابل دستکاری تصویر هوش مصنوعی فعال می شود

“PhotoGuard” که توسط محققان MIT CSAIL توسعه یافته است، از دستکاری غیرمجاز تصویر جلوگیری می کند و از اصالت در عصر مدل های پیشرفته تولیدی محافظت می کند.

با ورود به عصر جدیدی که در آن فناوری‌های مبتنی بر هوش مصنوعی می‌توانند تصاویر را با دقتی که مرز بین واقعیت و ساختگی را محو می‌کند، ایجاد و دستکاری کنند، شبح استفاده نادرست به چشم می‌خورد. اخیراً مدل‌های مولد پیشرفته‌ای مانند DALL-E و Midjourney که به دلیل دقت چشمگیر و رابط‌های کاربرپسندشان مشهور شده‌اند، تولید تصاویر فوق واقعی را نسبتاً بدون دردسر ساخته‌اند. با کاهش موانع ورود، حتی کاربران بی‌تجربه نیز می‌توانند تصاویر با کیفیت بالا را از توضیحات متنی ساده تولید و دستکاری کنند – از تغییرات بی‌گناه تصویر گرفته تا تغییرات مخرب. تکنیک‌هایی مانند واترمارکینگ راه‌حل امیدوارکننده‌ای هستند، اما استفاده نادرست نیاز به یک اقدام پیشگیرانه (برخلاف تنها پس از انجام کار) دارد.

در تلاش برای ایجاد چنین معیار جدیدی، محققان آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) “PhotoGuard” را توسعه دادند، تکنیکی که از اختلالات استفاده می کند – تغییرات جزئی در مقادیر پیکسل نامرئی برای چشم انسان اما قابل تشخیص توسط مدل های کامپیوتری – که به طور موثر توانایی مدل را برای دستکاری تصویر مختل می کند.

PhotoGuard از دو روش مختلف “حمله” برای ایجاد این اختلالات استفاده می کند. حمله ساده تر «رمزگذار» نمایش پنهان تصویر را در مدل هوش مصنوعی هدف قرار می دهد و باعث می شود مدل تصویر را به عنوان یک موجودیت تصادفی درک کند. “نشر” پیچیده‌تر، تصویر هدف را تعریف می‌کند و اغتشاشات را بهینه می‌کند تا تصویر نهایی تا حد امکان شبیه به هدف باشد.

«احتمال انتشار متقلبانه رویدادهای فاجعه آمیز جعلی، مانند انفجار در یک نقطه عطف مهم را در نظر بگیرید. این فریب می تواند روند بازار و احساسات عمومی را دستکاری کند، اما خطرات آن به حوزه عمومی محدود نمی شود. هادی سلمان، دانشجوی کارشناسی ارشد MIT در رشته مهندسی برق و علوم کامپیوتر (EECS)، وابسته به MIT CSAIL، و نویسنده اصلی می‌گوید: تصاویر شخصی می‌توانند به‌طور نامناسب تغییر داده شوند و برای باج‌گیری مورد استفاده قرار گیرند، که منجر به پیامدهای مالی قابل توجهی در صورت اجرا در مقیاس بزرگ می‌شود. مقاله جدیدی در مورد PhotoGuard.

در سناریوهای شدیدتر، این مدل ها می توانند صداها و تصاویر را برای صحنه سازی جنایات دروغین، ایجاد ناراحتی روانی و ضرر مالی شبیه سازی کنند. ماهیت سریع این اقدامات مشکل را تشدید می کند. حتی زمانی که فریب در نهایت آشکار می شود، آسیب – اعم از شهرت، عاطفی یا مالی – اغلب قبلاً اتفاق افتاده است. این یک واقعیت برای قربانیان در همه سطوح است، از افرادی که در مدرسه مورد آزار و اذیت قرار می‌گیرند تا دستکاری در سطح جامعه.»

PhotoGuard در عمل

مدل‌های هوش مصنوعی یک تصویر را متفاوت از نگاه انسان‌ها می‌بینند. این تصویر یک مجموعه پیچیده از نقاط داده ریاضی را می بیند که رنگ و موقعیت هر پیکسل را توصیف می کند – این نمایش نهفته تصویر است. حمله رمزگذار تنظیمات جزئی را در این نمایش ریاضی وارد می کند و باعث می شود مدل هوش مصنوعی تصویر را به عنوان یک موجودیت تصادفی درک کند. در نتیجه، هر گونه تلاش برای دستکاری تصویر با استفاده از مدل تقریبا غیرممکن می شود. تغییرات ارائه شده به قدری کوچک هستند که برای چشم انسان نامرئی هستند، بنابراین یکپارچگی بصری تصویر حفظ می شود و در عین حال محافظت از آن نیز تضمین می شود.

دومین و مشخصاً پیچیده‌تر حمله «گسترش» به طور استراتژیک کل مدل انتشار را از انتها به انتها هدف قرار می‌دهد. این شامل تعیین یک تصویر هدف مورد نظر، و سپس شروع یک فرآیند بهینه سازی با هدف تراز کردن تصویر تولید شده با این هدف از پیش انتخاب شده است.

در پیاده سازی، تیم آشفتگی هایی را در فضای ورودی تصویر اصلی ایجاد کرد. این اغتشاشات سپس در مرحله استنتاج مورد استفاده قرار می گیرند و روی تصاویر اعمال می شوند و دفاعی قوی در برابر دستکاری های غیرمجاز ارائه می دهند.

پروفسور EECS MIT و محقق اصلی CSAIL، الکساندر مادری، که همچنین نویسنده مقاله است، می‌گوید: «پیشرفت در هوش مصنوعی که شاهد آن هستیم واقعاً نفس‌گیر است، اما استفاده‌های سودمند و مخرب از هوش مصنوعی را ممکن می‌سازد. “بنابراین ضروری است که ما در جهت شناسایی و کاهش دومی کار کنیم. من PhotoGuard را سهم کوچک ما در این تلاش مهم می دانم.»

حمله انتشار از نظر محاسباتی فشرده تر از برادر ساده تر خود است و به حافظه GPU قابل توجهی نیاز دارد. این تیم می‌گوید که تقریب فرآیند انتشار با گام‌های کمتر، این مشکل را کاهش می‌دهد و در نتیجه این تکنیک را کاربردی‌تر می‌کند.

برای نشان دادن بهتر حمله، به عنوان مثال یک پروژه هنری را در نظر بگیرید. تصویر اصلی یک طراحی است و تصویر هدف یک نقاشی دیگر است که کاملاً متفاوت است. حمله انتشار مانند ایجاد تغییرات کوچک و نامرئی در نقاشی اول است به طوری که در یک مدل هوش مصنوعی، شروع به شبیه شدن به نقاشی دوم می کند. با این حال، برای چشم انسان، طراحی اصلی بدون تغییر باقی می ماند.

با انجام این کار، هر مدل هوش مصنوعی که تلاش می کند تصویر اصلی را تغییر دهد، اکنون به طور ناخواسته تغییراتی ایجاد می کند که گویی با تصویر هدف سروکار دارد و در نتیجه از تصویر اصلی در برابر دستکاری مورد نظر محافظت می کند. نتیجه تصویری است که از نظر بصری برای ناظران انسانی بدون تغییر باقی می‌ماند، اما در برابر ویرایش‌های غیرمجاز مدل‌های هوش مصنوعی محافظت می‌کند.

تا آنجا که یک مثال واقعی با PhotoGuard است، یک تصویر با چند چهره را در نظر بگیرید. می‌توانید چهره‌هایی را که نمی‌خواهید اصلاح کنید، بپوشانید، و سپس از «دو مرد در مراسم عروسی» درخواست کنید. پس از ارسال، سیستم تصویر را مطابق با آن تنظیم می کند و تصویری قابل قبول از دو مرد در حال شرکت در مراسم عروسی ایجاد می کند.

حال، محافظت از تصویر را از ویرایش در نظر بگیرید. اضافه کردن اغتشاشات به تصویر قبل از آپلود می تواند آن را در برابر تغییرات ایمن کند. در این حالت، خروجی نهایی در مقایسه با تصویر اصلی و غیر ایمن‌شده فاقد واقع‌گرایی خواهد بود.

همه دست روی عرشه

به گفته این تیم، متحدان کلیدی در مبارزه با دستکاری تصویر، خالقان مدل‌های ویرایش تصویر هستند. برای اینکه PhotoGuard موثر باشد، یک پاسخ یکپارچه از طرف همه ذینفعان ضروری است. «سیاست‌گذاران باید اجرای مقرراتی را در نظر بگیرند که شرکت‌ها را موظف می‌کند از داده‌های کاربران در برابر چنین دستکاری‌هایی محافظت کنند. توسعه دهندگان این مدل‌های هوش مصنوعی می‌توانند APIهایی طراحی کنند که به طور خودکار اختلالاتی را به تصاویر کاربران اضافه می‌کنند و لایه‌ای از محافظت در برابر ویرایش‌های غیرمجاز ارائه می‌دهند.

علیرغم وعده PhotoGuard، این یک نوشدارویی نیست. هنگامی که یک تصویر آنلاین می شود، افراد دارای نیت مخرب می توانند با اعمال نویز، برش یا چرخش تصویر، اقدامات حفاظتی را معکوس کنند. با این حال، بسیاری از کارهای قبلی از ادبیات نمونه های متخاصم وجود دارد که می توان در اینجا برای اجرای اختلالات قوی که در برابر دستکاری های رایج تصویر مقاومت می کنند، استفاده کرد.

یک رویکرد مشترک شامل توسعه دهندگان مدل، پلتفرم های رسانه های اجتماعی و سیاست گذاران، دفاعی قوی در برابر دستکاری تصویر غیرمجاز ارائه می دهد. سلمان می‌گوید کار روی این موضوع مهم امروز از اهمیت بالایی برخوردار است. “و در حالی که من خوشحالم که در این راه حل مشارکت می کنم، کار زیادی برای عملی کردن این محافظت لازم است. شرکت هایی که این مدل ها را توسعه می دهند باید در مهندسی ایمن سازی قوی در برابر تهدیدات احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند. همانطور که وارد این دوره جدید از مدل‌های مولد می‌شویم، بیایید برای پتانسیل و محافظت در اقدامات برابر تلاش کنیم.»

Florian Tramèr، استادیار ETH Zürich می‌گوید: «چشم‌انداز استفاده از حملات به یادگیری ماشینی برای محافظت از ما در برابر استفاده‌های نادرست از این فناوری بسیار قانع‌کننده است. این مقاله بینش خوبی دارد مبنی بر اینکه توسعه دهندگان مدل های هوش مصنوعی مولد انگیزه های قوی برای ارائه چنین محافظت های ایمن سازی برای کاربران خود دارند، که حتی می تواند یک الزام قانونی در آینده باشد. با این حال، طراحی محافظ‌های تصویری که به طور موثر در برابر تلاش‌های دور زدن مقاومت می‌کنند، یک مشکل چالش برانگیز است: هنگامی که شرکت هوش مصنوعی متعهد به مکانیزم ایمن‌سازی شد و مردم شروع به اعمال آن بر روی تصاویر آنلاین خود کردند، باید اطمینان حاصل کنیم که این محافظت در برابر دشمنان با انگیزه که حتی ممکن است از مدل‌های هوش مصنوعی مولد بهتری که در آینده نزدیک توسعه یافته‌اند استفاده کنید. طراحی چنین حفاظت های قوی یک مشکل باز است و این مقاله یک مورد قانع کننده را نشان می دهد که شرکت های مولد هوش مصنوعی باید روی حل آن کار کنند.”

سلمان این مقاله را در کنار نویسندگان اصلی علاء خداج و گیوم لکلرک MS ’18، و همچنین اندرو ایلاس ’18، MEng ’18 نوشت. هر سه دانشجوی کارشناسی ارشد EECS و وابسته به MIT CSAIL هستند. کار این تیم تا حدی بر روی خوشه محاسباتی MIT Supercloud انجام شد که توسط کمک های مالی بنیاد ملی علوم ایالات متحده و بشردوستانه باز پشتیبانی می شد و بر اساس کار پشتیبانی شده توسط آژانس پروژه های تحقیقاتی پیشرفته دفاعی ایالات متحده انجام شد. در کنفرانس بین المللی یادگیری ماشینی در جولای امسال ارائه شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

code