مقاوم سازی مدل های یادگیری عمیق با استفاده از آستانه گذاری مقادیر یکتای جهانی و آموزش خصمانه گروهی

سال انتشار: 1399
نوع سند: مقاله کنفرانسی
زبان: فارسی
مشاهده: 484

فایل این مقاله در 8 صفحه با فرمت PDF قابل دریافت می باشد

این مقاله در بخشهای موضوعی زیر دسته بندی شده است:

استخراج به نرم افزارهای پژوهشی:

لینک ثابت به این مقاله:

شناسه ملی سند علمی:

TECHSD06_059

تاریخ نمایه سازی: 25 خرداد 1400

چکیده مقاله:

درسال های اخیر یادگیری عمیق به عنوان بازویی توانمند در هوشمندسازی و تسریع امور کسب و کارها در زمینه های مختلف بهموفقیت های چشمگیری دست یافته است. اما با تمام این موفقیت ها، نتایج به دست آمده از تحقیقات در زمینه امنیت شبکه های عصبیعمیق نشان داده است که این شبکه ها در زمینه های مختلف مانند صوت، متن و تصویر و ...، در برابر حملات خصمانه بسیار آسیب پذیرند.حملات خصمانه متشکل از نمونه های خصمانه هستند که بصورت یک اختلال بسیار کوچک به داده های ورودی اعمال شده تا به خورد مدلشبکه عصبی داده شوند، به طوری که باعث خروجی نادرست این مدل ها خواهند شد. این حملات قابل تعمیم و انتقال از مدلی به مدلیدیگر می باشند. اکثر حملات خصمانه به دو دسته جعبه سفید و جعبه سیاه تقسیم می شوند. در حملات جعبه سفید، متخاصم دانش کاملیاز مقادیر پارامترها، داده آموزشی، معماری مدل و روش آموزش در اختیار دارد و در حملات جعبه سیاه نمونه های خصمانه در حالی بهمدل خورانده می شود که هیچ دانشی درباره مدل وجود ندارد یا دانش اندکی در اختیار است، که به عنوان حمله نیمه جعبه سیاه شناختهمی شود. نکته قابل توجه این است که نمونه های خصمانه در زمینه های مختلف مرتبط با تصویر وجود دارند و قابل تولید و اعمال به مدل هاییادگیری عمیق هستند. در این پژوهش تمرکز ما بر روی مقاوم سازی مدل های شبکه عصبی عمیق می باشد. ما از روش آستانه گذاریمقادیر یکتای جهانی در ترکیب با آموزش خصمانه گروهی به عنوان یک روش پیش پردازشی به مقاوم سازی شبکه های عصبی عمیق می پردازیم.

کلیدواژه ها:

شبکه های عصبی عمیق ، حملات خصمانه ، آستانه گذاری مقادیر یکتای جهانی ، آموزش خصمانه گروهی

نویسندگان

علیرضا مسرورمهرپرور

دانشگاه غیرانتفاعی ایوانکی، گرمسار

حمیدرضا جلالیان

دانشگاه قم، قم