AI Neural Networks

چگونه یک مدل هوش مصنوعی را بدون هک کردن چیزی بدزدیم

مدل‌های هوش مصنوعی می‌توانند به‌طور شگفت‌انگیزی قابل سرقت باشند، مشروط بر اینکه بتوانند به نحوی امضای الکترومغناطیسی مدل را تشخیص دهند. در حالی که آنها بارها تاکید کرده اند که واقعا نمی خواهند به مردم در حمله به شبکه های عصبی کمک کنند، محققان دانشگاه ایالتی کارولینای شمالی چنین تکنیکی را در یک مقاله تحقیقاتی جدید توصیف می کنند. تنها چیزی که آنها نیاز داشتند یک کاوشگر الکترومغناطیسی، چندین مدل هوش مصنوعی منبع باز از پیش آموزش دیده و یک واحد پردازش تانسور Google Edge (TPU) بود. روش آنها مستلزم آنالیز تابش الکترومغناطیسی در حالی است که تراشه TPU به طور فعال در حال کار است.

نویسنده اصلی این مطالعه، دکترای ایالت NC گفت: «ساخت و آموزش یک شبکه عصبی بسیار گران است. دانش آموز اشلی کوریان در حال تماس با Gizmodo است. این مالکیت فکری است که شرکت در اختیار دارد و زمان و منابع محاسباتی زیادی می‌طلبد بدانید، آنها مجبور نیستند برای آن هزینه ای بپردازند، آنها همچنین می توانند آن را بفروشند.

سرقت در حال حاضر یک نگرانی بزرگ در دنیای هوش مصنوعی است. با این حال، معمولاً برعکس است، جایی که توسعه‌دهندگان هوش مصنوعی مدل‌های خود را بر روی آثار دارای حق چاپ بدون کسب اجازه از خالقان انسانی آموزش می‌دهند. این الگوی طاقت‌فرسا باعث شکایت‌ها و حتی ابزارهایی برای کمک به هنرمندان برای مقابله با «مسموم کردن» خالقان هنر می‌شود.

کوریان در بیانیه‌ای توضیح داد: «داده‌های الکترومغناطیسی از حسگر اساساً یک «امضا» از رفتار پردازش هوش مصنوعی به ما می‌دهد و آن را «بخش آسان» نامید. اما به منظور رمزگشایی فراپارامترهای مدل – ساختار و جزئیات خاص آن – آنها باید داده‌های میدان الکترومغناطیسی را با داده‌های گرفته شده در حین اجرای مدل‌های هوش مصنوعی دیگر بر روی همان نوع تراشه مقایسه کنند.

کوریان توضیح داد: با انجام این کار، آنها توانستند ساختار و ویژگی های خاصی را شناسایی کنند – که به عنوان جزئیات لایه شناخته می شوند – که ما باید از مدل هوش مصنوعی کپی کنیم. دقت 99.91 درصد.” برای رسیدن به این هدف، محققان به تراشه دسترسی فیزیکی داشتند تا مدل‌های دیگر را بررسی و اجرا کنند.

کوریان حدس می‌زد که برای مثال، گرفتن مدل‌هایی که روی تلفن‌های هوشمند اجرا می‌شوند نیز امکان‌پذیر است، اما طراحی فوق‌العاده کوچک آن‌ها نظارت بر سیگنال‌های الکترومغناطیسی را دشوارتر می‌کند.

Mehmet Sencan، محقق امنیتی در موسسه غیرانتفاعی Atlas Computing استانداردهای هوش مصنوعی، به Gizmodo گفت: «حملات کانال جانبی به دستگاه‌های لبه جدید نیست. اما این تکنیک ویژه برای “استخراج فراپارامترهای کل هندسه مدل مهم است.” سینکان توضیح داد: از آنجایی که ماشین‌های هوش مصنوعی استنتاج را در متن ساده انجام می‌دهند، هر کسی که مدل‌های خود را در لبه یا هر سرور فیزیکی ناامن مستقر می‌کند، باید فرض کند که ساختارهای آن‌ها می‌توانند از طریق تحقیقات گسترده استخراج شوند.

منبع: https://gizmodo.com/how-to-steal-an-ai-model-without-actually-hacking-anything-2000542423

تحریریه بازار فناوری

منتشر شده

در

توسط

برچسب‌ها:

دیدگاه‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *