مدلهای هوش مصنوعی میتوانند بهطور شگفتانگیزی قابل سرقت باشند، مشروط بر اینکه بتوانند به نحوی امضای الکترومغناطیسی مدل را تشخیص دهند. در حالی که آنها بارها تاکید کرده اند که واقعا نمی خواهند به مردم در حمله به شبکه های عصبی کمک کنند، محققان دانشگاه ایالتی کارولینای شمالی چنین تکنیکی را در یک مقاله تحقیقاتی جدید توصیف می کنند. تنها چیزی که آنها نیاز داشتند یک کاوشگر الکترومغناطیسی، چندین مدل هوش مصنوعی منبع باز از پیش آموزش دیده و یک واحد پردازش تانسور Google Edge (TPU) بود. روش آنها مستلزم آنالیز تابش الکترومغناطیسی در حالی است که تراشه TPU به طور فعال در حال کار است.
نویسنده اصلی این مطالعه، دکترای ایالت NC گفت: «ساخت و آموزش یک شبکه عصبی بسیار گران است. دانش آموز اشلی کوریان در حال تماس با Gizmodo است. این مالکیت فکری است که شرکت در اختیار دارد و زمان و منابع محاسباتی زیادی میطلبد بدانید، آنها مجبور نیستند برای آن هزینه ای بپردازند، آنها همچنین می توانند آن را بفروشند.
سرقت در حال حاضر یک نگرانی بزرگ در دنیای هوش مصنوعی است. با این حال، معمولاً برعکس است، جایی که توسعهدهندگان هوش مصنوعی مدلهای خود را بر روی آثار دارای حق چاپ بدون کسب اجازه از خالقان انسانی آموزش میدهند. این الگوی طاقتفرسا باعث شکایتها و حتی ابزارهایی برای کمک به هنرمندان برای مقابله با «مسموم کردن» خالقان هنر میشود.
کوریان در بیانیهای توضیح داد: «دادههای الکترومغناطیسی از حسگر اساساً یک «امضا» از رفتار پردازش هوش مصنوعی به ما میدهد و آن را «بخش آسان» نامید. اما به منظور رمزگشایی فراپارامترهای مدل – ساختار و جزئیات خاص آن – آنها باید دادههای میدان الکترومغناطیسی را با دادههای گرفته شده در حین اجرای مدلهای هوش مصنوعی دیگر بر روی همان نوع تراشه مقایسه کنند.
کوریان توضیح داد: با انجام این کار، آنها توانستند ساختار و ویژگی های خاصی را شناسایی کنند – که به عنوان جزئیات لایه شناخته می شوند – که ما باید از مدل هوش مصنوعی کپی کنیم. دقت 99.91 درصد.” برای رسیدن به این هدف، محققان به تراشه دسترسی فیزیکی داشتند تا مدلهای دیگر را بررسی و اجرا کنند.
کوریان حدس میزد که برای مثال، گرفتن مدلهایی که روی تلفنهای هوشمند اجرا میشوند نیز امکانپذیر است، اما طراحی فوقالعاده کوچک آنها نظارت بر سیگنالهای الکترومغناطیسی را دشوارتر میکند.
Mehmet Sencan، محقق امنیتی در موسسه غیرانتفاعی Atlas Computing استانداردهای هوش مصنوعی، به Gizmodo گفت: «حملات کانال جانبی به دستگاههای لبه جدید نیست. اما این تکنیک ویژه برای “استخراج فراپارامترهای کل هندسه مدل مهم است.” سینکان توضیح داد: از آنجایی که ماشینهای هوش مصنوعی استنتاج را در متن ساده انجام میدهند، هر کسی که مدلهای خود را در لبه یا هر سرور فیزیکی ناامن مستقر میکند، باید فرض کند که ساختارهای آنها میتوانند از طریق تحقیقات گسترده استخراج شوند.
منبع: https://gizmodo.com/how-to-steal-an-ai-model-without-actually-hacking-anything-2000542423
تحریریه بازار فناوری
دیدگاهتان را بنویسید