می توان سازنده ماسک مصنوعی مصنوعی را برای نشان دادن ماسک صورت واقعی که آنها آموزش داده اند ، بازگردانده شود.


کائوتز گفت ، اما این انتظار می رود که بتوانید اطلاعات آموزشی را ضبط کنید. او و همکارانش در انویدیا روشهای متفاوتی را برای به اشتراک گذاشتن اطلاعات شخصی ارائه داده اند ، از جمله عکس برگها و سایر اشیاء ، اطلاعات پزشکی و موارد دیگر که به هیچ وجه نیازی به دسترسی به اطلاعات آموزشی ندارند.

در عوض ، آنها سیستمی را توسعه دادند که می تواند داده هایی را که مدل آموزش دیده با معکوس کردن مراحل انجام شده توسط مدل هنگام پردازش این داده ها بازسازی می کند. از یک شبکه تشخیص تصویر آموزش دیده استفاده کنید: برای شناسایی آنچه در تصویر وجود دارد ، شبکه آن را از طریق یک سری نورون های مصنوعی عبور می دهد. هر لایه داده سطوح مختلف اطلاعات را از حاشیه گرفته تا اشکال تا ویژگی های قابل تشخیص بیشتر استخراج می کند.

تیم کائوتز دریافتند که آنها می توانند مدل را در وسط این مراحل رهگیری کرده و جهت آن را معکوس کرده و یک تصویر ورودی از داده های داخلی مدل ایجاد کنند. آنها این تکنیک را در انواع فرمت های رایج تشخیص تصویر و GAN ها آزمایش کردند. در یک آزمایش ، آنها نشان دادند که می توانند تصاویر را با دقت از ImageNet ، یکی از شناخته شده ترین مجموعه داده های تشخیص تصویر ، بازسازی کنند.

تصاویری از ImageNet (بالا) همراه با سرگرمی آن تصاویر با استفاده از مدل های آموزش داده شده در ImageNet (پایین)

NVIDIA

درست مانند کارهای وبستر ، تصاویر ایجاد شده بسیار نزدیک به واقعیت است. کائوتز گفت: “ما از کیفیت نهایی شگفت زده شدیم.”

محققان معتقدند که این نوع حمله فقط فرضی نیست. تلفن های هوشمند و دیگر دستگاه های کوچک شروع به استفاده بیشتر از هوش مصنوعی کرده اند. به دلیل محدودیت های باتری و حافظه ، گاهی اوقات برخی از مدل ها تنها در دستگاه خود نیمه پردازش می شوند و برای نابودی نهایی کامپیوتر به ابر ارسال می شوند ، روشی که محاسبه نامیده می شود. اکثر محققان تصور می کنند که محاسبات جداگانه اطلاعات شخصی را از تلفن فرد نشان نمی دهد زیرا فقط مدل به اشتراک گذاشته شده است. اما حملات او نشان می دهد که اینطور نیست.

کائوتز و همکارانش اکنون در تلاش هستند تا راهی برای محافظت از مدل در برابر نشت اطلاعات شخصی پیدا کنند. ما می خواهیم خطرات را درک کنیم تا بتوانیم خطرات را به حداقل برسانیم.

اگرچه آنها از تکنیک های بسیار متفاوتی استفاده می کنند ، اما او فکر می کند که کار او و وبستر در کنار هم خوب پیش می رود. تیم وبستر نشان داده است که اطلاعات شخصی را می توان در خروجی مدل یافت. تیم کائوتز نشان می دهد که اطلاعات شخصی را می توان با معکوس کردن و ورود مجدد داده ها افشا کرد. کائوتز گفت: “درک بهتر نحوه جلوگیری از حملات مهم است.”


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم