ارائه فریب دادن و آسیب‌پذیری های مرتبط به هوش مصنوعی توسط وحید بهزادان یکی از اعضای اصلی گروه پژوهشی آفسک

ارائه فریب دادن و آسیب‌پذیری های مرتبط به هوش مصنوعی توسط وحید بهزادان یکی از اعضای اصلی گروه پژوهشی آفسک

https://youtu.be/MAB63H5VcnM

✓ What are adversarial examples?
✓ Why are deep neural networks vulnerable to adversarial examples?
✓ How are they exploited to attack machine learning?
✓ Attacking deep reinforcement learning
✓ State of mitigation techniques

@offsecmag


لینک کوتاه

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.

%d وب‌نوشت‌نویس این را دوست دارند: