Start / Amlek.AI: ML & AI Podcast / Episode 9 adversarial training %d7%90%d7%99%d7%9a %d7%9c%d7%91%d7%9c%d7%91%d7%9c %d7%9e%d7%95%d7%93%d7%9c%d7%99%d7%9d
Episode 9: Adversarial Training - איך לבלבל מודלים?
18 min •
9 december 2020
בפרק זה, נדבר על Adversarial Attacks, על איך מייצרים Adversarial Examples בשיטת FGSM, על התקפות White or Black box models ונזכיר Certifiable Robustness.