Stelt gebruikers in staat CNN-modellen te bouwen die bestand zijn tegen adversariële manipulaties, waardoor de veiligheid en betrouwbaarheid van beeldclassificatiesystemen wordt verbeterd. Het pakt een belangrijk probleem in deep learning aan door architectuurontwerp en trainingstechnieken te combineren voor verbeterde robuustheid, en biedt gebruikers een voordeel ten opzichte van standaard CNN-ontwerpen die kwetsbaar zijn voor aanvallen.