Adversariale Robustheit Neuronaler Netze
ny

Adversariale Robustheit Neuronaler Netze

fra 1 029,-
Tilgjengelig i 1 butikker
Frakt og levering

Produktinformasjon

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Ver¿erungen an der Eingabe vornehmen. Obwohl diese ¿derungen f¿r den Menschen kaum wahrnehmbar sind, ¿ert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu k¿nnen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gew¿leisten k¿nnen. Hier wird eine ¿ersicht ¿ber verschiedene Anwendungsf¿e, Angriffe, die daraus entstehenden Problemstellungen, Ans¿e zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.

Spesifikasjon

Produkt
ProduktnavnAdversariale Robustheit Neuronaler Netze
MerkeOther Brand