
ny
Adversariale Robustheit Neuronaler Netze
fra 1 029,-
Tilgjengelig i 1 butikker
Frakt og levering
Produktinformasjon
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Ver¿erungen an der Eingabe vornehmen. Obwohl diese ¿derungen f¿r den Menschen kaum wahrnehmbar sind, ¿ert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu k¿nnen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gew¿leisten k¿nnen. Hier wird eine ¿ersicht ¿ber verschiedene Anwendungsf¿e, Angriffe, die daraus entstehenden Problemstellungen, Ans¿e zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Topplisten: Other Brand Data og informasjonsteknologi
Spesifikasjon
Produkt
| Produktnavn | Adversariale Robustheit Neuronaler Netze |
| Merke | Other Brand |
Machine Learning EvaluationLearning Web DesignCybersecurity for Hospitals and Healthcare FacilitiesCybersecurity Exposed: The Cyber House Rules
Amazon SageMaker Developer GuideHands-On Enterprise Application Development with PythonHands-On Large Language ModelsThe Game Boy Encyclopedia
Fundamentals of Enterprise ArchitectureCell Towers-- Wireless Convenience? Or Environmental Hazard?The Dilemma of Security Smells and How to Escape ItFreeCAD 0.19 Basics Tutorial (COLORED)









