43,90 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 6-10 Tagen
payback
0 °P sammeln
  • Broschiertes Buch

Dieses Buch stellt einen ersten Schritt in Richtung eingebettetes maschinelles Lernen dar. Es stellt Techniken zur Optimierung und Komprimierung von Deep-Learning-Modellen vor. Diese Techniken erleichtern den Einsatz eines leistungsstarken und leichten Deep-Learning-Modells auf Geräten mit begrenzten Ressourcen wie Smartphones und Mikrocontrollern. Dieses Dokument untersucht auch eine hochaktuelle Technik zur Übertragung von Wissen, nämlich die Wissensdestillation. Mit dieser Technik kann die Leistung eines leichtgewichtigen Deep-Learning-Modells verbessert werden, während gleichzeitig das…mehr

Produktbeschreibung
Dieses Buch stellt einen ersten Schritt in Richtung eingebettetes maschinelles Lernen dar. Es stellt Techniken zur Optimierung und Komprimierung von Deep-Learning-Modellen vor. Diese Techniken erleichtern den Einsatz eines leistungsstarken und leichten Deep-Learning-Modells auf Geräten mit begrenzten Ressourcen wie Smartphones und Mikrocontrollern. Dieses Dokument untersucht auch eine hochaktuelle Technik zur Übertragung von Wissen, nämlich die Wissensdestillation. Mit dieser Technik kann die Leistung eines leichtgewichtigen Deep-Learning-Modells verbessert werden, während gleichzeitig das Wissen eines komplexen und leistungsfähigen Deep-Learning-Modells auf dieses übertragen wird. Alle diese Techniken wurden in diesem Buch detailliert beschrieben und durch praktische Python-Implementierungen veranschaulicht, die in der Regel auf der Verwendung der Bibliotheken pytorch und tensorflow basieren.
Autorenporträt
Afef Mdhaffar received her PhD in Computer Science in 2014 from the University of Marburg, Germany. She is currently a lecturer in computer science at the École Nationale d'Ingénieurs de Sfax (ENIS), Tunisia. Her current work focuses on deep learning model optimization techniques.