Assignment
Quantization reduces computation costs of neural networks by shrinking model size and improving accelerator latency with only small degradation of model accuracy. To keep the precision the highest possible, often quantization-aware training is necessary. First, the model is trained with floating point weight and bias values, then fake quantization nodes are applied to the model graph to simulate quantization and to adjust the values. Find a method how to re-train existing floating point TensorFlow models using the final quantization phase. Apply the steps on the PoseNet model to achieve an 8-bit quantized network. Compare the accuracy of the quantized model with the original floating point model and with the accuracy of models quantized using the simpler post-training method.
Assignment CZ/SK
Kvantizace snižuje náročnost výpočtu neurónových sítí zmenšením jejich velikosti a zvýšením možností akcelerace s jenom malým ůbytkem přesnosti modelu. Pro zachování co nejvyšší přesnosti je často zapotřebí trénování s kvantizací. Nejdříve se natrénuje model s hodnotami vah a prahů s pohyblivou desetinnou čárkou, následně se aplikují uzly grafu modelu pro simulaci kvantizace na přizpůsobení hodnot. Najděte spůsob jak přetrénovat existujíci TensorFlow modely s hodnotami s pohyblivou desetinnou čárkou za použití finální fáze trénování s kvantizací. Aplikujte kroky na PoseNet model pro dosáhnutí 8-bitově kvantizované sítě. Srovnejte přesnost výsledného kvantizovaného modelu s originálem a s přesností modelů kvatizovaných pomocí jednodušší metody kvantizace po tréninku.
Language
CZ/SK/EN
Leaders
Contact
University team NXP Semiconductors CZ