[FINISHED] Deep neural network re-training with quantization using TensorFlow

キャンセル
次の結果を表示 
表示  限定  | 次の代わりに検索 
もしかして: 

[FINISHED] Deep neural network re-training with quantization using TensorFlow

[FINISHED] Deep neural network re-training with quantization using TensorFlow

Assignment

Quantization reduces computation costs of neural networks by shrinking model size and improving accelerator latency with only small degradation of model accuracy. To keep the precision the highest possible, often quantization-aware training is necessary. First, the model is trained with floating point weight and bias values, then fake quantization nodes are applied to the model graph to simulate quantization and to adjust the values. Find a method how to re-train existing floating point TensorFlow models using the final quantization phase. Apply the steps on the PoseNet model to achieve an 8-bit quantized network. Compare the accuracy of the quantized model with the original floating point model and with the accuracy of models quantized using the simpler post-training method.

 

Assignment CZ/SK

Kvantizace snižuje náročnost výpočtu neurónových sítí zmenšením jejich velikosti a zvýšením možností akcelerace s jenom malým ůbytkem přesnosti modelu. Pro zachování co nejvyšší přesnosti je často zapotřebí trénování s kvantizací. Nejdříve se natrénuje model s hodnotami vah a prahů s pohyblivou desetinnou čárkou, následně se aplikují uzly grafu modelu pro simulaci kvantizace na přizpůsobení hodnot. Najděte spůsob jak přetrénovat existujíci TensorFlow modely s hodnotami s pohyblivou desetinnou čárkou za použití finální fáze trénování s kvantizací. Aplikujte kroky na PoseNet model pro dosáhnutí 8-bitově kvantizované sítě. Srovnejte přesnost výsledného kvantizovaného modelu s originálem a s přesností modelů kvatizovaných pomocí jednodušší metody kvantizace po tréninku.

 

Language

CZ/SK/EN

 

Leaders

LadislavVadkerti

 

Contact

University team NXP Semiconductors CZ 

Apply by email 

nxp.png

ラベル(1)
評価なし
バージョン履歴
最終更新日:
‎09-26-2023 01:40 AM
更新者: