栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

如何正确转换tflite_graph.pb到detect.tflite

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

如何正确转换tflite_graph.pb到detect.tflite

问题出在

toco
命令上。我使用的一些文档过时并误导了我。
toco
已弃用,我应该改用
tflite_convert
工具。

这是我使用的完整命令(从您的培训目录运行):

tflite_convert –graph_def_file tflite_inference_graph / tflite_graph.pb
–output_file =。/ detect.tflite –output_format = TFLITE –input_shapes =
1,300,300,3 –input_arrays = normalized_input_image_tensor –output_arrays
=’TFLite_Detection_PostProcess’,’T’
TFLite_Detection_PostProcess:2’,’TFLite_Detection_PostProcess:3’–
inference_type = QUANTIZED_UINT8 –mean_values = 128 –std_dev_values = 127
–change_concat_input_ranges = false –allow_custom_ops

我对ssdlite_mobilenet_v2_coco_2018_05_09模型进行了培训,并将其添加到了.config文件的末尾。

 graph_rewriter {  quantization {    delay: 400    weight_bits: 8    activation_bits: 8  }}

我也使用此命令在tflite_inference_graph目录中生成tflite_graph.pb:

python export_tflite_ssd_graph.py --pipeline_config_path2020-05-17_train_ssdlite_v2/ssd_mobilenet_v2_coco.config--trained_checkpoint_prefix2020-05-17_train_ssdlite_v2/train/model.ckpt-1146 --output_directory2020-05-17_train_ssdlite_v2/tflite_inference_graph--add_postprocessing_op=true

注意:我想在嵌入式系统上使用量化模型。这就是我在配置文件中添加graph_rewriter以及在tflite_convert命令中添加–
inference_type = QUANTIZED_UINT8的原因。



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/669421.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号