• 企业400电话
  • 微网小程序
  • AI电话机器人
  • 电商代运营
  • 全 部 栏 目

    企业400电话 网络优化推广 AI电话机器人 呼叫中心 网站建设 商标✡知产 微网小程序 电商运营 彩铃•短信 增值拓展业务
    解决tensorflow模型压缩的问题_踩坑无数,总算搞定

    1.安装bazel,从github上下载linux版的.sh文件,然后安装

    2.从GitHub上下载最新的TensorFlow源码

    3.进入TensorFlow源码文件夹,输入命令

    bazel build tensorflow/tools/graph_transforms:transform_graph

    这里会遇到各种坑,比如

    ERROR: /opt/tf/tensorflow-master/tensorflow/core/kernels/BUILD:3044:1: C++ compilation of rule ‘//tensorflow/core/kernels:matrix_square_root_op' failed (Exit 4)

    gcc: internal compiler error: Killed (program cc1plus)

    这个错误是cpu负荷太大,需要加行代码

    # 生成swap镜像文件
    sudo dd if=/dev/zero of=/mnt/512Mb.swap bs=1M count=512
    # 对该镜像文件格式化
    sudo mkswap /mnt/512Mb.swap
    # 挂载该镜像文件 
    sudo swapon /mnt/512Mb.swap

    又或者这个@aws Error downloading

    我看csdn有的博主解决方法是去临时文件夹删掉文件重新下载,但是我这边发现没用,我这边的解决方法是运行bazel前先输入一条命令:

    sed -i '\@https://github.com/aws/aws-sdk-cpp/archive/1.5.8.tar.gz@aws' tensorflow/workspace.bzl

    命令里的网址就是实际要下载的文件的地址,因为有的地址可能改了

    到这里编译bazel就完成了

    4.编译完了就可以模型压缩了,也是一行代码,in_graph为输入模型路径,outputs不动,out_graph为输出模型路径,transforms就填一个quantize_weights就可以了,这个就是把32bit转成8bit的,也是此方法最有效的一步;我看有的博主还先编译summary然后打印出输入输出结点,之后再输入一大堆参数,还删除一些结点啥的,我这边都试了,最终也并没有更缩减模型大小,所以就这样就可以了。

    bazel-bin/tensorflow/tools/graph_transforms/transform_graph --in_graph=../model/ctpn.pb  --outputs='output_node_name'  --out_graph=../model/quantized_ctpn.pb  --transforms='quantize_weights'

    最终从68m缩减到17m,75%的缩减比例,实测效果基本没啥差别,这方法还是很管用的。

    补充:模型压缩一二三之tensorflow查看ckpt模型里的参数和数值

    查看ckpt模型参数和数值

    import os
    from tensorflow.python import pywrap_tensorflow
    checkpoint_path = os.path.join("你的模型的目录>", "./model.ckpt-11000") 
    # Read data from checkpoint file
    reader = pywrap_tensorflow.NewCheckpointReader(checkpoint_path)
    var_to_shape_map = reader.get_variable_to_shape_map()
    # Print tensor name and values
    for key in var_to_shape_map:
     print("tensor_name: ", key)
     print(reader.get_tensor(key))
    

    注意:

    1、"你的模型目录>“是指你的meta、ckpt这些模型存储的路径。

    比如路径”/models/model.ckpt-11000.meta"这种,那么"你的模型目录>“就是”/models"

    2、当目录下有多个ckpt时,取最新的model名字到ckpt-最大数字>就可以了,后面不用了。

    以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。如有错误或未考虑完全的地方,望不吝赐教。

    您可能感兴趣的文章:
    • 浅谈Tensorflow 动态双向RNN的输出问题
    • TensorFlow实现RNN循环神经网络
    • Tensorflow与RNN、双向LSTM等的踩坑记录及解决
    上一篇:python Protobuf定义消息类型知识点讲解
    下一篇:numpy实现RNN原理实现
  • 相关文章
  • 

    © 2016-2020 巨人网络通讯 版权所有

    《增值电信业务经营许可证》 苏ICP备15040257号-8

    解决tensorflow模型压缩的问题_踩坑无数,总算搞定 解决,tensorflow,模型,压缩,