随着深度学习越来越流行,工业生产不光在PC端应用场景丰富,在移动端也越来越凸显出深度学习的重要性及应用价值。由于嵌入式平台受存储、指令集限制,需要提供更小的网络模型,并且某些DSP平台不支持float指令。tensorflow提供TOCO转换工具能够自动生成量化为U8的TFLite文件。本文将介绍如何解析tflite的网络结构以及权重信息。
一、tflite文件格式
Tflite文件由tensorflow提供的TOCO工具生成的轻量级模型,存储格式是flatbuffer,它是google开源的一种二进制序列化格式,同功能的像protobuf。对flatbuffer可小结为三点。
1.内容分为vtable区和数据区,vtable区保存着变量的偏移值,数据区保存着变量值;
2.要解析变量a,是在vtable区组合一层层的offset偏移量计算出总偏移,然后以总偏移到数据区中定位从而获取变量a的值。
3.一个叫schema的文本文件定义了要进行序列化和反序列化的数据结构。
具体定义的结构可以参考tensorflow源码中的schema文件:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/schema/schema.fbs
二、tflite解析
由于工作需要,本文使用了google flatbuffer开源工具flatc,flatc可以实现tflite格式到jason文件的自动转换。
flatbuffer源码:https://github.com/google/flatbuffers
安装命令: cmake -G "Unix Makefiles" //生成MakeFile
make //生成flatc
make install //安裝flatc
安装完成后,从tensorflow源码中copy 结构文件schema.fbs到flatbuffer根目录,执行#./flatc -t schema.fbs -- mobilenet_v1_1.0_224_quant.tflite,生成对应的json文件。Json文件结构如下图所示:
operator_codes: 以列表的形式存储该网络结构用的layer种类;
subgraphs: 为每一层的具体信息具体包括:
1)tensors.包含input、weight、bias的shape信息、量化参数以及在buffer数据区的offset值;
2)inputs: 整个网络的输入对应的tensors索引;
3)outputs: 整个网络的输出对应的tensors索引;
4)operators:网络结构所需要的相关参数;
buffers: 存放weight、bias等权重信息。
三、网络结构及权重提取
使用python的json包可以很方便的读取tflite生成的json文件。关于解析过程有几点说明:
1.flatc转换的json文件不是标准的key-value格式,需要稍作转换给索引key加上双引号具体代码如下:
# -*- coding: UTF-8 -*-
import os
pathIn='xxx.json'
pathDst='xxx_new.json'
f = open(pathIn) # 返回一个文件对象
line = f.readline() # 调用文件的 readline()方法
fout = open(pathDst,'w')
while line:
#print(line)
#print(len(line))
dstline='aaa'
if line.find(':')!=-1:
quoteIdx2=line.find(':')
#print("line has :, and index =%d" %quoteIdx2)
linenew=line[:quoteIdx2] + '"' + line[quoteIdx2:]
quoteIdx1=linenew.rfind(' ',0, quoteIdx2)
#print("quoteIdx1 %d" %quoteIdx1)
dstline=linenew[:quoteIdx1+1] + '"' + linenew[quoteIdx1+1:]
#print(dstline)
fout.write(dstline+os.linesep)
else:
dstline=line
fout.write(line)
#print("No")
#print dstline
line = f.readline()
f.close()
fout.close()
2.由于量化后的bias为int32的类型,而flatc将bias数据按照uint8的格式进行了转换,这里需要对json文件的bias再转换回int32类型,相当于json中bias区域四个字节转换为一个int32。详细讨论参考tensorflow github链接:https://github.com/tensorflow/tensorflow/issues/22279
解析部分代码分为两个部分包括网络结构以及权重解析,方法相似。网络结构参数解析,部分代码如下:
from __future__ import division
import json
def write_blob_info(p_file, inputs, input_shape):
p_file.write(str(inputs) + ', ')
p_file.write(str(3) + ', ')
p_file.write(str(input_shape[3]) + ', ')
p_file.write(str(input_shape[1]) + ', ')
p_file.write(str(input_shape[2]) + ', ')
with open("mobilenet_v1_1.0_224_quant.json",'r') as f:
load_dict = json.load(f)
param_file=open("mobilenet_v1_1.0_224_quant.proto",'w')
tensors = load_dict["subgraphs"][0]["tensors"]
operators = load_dict["subgraphs"][0]["operators"]
inputs = load_dict["subgraphs"][0]["inputs"]
input_shape = tensors[inputs[0]]["shape"]
param_file.write(str(len(operators) + 1) + ',\n')
write_blob_info(param_file, \
inputs[0], \
input_shape)
param_file.write('\n')
for layer in operators:
layer_name = layer["builtin_options_type"]
operators_inputs = layer["inputs"]
input_len = len(operators_inputs)
builtin_options = layer["builtin_options"]
if layer_name == "Conv2DOptions": #conv_2d, depthwiseconv_2d
input_shape = tensors[operators_inputs[0]]["shape"]
kernel_shape = tensors[operators_inputs[1]]["shape"]
bias_shape = tensors[operators_inputs[2]]["shape"]
kernel_H = kernel_shape[1]
kernel_W = kernel_shape[2]
param_file.write(str(kernel_H) + ', ')
param_file.write(str(kernel_W) + ', ')
stride_H = builtin_options["stride_h"]
stride_W = builtin_options["stride_w"]
param_file.write(str(stride_H) + ', ')
param_file.write(str(stride_W) + ', ')
dilation_W = builtin_options["dilation_w_factor"]
dilation_H = builtin_options["dilation_h_factor"]
param_file.write(str(dilation_H) + ', ')
param_file.write(str(dilation_W) + ', ')
bias_term = 1
if input_len < 3 or bias_shape[0] == 0:
bias_term = 0
param_file.write(str(bias_term) + ', ')
bottom_zero_point = tensors[operators_inputs[0]]["quantization"]["zero_point"][0]
param_file.write(str(bottom_zero_point) + ', ')
write_blob_info(param_file, \
operators_inputs[0], \
input_shape)
#output_blob
operators_outputs = layer["outputs"]
output_shape = tensors[operators_outputs[0]]["shape"]
write_blob_info(param_file, \
operators_outputs[0], \
output_shape)
param_file.write('\n')
(水平有限,如有问题及遗漏欢迎补充指出,互相学习。)