TFLite文件解析及格式转换

        随着深度学习越来越流行,工业生产不光在PC端应用场景丰富,在移动端也越来越凸显出深度学习的重要性及应用价值。由于嵌入式平台受存储、指令集限制,需要提供更小的网络模型,并且某些DSP平台不支持float指令。tensorflow提供TOCO转换工具能够自动生成量化为U8的TFLite文件。本文将介绍如何解析tflite的网络结构以及权重信息。

一、tflite文件格式

        Tflite文件由tensorflow提供的TOCO工具生成的轻量级模型,存储格式是flatbuffer,它是google开源的一种二进制序列化格式,同功能的像protobuf。对flatbuffer可小结为三点。

1.内容分为vtable区和数据区,vtable区保存着变量的偏移值,数据区保存着变量值;

2.要解析变量a,是在vtable区组合一层层的offset偏移量计算出总偏移,然后以总偏移到数据区中定位从而获取变量a的值。

3.一个叫schema的文本文件定义了要进行序列化和反序列化的数据结构。

具体定义的结构可以参考tensorflow源码中的schema文件:https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/schema/schema.fbs

二、tflite解析

         由于工作需要,本文使用了google flatbuffer开源工具flatc,flatc可以实现tflite格式到jason文件的自动转换。

flatbuffer源码:https://github.com/google/flatbuffers 

安装命令: cmake -G "Unix Makefiles" //生成MakeFile

                   make //生成flatc

                   make install //安裝flatc

安装完成后,从tensorflow源码中copy 结构文件schema.fbs到flatbuffer根目录,执行#./flatc -t schema.fbs -- mobilenet_v1_1.0_224_quant.tflite,生成对应的json文件。Json文件结构如下图所示:

TFLite文件解析及格式转换_第1张图片

operator_codes: 以列表的形式存储该网络结构用的layer种类;

subgraphs: 为每一层的具体信息具体包括:

            1)tensors.包含input、weight、bias的shape信息、量化参数以及在buffer数据区的offset值;

            2)inputs: 整个网络的输入对应的tensors索引;

            3)outputs: 整个网络的输出对应的tensors索引;

            4)operators:网络结构所需要的相关参数;

buffers: 存放weight、bias等权重信息。

三、网络结构及权重提取

       使用python的json包可以很方便的读取tflite生成的json文件。关于解析过程有几点说明:

        1.flatc转换的json文件不是标准的key-value格式,需要稍作转换给索引key加上双引号具体代码如下:

# -*- coding: UTF-8 -*-
import os
pathIn='xxx.json'
pathDst='xxx_new.json'
f = open(pathIn)             # 返回一个文件对象
line = f.readline()             # 调用文件的 readline()方法
fout = open(pathDst,'w') 

while line:
    #print(line)  
    #print(len(line))
    dstline='aaa'
    if line.find(':')!=-1:
    	quoteIdx2=line.find(':')
    	#print("line has :, and index =%d" %quoteIdx2)
    	linenew=line[:quoteIdx2] + '"' + line[quoteIdx2:]
    	quoteIdx1=linenew.rfind(' ',0, quoteIdx2)
    	#print("quoteIdx1 %d" %quoteIdx1)
    	dstline=linenew[:quoteIdx1+1] + '"' + linenew[quoteIdx1+1:]
    	#print(dstline)
    	fout.write(dstline+os.linesep) 
    else:
    	dstline=line
    	fout.write(line) 
    	#print("No")
    #print dstline
	
    line = f.readline()

f.close()
fout.close()

        2.由于量化后的bias为int32的类型,而flatc将bias数据按照uint8的格式进行了转换,这里需要对json文件的bias再转换回int32类型,相当于json中bias区域四个字节转换为一个int32。详细讨论参考tensorflow github链接:https://github.com/tensorflow/tensorflow/issues/22279

        解析部分代码分为两个部分包括网络结构以及权重解析,方法相似。网络结构参数解析,部分代码如下:

from __future__ import division
import json

def write_blob_info(p_file, inputs, input_shape):
	p_file.write(str(inputs) + ', ')
	p_file.write(str(3) + ', ')
	p_file.write(str(input_shape[3]) + ', ')
	p_file.write(str(input_shape[1]) + ', ')
	p_file.write(str(input_shape[2]) + ', ')

with open("mobilenet_v1_1.0_224_quant.json",'r') as f:
	load_dict = json.load(f)

param_file=open("mobilenet_v1_1.0_224_quant.proto",'w')

tensors = load_dict["subgraphs"][0]["tensors"]
operators = load_dict["subgraphs"][0]["operators"]
inputs = load_dict["subgraphs"][0]["inputs"]
input_shape = tensors[inputs[0]]["shape"]

param_file.write(str(len(operators) + 1) + ',\n')
write_blob_info(param_file, \
				inputs[0], \
				input_shape)
param_file.write('\n')

for layer in operators:
	layer_name = layer["builtin_options_type"]
	operators_inputs  = layer["inputs"]
	input_len = len(operators_inputs)
	builtin_options = layer["builtin_options"]
	
	if layer_name == "Conv2DOptions":	#conv_2d, depthwiseconv_2d
		input_shape  = tensors[operators_inputs[0]]["shape"]
		kernel_shape = tensors[operators_inputs[1]]["shape"]
		bias_shape   = tensors[operators_inputs[2]]["shape"]
		kernel_H = kernel_shape[1]
		kernel_W = kernel_shape[2]
		param_file.write(str(kernel_H) + ', ')
		param_file.write(str(kernel_W) + ', ')
		stride_H = builtin_options["stride_h"]
		stride_W = builtin_options["stride_w"]
		param_file.write(str(stride_H) + ', ')
		param_file.write(str(stride_W) + ', ')		
		dilation_W = builtin_options["dilation_w_factor"]
		dilation_H = builtin_options["dilation_h_factor"]
		param_file.write(str(dilation_H) + ', ')
		param_file.write(str(dilation_W) + ', ')
		bias_term = 1
		if input_len  < 3 or bias_shape[0] == 0:
			bias_term = 0
		param_file.write(str(bias_term) + ', ')
		bottom_zero_point = tensors[operators_inputs[0]]["quantization"]["zero_point"][0]
		param_file.write(str(bottom_zero_point) + ', ')
		write_blob_info(param_file, \
				operators_inputs[0], \
				input_shape)	
	#output_blob
	operators_outputs = layer["outputs"]
	output_shape = tensors[operators_outputs[0]]["shape"]
	write_blob_info(param_file, \
			operators_outputs[0], \
			output_shape)
	param_file.write('\n')

(水平有限,如有问题及遗漏欢迎补充指出,互相学习。)

 

你可能感兴趣的:(深度学习)