谷歌语音识别官方speech_commands(audio_recognition)的使用指南(四)

好吧,菜鸟博主又一次回来了。

昨天成功转化的tf文件还是不能移植到安卓,大胆的我又开始了新的想法。
使用ml文件训练模型
还是原来的配方
(要将gennerator中代码修改为这样)

谷歌语音识别官方speech_commands(audio_recognition)的使用指南(四)_第1张图片
同时修改

 gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.3)
  sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
  K.set_session(sess)
python train.py -data_dir=data/train

好的,我们已经拥有了.hd5文件,现在把它先转化为.pb文件
cmd中运行

python convert_keras_to_quantized.py

在这里插入图片描述
完美。
一鼓作气,让我们继续将它转化为为tf文件
好吧,很遗憾的报错了

ValueError: Unknown activation function:relu6

换一种方法,把之前转化的pb文件转化为tf文件不久可以了嘛,机智

import tensorflow as tf

graph_def_file = "E:\mian\ml1\checkpoints\conv_1d_time_stacked_model/model.h5.pb"
input_arrays = ["input_1"]
output_arrays = ["reshape_2/Reshape"]

converter = tf.lite.TFLiteConverter.from_frozen_graph(
  graph_def_file, input_arrays, output_arrays)
tflite_model = converter.convert()
open("converted_model.tflite", "wb").write(tflite_model)

完美,出现了tf文件。

你可能感兴趣的:(深度学习)