教你如何在树莓派上搭建语音识别服务

最近项目原因需要我完成一个在树莓派上的离线语音识别,忙活了近一周,起初用了开源的PocketSphinx,但是不得不说,识别率低的惊人,甚至可以说有些字词根本没法识别,除非你自己制作声学模型,不然这玩意儿就是个摆设。

接下来,根据我的摸索,教大家如何在树莓派上搭建语音识别模块。

首先,前往讯飞开放平台下载SDK,平台选择Linux。你需要注册相关信息,最后你所下载的SDK中会自动填入你的key。

因为科大讯飞官方在新版本SDK移除了树莓派的支持,我把以前的版本上传了,供大家使用:
https://github.com/Qianlitp/RaspberryPiSDK

解压后如图
这里写图片描述
进入目录,里面有如下的文件:
这里写图片描述
我们这里直接选择进入官方所给的例子进行运行:
这里写图片描述

关键点,因为这个是Linux系统的版本,和树莓派不一样,我们需要修改一下库文件的引用路径:
首先,编辑32bit_make.sh:

sudo vim 32bit_make.sh,将内容修改为以下:
这里写图片描述

保存退出后,继续,sudo vim Makefile,修改下面划红线的位置为如图:
教你如何在树莓派上搭建语音识别服务_第1张图片

好了,接下来执行source 32bit_make.sh
有可能会出现权限相关的问题,建议直接从主文件递归给权限:
sudo chmod -R 774 Linux_voice_1.109

如果出现下面的内容,那就说明没什么问题了
教你如何在树莓派上搭建语音识别服务_第2张图片

接着,在Linux_voice_1.109/bin目录下会生成一个可执行文件:
这里写图片描述

我们执行它,./iat_sample 正常情况下会显示
教你如何在树莓派上搭建语音识别服务_第3张图片

这里选0会直接识别,识别的语音为官方所给的测试语音文件,保存在当前目录的wav文件夹下,识别结果为中美数控。选1则会使用用户词表,文件为当前目录下的userwords.txt,识别结果为中美速控,原因大家自己思考。
教你如何在树莓派上搭建语音识别服务_第4张图片

好了,现在识别解决了,我们来解决录音的问题

我试过很多在linux下的录音软件,不是不能设置详细的参数,就是无法控制录音时间。比如sox,这个软件很好,但是我看了帮助文档发现,要停止录音必须手动Ctrl+C。

不过问题还是被我解决了:
sudo apt-get install alsa-oss

安装完以后,执行:
arecord -d 3 -r 16000 -c 1 -t wav -f S16_LE test.wav

-d : 录音时间(s)
-r : 频率
-c : 音轨
-t : 文件类型
-f : 格式

因为科大讯飞要求单音轨,16000HZ,16bit的采样,支持wav或者pcm

录音结束后,文件保存在当前目录,将它移动到bin/wav/下,并且修改文件名替换掉以前的文件。
或者你直接可以在sample/iat_sample/下修改C文件源代码,改变音频文件位置和文件名(很简单的,打开C文件,找到传路径的地方,改一下就好,改完记得重新编译)。

我们再次执行bin/iat_sample,成功识别。

在这里我只是讲述了如何在树莓派上将语音识别SDK简单跑起来,更多的改善大家可以自己解决。
有错误的地方还望大家指正。

我提供的SDK已经申请过认证,无限制次数使用,大家可用于学习和测试开发。

你可能感兴趣的:(树莓派)