能在MCU上运行的语音算法方案——AID.Speech

AID.Speech是以Tengine-Lite为平台的嵌入式前端语音唤醒/打断算法,它可以在Arm Cortex-M4上流畅运行,适用于各种语音交互的IoT场景;包含,行业领先的语音识别算法;优秀的单麦本地语音解决方案 ,具体有语音降噪算法,语音活性检测算法,声学回声消除算法等。

 

Tengine-Lite 简介

Tengine-Lite是专为MCU场景设计的超轻量级AI推理框架,提供有史以来最佳的MCU AI应用开发体验。

Tengine-Lite向上兼容Arm中国周易Tengine应用接口,支持Caffe/MXNet/TensorFlow模型,采用程序与模型分离的开发流程,支持常见RTOS操作系统和Bare-metal运行环境,支持Keil/IAR等主流开发环境,大幅度提高MCU AI应用开发效率。

同时为了满足超低成本的部署需求,Tengine-Lite采用纯C语言开发,最小程序体积20K。此外Tengine-Lite针对Arm Cortex-M CPU提供HCL-M计算库,支持FP32/INT8计算精度,兼容CMSIS-NN,同时支持调用DSP和AI硬件加速器进行异构计算,赋能MCU+AI加速器芯片。

 

能在MCU上运行的语音算法方案——AID.Speech_第1张图片

同时AID.Speech提供友好、简洁、通用的API,可以快速部署到目标硬件平台,加速语音识别终端快速产品化落地;默认支持FreeRTOS/Zephyr操作系统,经过简单修改就适配其他操作系统;提供唤醒词的定制以及在特定产品上的效果调优服务。

能在MCU上运行的语音算法方案——AID.Speech_第2张图片

语音识别算法流程

语音识别需要经过声学回声消除、语音降噪、自动增益控制、声学特征提取、语音识别等多个步骤,通过使用Tengine-Lite/HCL-M大大提升了现有嵌入式SoC的算力,使得语音识别系统可部署在各类种嵌入式设备上,并提供超预期的识别用户体验。

能在MCU上运行的语音算法方案——AID.Speech_第3张图片

AID.Speech产品特性

使用Tengine Lite,极快的识别速度;

针对于不同CPU指令集、微架构级别优化,以及DSP/NPU的异构计算支持;

3 识别本地化,支持完全离线工作模式;

4 基于深度学习算法,超小模型,对内存容量要求低;

抗噪声能力强;

支持FreeRTOS/Zephyr等多种RTOS系统;

AID.Speech产品性能

AID.Speech采用多种语音前处理算法,在极大地抑制噪声的同时,适当地增强语音信号;采用回声消除算法,从输入语音中消除设备自身播放的影响,赋予设备全双工的能力。语音识别模型大小可以根据需要在50~350KB内自由选择,在保证误唤醒率<3次/天的条件下,识别率高达95%。

Cortex-M4上的性能数据

能在MCU上运行的语音算法方案——AID.Speech_第4张图片

典型应用场景

能在MCU上运行的语音算法方案——AID.Speech_第5张图片

AID.Speech不同环境下唤醒打断及命令词demo

视频地址:https://v.qq.com/x/page/e0872xztwzt.html

 

OPEN AI LAB 于2016年12月成立,由Arm中国联合产业伙伴发起,致力于推动芯片、算力、算法、应用和数据等产业链各层次的深度协作,加速人工智能产业化应用部署和应用场景边界拓展,为最终实现万物智能贡献力量。更多:http://www.openailab.com/?csdn0521

你可能感兴趣的:(OPEN,AI,LAB,AID.Speech,语音唤醒,语音识别,OPEN,AI,LAB,人工智能)