最近Boss让我开发一个离线语音听写功能 , 可是我发现科大讯飞的离线版本下架了 , 也看了很多地方如百度语音.......
都没发现有离线版本 , 然而今天突然发现科大讯飞的离线听写又上架了 这就让我很开心 . 我就立马把它下载了下来,集成到我的项目中去 . 然后经过一个小时的努力 , 我把它简单的封装了一下 , 然后很方便的就可以到处调用了 !
下面我就把我的那个类发上来你们可以直接拷过去用 . 具体有哪些不懂 , 里面传的东西不清楚可以在下方留言 , 我会给你们讲解.
emmmm~很久没发博客了 , 现在给大家带来些福利 .
下面就是这个类:
public class LatYuYin {
private static String TAG = "IatDemo";
// 语音听写对象
private SpeechRecognizer mIat;
// 语音听写UI
private RecognizerDialog mIatDialog;
// 用HashMap存储听写结果
private HashMap mIatResults = new LinkedHashMap();
private Toast mToast;
private Context mContext;
private SharedPreferences mSharedPreferences;
private boolean mTranslateEnable = false;
private EditText mEditText;
public LatYuYin(Context context) {
mContext = context;
// 初始化识别无UI识别对象
// 使用SpeechRecognizer对象,可根据回调消息自定义界面;
mIat = SpeechRecognizer.createRecognizer(mContext, mInitListener);
// 初始化听写Dialog,如果只使用有UI听写功能,无需创建SpeechRecognizer
// 使用UI听写功能,请根据sdk文件目录下的notice.txt,放置布局文件和图片资源
mIatDialog = new RecognizerDialog(mContext, mInitListener);
mToast = Toast.makeText(context, "", Toast.LENGTH_SHORT);
mSharedPreferences = mContext.getSharedPreferences(IatSettings.PREFER_NAME, Activity.MODE_PRIVATE);
}
public void cancelmLat() {
mIat.cancel();
showTip("取消听写");
}
public void stopmLat() {
mIat.stopListening();
showTip("停止听写");
}
int ret = 0;// 函数调用返回值
//开始听写
public void startmLat(View view) {
mEditText = (EditText) view.findViewById(R.id.activity_chat_et_text);
mEditText.setText(null);
mIatResults.clear();
// 设置参数
setParam();
boolean isShowDialog = mSharedPreferences.getBoolean(mContext.getString(R.string.pref_key_iat_show), true);
if (isShowDialog) {
// 显示听写对话框
mIatDialog.setListener(mRecognizerDialogListener);
mIatDialog.show();
showTip(mContext.getString(R.string.text_begin));
} else {
// 不显示听写对话框
ret = mIat.startListening(mRecognizerListener);
if (ret != ErrorCode.SUCCESS) {
showTip("听写失败,错误码:" + ret);
} else {
showTip(mContext.getString(R.string.text_begin));
}
}
}
private void showTip(final String str) {
Toast.makeText(mContext, str, Toast.LENGTH_SHORT).show();
}
/**
* 参数设置
*
* @return
*/
public void setParam() {
// 清空参数
mIat.setParameter(SpeechConstant.PARAMS, null);
String lag = mSharedPreferences.getString("iat_language_preference", "mandarin");
// 设置引擎
mIat.setParameter(SpeechConstant.ENGINE_TYPE, SpeechConstant.TYPE_CLOUD);
// 设置返回结果格式
mIat.setParameter(SpeechConstant.RESULT_TYPE, "json");
this.mTranslateEnable = mSharedPreferences.getBoolean(mContext.getString(R.string.pref_key_translate), false);
if (mTranslateEnable) {
Log.i(TAG, "translate enable");
mIat.setParameter(SpeechConstant.ASR_SCH, "1");
mIat.setParameter(SpeechConstant.ADD_CAP, "translate");
mIat.setParameter(SpeechConstant.TRS_SRC, "its");
}
if (lag.equals("en_us")) {
// 设置语言
mIat.setParameter(SpeechConstant.LANGUAGE, "en_us");
mIat.setParameter(SpeechConstant.ACCENT, null);
if (mTranslateEnable) {
mIat.setParameter(SpeechConstant.ORI_LANG, "en");
mIat.setParameter(SpeechConstant.TRANS_LANG, "cn");
}
} else {
// 设置语言
mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn");
// 设置语言区域
mIat.setParameter(SpeechConstant.ACCENT, lag);
if (mTranslateEnable) {
mIat.setParameter(SpeechConstant.ORI_LANG, "cn");
mIat.setParameter(SpeechConstant.TRANS_LANG, "en");
}
}
// 设置语音前端点:静音超时时间,即用户多长时间不说话则当做超时处理
mIat.setParameter(SpeechConstant.VAD_BOS, mSharedPreferences.getString("iat_vadbos_preference", "4000"));
// 设置语音后端点:后端点静音检测时间,即用户停止说话多长时间内即认为不再输入, 自动停止录音
mIat.setParameter(SpeechConstant.VAD_EOS, mSharedPreferences.getString("iat_vadeos_preference", "1000"));
// 设置标点符号,设置为"0"返回结果无标点,设置为"1"返回结果有标点
mIat.setParameter(SpeechConstant.ASR_PTT, mSharedPreferences.getString("iat_punc_preference", "1"));
// 设置音频保存路径,保存音频格式支持pcm、wav,设置路径为sd卡请注意WRITE_EXTERNAL_STORAGE权限
mIat.setParameter(SpeechConstant.AUDIO_FORMAT, "wav");
mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, Environment.getExternalStorageDirectory() + "/msc/iat.wav");
//此处engineType为“local”
mIat.setParameter(SpeechConstant.ENGINE_TYPE, SpeechConstant.TYPE_LOCAL);
if (SpeechConstant.TYPE_LOCAL.equals(SpeechConstant.TYPE_LOCAL)) {
// 设置本地识别资源
mIat.setParameter(ResourceUtil.ASR_RES_PATH, getResourcePath());
}
}
private String getResourcePath() {
StringBuffer tempBuffer = new StringBuffer();
//识别通用资源
tempBuffer.append(ResourceUtil.generateResourcePath(mContext, ResourceUtil.RESOURCE_TYPE.assets, "iat/common.jet"));
tempBuffer.append(";");
tempBuffer.append(ResourceUtil.generateResourcePath(mContext, ResourceUtil.RESOURCE_TYPE.assets, "iat/sms_16k.jet"));
//识别8k资源-使用8k的时候请解开注释
return tempBuffer.toString();
}
/**
* 初始化监听器。
*/
private InitListener mInitListener = new InitListener() {
@Override
public void onInit(int code) {
Log.d(TAG, "SpeechRecognizer init() code = " + code);
if (code != ErrorCode.SUCCESS) {
showTip("初始化失败,错误码:" + code);
}
}
};
/**
* 听写UI监听器
*/
private RecognizerDialogListener mRecognizerDialogListener = new RecognizerDialogListener() {
public void onResult(RecognizerResult results, boolean isLast) {
Log.d(TAG, "recognizer result:" + results.getResultString());
if (mTranslateEnable) {
printTransResult(results);
} else {
String text = JsonParser.parseIatResult(results.getResultString());
mEditText.append(text);
mEditText.setSelection(mEditText.length());
}
}
/**
* 识别回调错误.
*/
public void onError(SpeechError error) {
if (mTranslateEnable && error.getErrorCode() == 14002) {
showTip(error.getPlainDescription(true) + "\n请确认是否已开通翻译功能");
} else {
showTip(error.getPlainDescription(true));
}
}
};
/**
* 听写监听器。
*/
private RecognizerListener mRecognizerListener = new RecognizerListener() {
@Override
public void onBeginOfSpeech() {
// 此回调表示:sdk内部录音机已经准备好了,用户可以开始语音输入
showTip("开始说话");
}
@Override
public void onError(SpeechError error) {
// Tips:
// 错误码:10118(您没有说话),可能是录音机权限被禁,需要提示用户打开应用的录音权限。
if (mTranslateEnable && error.getErrorCode() == 14002) {
showTip(error.getPlainDescription(true) + "\n请确认是否已开通翻译功能");
} else {
showTip(error.getPlainDescription(true));
}
}
@Override
public void onEndOfSpeech() {
// 此回调表示:检测到了语音的尾端点,已经进入识别过程,不再接受语音输入
showTip("结束说话");
}
@Override
public void onResult(RecognizerResult results, boolean isLast) {
if (mTranslateEnable) {
printTransResult(results);
} else {
String text = JsonParser.parseIatResult(results.getResultString());
}
if (isLast) {
//TODO 最后的结果
}
}
@Override
public void onVolumeChanged(int volume, byte[] data) {
showTip("当前正在说话,音量大小:" + volume);
Log.d(TAG, "返回音频数据:" + data.length);
}
@Override
public void onEvent(int eventType, int arg1, int arg2, Bundle obj) {
// 以下代码用于获取与云端的会话id,当业务出错时将会话id提供给技术支持人员,可用于查询会话日志,定位出错原因
// 若使用本地能力,会话id为null
// if (SpeechEvent.EVENT_SESSION_ID == eventType) {
// String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID);
// Log.d(TAG, "session id =" + sid);
// }
}
};
private void printTransResult(RecognizerResult results) {
String trans = JsonParser.parseTransResult(results.getResultString(), "dst");
String oris = JsonParser.parseTransResult(results.getResultString(), "src");
if (TextUtils.isEmpty(trans) || TextUtils.isEmpty(oris)) {
showTip("解析结果失败,请确认是否已开通翻译功能。");
}
}
}
以上就是这个类的代码 , 基本你们拷过去就能用 . 同时你们附加了这两个类你们需要科大讯飞里面的开发包里面拷出来.
然后具体调用很简单如下:
以上就是调用的代码简单吧 然后你们不知道还要考哪些东西就把这几个文件都拷进去 , 或者看官方文档
好了 .........基本就是这些 , 如果还是没成功就在底下留言 , 我看到我会很快的回复你的!
希望大家工作顺利!!!!!!!