android 语音识别_Android语音识别教程

android 语音识别_Android语音识别教程_第1张图片

android 语音识别

您可能听说过“ Google Now项目” ,在这里您可以发出语音命令,Android会为您获取结果。 它可以识别您的声音并将其转换为文本或采取适当的措施。 您有没有想过如何做? 如果您的答案是语音识别API,那么您绝对正确。 最近,在使用Android语音识别API时,我发现了一些有趣的东西。 API真的很容易与应用程序一起使用。 下面给出的是有关语音/语音识别API的小教程。 最终的应用程序看起来类似于下面显示的应用程序。 该应用程序可能不支持Android模拟器,因为它不支持语音识别。 但是同样可以在电话上使用。

项目信息:有关项目的元数据。

平台版本: Android API级别15。IDE: Eclipse Helios服务版本2模拟器: Android 4.1(API 16)

先决条件:对Android应用程序框架和Intent有初步了解。

语音识别功能可以通过RecognizerIntent实现。 创建类型为RecognizerIntent的Intent,并传递额外的参数并开始结果的活动。 基本上,它会启动由您的附加参数定制的识别器提示。 内部语音识别与服务器通信并获取结果。 因此,您必须提供该应用程序的Internet访问权限。 Android Jelly Bean(API级别16)不需要互联网连接即可执行语音识别。 语音识别完成后,识别器将在onActivityResult()方法参数中返回值。

首先通过Eclipse> File> New Project> Android Application Project创建项目 将出现以下对话框。 填写必填字段,即“应用程序名称”,“项目名称”和“包”。 现在按下一步按钮。

出现对话框后,选择BlankActivity,然后单击下一步

在中填写活动名称和布局文件名 如下所示的对话框,然后单击完成按钮。

此过程将设置基本项目文件。 现在,我们将在activity_voice_recognition.xml文件中添加四个按钮。 您可以使用图形布局编辑器或xml编辑器来修改布局文件。 该文件的内容如下所示。 正如你可能会注意到,我们已附上说话()方法中的onClick标签按钮。 单击按钮后,将执行talk()方法。 我们将在主要活动中定义speak()。



    

    

您可能已经注意到,正在从资源访问String常量。 现在,在string.xml中添加字符串常量。 该文件应类似于下面显示的文件。


    VoiceRecognitionExample
    Speak
    Settings
    Voice Recognition
    Text Matches
    No of Matches
    Speech hint here
    
        1
        2
        3
        4
        5
        6
        7
        8
        9
        10
    

现在让我们定义Activity类。 该活动类将在checkVoiceRecognition()方法的帮助下,首先检查语音识别是否可用。 如果语音识别功能不可用,则敬酒一条消息并禁用该按钮。 此处定义了Speak()方法,一旦按下语音按钮便会调用该方法。 在此方法中,我们将创建RecognizerIntent并传递额外的参数。 下面的代码带有嵌入式注释,使注释易于理解。

package com.rakesh.voicerecognitionexample;

import java.util.ArrayList;
import java.util.List;

import android.app.Activity;
import android.app.SearchManager;
import android.content.Intent;
import android.content.pm.PackageManager;
import android.content.pm.ResolveInfo;
import android.os.Bundle;
import android.speech.RecognizerIntent;
import android.view.View;
import android.widget.AdapterView;
import android.widget.ArrayAdapter;
import android.widget.Button;
import android.widget.EditText;
import android.widget.ListView;
import android.widget.Spinner;
import android.widget.Toast;

public class VoiceRecognitionActivity extends Activity {
 private static final int VOICE_RECOGNITION_REQUEST_CODE = 1001;

 private EditText metTextHint;
 private ListView mlvTextMatches;
 private Spinner msTextMatches;
 private Button mbtSpeak;

 @Override
 public void onCreate(Bundle savedInstanceState) {
  super.onCreate(savedInstanceState);
  setContentView(R.layout.activity_voice_recognition);
  metTextHint = (EditText) findViewById(R.id.etTextHint);
  mlvTextMatches = (ListView) findViewById(R.id.lvTextMatches);
  msTextMatches = (Spinner) findViewById(R.id.sNoOfMatches);
  mbtSpeak = (Button) findViewById(R.id.btSpeak);
  checkVoiceRecognition()
 }

 public void checkVoiceRecognition() {
  // Check if voice recognition is present
  PackageManager pm = getPackageManager();
  List activities = pm.queryIntentActivities(new Intent(
    RecognizerIntent.ACTION_RECOGNIZE_SPEECH), 0);
  if (activities.size() == 0) {
   mbtSpeak.setEnabled(false);
   mbtSpeak.setText("Voice recognizer not present")
   Toast.makeText(this, "Voice recognizer not present",
     Toast.LENGTH_SHORT).show();
  }
 }

 public void speak(View view) {
  Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);

  // Specify the calling package to identify your application
  intent.putExtra(RecognizerIntent.EXTRA_CALLING_PACKAGE, getClass()
    .getPackage().getName());

  // Display an hint to the user about what he should say.
  intent.putExtra(RecognizerIntent.EXTRA_PROMPT, metTextHint.getText()
    .toString());

  // Given an hint to the recognizer about what the user is going to say
  //There are two form of language model available
  //1.LANGUAGE_MODEL_WEB_SEARCH : For short phrases
  //2.LANGUAGE_MODEL_FREE_FORM  : If not sure about the words or phrases and its domain.
intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
    RecognizerIntent.LANGUAGE_MODEL_WEB_SEARCH);

  // If number of Matches is not selected then return show toast message
  if (msTextMatches.getSelectedItemPosition() == AdapterView.INVALID_POSITION) {
   Toast.makeText(this, "Please select No. of Matches from spinner",
     Toast.LENGTH_SHORT).show();
   return;
  }

  int noOfMatches = Integer.parseInt(msTextMatches.getSelectedItem()
    .toString());
  // Specify how many results you want to receive. The results will be
  // sorted where the first result is the one with higher confidence.
  intent.putExtra(RecognizerIntent.EXTRA_MAX_RESULTS, noOfMatches);
  //Start the Voice recognizer activity for the result.
  startActivityForResult(intent, VOICE_RECOGNITION_REQUEST_CODE);
 }

 @Override
 protected void onActivityResult(int requestCode, int resultCode, Intent data) {
  if (requestCode == VOICE_RECOGNITION_REQUEST_CODE)

   //If Voice recognition is successful then it returns RESULT_OK
   if(resultCode == RESULT_OK) {

    ArrayList textMatchList = data
    .getStringArrayListExtra(RecognizerIntent.EXTRA_RESULTS);

    if (!textMatchList.isEmpty()) {
     // If first Match contains the 'search' word
     // Then start web search.
     if (textMatchList.get(0).contains("search")) {

        String searchQuery = textMatchList.get(0);
                                           searchQuery = searchQuery.replace("search","");
        Intent search = new Intent(Intent.ACTION_WEB_SEARCH);
        search.putExtra(SearchManager.QUERY, searchQuery);
        startActivity(search);
     } else {
         // populate the Matches
         mlvTextMatches
      .setAdapter(new ArrayAdapter(this,
        android.R.layout.simple_list_item_1,
        textMatchList));
     }

    }
   //Result code for various error.
   }else if(resultCode == RecognizerIntent.RESULT_AUDIO_ERROR){
    showToastMessage("Audio Error");
   }else if(resultCode == RecognizerIntent.RESULT_CLIENT_ERROR){
    showToastMessage("Client Error");
   }else if(resultCode == RecognizerIntent.RESULT_NETWORK_ERROR){
    showToastMessage("Network Error");
   }else if(resultCode == RecognizerIntent.RESULT_NO_MATCH){
    showToastMessage("No Match");
   }else if(resultCode == RecognizerIntent.RESULT_SERVER_ERROR){
    showToastMessage("Server Error");
   }
  super.onActivityResult(requestCode, resultCode, data);
 }
 /**
 * Helper method to show the toast message
 **/
 void showToastMessage(String message){
  Toast.makeText(this, message, Toast.LENGTH_SHORT).show();
 }
}

这是Android清单文件。 您可以看到,由于语音识别器需要将查询发送到服务器并获取结果,因此已向应用程序提供了INTERNET权限。



    
    
 

    

        
            
                

                
            
        
    

编码完成后,将手机与系统连接,然后在Eclipse IDE上单击“运行”按钮。 Eclipse将安装并启动该应用程序。 您将在设备屏幕上看到以下活动。

在下一个教程中,我们将学习如何使用Android Jelly Bean(API级别16)中引入的新语音识别API以及示例。

如果您对源代码感兴趣,那么可以从github获得它。

参考:我们的JCG合作伙伴Rakesh Cusat在Code4Reference博客上提供了有关Android语音识别的教程。

翻译自: https://www.javacodegeeks.com/2012/08/android-voice-recognition-tutorial.html

android 语音识别

你可能感兴趣的:(java,android,python,安卓,编程语言)