Android Studio 接入 訊飛 語音合成(文字轉語音)
1.下載相應的SDK(參考我上一篇文章:https://mp.csdn.net/postedit/83743563)
2.佈置資源
.
3.新增許可權 :在Application的根目錄下,為了可以訪問手機的一些功能
<!--連線網路許可權,用於執行雲端語音能力 -->
<uses-permission android:name="android.permission.INTERNET"/>
<!--獲取手機錄音機使用許可權,聽寫、識別、語義理解需要用到此許可權 -->
<uses-permission android:name="android.permission.RECORD_AUDIO"/>
<!--讀取網路資訊狀態 -->
<uses-permission android:name="android.permission.ACCESS_NETWORK_STATE"/>
<!--獲取當前wifi狀態 -->
<uses-permission android:name="android.permission.ACCESS_WIFI_STATE"/>
<!--允許程式改變網路連線狀態 -->
<uses-permission android:name="android.permission.CHANGE_NETWORK_STATE"/>
<!--讀取手機資訊許可權 -->
<uses-permission android:name="android.permission.READ_PHONE_STATE"/>
<!--讀取聯絡人許可權,上傳聯絡人需要用到此許可權 -->
<uses-permission android:name="android.permission.READ_CONTACTS"/>
4.新建主介面
package com.hxl.yuyin; import android.support.v7.app.AppCompatActivity; import android.app.Activity ; import android.os.Bundle ; import android.util.Log ; import android.view.View ; import android.widget.Button ; import android.widget.EditText ; import android.widget.Toast ; import com.iflytek.cloud.ErrorCode ; import com.iflytek.cloud.InitListener ; import com.iflytek.cloud.RecognizerListener ; import com.iflytek.cloud.RecognizerResult ; import com.iflytek.cloud.SpeechConstant ; import com.iflytek.cloud.SpeechError ; import com.iflytek.cloud.SpeechRecognizer ; import com.iflytek.cloud.SpeechSynthesizer ; import com.iflytek.cloud.SpeechUtility ; import com.iflytek.cloud.SynthesizerListener ; import com.iflytek.cloud.ui.RecognizerDialog ; import com.iflytek.cloud.ui.RecognizerDialogListener ; import org.json.JSONException ; import org.json.JSONObject ; import java.util.HashMap ; import java.util.LinkedHashMap ; public class MainActivity extends Activity implements View.OnClickListener { private static final String TAG = MainActivity.class .getSimpleName(); private EditText et_input; private Button btn_startspeech, btn_startspeektext ; // 用HashMap儲存聽寫結果 private HashMap<String, String> mIatResults = new LinkedHashMap<String , String>(); @Override protected void onCreate(Bundle savedInstanceState) { super .onCreate(savedInstanceState) ; initView() ; initSpeech() ; } private void initView() { setContentView(R.layout.activity_main) ; et_input = (EditText) findViewById(R.id.et_input ); btn_startspeech = (Button) findViewById(R.id.btn_startspeech ); btn_startspeektext = (Button) findViewById(R.id.btn_startspeektext ); btn_startspeech .setOnClickListener(this) ; btn_startspeektext .setOnClickListener(this) ; } private void initSpeech() { // 將“12345678”替換成您申請的 APPID,申請地址: http://www.xfyun.cn // 請勿在 “ =”與 appid 之間新增任務空字元或者轉義符 SpeechUtility. createUtility( this, SpeechConstant. APPID + "=56ffe0ae" ); } @Override public void onClick(View v) { switch (v.getId()) { case R.id.btn_startspeech: //語音識別(把聲音轉文字) startSpeechDialog(); break; case R.id. btn_startspeektext:// 語音合成(把文字轉聲音) speekText(); break; } } private void speekText() { //1. 建立 SpeechSynthesizer 物件 , 第二個引數: 本地合成時傳 InitListener SpeechSynthesizer mTts = SpeechSynthesizer.createSynthesizer( this, null); //2.合成引數設定,詳見《 MSC Reference Manual》 SpeechSynthesizer 類 //設定發音人(更多線上發音人,使用者可參見 附錄 13.2 mTts.setParameter(SpeechConstant. VOICE_NAME, "vixyun" ); // 設定發音人 mTts.setParameter(SpeechConstant. SPEED, "50" );// 設定語速 mTts.setParameter(SpeechConstant. VOLUME, "80" );// 設定音量,範圍 0~100 mTts.setParameter(SpeechConstant. ENGINE_TYPE, SpeechConstant. TYPE_CLOUD); //設定雲端 //設定合成音訊儲存位置(可自定義儲存位置),儲存在 “./sdcard/iflytek.pcm” //儲存在 SD 卡需要在 AndroidManifest.xml 新增寫 SD 卡許可權 //僅支援儲存為 pcm 和 wav 格式, 如果不需要儲存合成音訊,註釋該行程式碼 mTts.setParameter(SpeechConstant. TTS_AUDIO_PATH, "./sdcard/iflytek.pcm" ); //3.開始合成 mTts.startSpeaking( et_input.getText().toString(), new MySynthesizerListener()) ; } class MySynthesizerListener implements SynthesizerListener { @Override public void onSpeakBegin() { showTip(" 開始播放 "); } @Override public void onSpeakPaused() { showTip(" 暫停播放 "); } @Override public void onSpeakResumed() { showTip(" 繼續播放 "); } @Override public void onBufferProgress(int percent, int beginPos, int endPos , String info) { // 合成進度 } @Override public void onSpeakProgress(int percent, int beginPos, int endPos) { // 播放進度 } @Override public void onCompleted(SpeechError error) { if (error == null) { showTip("播放完成 "); } else if (error != null ) { showTip(error.getPlainDescription( true)); } } @Override public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) { // 以下程式碼用於獲取與雲端的會話 id,當業務出錯時將會話 id提供給技術支援人員,可用於查詢會話日誌,定位出錯原因 // 若使用本地能力,會話 id為null //if (SpeechEvent.EVENT_SESSION_ID == eventType) { // String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID); // Log.d(TAG, "session id =" + sid); //} } } private void startSpeechDialog() { //1. 建立RecognizerDialog物件 RecognizerDialog mDialog = new RecognizerDialog(this, new MyInitListener()) ; //2. 設定accent、 language等引數 mDialog.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 設定中文 mDialog.setParameter(SpeechConstant. ACCENT, "mandarin" ); // 若要將UI控制元件用於語義理解,必須新增以下引數設定,設定之後 onResult回撥返回將是語義理解 // 結果 // mDialog.setParameter("asr_sch", "1"); // mDialog.setParameter("nlp_version", "2.0"); //3.設定回撥介面 mDialog.setListener( new MyRecognizerDialogListener()) ; //4. 顯示dialog,接收語音輸入 mDialog.show() ; } class MyRecognizerDialogListener implements RecognizerDialogListener { /** * @param results * @param isLast 是否說完了 */ @Override public void onResult(RecognizerResult results, boolean isLast) { String result = results.getResultString(); //為解析的 showTip(result) ; System. out.println(" 沒有解析的 :" + result); String text = JsonParser.parseIatResult(result) ;//解析過後的 System. out.println(" 解析後的 :" + text); String sn = null; // 讀取json結果中的 sn欄位 try { JSONObject resultJson = new JSONObject(results.getResultString()) ; sn = resultJson.optString("sn" ); } catch (JSONException e) { e.printStackTrace(); } mIatResults .put(sn, text) ;//沒有得到一句,新增到 StringBuffer resultBuffer = new StringBuffer(); for (String key : mIatResults.keySet()) { resultBuffer.append(mIatResults .get(key)); } et_input.setText(resultBuffer.toString());// 設定輸入框的文字 et_input .setSelection(et_input.length()) ;//把游標定位末尾 } @Override public void onError(SpeechError speechError) { } } class MyInitListener implements InitListener { @Override public void onInit(int code) { if (code != ErrorCode.SUCCESS) { showTip("初始化失敗 "); } } } /** * 語音識別 */ private void startSpeech() { //1. 建立SpeechRecognizer物件,第二個引數: 本地識別時傳 InitListener SpeechRecognizer mIat = SpeechRecognizer.createRecognizer( this, null); //語音識別器 //2. 設定聽寫引數,詳見《 MSC Reference Manual》 SpeechConstant類 mIat.setParameter(SpeechConstant. DOMAIN, "iat" );// 簡訊和日常用語: iat (預設) mIat.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 設定中文 mIat.setParameter(SpeechConstant. ACCENT, "mandarin" );// 設定普通話 //3. 開始聽寫 mIat.startListening( mRecoListener); } // 聽寫監聽器 private RecognizerListener mRecoListener = new RecognizerListener() { // 聽寫結果回撥介面 (返回Json 格式結果,使用者可參見附錄 13.1); //一般情況下會通過onResults介面多次返回結果,完整的識別內容是多次結果的累加; //關於解析Json的程式碼可參見 Demo中JsonParser 類; //isLast等於true 時會話結束。 public void onResult(RecognizerResult results, boolean isLast) { Log.e (TAG, results.getResultString()); System.out.println(results.getResultString()) ; showTip(results.getResultString()) ; } // 會話發生錯誤回撥介面 public void onError(SpeechError error) { showTip(error.getPlainDescription(true)) ; // 獲取錯誤碼描述 Log. e(TAG, "error.getPlainDescription(true)==" + error.getPlainDescription(true )); } // 開始錄音 public void onBeginOfSpeech() { showTip(" 開始錄音 "); } //volume 音量值0~30, data音訊資料 public void onVolumeChanged(int volume, byte[] data) { showTip(" 聲音改變了 "); } // 結束錄音 public void onEndOfSpeech() { showTip(" 結束錄音 "); } // 擴充套件用介面 public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) { } }; private void showTip (String data) { Toast.makeText( this, data, Toast.LENGTH_SHORT).show() ; } }
5.json解析類:
package com.hxl.yuyin; import org.json.JSONArray ; import org.json.JSONObject ; import org.json.JSONTokener ; /** * Json結果解析類 */ public class JsonParser { public static String parseIatResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { // 轉寫結果詞,預設使用第一個結果 JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); JSONObject obj = items.getJSONObject(0 ); ret.append(obj.getString("w" )); // 如果需要多候選結果,解析陣列其他欄位 // for(int j = 0; j < items.length(); j++) // { // JSONObject obj = items.getJSONObject(j); // ret.append(obj.getString("w")); // } } } catch (Exception e) { e.printStackTrace(); } return ret.toString(); } public static String parseGrammarResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); for (int j = 0; j < items.length() ; j++) { JSONObject obj = items.getJSONObject(j); if (obj.getString("w").contains( "nomatch")) { ret.append( "沒有匹配結果.") ; return ret.toString(); } ret.append( "【結果】" + obj.getString("w" )); ret.append("【置信度】 " + obj.getInt("sc" )); ret.append("\n "); } } } catch (Exception e) { e.printStackTrace(); ret.append(" 沒有匹配結果 ."); } return ret.toString(); } public static String parseLocalGrammarResult(String json) { StringBuffer ret = new StringBuffer() ; try { JSONTokener tokener = new JSONTokener(json) ; JSONObject joResult = new JSONObject(tokener) ; JSONArray words = joResult.getJSONArray("ws" ); for (int i = 0; i < words.length(); i++) { JSONArray items = words.getJSONObject(i).getJSONArray("cw" ); for (int j = 0; j < items.length() ; j++) { JSONObject obj = items.getJSONObject(j); if (obj.getString("w").contains( "nomatch")) { ret.append( "沒有匹配結果.") ; return ret.toString(); } ret.append( "【結果】" + obj.getString("w" )); ret.append("\n "); } } ret.append("【置信度】 " + joResult.optInt("sc" )); } catch (Exception e) { e.printStackTrace(); ret.append(" 沒有匹配結果 ."); } return ret.toString(); } }
注意:
1.AppID也換成自己訊飛的sdk對應的AppId
2.找不到相應的.so檔案
2018-11-16 16:46:03.378 22629-22629/com.hxl.yuyin E/MscSpeechLog: loadLibrary msc error:java.lang.UnsatisfiedLinkError: dalvik.system.PathClassLoader[DexPathList[[zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/base.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_dependencies_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_resources_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_0_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_1_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_2_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_3_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_4_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_5_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_6_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_7_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_8_apk.apk", zip file "/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/split_lib_slice_9_apk.apk"],nativeLibraryDirectories=[/data/app/com.hxl.yuyin-IWhd0fIykOCx5Vr1IutIwA==/lib/x86, /system/lib]]] couldn't find "libmsc.so"
2018-11-16 16:46:03.378 22629-22629/com.hxl.yuyin D/MscSpeechLog: MSC ifly ver: true
2018-11-16 16:46:03.381 22629-22629/com.hxl.yuyin E/MscSpeechLog: init failed
解決方法
在build.gradle(Module:app)裡面配置ndk和jniLibs
defaultConfig {
applicationId "com.jzt.mykdxf"
minSdkVersion 15
targetSdkVersion 25
versionCode 1
versionName "1.0"
testInstrumentationRunner "android.support.test.runner.AndroidJUnitRunner"
//配置.so檔案!
ndk {
//選擇要新增的對應cpu型別的.so庫。
abiFilters 'x86', 'armeabi', 'armeabi-v7a', 'armeabi-v8a'
}
}
buildTypes {
release {
minifyEnabled false
proguardFiles getDefaultProguardFile('proguard-android.txt'), 'proguard-rules.pro'
}
//配置JniLibs
sourceSets {
main {
jniLibs.srcDirs = ['libs']
}
}
}