標籤:
今天,我們來學習一下怎麼在Android Studio快速整合訊飛SDK實現文字朗讀功能,先看一下:
第一步 :瞭解TTSVoice Messaging Service
TTS的全稱為Text To Speech,即“從文本到語音”。它是同時運用語言學和心理學的傑出之作,在內建晶片的支援之下,通過神經網路的設計,把文字智能地轉化為自然語音流。
TTS技術對文字檔進行即時轉換,轉換時間之短可以秒計算。在其特有智能語音控制器作用下,文本輸出的語音音律流暢,使得聽者在聽取資訊時感覺自然,毫無機器語音輸出的冷漠與生澀感。使使用者可以聽到清晰悅耳的音質和連貫流暢的語調
訊飛語言服務分為線上合成和本地合成,其中本地合成需要下載語言套件,這和google的TTS一樣,但是google的TTS在有的手機中不被支援或者是不支援中文。在這裡我們使用的是線上合成的方法,需要有一點點的網速,否則會出現網路緩慢,暫停播放的提示。
第二步:瞭解主要對象和方法
// 語音合成對象private SpeechSynthesizer mTts;// 聽寫對象 private SpeechRecognizer mIat;//初始化TTSmTts = SpeechSynthesizer.createSynthesizer(IatDemo.this, mTtsInitListener);//主要方法 text為要讀的文本mTts.startSpeaking(text, mTtsListener);//語音對象參數設定 // 設定聽寫引擎 mIat.setParameter(SpeechConstant.ENGINE_TYPE, mEngineType); // 設定返回結果格式 mIat.setParameter(SpeechConstant.RESULT_TYPE, "json"); String lag = mSharedPreferences.getString("iat_language_preference", "mandarin"); if (lag.equals("en_us")) { // 設定語言 mIat.setParameter(SpeechConstant.LANGUAGE, "en_us"); } else { // 設定語言 mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn"); // 設定語言地區 mIat.setParameter(SpeechConstant.ACCENT, lag); } // 設定語音前端點:靜音逾時時間,即使用者多長時間不說話則當做逾時處理 mIat.setParameter(SpeechConstant.VAD_BOS, mSharedPreferences.getString("iat_vadbos_preference", "4000")); // 設定語音後端點:後端點靜音檢測時間,即使用者停止說話多長時間內即認為不再輸入, 自動停止錄音 mIat.setParameter(SpeechConstant.VAD_EOS, mSharedPreferences.getString("iat_vadeos_preference", "1000")); // 設定標點符號,設定為"0"返回結果無標點,設定為"1"返回結果有標點 mIat.setParameter(SpeechConstant.ASR_PTT, mSharedPreferences.getString("iat_punc_preference", "1")); // 設定音頻儲存路徑,儲存音頻格式支援pcm、wav,設定路徑為sd卡請注意WRITE_EXTERNAL_STORAGE許可權 // 註:AUDIO_FORMAT參數語記需要更新版本才會生效 mIat.setParameter(SpeechConstant.AUDIO_FORMAT,"wav"); mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, Environment.getExternalStorageDirectory()+"/msc/iat.wav"); // 設定聽寫結果是否結果動態修正,為“1”則在聽寫過程中動態遞增地返回結果,否則只在聽寫結束之後返回最終結果 // 註:該參數暫時只對線上聽寫有效 mIat.setParameter(SpeechConstant.ASR_DWA, mSharedPreferences.getString("iat_dwa_preference", "0")); 第三步:實現功能
package com.jerehedu.administrator.mysounddemo;import android.annotation.SuppressLint;import android.app.Activity;import android.content.SharedPreferences;import android.os.Bundle;import android.os.Environment;import android.util.Log;import android.view.View;import android.view.View.OnClickListener;import android.view.Window;import android.widget.EditText;import android.widget.RadioGroup;import android.widget.Toast;import com.iflytek.cloud.ErrorCode;import com.iflytek.cloud.InitListener;import com.iflytek.cloud.RecognizerListener;import com.iflytek.cloud.RecognizerResult;import com.iflytek.cloud.SpeechConstant;import com.iflytek.cloud.SpeechError;import com.iflytek.cloud.SpeechRecognizer;import com.iflytek.cloud.SpeechSynthesizer;import com.iflytek.cloud.SynthesizerListener;import com.iflytek.cloud.ui.RecognizerDialog;import com.iflytek.cloud.ui.RecognizerDialogListener;import com.iflytek.sunflower.FlowerCollector;import org.json.JSONException;import org.json.JSONObject;import java.util.HashMap;import java.util.LinkedHashMap;public class IatDemo extends Activity implements OnClickListener { private static String TAG = IatDemo.class.getSimpleName(); // 語音合成對象 private SpeechSynthesizer mTts; // 預設發音人 private String voicer = "xiaoyan"; // 緩衝進度 private int mPercentForBuffering = 0; // 播放進度 private int mPercentForPlaying = 0; // 雲端/本地選項按鈕 private RadioGroup mRadioGroup; // 聽寫對象 private SpeechRecognizer mIat; // 聽寫UI private RecognizerDialog mIatDialog; // 用HashMap儲存聽寫結果 private HashMap<String, String> mIatResults = new LinkedHashMap<String, String>(); private EditText mResultText; private Toast mToast; private SharedPreferences mSharedPreferences; // 引擎類型 private String mEngineType = SpeechConstant.TYPE_CLOUD; // 語記安裝助手類 ApkInstaller mInstaller; @SuppressLint("ShowToast") public void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); requestWindowFeature(Window.FEATURE_NO_TITLE); setContentView(R.layout.iatdemo); initLayout(); // 初始化識別無UI識別對象 // 使用SpeechRecognizer對象,可根據回調訊息自訂介面; mIat = SpeechRecognizer.createRecognizer(IatDemo.this, mInitListener); // 初始化聽寫Dialog,如果只使用有UI聽寫功能,無需建立SpeechRecognizer // 使用UI聽寫功能,請根據sdk檔案目錄下的notice.txt,放置布局檔案和圖片資源 mIatDialog = new RecognizerDialog(IatDemo.this, mInitListener); mSharedPreferences = getSharedPreferences("com.jredu.setting", Activity.MODE_PRIVATE); mToast = Toast.makeText(this, "", Toast.LENGTH_SHORT); mResultText = ((EditText) findViewById(R.id.iat_text)); mInstaller = new ApkInstaller(IatDemo.this); mTts = SpeechSynthesizer.createSynthesizer(IatDemo.this, mTtsInitListener); mSharedPreferences = getSharedPreferences("com.jredu.setting", MODE_PRIVATE); mToast = Toast.makeText(this,"",Toast.LENGTH_SHORT); } /** * 初始化Layout。 */ private void initLayout() { findViewById(R.id.iat_recognize).setOnClickListener(IatDemo.this); findViewById(R.id.read).setOnClickListener(IatDemo.this); // 選擇雲端or本地 mEngineType = SpeechConstant.TYPE_CLOUD; } int ret = 0; // 函數調用傳回值 @Override public void onClick(View view) { switch (view.getId()) { // 開始聽寫 // 如何判斷一次聽寫結束:OnResult isLast=true 或者 onError case R.id.iat_recognize: mResultText.setText(null);// 清空顯示內容 mIatResults.clear(); // 設定參數 setParam(); boolean isShowDialog = mSharedPreferences.getBoolean( getString(R.string.pref_key_iat_show), true); if (isShowDialog) { // 顯示聽寫對話方塊 mIatDialog.setListener(mRecognizerDialogListener); mIatDialog.show(); showTip(getString(R.string.text_begin)); } else { // 不顯示聽寫對話方塊 ret = mIat.startListening(mRecognizerListener); if (ret != ErrorCode.SUCCESS) { showTip("聽寫失敗,錯誤碼:" + ret); } else { showTip(getString(R.string.text_begin)); } } break; // 開始合成 // 收到onCompleted 回調時,合成結束、產生合成音頻 // 合成的音頻格式:只支援pcm格式 case R.id.read: String text = ((EditText) findViewById(R.id.tts_text)).getText().toString(); Log.d("==",text); // 設定參數 setParam(); int code = mTts.startSpeaking(text, mTtsListener); // Log.d("======",""+code);// /**// * 只儲存音頻不進行播放介面,調用此介面請注釋startSpeaking介面// * text:要合成的文本,uri:需要儲存的音頻全路徑,listener:回調介面// */// String path = Environment.getExternalStorageDirectory()+"/tts.pcm";// int code = mTts.synthesizeToUri(text, path, mTtsListener); if (code != ErrorCode.SUCCESS) { if(code == ErrorCode.ERROR_COMPONENT_NOT_INSTALLED){ //未安裝則跳轉到提示安裝頁面 mInstaller.install(); }else { showTip("語音合成失敗,錯誤碼: " + code); } } break; // 音頻流識別 default: break; } } /** * 初始化監聽。 */ private InitListener mTtsInitListener = new InitListener() { @Override public void onInit(int code) { Log.d(TAG, "InitListener init() code = " + code); if (code != ErrorCode.SUCCESS) { showTip("初始化失敗,錯誤碼:"+code); } else { // 初始化成功,之後可以調用startSpeaking方法 // 註:有的開發人員在onCreate方法中建立完合成對象之後馬上就調用startSpeaking進行合成, // 正確的做法是將onCreate中的startSpeaking調用移至這裡 } } }; /** * 初始化監聽器。 */ private InitListener mInitListener = new InitListener() { @Override public void onInit(int code) { Log.d(TAG, "SpeechRecognizer init() code = " + code); if (code != ErrorCode.SUCCESS) { showTip("初始化失敗,錯誤碼:" + code); } } }; /** * 合成回調監聽。 */ private SynthesizerListener mTtsListener = new SynthesizerListener() { @Override public void onSpeakBegin() { showTip("開始播放"); } @Override public void onSpeakPaused() { showTip("暫停播放"); } @Override public void onSpeakResumed() { showTip("繼續播放"); } @Override public void onBufferProgress(int percent, int beginPos, int endPos, String info) { // 合成進度 mPercentForBuffering = percent; showTip(String.format(getString(R.string.tts_toast_format), mPercentForBuffering, mPercentForPlaying)); } @Override public void onSpeakProgress(int percent, int beginPos, int endPos) { // 播放進度 mPercentForPlaying = percent; showTip(String.format(getString(R.string.tts_toast_format), mPercentForBuffering, mPercentForPlaying)); } @Override public void onCompleted(SpeechError error) { if (error == null) { showTip("播放完成"); } else if (error != null) { showTip(error.getPlainDescription(true)); } } @Override public void onEvent(int eventType, int arg1, int arg2, Bundle obj) { // 以下代碼用於擷取與雲端的會話id,當業務出錯時將會話id提供給技術支援人員,可用於查詢會話日誌,定位出錯原因 // 若使用本地能力,會話id為null // if (SpeechEvent.EVENT_SESSION_ID == eventType) { // String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID); // Log.d(TAG, "session id =" + sid); // } } }; /** * 聽寫監聽器。 */ private RecognizerListener mRecognizerListener = new RecognizerListener() { @Override public void onBeginOfSpeech() { // 此回調錶示:sdk內部錄音機已經準備好了,使用者可以開始語音輸入 showTip("開始說話"); } @Override public void onError(SpeechError error) { // Tips: // 錯誤碼:10118(您沒有說話),可能是錄音機許可權被禁,需要提示使用者開啟應用的錄音許可權。 // 如果使用本地功能(語記)需要提示使用者開啟語記的錄音許可權。 showTip(error.getPlainDescription(true)); } @Override public void onEndOfSpeech() { // 此回調錶示:檢測到了語音的尾端點,已經進入識別過程,不再接受語音輸入 showTip("結束說話"); } @Override public void onResult(RecognizerResult results, boolean isLast) { Log.d(TAG, results.getResultString()); printResult(results); if (isLast) { // TODO 最後的結果 } } @Override public void onVolumeChanged(int volume, byte[] data) { showTip("當前正在說話,音量大小:" + volume); Log.d(TAG, "返迴音頻資料:"+data.length); } @Override public void onEvent(int eventType, int arg1, int arg2, Bundle obj) { // 以下代碼用於擷取與雲端的會話id,當業務出錯時將會話id提供給技術支援人員,可用於查詢會話日誌,定位出錯原因 // 若使用本地能力,會話id為null // if (SpeechEvent.EVENT_SESSION_ID == eventType) { // String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID); // Log.d(TAG, "session id =" + sid); // } } }; private void printResult(RecognizerResult results) { String text = JsonParser.parseIatResult(results.getResultString()); String sn = null; // 讀取json結果中的sn欄位 try { JSONObject resultJson = new JSONObject(results.getResultString()); sn = resultJson.optString("sn"); } catch (JSONException e) { e.printStackTrace(); } mIatResults.put(sn, text); StringBuffer resultBuffer = new StringBuffer(); for (String key : mIatResults.keySet()) { resultBuffer.append(mIatResults.get(key)); } mResultText.setText(resultBuffer.toString()); mResultText.setSelection(mResultText.length()); } /** * 聽寫UI監聽器 */ private RecognizerDialogListener mRecognizerDialogListener = new RecognizerDialogListener() { public void onResult(RecognizerResult results, boolean isLast) { printResult(results); } /** * 識別回調錯誤. */ public void onError(SpeechError error) { showTip(error.getPlainDescription(true)); } }; private void showTip(final String str) { mToast.setText(str); mToast.show(); } /** * 參數設定 * * @param * @return */ public void setParam() { // 清空參數 mIat.setParameter(SpeechConstant.PARAMS, null); // 設定聽寫引擎 mIat.setParameter(SpeechConstant.ENGINE_TYPE, mEngineType); // 設定返回結果格式 mIat.setParameter(SpeechConstant.RESULT_TYPE, "json"); String lag = mSharedPreferences.getString("iat_language_preference", "mandarin"); if (lag.equals("en_us")) { // 設定語言 mIat.setParameter(SpeechConstant.LANGUAGE, "en_us"); } else { // 設定語言 mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn"); // 設定語言地區 mIat.setParameter(SpeechConstant.ACCENT, lag); } // 設定語音前端點:靜音逾時時間,即使用者多長時間不說話則當做逾時處理 mIat.setParameter(SpeechConstant.VAD_BOS, mSharedPreferences.getString("iat_vadbos_preference", "4000")); // 設定語音後端點:後端點靜音檢測時間,即使用者停止說話多長時間內即認為不再輸入, 自動停止錄音 mIat.setParameter(SpeechConstant.VAD_EOS, mSharedPreferences.getString("iat_vadeos_preference", "1000")); // 設定標點符號,設定為"0"返回結果無標點,設定為"1"返回結果有標點 mIat.setParameter(SpeechConstant.ASR_PTT, mSharedPreferences.getString("iat_punc_preference", "1")); // 設定音頻儲存路徑,儲存音頻格式支援pcm、wav,設定路徑為sd卡請注意WRITE_EXTERNAL_STORAGE許可權 // 註:AUDIO_FORMAT參數語記需要更新版本才會生效 mIat.setParameter(SpeechConstant.AUDIO_FORMAT,"wav"); mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, Environment.getExternalStorageDirectory()+"/msc/iat.wav"); // 設定聽寫結果是否結果動態修正,為“1”則在聽寫過程中動態遞增地返回結果,否則只在聽寫結束之後返回最終結果 // 註:該參數暫時只對線上聽寫有效 mIat.setParameter(SpeechConstant.ASR_DWA, mSharedPreferences.getString("iat_dwa_preference", "0")); } @Override protected void onDestroy() { super.onDestroy(); // 退出時釋放串連 mIat.cancel(); mIat.destroy(); } @Override protected void onResume() { // 開放統計 移動資料統計分析 FlowerCollector.onResume(IatDemo.this); FlowerCollector.onPageStart(TAG); super.onResume(); } @Override protected void onPause() { // 開放統計 移動資料統計分析 FlowerCollector.onPageEnd(TAG); FlowerCollector.onPause(IatDemo.this); super.onPause(); } }
Android Studio快速整合訊飛SDK實現文字朗讀功能