ROS下使用科大訊飛SDK進行線上語音識別
以線上命令詞識別為例:
主要步驟、易產生的錯誤其解決辦法如下:
1、下載SDK,解壓;
2、在ROS工作空間下建立一個Package;
catkin_create_pkg xfei_asr roscpp rospy std_msgs3、將SDK資料夾中的標頭檔案,即下載的SDK資料夾中include資料夾下的 .h檔案拷貝至xfei_asr/include/下;
4、將SDK資料夾中sample/asr_sample中的asr_sample.c檔案拷貝至xfei_asr/src/下;
5、將SDK資料夾中libs/x64/libmsc.so檔案拷貝至xfei_asr/lib/下;
6、開啟asr_sample.c檔案,將#include "qish.h"等修改為:
#include "xfei_asr/qisr.h"
#include "xfei_asr/msp_cmn.h"
#include "xfei_asr/msp_errors.h"
7、開啟CMakelist,
1)修改include_directories為:即包括拷貝的標頭檔案所在的include目錄
include_directories(
${catkin_INCLUDE_DIRS}
include
)
2)新增:
add_executable(asr_sample src/asr_sample.c) # 生成可執行檔案
target_link_libraries(asr_sample ${catkin_LIBRARIES} /home/luyh/catkin_ws02/src/xfei_asr/lib/libmsc.so -ldl -pthread) # 新增連結庫,其中動態連結庫路徑按實際修改
相關推薦
ROS下使用科大訊飛SDK進行線上語音識別
以線上命令詞識別為例: 主要步驟、易產生的錯誤其解決辦法如下: 1、下載SDK,解壓; 2、在ROS工作空間下建立一個Package; catkin_create_pkg xfei_asr roscpp rospy std_msgs 3、將SDK資料夾中的標頭檔案,即
有關整合科大訊飛sdk的語音(三)語音合成
有關語音合成的,廢話不說,直接程式碼 @property (nonatomic, strong) IFlySpeechSynthesizer *iFlySpeechSynthesizer;//語音合成 - (void)viewWillAppear:(BOOL)animated
有關整合科大訊飛sdk的語音(二)不帶語音的介面
不帶語音的就需要自定義語音識別時播放的動畫.在呼叫的時候我們需要先判斷麥克風的許可權. - (void)getUserMicrophonePermissions{ int flag; AVAuthorization
有關整合科大訊飛sdk的語音(一)帶語音的介面
最近專案需要整合語音這塊,我選擇了科大訊飛的sdk,IFlySpeechRecognizer是不帶介面的語音聽寫控制元件,顯示介面的時候需要使用者進行自定義語音動畫介面,IFlyRecognizerView是帶介面的控制元件.我會分別介紹這兩種顯示. 帶語音的介面: #impor
android 語音轉換文字(科大訊飛SDK簡易封裝)
簡介:本地講解的是 科大訊飛開發平臺的語音轉換功能的整合方法和封裝 準備工作: 1、首先申請平臺賬號,建立我的應用,新增語音服務,獲取Appid 2、下載建立的應用的對應SDK,這條很重要,每一個應用會對應一個SDK,用於做區分。 構建專案: 1、首先將需要的元件.
科大訊飛超強的合成語音軟體InterPhonic下載
1、理論上來說是版本越高越好,比如現在科大訊飛網站上的InterPhonic 6.0線上演示、ViViVoice2.0 線上演示 語氣就更自然更流暢。 2、文語通2.0是科大訊飛的早期版本,所以讀的聲音肯定是不如InterPhonic 4.0、5.0的。 [中科大訊飛
科大訊飛實現“文字轉語音”和“語音轉文字”
請在這裡檢視示例 ☞ iat示例 詳細介紹 這裡整合了科大訊飛官方示例,去除一些不必要的元素,便於開發者理解和應用相關功能 經測試,在chrome瀏覽器下不允許在http協議下使用html5的ap
科大訊飛和百度語音平臺語音識別Java呼叫記錄
1、科大訊飛平臺:http://www.xfyun.cn/doccenter/java 註冊並建立應用,下載SDK,選擇語音聽寫+Java+建立的應用(APPID); 未提交稽核的應用,服務量會有500次/日的限制,開發完成後提交稽核解除限制;
接入高德 SDK 遇到的問題 01:語音導航中科大訊飛線上語音合成次數限制
需求:採用高德導航SDK實現路線導航,並且實現語音播報導航 問題:高德導航語音合成開發指南中,建議採用的科大訊飛線上語音合成存在次數限制,遠遠達不到生產環境的需求量 解決:採用百度離線上語音識別 Android SDK 一、科大訊飛語音合成使用次數有限
C#調用科大訊飛離線語音SDK合成TTS
zha http post ref top 代碼 來源 內容 lib bin目錄下有msc.dll動態庫。c#調用科大訊飛的語音合成,需要引用該文件。 該文件是C語言生成的dll,C#沒辦法直接引用。所有需要用C#重新封裝一個TTS.dll,然後再在C#項目中引用封裝的TT
在C#中使用科大訊飛Web API進行語音合成
.get 接口 style serialize pan python版本 compute serial try 最近工作中需要用到訊飛語音合成接口,網上看了下基本都是Java,PHP,Python版本的,正好補上C# 版本,代碼比較簡單。 首先在訊飛開放平臺上創
科大訊飛 線上語音識別 音訊來源為【檔案】的java接入實現, 適用於初學者
****科大訊飛的語音識別提供了兩種音訊來源方式,一個是通過麥克風,一個是來自音訊檔案。這裡介紹本人自己寫的通過音訊 檔案識別的java程式碼。**** 【離線識別參考我的另一篇】用java呼叫科大訊飛的離線語音識別dll實現離線識別(JNA實現) 之前的註冊、獲得註冊碼、
總結一篇熱乎的【科大訊飛】SDK整合 常見問題!
總結一篇熱乎的【科大訊飛】SDK整合 常見問題! 【離線喚醒】+【離線命令詞】 近日,業務需要增加語音輔助功能到APP 上,於是就找到了2家比較好一點的SDK 【科大訊飛】和【百度語音】! 先說說各自的優缺點吧!各位新入手的小白能稍微從我這裡得到一點資
ubuntu下,在QT中利用科大訊飛語音庫實現語音合成TTS
首先要去科大訊飛語音庫註冊,下載linux下的線上合成TTS的SDK,然後在QT下建立一個基於控制檯的工程,其實建立關於UI的也可以,問題不大,這裡以控制檯工程進行說明。將sample中TTS部分的t
嵌入式Qt下使用科大訊飛的TTS語音模組
使用寫檔案方法傳送(str直接填中文即可) int KeyboardSerialTalk::ttsSend(QString str) { QTextCodec *utf8 = QTextCodec::codecForName("UTF-8"); QTextC
使用科大訊飛最新版SDK在樹莓派上搭建語音識別服務
本人的SDK是2017年1月30號左右下載的,可以在http://www.xfyun.cn/科大訊飛官網註冊,選擇相應的Linux SDK下載。 1、因為最新版SDK不支援樹莓派了,所以要下載個RaspberryPi檔案來支援在樹莓派上使用: 2、解壓好SDK後,如圖。
科大訊飛2018暑期實習招聘線上程式設計題:如何分糖果?
題目描述:小明和小紅是好朋友,但最近遇到一個棘手的問題,有一盒糖果要分成兩份但是每顆糖果質量都不盡相同,但為了分配的公平每份糖的糖果數量相差不得超過1,在此條件下兩份糖果的質量差距儘可能小。輸入:一行數,包含一個數n,代表糖果數量,後面一次是n個整數一次表示每個糖果的質量,每
Android 科大訊飛 線上和離線語音聽寫
效果圖: 參考資料 專案裡要用語音聽寫,想到了科大訊飛,參考上面的資料完成了最簡單的線上有UI的語音識別,後面想要改成離線也可以使用。參考下面的文章 下載好語記和離線資源之後,想要改成有UI的RecognizerDialog離線語音聽寫,但是沒
科大訊飛 語音sdk 在linux 部署報20021的問題
最近有個專案,使用了科大訊飛 的 文字轉語音sdk, 在linux上部署的時候出現了些問題,主要原因就是找不到 一個叫libmsc64.so的檔案,其實,對於這個問題,網上有很多資料,無非就是設定環境變數,告訴系統去哪裡查詢這個共享庫資源。這裡是官方資料地址:http://b
ROS百度語音、科大訊飛參考
百度語音介面:https://blog.csdn.net/u011118482/article/details/55001444科大訊飛:https://www.ncnynl.com/archives/201702/1287.htmlhttps://blog.csdn.net