前言
要想要语音识别,我们需要成功运行server, worker, 以及client三个方面。Server负责接受client发过来的音频,并且将音频转给worker来进行语音识别,结果再返回给client。有时候我们没有办法配置出server和client,那么可以使用官方项目中提供的远程server和worker来使用。官方代码中给的 ws://bark.phon.ioc.ee:82/dev/duplex-speech-api/ws/speech是无效的,而真正的则是wss://bark.phon.ioc.ee:8443/english/duplex-speech-api/ws/speech
准备好Client代码
- 在 https://github.com/alumae/kaldi-gstreamer-server/blob/master/kaldigstserver/client.py 中复制全部代码到本地。
- 打开
client.py - 找到
parser.add_argument('-u', '--uri', default="ws://bark.phon.ioc.ee:82/dev/duplex-speech-api/ws/speech", dest="uri", help="Server websocket URI")
改成
parser.add_argument('-u', '--uri', default="wss://bark.phon.ioc.ee:8443/english/duplex-speech-api/ws/speech", dest="uri", help="Server websocket URI")
准备好测试用的音频.wav文件
- 从 https://github.com/alumae/kaldi-gstreamer-server/tree/master/test/data 下载几个wav文件到
client.py的文件夹里。 - 在终端输入
python2 client.py -r 32000 --save-adaptation-state adaptation-state.json english_test.wav
- 等待返回结果出现在终端里。