远程运行Kaldi-Gstreamer-Server

前言

要想要语音识别,我们需要成功运行server, worker, 以及client三个方面。Server负责接受client发过来的音频,并且将音频转给worker来进行语音识别,结果再返回给client。有时候我们没有办法配置出server和client,那么可以使用官方项目中提供的远程server和worker来使用。官方代码中给的 ws://bark.phon.ioc.ee:82/dev/duplex-speech-api/ws/speech是无效的,而真正的则是wss://bark.phon.ioc.ee:8443/english/duplex-speech-api/ws/speech

准备好Client代码

  1. https://github.com/alumae/kaldi-gstreamer-server/blob/master/kaldigstserver/client.py 中复制全部代码到本地。
  2. 打开client.py
  3. 找到
parser.add_argument('-u', '--uri', default="ws://bark.phon.ioc.ee:82/dev/duplex-speech-api/ws/speech", dest="uri", help="Server websocket URI")

改成

parser.add_argument('-u', '--uri', default="wss://bark.phon.ioc.ee:8443/english/duplex-speech-api/ws/speech", dest="uri", help="Server websocket URI")

准备好测试用的音频.wav文件

  1. https://github.com/alumae/kaldi-gstreamer-server/tree/master/test/data 下载几个wav文件到client.py的文件夹里。
  2. 在终端输入
python2 client.py -r 32000 --save-adaptation-state adaptation-state.json english_test.wav
  1. 等待返回结果出现在终端里。
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容