Linux中的语音识别跟踪Windows和Mac平台,因为Microsoft和Apple都将广泛的时间和费用投入到其核心操作系统中添加语音命令或语音辅助软件。
虽然Linux的情况并不黯淡,因为它与许多尖端技术,自由和开源宇宙仍然是一步之后,特别是用语音指挥工具。
Linux语音识别
不Linux.分布侧重于语音识别。但是,支持语音识别能力的应用程序依赖于少数开源库,包括Sphinx,Kaldi,Julius和Mozilla DeepSpeech。
这些库依赖语音语料库来提供培训AI的声音的变体,因此正确地将语音转化为文本。但是,开源项目不太复杂(因为它们享有培训AI的较小贡献),这意味着Linux的大多数文本到语音应用程序频繁地转换。通常,他们如此彻底地僵住,这不清楚原始讲话可能已经是什么。
Linux语音的选项
使用五种解决方案途径中的一个。
- 依靠您的分发的存储库中提供的Linux应用程序 - 如果出现任何出现。
- 亚马逊制作Alexa可用于Linux,包括覆盆子pi。您需要执行大量的自定义调整以使这种安排工作,但它将起作用。
- 通过浏览器访问Google语音API奇异。此服务仅适用于听写;您不能将其用于语音命令。它由Google的AI提供动力,因此质量很好。
- 使用像Alexa或Google Assistant这样的服务作为通过TriggerCMD服务作为Linux的语音命令实用程序。triggercmd在您的计算机上运行;用它来调用ALEXA或Google助手,并根据您的命令执行这些工具执行特定的BASH脚本。说出来,“好的谷歌,询问触发命令打开计算器。”Google Assistant用作带有TriggerCMD的中介,以运行短语“打开计算器”短语指定的Bash脚本。
- 使用葡萄酒或虚拟机,为Windows软件,如Dragon NaturallySpeaking。凭借正确的调整,您可以使用龙引擎进行转录,尽管此解决方案不适用于语音命令应用程序。
感谢您让我们知道!
告诉我们为什么!