首页 > TAG信息列表 > speech-recognition

我如何通过websocket将音频发送到Nexmo语音

我正在尝试在.Net Core 2 Web API中使用websockets实现Nexmo的Voice API. 此api需要: >通过Nexmo接收来自电话的音频 >使用Microsoft Cognitive Speech to text API>将文字发送给机器人>在漫游器回复上使用Microsoft Cognitive text to speech>通过语音API网络套接字将语音发回nexmo

如何在Android设备中运行语音识别(语音到文本)?

请任何人了解android中的语音识别, 请帮我.解决方法:您能否包括Android SDK和OS版本-因为语音识别支持取决于版本? 从这个问题尚不清楚,您是否要开发一种调用语音识别的解决方案,还是要以最终用户身份调用语音识别. 如果您是开发人员,并且想在Android中调用语音识别工具,则可以在此

C#不识别语音就返回语音语音

我试图制作类似于波斯语的人的词典(db),所以我尝试说并让c#以语音方式产生它,但是问题是我找不到任何事件可以找到我所说的话.例如,我们有SpeechRecognized事件,但在识别语音后触发了该事件.这是我的代码示例: <pre> <code> SpeechRecognizer rec = new SpeechRecognizer(); publi

C#-语音评分(语音正确性)

是否有C#的算法或库可用于对用户发音进行评分? 例如,诸如Levenshtein距离之类的用于文本但用于语音的类. 任何有关算法的相关链接或信息将很有用.我正在编写一个需要诸如语音识别之类的应用程序,因此,如果有相关的C#库,那就太好了. 当然,如果图书馆能够以文本(最好是多种语言)对文本

c#-没有弹出窗口的语音识别初始化

当我尝试使用以下代码初始化“语音识别器”时: SpeechRecognizer rec = new SpeechRecognizer(); 有一个“设置语音识别”弹出窗口,阻止我进行初始化. 有谁知道如何解决这一问题? 请帮忙.解决方法:试图告诉您的是您的计算机上尚未设置语音识别.您需要先运行设置向导,然后才能使用Sp

语音识别-支持所有语言-Android

我很难让它开始工作.我只是想找出语音识别支持的所有可用语言,以及使用它的代码. 有 RecognizerIntent.EXTRA_SUPPORTED_LANGUAGES 哪个应以阵列形式报告G的语音记录服务器上的所有可用语言.不幸的是,我什至无法吐出一个.我主要是在遇到我认为的BroadcastReceiver问题. package

Python-OSX的语音识别库?

因此,我一直在网上寻找Python语音识别功能,然后发现pyspeech.但这仅适用于Windows.我想要一个与Mac aswel一起使用的语音识别库.谢谢!解决方法:http://andrewbrobinson.com/2012/02/29/speech-recognition-using-sphinx-dont-try-this-at-home/建议Pocket Sphinx包含Python绑定并且

android-SpeechRecognizer在第一个结果后没有听到

我正在Android中使用SpeechRecognizer和RecognizerIntent来实现语音识别.我的目的是在语音识别器在屏幕上显示结果后重新开始收听语音.为此,我使用以下代码. 问题是,第一次运行正常并显示结果,但是在第二次开始监听之后(从onResults方法调用),由于某种原因,它听不到声音.然后,它给

Android应用程序中具有RecognizerIntent的数据安全

我正在使用RecognizerIntent开发一个Android语音识别应用程序.客户端担心设备与Google的语音识别服务器之间传输的数据以及该数据是否可以被截获. 我发现关于什么格式以及如何来回发送数据的文档很少. 有人知道我在哪里可以找到此信息吗?设备和Google语音识别之间的通信是否以任何方

Google语音识别器无法在Android 4.x上启动

我偶然发现了这个随机问题… 这是我的代码 mSpeechRecognizer = SpeechRecognizer.createSpeechRecognizer(mContext); initializeRecognitionListener(); mSpeechRecognizer.setRecognitionListener(mRecognitionListener); Intent intent = new Intent(Rec

Android-在卸载之前,系统卷不会取消静音

我正在使用Google语音识别进行连续识别,这意味着要避免每隔几秒钟发出蜂鸣声(果冻豆中的虫子),我必须使系统音量静音或取消静音. 为此,我使用: mAudioManager.setStreamMute(AudioManager.STREAM_SYSTEM, true); 和同样的错误. 我遇到的问题是,在许多设备上偶尔会出现可复制的问题

android-SpeechRecognizer权限不足错误与玻璃

我正在使用GDK速览来构建应用程序,并且无法在沉浸式应用程序中使语音识别正常工作.这是我的第一个android项目. 我试图遵循此:How can I use speech recognition without the annoying dialog in android phones 在取得初步进展之后,我遇到了一个问题,其中RecognitionListener类抛出

如何将语音识别与其他语言一起使用android

我有一个曾经工作过的代码,但由于某种原因它突然停止工作,我试图在希伯来语中使用语音识别,但似乎几天前它才开始以英语进行语音识别. 这是我的代码 sr = SpeechRecognizer.createSpeechRecognizer(getApplicationContext()); test_voice_recognitiona listener = ne

android-即使传递了哈希映射参数,Utterance进度侦听器也不会被调用

这是我的代码,我有一系列的问题会被TTS询问,并且在每个问题之后都会调用语音识别器.我的话语监听器永远不会被调用. @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.

java-CMUSphinx实时语音识别太慢了吗?

CMU Sphinix识别实时语音的速度太慢.我不知道您是否有任何增强语音的想法? 这是我的配置: configuration.setAcousticModelPath("WSJ_8gau_13dCep_16k_40mel_130Hz_6800Hz"); configuration.setDictionaryPath("cmudict.0.6d"); configuration.setLanguageModelPath("en-us.lm.dmp&quo

如何使用Pocketsphinx将.wav文件转换为文本?

我在Linux机器上正确安装了Pocketsphinx,现在我想使用Pocketsphinx将音频文件(.wave)转换为文本,我该怎么做?有没有明确的命令和简短的命令可以做到这一点?像这样的命令: ./src/programs/pocketsphinx_continuous -samprate 8000 -nfft 2048 -adcdev hw:1,0 -lm 2530.lm -dict 2530

c#-使用语音命令启用和禁用语音识别

我的问题分为两部分. >有没有一种方法可以使用语音命令启用语音识别. >是否可以禁用语音识别,但同时也可以使其处于侦听状态或启用该命令,以告知何时重新启用语音识别. 这就是我的想法: case "Stop Listening": synthesizer.speakasync("Ok"); recEngine.RecognizeAsyncSto

C#-SpeechRecognitionEngine识别器

我刚刚下载了fr-FR运行时语言包,以便可以通过程序识别法语. 但是,我的程序抛出错误 Additional information: No recognizer of the required ID found. 在 SpeechRecognitionEngine recognizer = new SpeechRecognitionEngine(new System.Globalization.CultureInfo("fr-

javascript-离子应用无法识别android mobile中的语音

我想通过遵循教程here设计一个可监听语音命令的离子应用程序 但是,如果在我的计算机上使用var Identification = new webkitSpeechRecognition();进行了测试,则该应用似乎可以识别麦克风上的语音命令. //到计算机命令.但是看到此post,我将命令替换为 var识别=新的SpeechRecognition

Android语音转文本::实时更新文本

我想在我的应用程序中将语音转换为文本. 为此,我正在使用RecognitionListener接口一切正常,但是即使在说话时也如何更新和显示文本(例如在Google Now中进行语音搜索) 我已经将RecognizerIntent.EXTRA_PARTIAL_RESULTS设置为true并且还使用了RecognitionListener接口的onPartialResu

c#-在Windows隐私设置中找不到UWP应用

我已使用Visual Studio 2017社区(版本15.4.2)在C#中构建了通用Windows平台(UWP)应用程序.我的操作系统是Windows 10. 该应用程序应该使用本地计算机的麦克风(在本例中为笔记本电脑的内置麦克风)执行语音识别. 我需要做的第一件事是允许我的应用使用麦克风.但是,我在“隐私设置”页

语音识别程序随机显示预定义的单词(在“ GramarBuilder()”中定义)以显示语法中不存在的那些已说出的单词

我是C#的新手,我不确定是否在正确的论坛上写作.我正在构建简单的语音识别程序,该程序将语音命令作为输入,执行语音到文本的翻译,然后搜索与该文本匹配的视频. I am using grammarBuider() and define my own grammar for more accurate speech recognition. But the problem i

我如何“终止”无效方法?

我有一个void方法(希望我说的没错),它初始化语音识别引擎,语法和文本文件的一些路径以从中获取命令.现在,我将代码放入了void方法中,以便可以在From_Load事件中调用它,但是由于某些原因,如果PC进入睡眠状态然后备份,语音识别将无法正常工作,因此我设置了一个计时器来调用每十分钟一

C#UWP SpeechRecognizer问题

我正在开发UWP,并想使用SpeechRecognizer.它应该仅对单词“ Next”和“ Back”作出反应.但通常,它会将“ NExt”识别为“后退”.我的代码如下.如何解决呢? var defaultLanguage = SpeechRecognizer.SystemSpeechLanguage; _speechRecognizer = new SpeechRecognizer(defaul

python-通过websockets流音频IBM无法正常工作

我正在尝试使用IBM Watson通过websockets通过麦克风流式传输音频.我收到以下错误: TypeError: The system cannot find the file specified 我认为子流程有问题,请帮助我纠正此问题/使其正常工作. from ws4py.client.threadedclient import WebSocketClient import base64, json