首页 > TAG信息列表 > web-audio

javascript-网络音频-检查支持的格式

在HTML5音频中,我可以执行this to find out if MP3 is supported: var a = document.createElement('audio'); return !!(a.canPlayType && a.canPlayType('audio/mpeg;').replace(/no/, '')); Web Audio API是否有类似的功能?还是应该使用相同的功能?解决方法:您可以使用相

android-HTML5录音在Google Nexus中不响

我想使用HTML5 getusermedia录制音频,播放并保存到服务器.我正在尝试使用Google Nexus(Android 4)和Google Chrome29.可以吗?当我尝试从网上获取的代码时,它会请求使用麦克风和电话录音的权限,我保存了一个wav文件.但是没有声音播放.同一站点可从我的PC中的铬浏览器上运行.我做错什

javascript-预计算的Web音频API时域和频谱图可视化

我正在使用各种振荡器/滤波器通过Web音频api合成声音,并且具有时域和频谱图可视化效果,这些可视化效果在振荡器播放时实时运行(类似于here和here). 但是,我希望能够在音频网络运行一定时间之前,基于音频网络创建一个初始的预先计算的可视化效果,以便用户可以在播放之前查看网络的声

javascript-为网络音频创建音量控制

因此,我正在通过网络音频制作钢琴,但无法实现音量控制.每当单击一个键时,音量控件都应指示以什么音量播放.我使用了html5rocks的代码,并将其修改为自己的用途.基本上,不是将VolumeSample数组,而是将我的所有声音片段加载到BUFFERS数组中.每当我尝试操纵滑块并更改剪辑的增益时,都会

javascript-窗口最小化时的AudioContext计时问题

我按照this article中的说明进行操作,并创建了Javascript节拍器.它利用Web Audio API并以audioContext.currentTime为核心,以实现精确的计时. 我的版本是this plunker,它是克里斯·威尔逊(Chris Wilson)制造的版本的非常简化版本,版本是here.为了使我的版本正常工作,因为它使用的是

JavaScript-实时处理Web音频api

我正在使用Web音频api和requestAnimationFrame来可视化来自麦克风的音频输入.我可以成功地可视化时域频率数据,但是问题在于,由于Web音频api以秒为单位计算时间,因此我的界面每秒钟都会根据输入内容而变化. 所以我的问题是,我该如何可视化声音并使图表停留在屏幕上,从而可以在一定

html5 / javascript音频可同时播放多个曲目

是否可以同时播放整个音频实例? 我知道,我可以每次创建一个新实例并在每个实例上调用.play(),但是我认为它很脏.喜欢sound1 =新的Audio(‘sound1.mp3’);sound2 =新的Audio(‘sound2.mp3);sound1.play();sound2.play; 其与该线程大致相同:Play multiple sound at the same time但是必

javascript-标记到audioBuffer-有可能吗?

我的javascript-webApp首先读取一个简短的mp3文件,并在其中找到静默间隙(出于导航目的),然后播放相同的mp3文件,提示它从一个静默或另一个静默结束的地方开始.这不同于通常的webAudio方案,该方案旨在授予对流中当前正在播放的音频数据(而不是整个轨道)的访问权限. 为了使我的webApp

通过JavaScript中的Web Audio API进行静音/取消静音和更改音量

关于Web Audio API,我有几个快速问题.我正在使用JavaScript(AngularJS)开发. 我正在使用的一款出色的演示应用程序位于: https://webaudiodemos.appspot.com/AudioRecorder/index.html 使用音频API在Chrome浏览器中授予对音频麦克风的访问权限后,可以使用以下方法: >使麦克风静音和取

javascript-MediaRecorder.stop()不会清除选项卡中的录制图标

我启动和停止MediaRecorder流.红色的“正在录制”图标在启动时显示在Chrome标签中,但在停止时不会消失. 图标如下所示: 我的代码如下所示: const mediaRecorder = new MediaRecorder(stream); ... // Recording icon in the tab becomes visible. mediaRecorder.start(); ... // Re

javascript – 如何避免网络音频API的CORS限制?

我试图为音频流创建一些可视化.但是当我尝试使用createMediaElementSource()函数访问原始音频数据时,我遇到了CORS问题. 有没有办法避免这种限制,并从其他来源的流中获取原始音频数据?也许使用WebSockets?解决方法:有五种方法可以处理针对跨域检索的保护: > CORS标头 – 这是理想的,但

javascript – 为什么nodejs不支持Web Audio API?

我理解Web Audio API是客户端功能,但nodejs基于ECMAScript的V8 Chrome客户端实现,其中包括Web Audio API. 为什么nodejs中没有完全支持Web Audio API?是因为AudioContext基于全局窗口对象吗?我在这里错过了一点吗?是否有计划在将来提供它?解决方法:Node.js不支持Web Audio,因为它不是Ja

javascript – 在不改变音高的情况下使用Web Audio API改变音频速度

是否可以使用Web Audio API更改音频的速度(以加载的MP3文件的形式)而不改变音高? 我知道AudioBufferSourceNode上的playbackRate属性,但这也改变了音高.我也知道< audio>的playbackRate属性和<视频>元素,但我需要使用Web Audio API. 我是Web Audio API的新手.有什么我能做的吗?解决方

javascript – 为decodeAudioData定义’有效的mp3块'(WebAudio API)

我正在尝试使用decodeAudioData来解码并在javascript中播放更大的mp3文件的初始部分.我的第一个原始方法是从mp3的开头切掉一些字节并将它们提供给decodeAudioData.毫不奇怪,这失败了. 经过一番挖掘后,似乎decodeAudioData只能使用Fair Dinkum Thinkum,here所记载的“有效mp3块”.

javascript – 如何使用Web Audio API访问输出缓冲区?

我想访问output / destination缓冲区中的音频数据.具体来说,我想将数据保存到文件中.我还想添加自定义效果作为AudioNode. 如何使用Web Audio API实现此目的?我没有看到AudioDestinationBuffer接口或在specs中添加自定义AudioNode的方法.解决方法:您必须在连接到目的地之前添加其中

javascript – 如何在Web音频API中反向播放,同时保留正向版本?

据我所知,Google Chrome(v21)中的Web Audio API不支持以下内容: source.playbackRate.value = -1; 我非常希望!我会耐心等待,但与此同时,this post有一个不错的替代解决方案.我已经采用它试图反转我自己从loaded bufferlist加载的音频样本,希望我可以同时拥有每个加载缓冲区的

javascript – Web Audio onaudioprocess在Firefox中运行,JSFiddle在Chrome中运行,但不适用于Chrome本身

我在WebAudio / WebMIDI应用上使用Chrome 39.0.2171.71(64位).我安装了jazz-soft webmidi插件. 我无法让onaudioprocess开火.我已经删除了最基本的代码: <!DOCTYPE html> <html lang="en"> <head></head> <body> Page Loaded. <script>

javascript – 如何告诉AudioBufferSourceNode在缓冲区中间开始和结束?

我正在使用HTML5音频应用程序将声音合并到我的游戏中.如何在AudioBuffer中创建一个启动和停止播放的AudioBufferSourceNode? 我在AudioBufferSourceNode接口中找不到用于创建从缓冲区中间开始的AudioBufferSourceNode的内容: https://dvcs.w3.org/hg/audio/raw-file/tip/webaudio/spe

javascript – AudioContext.currentTime永久停留在Chromebook上的0.010666666

在我的Chromebook(Toshiba Chromebook 2,固件为Swanky_5216.238.5和Chrome版本46)上,我试图通过AudioContext.currentTime使用Web Audio API的时钟: window.AudioContext = window.AudioContext || window.webkitAudioContext; audioContext = new AudioContext(); console.log(aud

javascript – 使用Web Audio API的和弦检测算法

首先,我正在尝试实现这种和弦检测算法: http://www.music.mcgill.ca/~jason/mumt621/papers5/fujishima_1999.pdf 我最初实现算法使用我的麦克风,但它没有用.作为测试,我创建了三个振荡器来制作一个c和弦,但算法仍然不起作用.我想我应该只看到更高的C,E和G数字,但我看到所有音符的数

javascript – Web Audio API分析器节点getByteFrequencyData返回空白数组

我正在尝试使用analyser.getByteFrequencyData(array)从分析器节点访问FFT数据,但它似乎返回一个空白数组: var array = new Uint8Array(analyser.frequencyBinCount); analyser.getByteFrequencyData(array); 但是,使用analyser.getFloatFrequencyData(array)会返回一个数据数组:

javascript – 寻求HTML5音频元素导致延迟(中断同步)

我正在为音乐家开发一个协作音频录制平台(类似于与GitHub结合的云DAW). 简而言之,会话(歌曲)由一系列音轨组成,以AAC编码并通过HTML5< audio>播放.元素.每个轨道通过MediaElementAudioSourceNode连接到Web Audio API,并通过一系列节点(此时获取和平移)路由到目标.到现在为止还挺好.

javascript – 在浏览器中自定义渐进式音频流

假设我想在Javascript中创建我自己的渐进式流媒体机制,因为我发现浏览器的内置流机制不够容错,或者我喜欢在WebSocket上实现我自己的自定义方法.我想创建一个缓冲区,它保存已经下载的连续媒体文件段(比如arraybuffer或类似的东西).是否可以播放此文件,即使它尚未从头到尾下载? 我唯

使用JavaScriptNode(Web Audio API)制造冲动

我正在使用Web Audio API,我正在尝试创建一个输出冲动的JavaScriptNode.也就是说,我想要一个节点,它将输出1后跟一大堆零,而不是其他任何东西. 我认为下面的代码是一种明智的方式来做到这一点.我将名为“timeForAnImpulse”的变量初始化为true,并使用此变量触发音频回调上的冲动输

javascript – 使用webaudio生成静态波形

我正在尝试使用webaudio和canvas生成类似于音频编辑应用程序的静态波形.现在我正在加载一个mp3,创建一个缓冲区,迭代getChannelData返回的数据. 问题是..我真的不明白什么是返回. > getChannelData返回的内容 – 是否适合波形? >如何调整(样本大小?)以获得一个峰值==一秒?>为什么~50%的