23得票5回答
如何从 Blob 创建 AudioBuffer?

我有一个使用MediaRecorder api创建的音频文件/ Blob:let recorder = new MediaRecorder(this.stream) let data = []; recorder.ondataavailable = event => data.push(...

22得票3回答
在iOS11上,onaudioprocess未被调用。

我正在尝试在 iOS11 上的 Safari 中实现从麦克风进行音频捕获,最近已经添加了支持。 然而,onaudioprocess回调从未被调用。这是一个示例页面:<html> <body> <button onclick="doIt()...

21得票1回答
如何使用AudioWorklet获取麦克风音量

我希望能够在JavaScript中持续读取麦克风音量。许多现有的解决方案在StackOverflow上(见这里,这里和这里)都使用了2014年就已经被弃用的BaseAudioContext.createScriptProcessor()。 我想在我的项目中使用未来性的代码,有人能分享一个使用新...

21得票3回答
当检测到静音时,我该如何提取先前的音频(来自麦克风)作为缓冲区?(JS)

我正在使用Google Cloud API进行语音转文本,并使用NodeJS后端。应用程序需要能够侦听语音命令,并将其作为缓冲区传输到后端。为此,当检测到静音时,我需要发送先前音频的缓冲区。如有任何帮助,包括下面的js代码在内,将不胜感激。 if (!navigator.getUserMedi...

21得票5回答
无法创建'AudioContext': 硬件上下文数量已达到最大值

我创建了一个 AudioContext 后,有没有办法将其删除?var analyzers = []; var contexts = []; try { for(var i = 0; i<20; i++) { contexts[i] = new AudioContex...

21得票3回答
WebKit相当于Firefox的"moz-chunked-arraybuffer" xhr responseType

我希望能够读取一个MP3流(来自icecast,读取ICY元数据,然后将二进制MP3数据传递给Web Audio Api)。 Firefox有一个“moz-chunked-arraybuffer”xhr responseType来在进度上读取数据,但我找不到任何相当于webkit / chr...

21得票4回答
通过createMediaElementSource从<audio/>元素将音频数据加载到AudioBufferSourceNode?

是否可以通过使用createMediaElementSource从&lt;audio/&gt;元素中加载音频文件,然后将音频数据加载到AudioBufferSourceNode中?使用音频元素作为源(MediaElementSource)似乎不是一个选项,因为我想使用缓冲区方法,如noteOn...

20得票2回答
如何在React中设置音频元素的srcObject

我一直试图在React中设置音频标签的src属性,但音轨从未播放。 playTrack(track) { const stream = new MediaStream() stream.addTrack(track) this.setState(() =&gt; ({...

20得票2回答
Web Audio API如何将不同的AudioBuffers合并/连接起来,并作为一首歌曲播放

我一直在使用Web Audio API玩耍,尝试加载歌曲的多个部分并将它们附加到一个新的ArrayBuffer中,然后使用该ArrayBuffer作为播放所有部分的一首歌曲。在下面的例子中,我使用相同的歌曲数据(一个小循环)而不是歌曲的不同部分。 问题在于它仍然只播放一次,而不是两次,我不知...

20得票1回答
从Web Audio API在Node.js上播放PCM流

我正在使用Web Audio API从浏览器中流传录制的PCM音频。 我使用binaryJS (websocket连接) 将其流传到一个nodejs服务器,然后尝试使用speaker npm模块在服务器上播放该流。 这是我的客户端。 一开始音频缓冲区是非交错的IEEE 32位线性PCM,标...