웹 오디오 API는 소리를 멈추기 위해 .stop() 메서드를 제공합니다. 멈추기 전에 소리가 작아 지길 바래요. 이렇게하려면 게인 노드를 사용했습니다. 그러나 나는 이상한 이슈에 직면하고 있는데, 일부 사운드는 그냥 재생되지 않고 왜 그럴 수 없는지를 알기 쉽습니다. 여기 내가하는 일의 다운 무식 버전입니다 : 당신이 듣게 될 것입니다 https://js
웹 오디오 API를 타이프 스크립트로 실험 해 왔습니다. 나는 하나 또는 여러 개의 오디오 파일에 대한 오디오 데이터를 다운로드하고 약속의 단일 또는 배열을 반환하는 AudioDownloader 클래스를 만드는 중입니다. 여러 오디오 파일을 다운로드 할 경우 Promise.all이 단일 오류로 인해 실패하기를 원하지 않으므로 reflect (net에서
저는 사운드 샘플이 간격을두고 무작위로 선택되어 무언가를 만들려고 노력하고 있습니다. 그래서 노래가 진화하고 그것이 들릴 때마다 다릅니다. HTML 오디오는 타이밍이 부정확하기 때문에 충분하지 않았습니다. 따라서 Web Audio를 실험하고 있지만 꽤 복잡해 보입니다. 지금, 난 그냥이 playSound.start(audioContext.currentTim
나는 스피커로 내 마이크 입력을 스트리밍 웹 오디오 API를 사용하고, 그래서 자신이 그들을 통해 이야기를들을 수 있습니다 : var aCtx = new AudioContext();
navigator.mediaDevices.getUserMedia({audio: true}).then(function (stream) {
var microphone =
속도 값을 설정하려고합니다. 중간 값 신호에있는 값입니다. 속도 범위는 0에서 127까지입니다. web audio api에 대한 문서는 실제로 이것에 대해 아무 것도 말하지 않습니다. 순간 나는이 소리를 재생했습니다 : 나는 그러나 내가 이득을 적용 gain node을 발견 0 ~ 127 범위에서 속도 값을 사용 아무것도 찾을 수 없습니다 play(key,
컨텍스트 : Attack, Decay, Sustain 및 Release가 모두 AudioParams 인 WebAudioAPI에서 ADSR 봉투를 구현하려고하는데 'note on'및 'note off'가 입력으로 표시됩니다. 값은 각각 1과 0입니다. 저는 4 개의 DynamicCompressor 노드와이를 달성하기위한 많은 게인 조작을 사용하고 있습니다.
OfflineAudioContext.startRendering()은 내 선택 (16 비트 또는 24 비트)의 비트 심도를 포함하는 AudioBuffer을 어떻게 출력 할 수 있습니까? 나는 출력의 샘플 속도를 AudioContext.sampleRate으로 쉽게 설정할 수 있다는 것을 알고 있지만 어떻게 비트 깊이를 설정합니까? 오디오 프로세싱에 대한 나의
나는 학습을 돕기 위해 Redux에 단계 시퀀서를 만드는 중입니다. 내가 필요로하는 것은 뮤지컬 타이밍을 제공하는 "진드기"로 작동하는 보편적 인 시계입니다. 그래서 Web Audio API 위에 구축 된 Tone.js 라이브러리를 사용할 계획이었습니다. function 다음있다 : Tone.Transport.scheduleRepeat(function(ti
웹 오디오 API에서 사운드를 푸시 할 때 사운드가 source.start(startTime);으로 시작하는 시간을 설정할 수 있습니다. 그러나 그것이 얼마나 정확한지 궁금합니다. 나는 setTimeout() 그냥 이벤트 queu에서 실행되는 코드를 넣어 알아. 나는 웹 오디오 API가하는 일이라고 추측하지만 이것은 단지 추측 일 뿐이다. 따라서 두 사람
특정 오디오 그래프가있는 오디오 컨텍스트가 있다고 가정 해 봅니다. 새로운 노드가있는 완전히 다른 오디오 그래프를 만들려면 메모리 누수를 피하기 위해 이전 오디오 그래프의 모든 노드에서 disconnect을 호출해야합니까? 그렇지 않으면 가비지 수집이 자동으로 수행됩니까? 그렇다면 어떤 조건에서 GCed를 받게됩니까?