나는 정상적인 소리의 유리 브레이크 사운드와 50 wav 파일 사운드의 50 wav 파일을 가지고 있습니다. 모든 사운드 파일 지속 시간은 1 초입니다. 그런 다음 신경망을 사용하여 사운드를 분류해야합니다. 어떻게 사운드 파일을 추출 할 수 있으며 어떤 신경망을 사용해야합니까? %network input extraction (retrieve trimmed
저는 프로젝트를 위해 가지고있는 아이디어를 위해 Deep Learning을 살펴보기 시작했습니다. 나는 그것에 대해 매우 익숙하고 의심 할 여지없이 길고 어두운 길을 시작할 때 누군가가 나를 위해 대답 할 수 있기를 희망하는 일반적인 질문을 가지고 있습니다. I (예를 들어) 1,000되지 않은 오디오 파일과 다음 1,000 처리 된 오디오 파일 (동일한
Formant Estimation using LPC Coefficients에있는 Matlab 튜토리얼을 살펴 보았습니다. 모호하게 세부 사항을 이해하지만, 왜 이렇게해야하는지 명확하게 알 수는 없습니다. http://person2.sol.lu.se/SidneyWood/praate/whatform.html에서 : 포먼트는 음성 파형의 특정의 주파수 주변에 음
내 ARM 기반 임베디드 장치에서 음성 통신을 위해 aecm(webrtc)을 사용했습니다. 자, 더블 토크 에코 제거를 위해 aecm을 aec으로 변경하려고합니다. WebRtcAecm_Create()->WebRtcAecm_Init()->WebRtcAecm_BufferFarend()->WebRtcAecm_Process().
을 그리고 모든 data(nea
OfflineAudioContext.startRendering()은 내 선택 (16 비트 또는 24 비트)의 비트 심도를 포함하는 AudioBuffer을 어떻게 출력 할 수 있습니까? 나는 출력의 샘플 속도를 AudioContext.sampleRate으로 쉽게 설정할 수 있다는 것을 알고 있지만 어떻게 비트 깊이를 설정합니까? 오디오 프로세싱에 대한 나의
가져온 mp3 파일의 오디오 데이터를 디코딩 할 때 내 OfflineContext으로 렌더링하고 다시 .wav 파일로 내보내는 경우 소리가 다른 피치의 slo-mo입니다. mp3 파일과 OfflineContext의 샘플 속도가 다르기 때문입니까? 그렇다면 피치를 변경하지 않고 어떻게 다른 샘플 속도로 mp3 파일을 내보낼 수 있습니까? 편집 : offlin
OfflineContext.suspend은 OfflineContext.currentTime의 진행을 멈추지 만 렌더링하는 동안 어떤 효과가 있습니까? (OfflineContext.startRendering)? 내가하고 싶은 일은 렌더링 프로세스를 시작하고, 일시 중지하고, 다른 작업을 수행하고, 다른 작업이 완료되면 다시 시작하는 것입니다. 렌더링 프로세스
현재 오디오 응용 프로그램을 개발 중이며 성능은 저의 주요 관심사 중 하나입니다. 는 Four common mistakes in audio development 또는 Real-time audio programming 101: time waits for nothing 같은 정말 좋은 기사가 있습니다. 나는 C++이 오디오 프로세싱을위한 방법이라는 것을 알았지
이 콜백 개념은 waveInOpen()에서 콜백 함수를 할당 할 수 있지만 교착 상태를 유발할 수 있으므로 다른 웨이브 함수를 사용하지 않도록주의합니다. 따라서 이전 버퍼가 가득 차면 새 버퍼를 추가하기 위해 수행해야 할 작업은 무엇입니까? 원하는 모든 것은 사용자가 원하는만큼 버퍼에 녹음됩니다.
Matlab에서 소리 주석을 작성하려고합니다. 이 주석 자의 요구 사항 중 하나는 녹음 샘플 (또는 미리 녹음 된 파일)을 가져 와서 기존 파일 위에 추가하는 것입니다. 의 내가 첫 번째 파일이 있다고 가정 해 봅시다 : 첫 번째 파일은 음악 클립이 될 수 [y,Fs] = audioread(filename);
과 두 번째 파일 [x,Fs2] = audi