iOS 용 Swift로 오디오를 녹음하고 녹음 된 오디오 파일을 재생할 수 있습니다. 내가 듣기로는 녹음 된 오디오 파일의 배경 잡음이 & 볼륨/데시벨인지 확인할 수 있다면 텍스트 프레임 워크에 대한 내 말하기에 충분하다고 판단 할 수 있습니다. 프레임 워크는 문제가 아니며 가능한 모든 것들을 연구했습니다.Swift로 녹음 된 오디오 파일을 텍스트로 변환하기
AVFoundation 또는 Accelerate Framework 또는 다른 프레임 워크를 사용하여 녹음 된 오디오 파일을 분석하여 오디오 파일이 음성 텍스트 프레임 워크로 처리 할 수 있는지 여부를 확인할 수 있는지 궁금합니다.
나는 많은 오디오 지식을 가지고 있지 않지만 약간 연구했고 녹음 중에 피크 및 평균 데시벨 값을 얻을 수 있지만 배경 소음은 무엇인지 알 수 있습니까?
정보는 Swift로 녹음 된 오디오 파일을 분석하는 데 도움이됩니다.
'swift'와 'objective-c'는 실시간 우선 순위로 실행되는 심각한 프로그램의 DSP 스레드에서 거의 찾을 수없는 고급 언어입니다. 왜? 문제를 찾고있는 경우를 제외하고는 편안한 물건 (객체 할당, 메모리 관리, 폴링 및 블로킹 등)은 실시간 스레드에서 수행 할 수 없기 때문입니다. DSP 코드의 경우 _fast_를 실행하는 것이 중요합니다. 따라서 UI 나 컨트롤러를 '신속하게'작성할 수는 있지만 SNR 추정과 같은 DSP 부분에 대해 가장 안전한 방법은 _plain-C_로 떨어집니다. – user3078414