마이크에서 오디오를 녹음하려고 시도한 다음 여러 위치의 비디오와 결합하여 마이크에서 단일 비디오/오디오를 만듭니다.AVAudioFile의 AVAsset은 0입니다.
AVCaptureDevice + AVCaptureSession을 사용하면 조금 고르지 만 음성 인식을 사용하여 AVCaptureSession을 사용하여 비디오 캡처를 수행하고 AVAudioEngine을 사용하여 오디오를 처리하려고합니다.
class AudioCaptureSession {
var engine = AVAudioEngine()
var outputFile : AVAudioFile!
func initAudioEngine() {
engine.stop()
engine.reset()
engine = AVAudioEngine()
do {
try AVAudioSession.sharedInstance().setCategory(AVAudioSessionCategoryPlayAndRecord)
let ioBufferDur = 128.0/44100.0
try AVAudioSession.sharedInstance().setPreferredIOBufferDuration(ioBufferDur)
} catch {
print("AVAudioSession setup error: \(error)")
}
let outputPath = NSTemporaryDirectory().appending(kTempAudioFilename)
let outputFile = URL(fileURLWithPath: outputPath, isDirectory: false)
if FileManager.default.fileExists(atPath: outputPath) {
do {
try FileManager.default.removeItem(at: outputFile)
} catch {
print("Filemanager can't delete the audio file: \(error)")
}
}
do {
print("Settings: \(engine.mainMixerNode.outputFormat(forBus: 0).settings)")
try self.outputFile = AVAudioFile(forWriting: outputFile, settings: engine.mainMixerNode.outputFormat(forBus: 0).settings)
} catch {
print("Can't make file for writing: \(error)")
}
let input = engine.inputNode!
let format = input.inputFormat(forBus: 0)
engine.connect(input, to: engine.mainMixerNode, format: format)
engine.prepare()
try! engine.start()
}
func startRecord() {
let mixer = engine.mainMixerNode
let format = mixer.outputFormat(forBus: 0)
mixer.installTap(onBus: 0, bufferSize: 1024, format: format) { (buffer: AVAudioPCMBuffer!, time: AVAudioTime!) -> Void in
do {
try self.outputFile.write(from: buffer)
} catch {
print("Can't write audio to file: \(error)")
}
}
}
func stopRecord() {
print("Audio len: \(self.outputFile.length)")
engine.mainMixerNode.removeTap(onBus: 0)
do {
let f = try AVAudioFile(forReading: outputFile.url)
print("Length of reading file: \(f.length)")
print("Pos: \(f.framePosition)")
} catch {
print("Error getting file for reading: \(error)")
}
let asset = AVAsset(url: outputFile.url)
print("Stop recording asset duration: \(asset.duration)")
}
}
예 출력 +의 정지를 시작한 후 다음과 같습니다 :
Audio len: 105840
Length of reading file: 0
Stop recording asset: CMTime(value: 0, timescale: 44100, flags: __C.CMTimeFlags(rawValue: 1), epoch: 0)
,691,363는 여기
코드의)는 AudioTap에 SFSpeechRecognizer을 쉽게 첨부 할 수210
당신이 볼 수 있듯이 outputFile은 N 단위 길이라는 것을 알고 있습니다. 그러나 읽기 용 파일을 열면 0이라고 생각하고 AVAsset도 0 지속 시간을 갖는다 고 생각합니다. 파일이 저장되지 않는지 궁금합니다. 또는 뭔가? 필자가 보았던 모든 것이 "AVAudioFile, file.write (버퍼), 파일 사용"을 분명하게 말하고 있기 때문에 완전히 실패했습니다. 분명히 작동하지 않습니다. 그것을 내 보내야합니까? 또는 뭔가?
"finsihedWriting"콜백이 있습니까? 아니면 마술처럼 괜찮습니까? – nickneedsaname
당신은 오픈/읽기/쓰기가 가능합니다. 이론적으로 런타임/ARC가'AVAudioFile'을 릴리즈하기로 결정할 때 의존하는 것처럼 보이기 때문에 이론적으로는 괜찮지 않다고 말할 것입니다 (_is_은 아무도 모른다). 실제로는 괜찮을 것입니다. –
나는 이것이 효과가 있다고 생각한다! 편집 :이 100 % 작품. 파일에 "닫기"가 없으면 너무 더럽습니다. – nickneedsaname