2017-03-07 7 views
1

마이크에서 오디오를 녹음하려고 시도한 다음 여러 위치의 비디오와 결합하여 마이크에서 단일 비디오/오디오를 만듭니다.AVAudioFile의 AVAsset은 0입니다.

AVCaptureDevice + AVCaptureSession을 사용하면 조금 고르지 만 음성 인식을 사용하여 AVCaptureSession을 사용하여 비디오 캡처를 수행하고 AVAudioEngine을 사용하여 오디오를 처리하려고합니다.

class AudioCaptureSession { 

    var engine = AVAudioEngine() 
    var outputFile : AVAudioFile! 

    func initAudioEngine() { 
     engine.stop() 
     engine.reset() 
     engine = AVAudioEngine() 

     do { 
      try AVAudioSession.sharedInstance().setCategory(AVAudioSessionCategoryPlayAndRecord) 
      let ioBufferDur = 128.0/44100.0 
      try AVAudioSession.sharedInstance().setPreferredIOBufferDuration(ioBufferDur) 
     } catch { 
      print("AVAudioSession setup error: \(error)") 
     } 
     let outputPath = NSTemporaryDirectory().appending(kTempAudioFilename) 
     let outputFile = URL(fileURLWithPath: outputPath, isDirectory: false) 
     if FileManager.default.fileExists(atPath: outputPath) { 
      do { 
       try FileManager.default.removeItem(at: outputFile) 
      } catch { 
       print("Filemanager can't delete the audio file: \(error)") 
      } 
     } 
     do { 
      print("Settings: \(engine.mainMixerNode.outputFormat(forBus: 0).settings)") 
      try self.outputFile = AVAudioFile(forWriting: outputFile, settings: engine.mainMixerNode.outputFormat(forBus: 0).settings) 
     } catch { 
      print("Can't make file for writing: \(error)") 
     } 
     let input = engine.inputNode! 
     let format = input.inputFormat(forBus: 0) 
     engine.connect(input, to: engine.mainMixerNode, format: format) 
     engine.prepare() 
     try! engine.start() 

    } 

    func startRecord() { 
     let mixer = engine.mainMixerNode 
     let format = mixer.outputFormat(forBus: 0) 

     mixer.installTap(onBus: 0, bufferSize: 1024, format: format) { (buffer: AVAudioPCMBuffer!, time: AVAudioTime!) -> Void in 
      do { 
       try self.outputFile.write(from: buffer) 
      } catch { 
       print("Can't write audio to file: \(error)") 
      } 
     } 
    } 

    func stopRecord() { 
     print("Audio len: \(self.outputFile.length)") 
     engine.mainMixerNode.removeTap(onBus: 0) 
     do { 
      let f = try AVAudioFile(forReading: outputFile.url) 
      print("Length of reading file: \(f.length)") 
      print("Pos: \(f.framePosition)") 
     } catch { 
      print("Error getting file for reading: \(error)") 
     } 
     let asset = AVAsset(url: outputFile.url) 
     print("Stop recording asset duration: \(asset.duration)") 

    } 
} 

예 출력 +의 정지를 시작한 후 다음과 같습니다 :

Audio len: 105840 
Length of reading file: 0 
Stop recording asset: CMTime(value: 0, timescale: 44100, flags: __C.CMTimeFlags(rawValue: 1), epoch: 0) 
,691,363는 여기

코드의)는 AudioTap에 SFSpeechRecognizer을 쉽게 첨부 할 수210

당신이 볼 수 있듯이 outputFile은 N 단위 길이라는 것을 알고 있습니다. 그러나 읽기 용 파일을 열면 0이라고 생각하고 AVAsset도 0 지속 시간을 갖는다 고 생각합니다. 파일이 저장되지 않는지 궁금합니다. 또는 뭔가? 필자가 보았던 모든 것이 "AVAudioFile, file.write (버퍼), 파일 사용"을 분명하게 말하고 있기 때문에 완전히 실패했습니다. 분명히 작동하지 않습니다. 그것을 내 보내야합니까? 또는 뭔가?

답변

2

AVAudioFile에는 명시적인 닫기가 없으므로 쓰기를 마치면 self.outputFile = nil을 설정하여 범위를 벗어나게해야합니다.

+0

"finsihedWriting"콜백이 있습니까? 아니면 마술처럼 괜찮습니까? – nickneedsaname

+0

당신은 오픈/읽기/쓰기가 가능합니다. 이론적으로 런타임/ARC가'AVAudioFile'을 릴리즈하기로 결정할 때 의존하는 것처럼 보이기 때문에 이론적으로는 괜찮지 않다고 말할 것입니다 (_is_은 아무도 모른다). 실제로는 괜찮을 것입니다. –

+1

나는 이것이 효과가 있다고 생각한다! 편집 :이 100 % 작품. 파일에 "닫기"가 없으면 너무 더럽습니다. – nickneedsaname