2017-09-15 10 views
0

나는 odroid 보드에 연결된 USB 3.0 basler 카메라를 가지고있다. C++을 사용하여 카메라 SDK를 통해 프레임을 잡고 하드웨어 인코더 (소프트웨어 인코더보다 훨씬 빠름, 2.0 mp 이미지로 30 fps로 거의 10 배)로 인코딩합니다. 나는 그것을 처리하기 위해 다른 PC로부터 수신하기 위해 rtsp의 네트워크를 통해 스트리밍하고 싶다. 지금까지 내가 한 것은 하드웨어 인코더로 프레임을 인코딩하여 메모리 또는 디스크에 보관하는 것입니다.이미 인코딩 된 데이터를 리눅스 네트워크로 스트리밍

내가 이런 식으로 선호하는 이유를 묻는다면, 많은 odroid 보드가있을 것이고, 모두 2.0 mpus usb 카메라를 갖게 될 것이고, 모두 워크 스테이션에 처리되고 저장되어야 할 것입니다. 이 워크 스테이션과 모든 odroid 보드는 동일한 네트워크에 연결됩니다.

ffserver와 libvlc를 모두 검사하여이 프레임을 프레임 인코딩 된 데이터로 스트리밍했지만 현재는 결과가 없습니다. 이러한 스트리머는 미디어 파일이나 장치 자체에 액세스하여 자신을 잡고 인코딩 한 다음 내 상황에 적합하지 않아야합니다. 즉, 전송할 데이터를 조작 할 수 있어야합니다. 준비 할 사람이 될 것입니다. 지금까지 보았 듯이 인코딩 된 데이터로 피드를 제공하지 못합니다. (만약 그들이 이미 그것을한다면, 그것은 알게 될 것입니다.)

나는 리눅스와 스트리밍 모두에서 경험이 없으며 그것을 성취 할 방법을 모른다.

올바른 방향으로 나를 가리키면 기쁠 것입니다.

미리 감사드립니다.

답변

1

나는 h.264라고 가정 할 것입니다. 스트림을 stdout에 부속서 b로 씁니다. 파이프를 ffmpeg로 연결합니다. 'ffmpeg -i - -codec copy rtsp : // whatever'

+0

답장을 보내 주셔서 감사합니다. 예 h264. 제가 언급했듯이,이 주제에 대한 초보자 나 제안은 저에게 불분명 한 것처럼 보입니다. 그래서 이것을 물어 보는 것이 가장 쉬운 방법입니까? – Horizon1710

+0

필자는 "스트림을 부속서 b로 작성"하고 "ffmpeg로 파이핑하는"은 내가 손실 된 곳이라고 말했습니다. – Horizon1710

+0

"ffmpeg pipe"라는 Google을 사용 했습니까? – szatmary