ffmpeg C API를 사용하여 라이브 렌더링 비디오를 mpg 및/또는 mp4로 인코딩합니다 (이후 비디오 사용법에 따라 다름). mp4로 인코딩하면 모든 것이 잘됩니다. 그러나 mpg로 인코딩 할 때 결과 비디오는 모든 플레이어에서 재생할 수 없습니다. ffprobe를 빠르게 호출하면 헤더가 누락되었음을 알 수 있습니다. 그러나 이것은 명시 적으로 쓰고
조언을 찾고 있으며 내가하고 싶은 일이 가능한지 알아 봅니다. 저는 MPEG 2/MPEG-TS 비디오 파일과 함께 사용할 수있는 ID3 mp3 태그와 비슷한 것을 만들 것을 요청 받았습니다. 나는 조잡한 개인이기 때문에, 파일 자체 내에 일종의 XML 구조를 버리는 것을 고려하고 있었다. 그러나 응용 프로그램에서 파일의 XML/ASCII 데이터를 예상하지
h264 stream은 RTSP 프로토콜을 사용하는 IP 카메라에서 얻습니다. 나는 대답 [http://stackoverflow.com/questions/6394874/fetching-the-dimensions-of-a-h264video-stream]을 기반으로 h264 seq_parameter_data을 파싱하고 일부 ip 카메라의 경우 높이 값은 exa
안드로이드에서 비디오 스트리밍을위한 최고의 API는 무엇입니까? 비디오는 기본적으로 MPEG 2이며, 서버에 보관되며 디코더와 자체 플레이어가있는 안드로이드 폰으로 스트리밍하려고합니다. (전화 자체에서 디코딩이 발생하고 있습니다). 원활한 디코딩 및 재생을 위해서는 지연 시간을 가능한 한 최소화해야한다는 요구 사항이 있습니다. Gstreamer는 가장 효율
MXF 컨테이너에 MPEG2 비디오 파일을 래핑하고 그 과정에서 오디오를 변환해야합니다. MXF 랩핑 작동하지만 오디오 스트림 (16 비트, 48kHz 선형 PCM합니다) 변환 할 수 없습니다. ffmpeg -i input.mpg -map 0:0 -map 0:1 -vcodec copy -f mpeg2video -acodec pcm_s16le -ar 4800
이 질문에 어떤 태그가 필요한지 잘 모릅니다. 저는 현재 디지털 TV 방송에 대한 ATSC 표준에 대해 연구하고 있습니다. 내용을 살펴볼 때 의문입니다. 디지털 TV 방송에서 단일 대역폭에는 여러 채널 (서비스)이 포함됩니다. 브로드 캐스터에 의해 코딩되고 다중화 된 데이터를 전송 스트림이라고합니다. 전송 스트림은 헤더와 페이로드로 구성됩니다. 헤더는 오디
2 개의 서버가 있으며 server2는 server1에서 h.264 스트림을 수신 할 수 있습니다. 내 iPad가 h.264 스트림을 재생할 수 있어야하며 ipad와 server2는 동일한 로컬 영역 네트워크에 있지만 서버 1에 연결할 수 없으므로 서버 2에 h.264 스트림이 필요합니다. 해결책 ? 감사!