ffmpeg를 사용하여 실제 카메라 이미지를 스트리밍하는 C# 응용 프로그램이 있습니다. 입력 이미지는 원시 8 비트 그레이 스케일 형식입니다. 표준 입력을 사용하여 ffmpeg 스트림을 만들어 이미지를 공급하고 출력 패키지를 websocket 클라이언트에 보냅니다. 어두운 이미지에서 ffmpeg의 레이턴시가 커지는 이유는 무엇입니까?
나는이 설정을 사용하여 외부는 FFmpeg 프로세스를 시작합니다-f rawvideo -pixel_format gray -video_size " + camera.Width.ToString() + "x" + camera.Height.ToString() + " -framerate 25 -i - -f mpeg1video -b:v 512k -s 320x240 -
일반적인 이미지 크기 1040 * 1392 픽셀
나는 도서관을이 작품을 jsmpeg 사용하여 브라우저에서 스트림을 표시 (대략localhost에 500ms ~), 카메라 이미지가 정말로 어두울 때 (검은 이미지) 대기 시간은 매우 큽니다 (~ 2 ~ 0 초에서 로컬 호스트).). 검은 색 기간이 지나면 다시 밝은 이미지가 나타나면 "동기화"하는 데 2-3 초 정도 걸립니다.
검은 색 이미지는 실제로 압축하기 쉽고 실제로 작은 패키지를 생성 할 것이라고 생각했습니다. jsmpeg는 표시 할 정보가 거의없고 완전한 데이터 패키지가 도착할 때까지 기다릴 수는 없지만 내 이론을 증명할 수는 없습니다.
나는 비트 레이트 및 FPS처럼는 FFmpeg 매개 변수와 함께 연주하지만 아무것도 변경되었습니다.시도 할 수있는 설정이 있습니까?
전체 로그보기 카메라가 저조도에서 프레임 속도를 줄입니까? – Mulvya
카메라는 산업용 카메라이며 이미지는 소프트웨어 트리거에 의해 수집됩니다. 프레임 속도는 일정하며 밝은/밝은 이미지와는 독립적입니다. – doodoroma
입력 이미지가 밝은 부분에서 어두운 부분으로 바뀌는 곳에서 전체 로그를 공유하십시오. – Mulvya