gstreamer-java를 사용하여 사용자 지정 AppSink를 통해 UDP를 통해 데이터를 보내고 있습니다. 여기에 효과적으로 설정의 방법은 다음과 같습니다 fileSrc ! streamTee ! displayQueue ! tsdemux ! demuxQueue ! (mpeg2dec || h264dec) ! videosink 및 streamTee ! se
디 멀티플렉싱하지 않고 데이터를 전송하는 경우 gstreamer의 udpsink를 제한 할 수있는 방법이 있습니까? 스트림을 멀티플렉싱해야하는 파이프가 있습니다. 내가 어떤 식 으로든 표시되지 않습니다 filesrc ! udpsink filesrc, 큐, 또는 udpsink 옵션을 통해이를 제한 : 주요 관심사는 이것이 filesrc ! tee name=t
안드로이드에 비디오 버퍼를 표시하려고합니다. Android 4.1 Jelly Bean에서 출시 된 미디어 코덱 API를 사용하고 있습니다. 샘플은 다음과 같이 진행됩니다 MediaCodec codec = MediaCodec.createDecoderByType(type);
codec.configure(format, ...);
구성 방법은 따로 Media
웹캠에서 이미지를 캡처 할 수 있어야하는 Java 프로젝트에 gstreamer 라이브러리를 사용하고 있습니다. 이미 웹캠 스트림을 표시하는 코드가 있습니다. 옆에있는 버튼을 눌러 이미지를 캡처하는 방법을 알 수 없습니다. 인터넷을 검색했지만 스트림을 표시하거나 이미지를 캡처하는 코드 조각 만 찾을 수는 있지만 둘 다 설명하지 않은 코드 ... 코드 조각을
내가 gstreamer를-자바하려면 다음 파이프 라인을 얻기 위해 노력하고 있어요 이 (gstreamer를-0.10를 사용) :! 'GST-출시 - 0.10 filesrc 위치 = big_buck_bunny_480p_surround-fix.avi decodebin2 ! ffmpegcolorspace! autovideosink " 이 파이프 라인은 명령 줄에
캡쳐 카드 (Blackmagic decklink)에서 OpenCV로 비디오 스트림을 얻고 라이브 스트림을 red5 또는 다른 rtmp 서버로 가져 오기위한 나의 목표. 그래서 gstreamer에서 두 개의 브랜치를 사용하여 아래 명령이 올바르게 작동하고 있습니다. 하지만, OpenCV를 사용하면 rtmp 서버로 블랙 프레임을 스트리밍 할 때 opencv가
Java Gstreamer 바인딩 1을 사용하여 디스크에서 오디오 파일을 읽고이 파일의 세그먼트를 디스크에 다시 기록하려고합니다. 이를 위해 "filesrc"요소를 사용할 수 없지만 대신 Gnonlin 플러그인의 "gnlurisource"요소를 사용할 수 있음을 알게되었습니다. 2. 저는 Gstreamer Java 바인딩을 사용했고 로컬로 컴파일하여 프로젝