나는 안드로이드 장치 (5.1 +)에서 비디오를 스트리밍하고 동시에 녹음 할 수있는 라이브러리를 찾고 있습니다. 나는 MediaRecorder를 사용해 보았습니다. 안드로이드에 비디오를 기록하는 일반적인 방법 이었지만, 카메라가 바쁘기 때문에 webrtc 또는 rtsp로 스트리밍 할 수 없습니다. 현재 libstreaming을 사용 중입니다. 약간의 수정으
우리는 비디오 통신 소프트웨어를 제작하고 있습니다. 우리는 라이브 스트림을 얻기 위해 Media Foundation을 사용하고 있습니다. 우리는 IMFSourceReadder를 사용하여 캡처를 수행합니다. 처럼 호출의 순서가 같습니다 hr = pAttributes->SetString(MF_DEVSOURCE_ATTRIBUTE_SOURCE_TYPE_VIDCAP
여러 대의 카메라에서 하나의 비디오 매시업으로 비디오를 연결하기 위해 여러 개의 VideoCapture 객체를 만들고 싶습니다. 예 : 개별 비디오에서 프레임을 가져 오기 위해 아래에 표시된 비디오 캡처 객체를 사용하여 읽고 싶었던 3 개의 비디오 경로가 있으므로 쓰기 위해 사용할 수 있습니다. 예상 : cap0=cv2.VideoCapture(path1)
나는 비디오를 녹화하는 응용 프로그램을 만들고 있습니다. 녹음이 끝나면 Library을 사용하여 GIF 이미지를 그 위에 놓습니다. 비디오를 재생 및 오버레이 self.avPlayer = [AVPlayer playerWithURL:self.urlstring];
self.avPlayer.actionAtItemEnd = AVPlayerActionAtI
Logitech 웹캠이 있는데, USB2.0을 통해 MJPG 압축을 사용하여 3080p @ 30fps를 스트리밍합니다. 이 원시 스트림을 하드 드라이브에 기록하거나 네트워크를 통해 전송해야합니다. 나는 그것을 압축 해제 할 필요가 없다. OpenCV는 압축 해제 된 프레임을 제공하므로 압축해야합니다. 이로 인해 CPU 사용량이 많이 낭비됩니다. 대신 MJP
웹캠 logitech c930e에서 하드웨어 인코딩 된 스트림 (Windows 8.1 x64)을 사용하여 비디오 캡처를 시도하고 있습니다. 여러 가지 방법을 시도해 볼 수는 있지만 여전히 성공하지 못했습니다 (ffmpeg는 mjpeg 만 표시하고, directshow는 mp4mux에 핀을 연결할 수 없으며 MS DTV-DVD 비디오 디코더에만 연결합니다).
MediaRecorder을 사용하여 전면 카메라에서 비디오를 캡처했습니다. 그것은 비춰졌습니다. 이미지의 경우 이미지를 뒤집기 위해 matrix.preScale() 메서드를 사용했습니다. 그러나 비디오의 경우에는이를 되돌릴 수 없습니다. if (!camera.getConfig().isFaceCamera)
{
//For Back camera
와 카메라 캡쳐를 읽을 수 없습니다 나는 다음과 같은 코드가 있습니다 import numpy as np
import cv2
cap = cv2.VideoCapture(0)
while(True):
# Capture frame-by-frame
ret, frame = cap.read()
if ret:
# Our op
건물 액세스 Android 애플리케이션을 개발 중입니다. 그들은 응용 프로그램이 자동으로 그들을 로그인 건물에있는 동안 그들의 움직임을 추적하는 건물을 입력하면 응용 프로그램은 사용자가 등 자신의 정체성과 차량 등록 정보 을 미리 설정 할 수 있습니다. 보안을 강화하기 위해 건물 방문자가 자신의 장치를 사용하여 오디오, 비디오 또는 모든 유형의 사진을 기록
나는 안드로이드에서 아주 새로운데, 나는 안드로이드 camera2 API를 사용하여 간단한 비디오 레코더 애플 리케이션을 만들려고 노력하고있다. YouTube 튜토리얼을 따라 TextureView에서 카메라를 미리보고 MediaRecorder로 캡처를 시작했지만 레코더를 중지하고 비디오를 장치 저장소에 저장하는 데 문제가 있습니다. 나는 응용 프로그램을 실