swscale

    -1

    1답변

    픽셀을 행 하나씩 순서대로 한 채널 씩 저장하는 배열로 AVFrame을 복사하려고합니다. 상세 사항 : 나는 비디오에서 프레임을 읽어 FFMPEG의 API를 사용하고 있습니다. I는 frame_arr 화소의 범위에 vid_frame 모두 복사해야 unsigned char* frame_arr = new unsigned char [cdc_ctx->width *

    0

    1답변

    저는 FFMPEG 프로젝트에서 작업하고 있습니다. 지금 당장 문제가 있습니다. 내가하려는 것은 MPEG 비디오 파일로 PNG 그림을 변환하는 것입니다. 나는 이미 그림에서 정보를 가져올 수 있었지만 어떻게 든 YUV 형식으로 그림을 변환 할 수 없습니다. "0x0-> 0x0은 잘못된 크기 조정 치수입니다"를 반환합니다. AVFrame *pFrame; AV

    0

    1답변

    C++에서 YUV420p 이미지를 RGB24로 변환하고 C#의 바이트 배열에서 비트 맵을 생성하려고합니다. 내 이미지 크기는 1920 w * 1020 h이고 ffmpeg 디코더는 linesizes = {1920, 960, 960} 인 데이터에 대해 3 개의 평면을 제공합니다. 하지만 sws_scale 후에는 linesize = 5760 인 하나의 평면으로

    1

    1답변

    Windows에서 ffmpeg를 사용하여 하드웨어 가속을 사용하여 H264 스트림을 디코딩하는 방법에 대한 간단한 예제를 검색했지만 찾을 수 없습니다. ffmpeg와 함께 dxva2를 사용해야 하드웨어 가속을 사용할 수 있다는 것을 알고 있습니다. CPU에서 ffmpeg로 H264를 디코딩 한 다음 NV12 형식을 RGBA로 변환하고 프레임을 bmp 파일로

    0

    1답변

    swscale + x264를 사용하여 RGB 이미지 시퀀스를 h264 스트림으로 인코딩했습니다. 입력 이미지의 RGB 값 (모두 빨간색)이 (255, 0, 0) 인 경우 swscale + x264가 출력하는 YUV는 (81, 90, 240)입니다. swscale을 사용하면이 YUV 값을 원래 RGB 값으로 다시 변환 할 수 있습니다. 그러나 PotPlaye