Skimage 웹 사이트에서 this example을 따라갔습니다. 코드가 원본 이미지에 부분 별 아핀 변환을 수행하고 결과 이미지가 아래 이미지와 유사합니다. piecewiseAffineTransformation 후의 포인트 위치 추적
는 I 추적하려고 방법 전과 변환 매트릭스 인덱스를 액세스하여 변형 후의 화상의 움직임에 일부 특정 포인트. 내 코드here 내가 또한 가장 가까운 격자 점에 지정된 점을 넣어 find_linspace_index()
정의 된 변환 행렬
에있는 점의 인덱스를 찾기 위해 find_map_index()
을 정의하십시오.
아래 그림과 같이 원하는 이미지를 생성 할 수있었습니다. 파란색 점은 원래 위치이고 녹색 점은 결과 위치입니다.
내 질문은 왜 tform.inverse
out = warp(image, tform.inverse, output_shape=(rows + 100, cols))
대신 tform
의 사용합니까입니까? 게다가
out = warp(image, tform, output_shape=(rows + 100, cols))
, 나는 웹 사이트의 예제의 경우와 원본 이미지의 크기에 맞게 크기를 조절하지 않고 잘라지지 않은 이미지를 가지고 할 수있는 방법? 변형은 이미지 경계에서 원래 크기를 벗어나는 점을 매핑하는 것처럼 보입니다.
고마워요.
"입력 이미지에서 출력 이미지로 정방향 매핑이있는 경우 원본을 변환하기 때문에 역 변환을 사용해야합니다." "원래 변환 **은 입력 이미지에서 출력 이미지로의 정방향 매핑이기 때문에 역 변환을 사용해야합니다." 그냥 맞춤법 오류입니다. 고마워, 내 문제가 해결되었습니다. 나는 이미지의 위쪽과 아래쪽을 채우고 변형시켰다. – Kershaw
@ Kershaw - 감사합니다. 답변이 수정되었습니다. – KolaB