반응 네이티브로 IOS에서 파노 모드를 에뮬레이션하는 방법은 무엇입니까? 나의 유스 케이스는 180도 표면에서 텍스트 (OCR 사용)를 읽을 수 있어야한다는 것이다 (콜라 병 텍스트를 읽는 것을 생각해 보라). 몇 가지 대안을 볼 수 있습니다 :파노라마 모드 리얼 생성 네이티브
- 사용자가 두세 장의 그림을 가져 보도록하십시오. 이 문제에는 두 가지 문제가 있습니다. (a) 특히 사용자에게 친숙하지 않고 (b) 사진 A와 사진 B 또는 A 또는 B에만 무언가가 나타날 수 있습니다. 결과를 병합하면 엉망입니다.
- 위와 같이 여러 장의 사진을 찍지 만 프로그래밍 방식으로 병합합니다. 이것은 이미 파노라마 사진의 기초가되는 것처럼 들립니다. 사진은 백엔드 활동 외부에서 사용되지 않으므로 멋지게 볼 필요가 없습니다. 어려움은 내가 이것을 어떻게 할 것인지에 대한 지침이나 지침으로 도움이되는 도서관을 찾지 못했다는 것입니다.
- 동영상 찍기. 적절한 정보를 제공하는 프레임을 추출하십시오. 우리는 비디오를 실제로 찍지 않고 미리 설정된 간격으로 사진을 찍을 때 타이밍을 맞추어 성능을 향상시킬 수 있습니다.
"react-native-camera"라이브러리를 사용하고 있지만, 아래에서 제 생각을 보여주는 스 니펫을 제공했습니다. 나는 구문에 관심이 없다. 오히려 해결책이다.
takePic() {
let self = this;
self.takePicture()
.then(pic1 => {
setTimeout(function() {
self.takePicture
.then(pic2 => {
self.mergePictures(pic1, pic2); // what would this
})
}, 500);
})
.catch(err => console.error(err));
}
merge(pic1, pic2) {
// find common boundary?
// merge along common boundary
}