분류 전체보기
-
pyflow optical flow영상처리/3D computer vision 2023. 11. 1. 19:29
dense optical flow alogirhtm 중 성능이 좋은 classical한 algorithm을 발견했다. 아래 git으로, Ce Liu's C++ implementation of Coarse2Fine Optical Flow 를 python wrapper를 만든 것이다. https://github.com/pathak22/pyflow GitHub - pathak22/pyflow: Fast, accurate and easy to run dense optical flow with python wrapper Fast, accurate and easy to run dense optical flow with python wrapper - GitHub - pathak22/pyflow: Fast, accur..
-
RAFT: Recurrent All-Pairs Field Transforms for Optical Flow 돌려보기영상처리/3D computer vision 2023. 10. 30. 20:56
RAFT를 이용해 dense optical flow를 계산해보고자 한다. 아래와 같이, torchvision.models.optical_flow로부터 이미 train된 raft 모델을 가져와, image와 optical flow를 overlay 해보 았다. import numpy as np import torch import matplotlib.pyplot as plt import torchvision.transforms.functional as F import torchvision.transforms as T import cv2 from torchvision.models.optical_flow import raft_small from torchvision.models.optical_flow import..
-
Dense Optical Flow algorithm 비교 (open cv)영상처리/3D computer vision 2023. 10. 15. 01:08
dense optical flow algorithm 중, opencv에서 사용 가능한 것들끼리 비교하고자 하였다. *비교 코드는 아래 사이트를 참조하였다. https://gist.github.com/FingerRec/eba088d6d7a50e17c875d74684ec2849 opencv optical_flow> opencv optical_flow>. GitHub Gist: instantly share code, notes, and snippets. gist.github.com 실험에 아래의 두 이미지를 사용하였다. 위의 결과에서, Deep Flow가 가장 합리적인 결과를 보여주었다. # coding: utf-8 import numpy as np import cv2 import time import mat..
-
VR 광학계영상처리/Extended reality 2023. 5. 7. 12:36
VR 광학계 관련 공부중입니다. http://lavalle.pl/vr/ Virtual Reality - LaValle Chapter 9: Tracking[pdf] Tracking systems, estimating rotation, IMU integration, drift errors, tilt and yaw correction, estimating position, camera-feature detection model, perspective n-point problem, sensor fusion, lighthouse approach, attached bodies, e lavalle.pl VR 광학계의 두께를 제한하는 원인을 먼저 보고자 한다. 1. VR 광학계 특성 아래와 같이 VR 광학계를 볼록렌즈..
-
눈의 광학 특성 및 VR 렌즈영상처리/Extended reality 2023. 4. 30. 22:20
아래의 책을 공부중에 있습니다. (Chapter 4: Light and Optics) http://lavalle.pl/vr/ Virtual Reality - LaValle Chapter 9: Tracking[pdf] Tracking systems, estimating rotation, IMU integration, drift errors, tilt and yaw correction, estimating position, camera-feature detection model, perspective n-point problem, sensor fusion, lighthouse approach, attached bodies, e lavalle.pl VR 렌즈를 설계하기 위해선, 눈의 광학적인 특성을 이해하고,..
-
Snell's law 와 렌즈영상처리/Extended reality 2023. 4. 25. 07:10
아래 사이트를 공부중입니다. http://lavalle.pl/vr Virtual Reality - LaValleChapter 9: Tracking[pdf] Tracking systems, estimating rotation, IMU integration, drift errors, tilt and yaw correction, estimating position, camera-feature detection model, perspective n-point problem, sensor fusion, lighthouse approach, attached bodies, elavalle.pl1. 굴절의 법칙렌즈는 굴절을 이용하므로, 굴절의 법칙(=스넬의 법칙) 을 알아야한다. 굴절의 법칙은 아래와같이, 두 매질의 ..
-
빛과 물질의 상호작용영상처리/Extended reality 2023. 4. 19. 12:11
아래 사이트의 내용을 공부중입니다.... http://lavalle.pl/vr/ Virtual Reality - LaValle Chapter 9: Tracking[pdf] Tracking systems, estimating rotation, IMU integration, drift errors, tilt and yaw correction, estimating position, camera-feature detection model, perspective n-point problem, sensor fusion, lighthouse approach, attached bodies, e lavalle.pl VR 광학계를 이해하기에 앞서, 빛의 종류 / 빛과 물질간의 상호 작용 에 대해 정리를 한다. (위 책의 ..
-
Just Noticeable Difference (JND)과 Weber's law영상처리/Extended reality 2023. 4. 19. 11:41
VR 관련 아래 reference에서 새로 배우게된 개념들을 정리중이다.. http://lavalle.pl/vr/ Virtual Reality - LaValle Chapter 9: Tracking[pdf] Tracking systems, estimating rotation, IMU integration, drift errors, tilt and yaw correction, estimating position, camera-feature detection model, perspective n-point problem, sensor fusion, lighthouse approach, attached bodies, e lavalle.pl Just Noticeable Difference 란 실험 대상자들이 변화..