카메라 캘리브레이션 (Camera Calibration)

영상처리 2013. 2. 1. 16:59

카메라 캘리브레이션 (camera calibration)은 영상처리, 컴퓨터 비전 분야에서 번거롭지만 꼭 필요한 과정중의 하나입니다. 본 포스팅에서는 카메라 캘리브레이션의 개념, 카메라 내부 파라미터, 외부 파라미터, 카메라 핀홀 모델, 카메라 캘리브레이션 도구에 대해 관련된 개념이나 이론적 배경들을 전반적으로 정리해 보았습니다.


그림1. 카메라 캘리브레이션


0. 카메라 캘리브레이션이란?

1. 캘리브레이션 개요

2. 카메라 내부 파라미터(intrinsic parameters)

3. 카메라 외부 파라미터(extrinsic parameters)

4. 핀홀(pinhole) 카메라 모델

5. 캘리브레이션과 영상해상도 그리고 자동초점조절(auto focusing)

6. 캘리브레이션 도구(tool) 및 사용법

7. 캘리브레이션 결과가 달라지는 이유

8. 카메라 캘리브레이션 팁



0. 카메라 캘리브레이션이란?


우리가 실제 눈으로 보는 세상은 3차원입니다. 하지만 이것을 카메라로 찍으면 2차원의 이미지로 변하게 됩니다. 이 때, 3차원의 점들이 이미지 상에서 어디에 맺히는지는 기하학적으로 생각하면 영상을 찍을 당시의 카메라의 위치 및 방향에 의해 결정됩니다. 하지만 실제 이미지는 사용된 렌즈, 렌즈와 이미지 센서와의 거리, 렌즈와 이미지 센서가 이루는 각 등 카메라 내부의 기구적인 부분에 의해서 크게 영향을 받습니다. 따라서, 3차원 점들이 영상에 투영된 위치를 구하거나 역으로 영상좌표로부터 3차원 공간좌표를 복원할 때에는 이러한 내부 요인을 제거해야만 정확한 계산이 가능해집니다. 그리고 이러한 내부 요인의 파라미터 값을 구하는 과정을 카메라 캘리브레이션이라 부릅니다.



1. 캘리브레이션 개요


카메라 영상은 3차원 공간상의 점들을 2차원 이미지 평면에 투사(perspective projection)함으로써 얻어집니다. 핀홀(pinhole) 카메라 모델에서 이러한 변환 관계는 다음과 같이 모델링됩니다.


(1)


여기서, (X,Y,Z)는 월드 좌표계(world coordinate system) 상의 3D 점의 좌표, [R|t]는 월드 좌표계를 카메라 좌표계로 변환시키기 위한 회전/이동변환 행렬이며 A는 intrinsic camera matrix입니다.


그림 2. 카메라 좌표계


수식적으로 보면 카메라 캘리브레이션(camera calibration)은 위와 같은 3D 공간좌표와 2D 영상좌표 사이의 변환관계 또는 이 변환관계를 설명하는 파라미터를 찾는 과정입니다.


식(1)에서 [R|t]를 카메라 외부 파라미터(extrinsic parameter), A를 내부 파라미터(intrinsic parameter)라고 부릅니다. 그리고 A와 [R|t]를 합쳐서 camera matrix 또는 projection matrix라 부릅니다.


카메라 외부 파라미터는 카메라의 설치 높이, 방향(팬, 틸트) 등 카메라와 외부 공간과의 기하학적 관계에 관련된 파라미터이며 내부 파라미터는 카메라의 초점 거리, aspect ratio, 중심점 등 카메라 자체의 내부적인 파라미터를 의미합니다.



2. 카메라 내부 파라미터(intrinsic parameters)


카메라의 내부 파라미터로는 다음과 같은 것들이 있습니다.

  1. 초점거리(focal length): fx, fy
  2. 주점(principal point): cx, cy
  3. 비대칭계수(skew coefficient): skew_c = tanα



A. 초점거리(focal length)


흔히 초점거리라 하면 볼록렌즈의 초점을 생각하기 쉬운데, 여기서(카메라 모델) 말하는 초점거리는 렌즈중심과 이미지센서(CCD, CMOS 등)와의 거리를 말합니다.


그림 3. 카메라 모델


디지털 카메라 등에서 초점거리는 mm 단위로 표현되지만 카메라 모델에서 말하는 초점거리(f)는 픽셀(pixel) 단위로 표현됩니다. 즉, f의 단위로 픽셀이라는 의미입니다.


이미지의 픽셀(pixel)은 이미지 센서의 셀(cell)에 대응되기 때문에, 초점거리(f)가 픽셀(pixel) 단위라는 의미는 초점거리가 이미지 센서의 셀(cell) 크기에 대한 상대적인 값으로 표현된다는 의미입니다. 예를 들어, 이미지 센서의 셀(cell)의 크기가 0.1 mm이고 카메라의 초점거리가 f = 500 pixel이라고 하면 이 카메라의 렌즈 중심에서 이미지 센서까지의 거리는 이미지 센서 셀(cell) 크기의 500배 즉, 50 mm라는 의미입니다.


컴퓨터 비전 분야에서 카메라 초점거리를 물리단위(m, cm, mm, ...)가 아닌 픽셀단위로 표현하는 이유는 (이미지 픽셀과 동일한 단위로 초점거리를 표현함으로써) 영상에서의 기하학적 해석을 용이하게 하기 위함입니다.


그런데, 카메라 모델에서 초점거리를 하나의 값으로 f라 표현하지 않고 fx, fy로 구분하여 표현하는 경우가 있는데(실제로 카메라 캘리브레이션을 수행하면 fx, fy를 구분하여 반환한다) 이는 이미지 센서의 물리적인 셀 간격이 가로 방향과 세로 방향이 서로 다를 수 있음을 모델링하기 위함입니다. 이 경우 fx는 초점거리(렌즈중심에서 이미지 센서까지의 거리)가 가로 방향 셀 크기(간격)의 몇 배인지를 나타내고 fy는 초점거리가 세로 방향 센서 셀 크기(간격)의 몇 배인지를 나타냅니다. fx와 fy 모두 단위는 픽셀(pixel)이며 현대의 일반적인 카메라는 가로방향 셀 간격과 세로방향 셀 간격의 차이가 없기 때문에 f = fx = fy라 놓아도 무방합니다.


참고로, 동일한 카메라로 캘리브레이션을 수행했을 때, 이미지 해상도를 1/2로 낮추면 캘리브레이션 결과의 초점거리도 1/2로 작아집니다. 실제 물리적 초점거리가 변하는 것은 아니지만 카메라 모델에서의 초점거리는 상대적인 개념이기 때문에 해상도를 바꾸면 한 픽셀(pixel)에 대응하는 물리크기가 변하고 따라서 초점거리도 변하게 됩니다. 예컨데, 이미지 해상도를 1/2로 낮추면 이미지 센서의 2 x 2 셀(cell)들이 합쳐서 하나의 이미지 픽셀이 되기 때문에 한 픽셀에 대응하는 물리크기가 2배가 됩니다. 따라서 초점거리는 1/2이 되어야 합니다.


카메라 모델의 렌즈중심(초점)은 핀홀 카메라 모델(그림 6)에서 핀홀(pinhole)에 해당됩니다. 핀홀 카메라 모델은 모든 빛은 한 점(초점)을 직선으로 통과하여 이미지 평면(센서)에 투영된다는 모델입니다. 이러한 핀홀 모델은 3D 공간과 2D 이미지 평면 사이의 기하학적 투영(projection) 관계를 매우 단순화시켜 줍니다.


초점으로부터 거리가 1(unit distance)인 평면을 normalized image plane이라고 부르며 이 평면상의 좌표를 보통 normalized image coordinate라고 부릅니다. 물론 이것은 실제는 존재하지 않는 가상의(상상의) 이미지 평면입니다. 카메라 좌표계 상의 한 점 (Xc, Yc, Zc)를 영상좌표계로 변환할 때 먼저 Xc, Yc를 Zc(카메라 초점에서의 거리)로 나누는 것은 이 normalized image plane 상의 좌표로 변환하는 것이며, 여기에 다시 초점거리 f를 곱하면 우리가 원하는 이미지 평면에서의 영상좌표(pixel)가 나옵니다 (그림 4 참조). 그런데, 이미지에서 픽셀좌표는 이미지의 중심이 아닌 이미지의 좌상단 모서리를 기준(원점)으로 하기 때문에 실제 최종적인 영상좌표는 여기에 (cx, cy)를 더한 값이 됩니다. 즉, x = fxX/Z+cx, y = fyY/Z+cy. 카메라 모델에서 사용하는 좌표계 표현 및 변환에 대한 보다 자세한 내용에 대해서는 [영상처리] - [영상 Geometry #1] 좌표계 글을 참조하기 바랍니다.



그림 4. 카메라 투영(projection) 모델


☞ 초점거리에 대한 보다 자세한 내용에 대해서는 [영상처리] - 카메라의 초점거리(focal length) 글을 참조하기 바랍니다 (2013.10.23).

☞ 이미지평면(이미지센서)은 실제로는 렌즈 뒤쪽에 있지만, 기하학적 연산을 단순화하기 위해 위 그림처럼 렌즈 앞쪽에 위치시키는 것이 일반적입니다. (reflected model)



B. 주점(principal point)


주점 cx, cy는 카메라 렌즈의 중심 즉, 핀홀에서 이미지 센서에 내린 수선의 발의 영상좌표(단위는 픽셀)로서 일반적으로 말하는 영상 중심점(image center)과는 다른 의미입니다. 예를 들어서, 카메라 조립과정에서 오차로 인해 렌즈와 이미지 센서가 수평이 어긋나면 주점과 영상중심은 다른 값을 가질 것입니다.


영상기하학에서는 단순한 이미지 센터보다는 principal point가 훨씬 중요하며  영상의 모든 기하학적 해석은 이 주점을 이용하여 이루어집니다.



C. 비대칭 계수(skew coefficient)


비대칭 계수 skew_c는 이미지 센서의 cell array의 y축이 기울어진 정도를 나타냅니다 (skew_c = tanα).

그림 5. 카메라 비대칭 계수


요즘 카메라들은 이러한 skew 에러가 거의 없기 때문에 카메라 모델에서 보통 비대칭 계수까지는 고려하지 않는다고 합니다 (즉, skew_c = 0).


이러한 카메라 내부 파라미터들은 공개된 캘리브레이션 툴 등을 이용하면 비교적 쉽게 계산할 수 있습니다. 공개 캘리브레이션 툴 소개 및 사용법은 본 포스팅 하단을 참조하시기 바랍니다.



3. 카메라 외부 파라미터(extrinsic parameters)


카메라 외부 파라미터는 카메라 좌표계와 월드 좌표계 사이의 변환 관계를 설명하는 파라미터로서, 두 좌표계 사이의 회전(rotation) 및 평행이동(translation) 변환으로 표현됩니다.


카메라 외부 파라미터는 카메라 고유의 파라미터가 아니기 때문에 카메라를 어떤 위치에 어떤 방향으로 설치했는지에 따라 달라지고 또한 월드 좌표계를 어떻게 정의했느냐에 따라서 달라집니다.


카메라 외부 파라미터를 구하기 위해서는 먼저 캘리브레이션 툴 등을 이용하여 카메라 고유의 내부 파라미터들을 구합니다. 다음으로는 미리 알고 있는 또는 샘플로 뽑은 3D월드좌표–2D영상좌표 매칭 쌍들을 이용하여 식(1)에서 변환행렬을 구하면 됩니다. OpenCV에 있는 solvePnP함수를 이용하면 이러한 계산을 손쉽게 할 수 있습니다.


☞ 카메라 외부 파라미터 캘리브레이션 및 영상 기하학에 대한 전반적인 내용에 대해서는 [영상처리] - Extrinsic Camera Calibration - 카메라의 위치 및 자세 파악 글을 참고하기 바랍니다.



4. 핀홀(pinhole) 카메라 모델


핀홀 카메라 모델은 아래 그림과 같이 하나의 바늘구멍(pinhole)을 통해 외부의 상이 이미지로 투영된다는 모델입니다. 이 때, 이 바늘구멍(pinhole)이 렌즈 중심에 해당되며 이곳에서 뒷면의 상이 맺히는 곳까지의 거리가 카메라 초점거리입니다 (광학적으로 렌즈의 중심을 투과하는 빛은 굴절되지 않고 그대로 직선으로 투과한다고 합니다).


그림 6. 핀홀 카메라 모델

(그림출처: http://en.wikipedia.org/wiki/Pinhole_camera_model)


영상처리 분야에서 영상에 대한 모든 기하학적 해석은 이 핀홀 카메라 모델을 바탕으로 이루어집니다. 하지만, 사실 핀홀 카메라 모델은 매우 이상적인 카메라 모델이며 실제로는 렌즈계의 특성에 따른 영상 왜곡 등도 같이 고려되어야 합니다. 영상 왜곡에 대한 내용은 [영상처리] - 카메라 왜곡보정을 참조해 주시기 바랍니다.



5. 캘리브레이션과 영상 해상도 그리고 자동초점조절(auto focusing)


카메라에 있는 오토 포커싱(auto focusing) 기능을 켜면 계속 초점거리가 바뀔 수 있기 때문에 캘리브레이션 목적에는 적합하지 않습니다. 카메라에 대해 캘리브레이션을 수행하고 캘리브레이션 결과를 다른 계산 목적에 사용하고자 한다면 오토 포커싱 기능은 꺼 놓고 사용하는게 좋습니다.


카메라에는 보통 영상 해상도를 QVGA(320x240), VGA(640x480), 960x480, ... 등 다양하게 설정할 수 있습니다. 그런데, 영상 해상도를 바꾸면 카메라 캘리브레이션 결과도 바뀌는 것을 확인 할 수 있을 것입니다. 카메라 내부 파라미터중 초점거리 fx, fy, 주점 cx, cy는 픽셀 단위를 사용하는데, 카메라의 물리적인 초점거리나 이미지 센서의 크기는 변하지 않지만 한 픽셀이 나타내는 물리적 크기가 변하기 때문입니다. 그래서 만일 영상해상도를 VGA로 놓고 캘리브레이션 한 결과과 QVGA로 놓고 캘리브레이션 한 결과를 비교해 보면 QVGA의 경우가 fx, fy, cx ,cy의 값이 1/2씩 줄어들게 됩니다. 반면에 렌즈왜곡계수(k1, k2, p1, p2)는 normalized 좌표계에서 수행되기 때문에 영상 해상도와 관계없이 항상 동일합니다. 따라서, 한 해상도에서만 캘리브레이션을 수행해도 다른 모든 해상도에 대한 파라미터 값을 구할 수 있게 됩니다. 렌즈왜곡계수는 동일하며, fx,fy,cx,cy만 영상 해상도에 비례해서 조정해 주면 됩니다.



6. 캘리브레이션 도구(tool) 및 사용법


A. Dark Cam Calibrator


최근에 직접 구현한 것인데 필요하시면 한번 사용해 보시기 바랍니다 ([개발한 것들] - 카메라 캘리브레이션 프로그램 (DarkCamCalibrator)). 카메라에서 직접 영상을 획득할 수 있으며 Fisheye 왜곡모델에 대한 캘리브레이션도 가능하다는 특징이 있습니다. OpenCV를 이용하여 구현한 것으로서 캘리브레이션 성능 자체는 OpenCV 성능과 같습니다.



B. GML C++ Camera Calibration Toolbox


가장 손쉽게 이용할 수 있는 공개 캘리브레이션 툴로는 GML C++ Camera Calibration Toolbox가 있습니다. 현재 0.73버전이 가장 최신버전이며 소소코드도 같이 공개되어 있습니다.


사이트 링크: http://graphics.cs.msu.ru/en/node/909

직접 다운로드: GML_CameraCalibrationInstall_0.73.exe



그림 7. GML 카메라 캘리브레이션 툴


기본적인 사용법은 캘리브레이션 패턴(chess board)이 인쇄된 종이를 다양한 위치 및 각도에서 카메라로 촬영한 후 영상으로 저장하고 위 툴(tool)로 캘리브레이션을 수행하면 됩니다. 자세한 사용법 및 최적의 영상획득 방법 등은 프로그램 자체에 포함된 설명문(Help)을 참조하시기 바랍니다.


이 툴의 특징은 위 그림과 같이 여러 개의 캘리브레이션 패턴을 동시에 사용하여 캘리브레이션을 수행할 수 있다는 점입니다. 툴의 설명문에 보면 2개 이상의 패턴을 사용했을 때 캘리브레이션 효과가 좀더 좋다고 나와 있습니다. 물론 1개의 패턴만을 사용하는 것도 가능합니다.


위 툴을 사용하여 캘리브레이션을 수행하면 다음과 같은 형태로 결과를 볼 수 있습니다.


그림 8. GML 카메라 캘리브레이션 툴 실행 예시


캘리브레이션 결과는 위 예와 같이 추정치 ± 추정오차(3*sigma) 형태로 출력되며 각각의 항목의 의미는 다음과 같습니다.

  • Focal length: fx = 3497.576, fy = 3501.038
  • Principal point: cx = 1058.429, cy = 797.136
  • Distortion: k1 = -0.041196, k2 = -0.203893, p1 = 0.006114, p2 = 0.002318 (k1,k2: radial distortion 계수, p1,p2: tangential distortion 계수)



C. Camera Calibration Toolbox for Matlab


아마도 카메라 캘리브레이션 분야에 있어서 가장 대표적인 툴로 생각됩니다. Matlab으로 구현되어 있으며 다소 사용법이 복잡하지만 캘리브레이션 과정의 세세한 부분을 직접 설정할 수 있으며 보다 정밀한 캘리브레이션이 가능합니다.


사이트 링크: http://www.vision.caltech.edu/bouguetj/calib_doc/


그림 9. Caltech 카메라 캘리브레이션 툴


위 사이트는 또한 카메라 캘리브레이션 분야에 있어서 가장 대표적인 사이트로서 캘리브레이션 툴 뿐만 아니라 캘리브레이션에 대한 전반적인 이론 및 정보가 잘 정리되어 있습니다. 캘리브레이션을 연구하는 (영어권) 사람들은 주로 이 사이트를 통해 필요한 정보를 얻는 것으로 알고 있습니다.



7. 캘리브레이션 결과가 달라지는 이유 (2015.5.12 추가)


댓글로 문의를 많이 주시는 내용인데 본문에 내용을 추가하는 것도 좋을 것 같아서 추가합니다.


카메라 캘리브레이션 결과가 달라지는 것은 먼저 카메라의 auto focus 기능이 켜져 있는지 확인해야 합니다. 물론 auto focus 기능이 꺼져 있음에도 불구하고 결과가 달라질 수 있지만 그 편차는 auto focus 기능이 켜져 있는 경우에 비해 훨씬 줄어들 것입니다. 하지만, auto focusing 여부와 관계없이 근본적으로 동일한 카메라에 대해 캘리브레이션 결과가 달라질 수 있는 이유는 몇 가지 원인이 있는데 적어보면 다음과 같습니다.

  • 캘리브레이션은 완벽한 핀홀 카메라 모델을 가정하고 파라미터를 찾지만 실제 카메라는 핀홀 카메라 모델이 아닐 수 있습니다.
  • 카메라 캘리브레이션 과정에 렌즈계 왜곡모델이 들어가는데, 일반적으로 사용되는 렌즈계 왜곡모델은 왜곡 특성을 저차의 다항함수로 근사하는 것이기 때문에 실제의 렌즈계 왜곡과는 차이가 발생할 수 있습니다.
  • 마지막으로 카메라 캘리브레이션은 어떤 방정식을 풀어서 딱 떨어지게 해를 찾는 것이 아니라 해에 대한 초기 추정치부터 시작해서 최적화 기법을 적용하여 반복적인 탐색 과정을 거쳐 근사적인 해를 찾는 것이기 때문에 매번 해가 달라질 수 있습니다.

결국 카메라의 내부 파라미터 자체는 고유값이지만 캘리브레이션 모델 자체가 근사적인 모델이기 때문에 사용한 이미지에 따라 최적 근사해가 달라질 수 있습니다.



8. 카메라 캘리브레이션 팁 (2015.5.12 추가)


카메라 캘리브레이션 팁도 간단하게 같이 적어봅니다. 카메라와 패턴과의 거리에 대해 문의를 많이 주시는데 패턴과의 거리는 최대한 가까울수록 좋습니다. 그 이유는 캘리브레이션 자체는 패턴과의 거리와 관계없지만 패턴과의 거리가 가까우면 영상에서 좀더 정밀하게 코너점의 위치를 찾을 수 있기 때문입니다. (경험적으로) 패턴 영상의 개수는 4개 이상이면 어느정도 캘리브레이션이 가능하지만 많을수록 좋으며 20장 이상 정도면 무난하다고 생각됩니다. 마지막으로 패턴 영상을 획득할 때에는 되도록 다양한 각도에서 영상을 획득하면 좋습니다.



관련 포스팅


by 다크 프로그래머

  • 이전 댓글 더보기
  • 대학원 2019.07.03 15:39 ADDR 수정/삭제 답글

    다크님 안녕하세요, visual servoing 을 공부하고있는 학생입니다.
    많은 도움이 되고있습니다. 먼저 감사인사 올리겠습니다. 여쭤보고싶은것이 있는데,
    focal length에 관련한 내용입니다. 데이터시트상 카메라렌즈의 focal length가 0.008[mm]로 나옵니다.
    헌데, GML camera calibration toolbox 를 이용하여 내부파라미터들을 측정했을때, focal length가 1567x1570 정도로 나옵니다. 이때 focal length 의 단위가 본문에서 말하는것 처럼 [pixel]값인지 궁금합니다. 또, Sensor Size 가 3.7mm x 2.8mm 로 나옵니다 (데이터시트에) 그럼 위에 언급하신 말처럼 focal length[pixel] x Sensor size[mm] = focal length[mm] 가 나와야 한다고 이해했는데 데이터시터의 focal length와 많은 차이가 나서 어떤 오류있는지 잘 모르겠습니다.
    혹시 GML 프로그램에 나타나는 focal length 단위가 [pixel] 인지 [m](미터) 인지 알려주실수 있나요?
    항상 도움이 되는 글 잘 보고있습니다. 감사합니다.

    • BlogIcon 다크pgmr 2019.07.03 15:48 신고 수정/삭제

      물리적인 focal length가 0.008 mm이면 너무 짧은 것 아닌가요? focal length는 렌즈와 이미지센서와의 거리인데, 아무리 초소형 카메라 하더라도 그렇게 가까울 수는 없을 것 같습니다.. 그리고 GML toolbox에서 나오는 값은 pixel입니다. 또한, focal length[pixel] x Sensor size[mm] = focal length[mm] 식에서 Sensor size는 이미지센서 전체의 크기가 아니고 센서를 구성하는 셀(cell) 하나의 크기여야 합니다.

  • 대학원 2019.07.03 16:15 ADDR 수정/삭제 답글

    답변 감사합니다. 물리적 focal length 는 8mm였습니다. 번거롭게해서 죄송합니다,
    아 센서 사이즈를 제가 잘못이해하고있었군요, 이제 이해가 갔습니다.
    저같은 분들을 위해 정리해보자면,
    GML에서 얻을 수 있는 focal length의 단위는 [pixel] 이며 단위를 mm로 변환하기 위해

    focal length [mm] = focal length[pixel] /해상도 * 이미지센서의 크기
    focal length [mm] = focal length[pixel] * 이미지센서를 구성하는 셀(cell)하나의 크기
    로 정리 할 수 있겠군요. 감사합니다. 정리가 확 되네요.

    또하나 여쭤보고싶은게 있는데, 658x452 해상도를 가진 카메라를 사용하고 있는데
    principal point를 구했을때 cx : 343 cy:160 정도의 주점들이 나오는데 물리적인 주점과 큰 오차를
    보이는데 이 정도 데이터시트값과의 오차라면, 신뢰성이 떨어지는 값 즉, 캘리브레이션이 잘 안됐다고 판단할 수 있나여?
    위에 답변감사합니다.

    • BlogIcon 다크pgmr 2019.07.03 17:47 신고 수정/삭제

      네.. 캘리브레이션이 잘못된 것 같습니다.

  • 대학원 2019.07.14 21:42 ADDR 수정/삭제 답글

    위에 이어 질문하나만 드리겠습니다.

    GML 칼리브레이션 하여 Focal length가 1436[pixel],1436[pixel] 이 나왔고 데이터시트상 해상도는 658x492 , size of image sensor는 3.7x2.8 [mm]입니다.
    focal length를 mm단위로 환산하였을때 6.11 x 10.8 정도의 값이 나옵니다.
    데이터 시트상의 focal length는 8mm입니다.
    pixel단위의 focal length가 같은데 mm단위의 focal length는 큰 차이가 나는데 이것은 기계적인 요소의 차이가 만든거라고 볼 수 있을까요? 아니면 캘리브레이션 및 계산과정에서 오류가 나왔던걸까요?

    • BlogIcon 다크pgmr 2019.07.15 10:05 신고 수정/삭제

      계산이 잘못된 것 같습니다. focal length가 1436 pixel이라는 의미는 렌즈에서 이미지 센서까지의 거리가 이미지 센서 셀(cell) 크기의 1436배라는 의미입니다. fy(mm) = 3.7mm / 658 * 1436 = 8.07, fx(mm) = 2.8mm / 492 * 1436 = 8.17입니다.

  • 대학원 2019.07.15 21:20 ADDR 수정/삭제 답글

    아 저 계산식에 의하면 제대로 나오는군요, 허나 궁금한게
    fy를 구할때 492가 아닌 658이 나누어지는지 여쭤봐도 될까요?
    X축이 658 Y축이 492의 해상도를 가졌는데 어떻게 저렇게 되는지 궁금합니다.
    궁금증을 해결해주셔서 감사합니다.

  • HelpMe 2019.08.20 23:09 ADDR 수정/삭제 답글

    3d 영상(point cloud)에서도 calibration 할수 있나요??

  • 필립스 2019.09.06 00:13 ADDR 수정/삭제 답글

    안녕하세요? 질문을 좀 드릴라고 하는데요. 캘리브레이션을 해보니까. 광각일때는
    보정이 안되는거 같습니다. 아래 사진과 같은 경우
    자의 CM 동일한 길이로 보정이 가능할까요?
    https://photos.app.goo.gl/EGf5oBbMQRY3iKCEA
    선생님이 만드신 프로그램으로 보정을 해보려고 하는데 잘 안되내요.

    • BlogIcon 다크pgmr 2019.09.06 11:05 신고 수정/삭제

      네. 말씀하신 것처럼 해를 못찾는 경우가 많이 발생합니다. 내부적으로 최적화(iterative optimization) 기법으로 해를 찾아가는데, 아무래도 최적화이다 보니 초기값이나 문제 조건에 따라서 잘 못푸는 경우가 많이 발생하는 것 같습니다. 저도 문제는 인지하고 있는데.. 시간이 되면 손을 한번 봐야할텐데 선뜻 여유를 내기가 쉽지 않습니다.

  • 필립스 2019.09.06 18:41 ADDR 수정/삭제 답글

    답변 감사합니다. 한가지 질문 더 드릴게요.
    그러면, 프로그램 개발을 통해서 보정을 100%한다고 치면
    줄자의 길이를 상하 동일하게 보정이 가능할까요?
    예) 상단 10cm와 하단 cm 길이 동일

  • BlogIcon 영상처리대학생 2020.03.27 01:34 ADDR 수정/삭제 답글

    안녕하세요 다크프로그래머님!! 정말 감사히 잘 보고있습니다.

    제가 지금 시뮬레이션 프로그램에서 vision sensor를 설치하여 해당 영상을 가져와
    해당 영상 속의 자동차를 인식하여 중심점의 좌표값을 이미지 좌표계 상에서 찾아내고,
    그것을 카메라 좌표계의 좌표로 변환하고,
    그것을 월드 좌표계의 좌표로 변환하여 ground projection 하려고 합니다.
    자동차의 중심의 높이는 대략적으로 0.8m로 통일하였기 때문에 해를 구할 수 있다고 생각합니다.

    그런데, 이 시뮬레이션 프로그램이 Coppeliasim 이라는 것인데(과거 Vrep)
    카메라 초점거리 f 를 주지않고,
    카메라가 바라보는 시야각과, 이미지 좌표계의 최대 픽셀값을 제공합니다.
    시야각이 만약 60도 라고 하고, 이미지 평면의 픽셀값의 최대가 가로세로 512, 512 픽셀이라 한다면,
    카메라로부터 이미지 평면의 중앙에 수선의 발을 내리면,
    f를 다음과 같이 구할 수 있지 않나 궁금합니다.
    f = 256/tan(30)

    질문이 이해가 잘 안가시면 그림으로 설명드리고 싶은데... 어떻게 해야할지 모르겠습니다..
    감사합니다.

    • BlogIcon 다크pgmr 2020.04.20 14:44 신고 수정/삭제

      네, 그렇게 구할 수 있습니다. 정확하게 잘 계산하셨네요.

  • 영상처리 2020.04.22 03:52 ADDR 수정/삭제 답글

    안녕하세요. 좌표계 설명글과, 이번 글에서 Normalize plane과 Image plane의 순서가 점 P를 기준으로 다른 거 같은데, 두개가 다른 모델인가요?

    • BlogIcon 다크pgmr 2020.04.22 10:02 신고 수정/삭제

      차이점을 알려 주셔서 감사합니다. 이 글은 블로그 초창기때 썼던 글인데, 당시에 나름 좌표계를 정의해서 사용하다 보니 일반적으로 사용되는 좌표 체계와 차이가 있었습니다. 컴퓨터 비전에서 사용되는 일반적인 모델로 그림을 수정하였습니다. 감사합니다.

  • 랄라 2020.04.22 17:29 ADDR 수정/삭제 답글

    안녕하세요. Normalize plane에서 만약에 카메라의 width height가 크기가 다르면, 예를들면 width가 더길면 v는 -1.0~1.0으로 Normalize되고 h는 1.x정도로 더 길게 normalize 되는걸까요?

  • 수문 2020.04.22 20:25 ADDR 수정/삭제 답글

    캘리브레이션의 개요의 s[x y 1]옆의 s는 무엇인가요?

    • BlogIcon 다크pgmr 2020.04.24 00:01 신고 수정/삭제

      scale factor입니다. homogeneous 좌표에서는 scale factor는 큰 의미는 없습니다.

  • a 2020.05.13 08:46 ADDR 수정/삭제 답글

    감사합니다!! 막막했었는데 덕분에 많은 걸 얻고 갑니다ㅠㅠ

  • hmsi 2020.05.14 20:57 ADDR 수정/삭제 답글

    안녕하세요~ 좋은 글 감사드립니다.
    혹시 카메라 캘리브레이션 할때, 마커(이미지 센서)가 왜 사각형이고 2개가 필요한지 알 수 있을까요?

    • BlogIcon 다크pgmr 2020.05.15 14:19 신고 수정/삭제

      보통 마커(체스판)는 1개만 사용하면 됩니다. gml calibration tool에서 마커 2개인 경우를 지원하는데, 그건 그 툴을 만든 gml 그룹에서 그렇게 주장(?)하는 것이고 1개만 사용해도 됩니다.

  • 검증 2020.06.08 11:22 ADDR 수정/삭제 답글

    안녕하세요! 깔끔한 설명글 감사합니다.
    혹시, 내부 파라미터가 잘 뽑힌건지 아닌지 검증하는 방법이 있을까요??

  • 사랑해요다크 2020.08.18 09:27 ADDR 수정/삭제 답글

    안녕하세요 항상 다크님의 블로그에서 많은것을 배우고 갑니다.
    한가지 건의드리고 싶은것은 focal length 에 관한 내용입니다.
    처음에 저 focal length 의 개념이 제가 학습했던 취히리 연방공대의 학습자료와 달라서
    뭐지..싶었지만 결국 다크님은 object의 거리가 원래의 focal length 의 길이(렌즈에서 빛이 모아지는 지점)를 무시할 정도로 멀리 있다 에서 계산된 값이잖아요?(제가 아직 이해를 잘못하고 있는거 일 수도 있겠지만요..)
    그 계산된 내용도 함께들어가면 조금더 다른사람들이 이해하는데 수월 할 거 같아서
    건의...정도..조심스레...말씀드립니다.
    항상 건강하세요

    관련 사이트는
    https://asl.ethz.ch/education/lectures/autonomous_mobile_robots/spring-2020.html
    에 perception 2 pdf 보시면 나와있습니다

    • BlogIcon 다크pgmr 2020.08.19 09:58 신고 수정/삭제

      안녕하세요. 자료는 잘 봤습니다. 좋은 학교라서 자료도 괜찮네요.
      focal length 문제는 용어의 문제로 생각됩니다. 개인별로 관점에 따라서 설명하는 방식이 달라질 수는 있을 것 같아요. 하지만, (기하학적) 카메라 모델에서 말하는 focal length는 렌즈중심에서 이미지 센서까지의 거리가 맞습니다. 카메라 캘리브레이션에서 반환하는 값도 이 값이고요.. 다만, focal length라는 용어가 '렌즈의 초점거리'로 기존에 사용되어 오다 보니 그 용어를 카메라 모델에 적용하기 위해 언급하신 자료처럼 '카메라 초점거리'가 '렌즈 초점거리'와 근사적으로 같아진다는 식으로 설명할 수는 있는 것 같습니다. 하지만 저는 개인적으로는 focal length를 '렌즈의 focal length'와 '카메라 모델의 focal length'로 구분해서 정의하는게 좋다고 생각합니다. 그 값이 실제적으로 유사해 지더라도 엄연히 다른 개념의 값이니까요. '카매라 모델의 focal length'는 optical center(or center of projection)와 image plane 사이의 거리로서 영상의 가하학적 해석의 가장 기본이 되는 값입니다. 그리고 이 값은 (auto focusing 등을 통해서) 카메라의 상이 가장 선명하게 맺히는 지점에서의 렌즈 중심(optical center)과 이미지 센서까지의 거리입니다.

    • BlogIcon 사랑해요다크 2020.08.19 13:13 수정/삭제

      아 명확히 다르긴 하겠네요
      감사합니다

  • BlogIcon 2ID 2020.08.29 20:34 ADDR 수정/삭제 답글

    안녕하세요. 궁금한것이 있습니다
    1. 카메라 캘리브래이션을 통해 회전변환과 평행이동을 구한다는데, 사용하는 이미지가 이미지가 여러개인데(20개) 어느 회전변환과 평행이동을 반환하는건지 궁금합니다.

    2. 카메라 캘리브레이션으로 초점거리를 구하는 원리가 궁금합니다.
    캠으로찍은 사진이랑 pdf 사진이랑 비교해서
    거리를 구해서 하는건가요??
    초점거리를 구하려면 물체의 크기와
    렌즈 중심에소 물체까지의 실제 거리를 알아야하지 않나요?? 그건 어떻게 알아내는건가요??

    • BlogIcon 다크pgmr 2020.09.01 17:41 신고 수정/삭제

      1. 이미지마다 다른 값이 나옵니다 (각각의 체스판을 월드좌표계 원점으로 했을 때의 카메라 위치 및 회전값)

      2. 원리를 한마디로 설명하긴 어렵습니다.. 질문하신 것처럼 거리를 측정해서도 캘리브레이션이 가능하지만 실제 일반적인 방법들이 그런 식으로 동작하는 것은 아닙니다. 컴퓨터비전 분야에서 사용하는 대표적인 캘리브레이션 방법은 Z. Zhang. “A Flexible New Technique for Camera Calibration”, IEEE Trans. Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000 논문의 방법입니다. 기본 원리를 알려면 이 논문을 읽어야겠지만 온통 수학이라 쉽지는 않습니다.. 아마도 질문하신 목적은 이런 수학적인 내용이 아니라 직관적인 이해를 갖고 싶은 거겠지요? 초점거리를 계산하는 가장 핵심 정보는 제가 아는 한 이미지 투영의 원근효과(perspective effect)에 있습니다. 체스판을 측면에서 보면 원근효과(사다리꼴)가 나타나는데 카메라의 focal length에 따라서 동일한 각도라 하더라도 원근효과 정도가 달라집니다. Zhang 논문 등이 원근효과를 직접적으로 이용하는 것은 아니지만 (측정된 거리값 없이도) 카메라의 초점거리가 계산되는 기저에는 원근효과가 있다는 정도로 알고 계시면 좋겠습니다.

    • 2ID 2020.09.02 07:37 수정/삭제

      친절한 답변 정말 감사드립니다!

  • 2ID 2020.08.29 20:37 ADDR 수정/삭제 답글

    추가적으로 체크보드 캠 이미지 한장으로는 아무파라미터도 구할 수 없는건가요??

    • BlogIcon 다크pgmr 2020.09.01 17:52 신고 수정/삭제

      캠 이미지 한장으로도 캘리브레이션이 가능합니다. 영상 소실점 정보를 이용하는 방법들인데, 구글에서 "vanishing point camera calibration"으로 검색하면 관련 논문들을 찾을 수 있습니다.

  • BlogIcon 컴비입문자 2020.09.20 23:05 신고 ADDR 수정/삭제 답글

    안녕하세요 matlab으로 카메라 캘리브레이션을 하다가 찾아 뵙게 되었습니다. 핸드폰 카메라 exif의 초점거리 (4.3mm)와 그 카메라로 찍어 matlab에서 캘리브레이션을 한 결과에서의 초점거리 fx or fy와 1 pixel size를 곱하여 나온 값이 비슷하게 나와야하는데 1 pixel size는 1.4x10^-6 m이기 때문에 fx,fy가 3000 mm즘 나와야한다고 생각하는데 글 쓰신대로 수동초점 조절로 해보고 여러번 찍으며 시도해 보았으나 계속 700정도로 결과에 심하게 미치지 못하는 값이 나오는데 제가 캘리브레이션을 잘못한걸까요 ?

    • BlogIcon 다크pgmr 2020.09.22 11:50 신고 수정/삭제

      이미지 해상도에 관계된 문제가 아닐까 싶습니다. 픽셀 초점거리는 이미지 해상도에 따라서 달라지는 것이라서요.. 센서의 cell 수와 동일한 이미지 해상도로 캘리브레이션을 했는지 확인해 보시면 좋을 듯 싶습니다.

    • BlogIcon 컴비입문자 2020.09.25 01:31 수정/삭제

      네 말씀하신대로 사진을 카카오톡으로 전송하던중 원본으로 보낸게 아니고 일반화질로 보내는 설정으로 되어있어 이미지 해상도가 바뀌게 된것같습니다. 계속 문제를 찾고있었는데 답변해주셔서 감사합니다!

  • SilentEVE 2020.09.25 15:01 ADDR 수정/삭제 답글

    안녕하세요 예전에 World->Camera RT 관련하여 답변주셔서 감사합니다.
    다름이 아니라 카메라 캘 부분에서 궁금한점이 생겨 댓글을 달게되었습니다.
    캘리브레이션의 주요 목적은 카메라의 내부 파라메터를 알기 위해서라고 이해하고있습니다.
    여기서 일반적인 카메라가 아닌 360도 VR 카메라(Samsung Gear, RICOH. etc)같은 경우에는 바로 얻는 영상 데이터에서 이미 왜곡현상이 눈에 띄게 보이게 되는데 이런 특수한 카메라 같은 경우에도 일반적인 카메라의 캘리브레이션 과정과 동일하게 캘리브레이션을 수행하는지 알고싶습니다.

    • BlogIcon 다크pgmr 2020.09.25 21:34 신고 수정/삭제

      150도 카메라까지는 일반 캘리브레이션 방법으로 펴본 적은 있습니다. 특별히 문제없이 잘 되었구요. 그런데, 180도 카메라까지는 잘 모르겠네요. 리코세타 등은 360도 아니고 180도짜리 두개 붙인 것이라서 각각은 180도 짜리입니다.

    • BlogIcon SilentEVE 2020.09.27 16:22 수정/삭제

      180도 카메라가 생각보다 왜곡이 엄청 심해보이고 항상 다루던 일반적인 카메라와는 다른 특수한 방식이라 별도의 캘리브레이션 방법이 있을거라고 생각했습니다. 감사합니다

    • BlogIcon 다크pgmr 2020.10.04 20:10 신고 수정/삭제

      네, 제 생각에도 fisheye용 방법이 따로 있을 것도 같습니다. 캘리브레이션 방법도 워낙 많으니까요.
      제가 아는 것은 F. Devernay and O. D. Faugeras. Straight lines have to be straight. Machine Vision and Applications, 13(1):14?24, 2001 논문의 방법인데, 어지간한 광각도 잘 펴지는 것 같습니다. 그리고 opencv의 Zhang 방법도 사실 왠만큼은 잘 되는 편이구요. https://darkpgmr.tistory.com/139 글에 두 방법을 구현한 tool을 올렸는데, 혹시 이걸로 해결이 될지 모르겠습니다.

  • 다크교 2020.10.29 17:40 ADDR 수정/삭제 답글

    안녕하세요 자주 보면서 도움을 많이 받고 있습니다.
    저가의 카메라인 fisheye를 사용하여 calibration을 하던 도중 궁금함이 생겼습니다. 찾아봐도 아리송 해서요
    기존 fisheye모델도 왜곡이 심하지만 않다면 cv2 cameracalibration을 해도 잘되는데,
    왜곡이 심한경우 예를들면,
    https://docs.opencv.org/3.4/db/d58/group__calib3d__fisheye.html#ga167df4b00a6fd55287ba829fbf9913b9
    의 undistortImage()부분의 설명과 같은 영상때문에 calib3d.hpp의 cv::fisheye::cameracalibration을 쓰는 건가요? 더 적은 distortion parameter로 왜곡보정을 더 좋게 할 수 있기 떄문에? 이 부분이 궁금합니다.ㅠㅜ

    fisheye렌즈를쓰면 꼭 cv::fisheye::cameracalibration을 써야 하는줄 알았는데 아닌것 같아서요...

    • BlogIcon 다크pgmr 2020.10.30 06:40 신고 수정/삭제

      안녕하세요. 저는 아직 cv::fisheye는 사용해 보지 않아서 잘 모르겠습니다. 하지만 cv::calibrateCamera가 fisheye 렌즈에 적합하지 않은 것은 사실입니다. 렌즈의 왜곡 변환을 단지 (4차) 다항함수로 근사하는 것이기 때문에 테두리 쪽에는 왜곡이 잘 안펴질 수 있습니다. 물론 왜곡이 심하지 않은 경우에는 충분히 활용할 수 있고, 영상을 획득할 때, 체스판이 영상 테두리에서 검출되도록 잘 위치시키고 영상을 획득하면 쓸만한 결과를 얻을수는 있습니다.
      저는 개인적으로는 F. Devernay and O. D. Faugeras. Straight lines have to be straight. Machine Vision and Applications, 13(1):14?24, 2001 논문의 방법을 사용하고 있으며, https://darkpgmr.tistory.com/139 글에 있는 툴을 사용하면 캘리브레이션이 가능합니다.

    • BlogIcon 다크교 2020.10.30 14:39 수정/삭제

      감사합니다 다크프로그래머님 항상 어려운 내용을 조금 더 쉽게 나눠 주셔서 감사드립니다. 최고입니다. 다크님 만수무강하세요!