카메라 캘리브레이션 (Camera Calibration)

영상처리 2013. 2. 1. 16:59

카메라 캘리브레이션 (camera calibration)은 영상처리, 컴퓨터 비전 분야에서 번거롭지만 꼭 필요한 과정중의 하나입니다. 본 포스팅에서는 카메라 캘리브레이션의 개념, 카메라 내부 파라미터, 외부 파라미터, 카메라 핀홀 모델, 카메라 캘리브레이션 도구에 대해 관련된 개념이나 이론적 배경들을 전반적으로 정리해 보았습니다.


그림1. 카메라 캘리브레이션


0. 카메라 캘리브레이션이란?

1. 캘리브레이션 개요

2. 카메라 내부 파라미터(intrinsic parameters)

3. 카메라 외부 파라미터(extrinsic parameters)

4. 핀홀(pinhole) 카메라 모델

5. 캘리브레이션과 영상해상도 그리고 자동초점조절(auto focusing)

6. 캘리브레이션 도구(tool) 및 사용법

7. 캘리브레이션 결과가 달라지는 이유

8. 카메라 캘리브레이션 팁



0. 카메라 캘리브레이션이란?


우리가 실제 눈으로 보는 세상은 3차원입니다. 하지만 이것을 카메라로 찍으면 2차원의 이미지로 변하게 됩니다. 이 때, 3차원의 점들이 이미지 상에서 어디에 맺히는지는 기하학적으로 생각하면 영상을 찍을 당시의 카메라의 위치 및 방향에 의해 결정됩니다. 하지만 실제 이미지는 사용된 렌즈, 렌즈와 이미지 센서와의 거리, 렌즈와 이미지 센서가 이루는 각 등 카메라 내부의 기구적인 부분에 의해서 크게 영향을 받습니다. 따라서, 3차원 점들이 영상에 투영된 위치를 구하거나 역으로 영상좌표로부터 3차원 공간좌표를 복원할 때에는 이러한 내부 요인을 제거해야만 정확한 계산이 가능해집니다. 그리고 이러한 내부 요인의 파라미터 값을 구하는 과정을 카메라 캘리브레이션이라 부릅니다.



1. 캘리브레이션 개요


카메라 영상은 3차원 공간상의 점들을 2차원 이미지 평면에 투사(perspective projection)함으로써 얻어집니다. 핀홀(pinhole) 카메라 모델에서 이러한 변환 관계는 다음과 같이 모델링됩니다.


(1)


여기서, (X,Y,Z)는 월드 좌표계(world coordinate system) 상의 3D 점의 좌표, [R|t]는 월드 좌표계를 카메라 좌표계로 변환시키기 위한 회전/이동변환 행렬이며 A는 intrinsic camera matrix입니다.


그림 2. 카메라 좌표계


수식적으로 보면 카메라 캘리브레이션(camera calibration)은 위와 같은 3D 공간좌표와 2D 영상좌표 사이의 변환관계 또는 이 변환관계를 설명하는 파라미터를 찾는 과정입니다.


식(1)에서 [R|t]를 카메라 외부 파라미터(extrinsic parameter), A를 내부 파라미터(intrinsic parameter)라고 부릅니다. 그리고 A와 [R|t]를 합쳐서 camera matrix 또는 projection matrix라 부릅니다.


카메라 외부 파라미터는 카메라의 설치 높이, 방향(팬, 틸트) 등 카메라와 외부 공간과의 기하학적 관계에 관련된 파라미터이며 내부 파라미터는 카메라의 초점 거리, aspect ratio, 중심점 등 카메라 자체의 내부적인 파라미터를 의미합니다.



2. 카메라 내부 파라미터(intrinsic parameters)


카메라의 내부 파라미터로는 다음과 같은 것들이 있습니다.

  1. 초점거리(focal length): fx, fy
  2. 주점(principal point): cx, cy
  3. 비대칭계수(skew coefficient): skew_c = tanα



A. 초점거리(focal length)


흔히 초점거리라 하면 볼록렌즈의 초점을 생각하기 쉬운데, 여기서(카메라 모델) 말하는 초점거리는 렌즈중심과 이미지센서(CCD, CMOS 등)와의 거리를 말합니다.


그림 3. 카메라 모델


디지털 카메라 등에서 초점거리는 mm 단위로 표현되지만 카메라 모델에서 말하는 초점거리(f)는 픽셀(pixel) 단위로 표현됩니다. 즉, f의 단위로 픽셀이라는 의미입니다.


이미지의 픽셀(pixel)은 이미지 센서의 셀(cell)에 대응되기 때문에, 초점거리(f)가 픽셀(pixel) 단위라는 의미는 초점거리가 이미지 센서의 셀(cell) 크기에 대한 상대적인 값으로 표현된다는 의미입니다. 예를 들어, 이미지 센서의 셀(cell)의 크기가 0.1 mm이고 카메라의 초점거리가 f = 500 pixel이라고 하면 이 카메라의 렌즈 중심에서 이미지 센서까지의 거리는 이미지 센서 셀(cell) 크기의 500배 즉, 50 mm라는 의미입니다.


컴퓨터 비전 분야에서 카메라 초점거리를 물리단위(m, cm, mm, ...)가 아닌 픽셀단위로 표현하는 이유는 (이미지 픽셀과 동일한 단위로 초점거리를 표현함으로써) 영상에서의 기하학적 해석을 용이하게 하기 위함입니다.


그런데, 카메라 모델에서 초점거리를 하나의 값으로 f라 표현하지 않고 fx, fy로 구분하여 표현하는 경우가 있는데(실제로 카메라 캘리브레이션을 수행하면 fx, fy를 구분하여 반환한다) 이는 이미지 센서의 물리적인 셀 간격이 가로 방향과 세로 방향이 서로 다를 수 있음을 모델링하기 위함입니다. 이 경우 fx는 초점거리(렌즈중심에서 이미지 센서까지의 거리)가 가로 방향 셀 크기(간격)의 몇 배인지를 나타내고 fy는 초점거리가 세로 방향 센서 셀 크기(간격)의 몇 배인지를 나타냅니다. fx와 fy 모두 단위는 픽셀(pixel)이며 현대의 일반적인 카메라는 가로방향 셀 간격과 세로방향 셀 간격의 차이가 없기 때문에 f = fx = fy라 놓아도 무방합니다.


참고로, 동일한 카메라로 캘리브레이션을 수행했을 때, 이미지 해상도를 1/2로 낮추면 캘리브레이션 결과의 초점거리도 1/2로 작아집니다. 실제 물리적 초점거리가 변하는 것은 아니지만 카메라 모델에서의 초점거리는 상대적인 개념이기 때문에 해상도를 바꾸면 한 픽셀(pixel)에 대응하는 물리크기가 변하고 따라서 초점거리도 변하게 됩니다. 예컨데, 이미지 해상도를 1/2로 낮추면 이미지 센서의 2 x 2 셀(cell)들이 합쳐서 하나의 이미지 픽셀이 되기 때문에 한 픽셀에 대응하는 물리크기가 2배가 됩니다. 따라서 초점거리는 1/2이 되어야 합니다.


카메라 모델의 렌즈중심(초점)은 핀홀 카메라 모델(그림 6)에서 핀홀(pinhole)에 해당됩니다. 핀홀 카메라 모델은 모든 빛은 한 점(초점)을 직선으로 통과하여 이미지 평면(센서)에 투영된다는 모델입니다. 이러한 핀홀 모델은 3D 공간과 2D 이미지 평면 사이의 기하학적 투영(projection) 관계를 매우 단순화시켜 줍니다.


초점으로부터 거리가 1(unit distance)인 평면을 normalized image plane이라고 부르며 이 평면상의 좌표를 보통 normalized image coordinate라고 부릅니다. 물론 이것은 실제는 존재하지 않는 가상의(상상의) 이미지 평면입니다. 카메라 좌표계 상의 한 점 (Xc, Yc, Zc)를 영상좌표계로 변환할 때 먼저 Xc, Yc를 Zc(카메라 초점에서의 거리)로 나누는 것은 이 normalized image plane 상의 좌표로 변환하는 것이며, 여기에 다시 초점거리 f를 곱하면 우리가 원하는 이미지 평면에서의 영상좌표(pixel)가 나옵니다 (그림 4 참조). 그런데, 이미지에서 픽셀좌표는 이미지의 중심이 아닌 이미지의 좌상단 모서리를 기준(원점)으로 하기 때문에 실제 최종적인 영상좌표는 여기에 (cx, cy)를 더한 값이 됩니다. 즉, x = fxX/Z+cx, y = fyY/Z+cy. 카메라 모델에서 사용하는 좌표계 표현 및 변환에 대한 보다 자세한 내용에 대해서는 [영상처리] - [영상 Geometry #1] 좌표계 글을 참조하기 바랍니다.



그림 4. 카메라 투영(projection) 모델


☞ 초점거리에 대한 보다 자세한 내용에 대해서는 [영상처리] - 카메라의 초점거리(focal length) 글을 참조하기 바랍니다 (2013.10.23).

☞ 이미지평면(이미지센서)은 실제로는 렌즈 뒤쪽에 있지만, 기하학적 연산을 단순화하기 위해 위 그림처럼 렌즈 앞쪽에 위치시키는 것이 일반적입니다. (reflected model)



B. 주점(principal point)


주점 cx, cy는 카메라 렌즈의 중심 즉, 핀홀에서 이미지 센서에 내린 수선의 발의 영상좌표(단위는 픽셀)로서 일반적으로 말하는 영상 중심점(image center)과는 다른 의미입니다. 예를 들어서, 카메라 조립과정에서 오차로 인해 렌즈와 이미지 센서가 수평이 어긋나면 주점과 영상중심은 다른 값을 가질 것입니다.


영상기하학에서는 단순한 이미지 센터보다는 principal point가 훨씬 중요하며  영상의 모든 기하학적 해석은 이 주점을 이용하여 이루어집니다.



C. 비대칭 계수(skew coefficient)


비대칭 계수 skew_c는 이미지 센서의 cell array의 y축이 기울어진 정도를 나타냅니다 (skew_c = tanα).

그림 5. 카메라 비대칭 계수


요즘 카메라들은 이러한 skew 에러가 거의 없기 때문에 카메라 모델에서 보통 비대칭 계수까지는 고려하지 않는다고 합니다 (즉, skew_c = 0).


이러한 카메라 내부 파라미터들은 공개된 캘리브레이션 툴 등을 이용하면 비교적 쉽게 계산할 수 있습니다. 공개 캘리브레이션 툴 소개 및 사용법은 본 포스팅 하단을 참조하시기 바랍니다.



3. 카메라 외부 파라미터(extrinsic parameters)


카메라 외부 파라미터는 카메라 좌표계와 월드 좌표계 사이의 변환 관계를 설명하는 파라미터로서, 두 좌표계 사이의 회전(rotation) 및 평행이동(translation) 변환으로 표현됩니다.


카메라 외부 파라미터는 카메라 고유의 파라미터가 아니기 때문에 카메라를 어떤 위치에 어떤 방향으로 설치했는지에 따라 달라지고 또한 월드 좌표계를 어떻게 정의했느냐에 따라서 달라집니다.


카메라 외부 파라미터를 구하기 위해서는 먼저 캘리브레이션 툴 등을 이용하여 카메라 고유의 내부 파라미터들을 구합니다. 다음으로는 미리 알고 있는 또는 샘플로 뽑은 3D월드좌표–2D영상좌표 매칭 쌍들을 이용하여 식(1)에서 변환행렬을 구하면 됩니다. OpenCV에 있는 solvePnP함수를 이용하면 이러한 계산을 손쉽게 할 수 있습니다.


☞ 카메라 외부 파라미터 캘리브레이션 및 영상 기하학에 대한 전반적인 내용에 대해서는 [영상처리] - Extrinsic Camera Calibration - 카메라의 위치 및 자세 파악 글을 참고하기 바랍니다.



4. 핀홀(pinhole) 카메라 모델


핀홀 카메라 모델은 아래 그림과 같이 하나의 바늘구멍(pinhole)을 통해 외부의 상이 이미지로 투영된다는 모델입니다. 이 때, 이 바늘구멍(pinhole)이 렌즈 중심에 해당되며 이곳에서 뒷면의 상이 맺히는 곳까지의 거리가 카메라 초점거리입니다 (광학적으로 렌즈의 중심을 투과하는 빛은 굴절되지 않고 그대로 직선으로 투과한다고 합니다).


그림 6. 핀홀 카메라 모델

(그림출처: http://en.wikipedia.org/wiki/Pinhole_camera_model)


영상처리 분야에서 영상에 대한 모든 기하학적 해석은 이 핀홀 카메라 모델을 바탕으로 이루어집니다. 하지만, 사실 핀홀 카메라 모델은 매우 이상적인 카메라 모델이며 실제로는 렌즈계의 특성에 따른 영상 왜곡 등도 같이 고려되어야 합니다. 영상 왜곡에 대한 내용은 [영상처리] - 카메라 왜곡보정을 참조해 주시기 바랍니다.



5. 캘리브레이션과 영상 해상도 그리고 자동초점조절(auto focusing)


카메라에 있는 오토 포커싱(auto focusing) 기능을 켜면 계속 초점거리가 바뀔 수 있기 때문에 캘리브레이션 목적에는 적합하지 않습니다. 카메라에 대해 캘리브레이션을 수행하고 캘리브레이션 결과를 다른 계산 목적에 사용하고자 한다면 오토 포커싱 기능은 꺼 놓고 사용하는게 좋습니다.


카메라에는 보통 영상 해상도를 QVGA(320x240), VGA(640x480), 960x480, ... 등 다양하게 설정할 수 있습니다. 그런데, 영상 해상도를 바꾸면 카메라 캘리브레이션 결과도 바뀌는 것을 확인 할 수 있을 것입니다. 카메라 내부 파라미터중 초점거리 fx, fy, 주점 cx, cy는 픽셀 단위를 사용하는데, 카메라의 물리적인 초점거리나 이미지 센서의 크기는 변하지 않지만 한 픽셀이 나타내는 물리적 크기가 변하기 때문입니다. 그래서 만일 영상해상도를 VGA로 놓고 캘리브레이션 한 결과과 QVGA로 놓고 캘리브레이션 한 결과를 비교해 보면 QVGA의 경우가 fx, fy, cx ,cy의 값이 1/2씩 줄어들게 됩니다. 반면에 렌즈왜곡계수(k1, k2, p1, p2)는 normalized 좌표계에서 수행되기 때문에 영상 해상도와 관계없이 항상 동일합니다. 따라서, 한 해상도에서만 캘리브레이션을 수행해도 다른 모든 해상도에 대한 파라미터 값을 구할 수 있게 됩니다. 렌즈왜곡계수는 동일하며, fx,fy,cx,cy만 영상 해상도에 비례해서 조정해 주면 됩니다.



6. 캘리브레이션 도구(tool) 및 사용법


A. Dark Cam Calibrator


최근에 직접 구현한 것인데 필요하시면 한번 사용해 보시기 바랍니다 ([개발한 것들] - 카메라 캘리브레이션 프로그램 (DarkCamCalibrator)). 카메라에서 직접 영상을 획득할 수 있으며 Fisheye 왜곡모델에 대한 캘리브레이션도 가능하다는 특징이 있습니다. OpenCV를 이용하여 구현한 것으로서 캘리브레이션 성능 자체는 OpenCV 성능과 같습니다.



B. GML C++ Camera Calibration Toolbox


가장 손쉽게 이용할 수 있는 공개 캘리브레이션 툴로는 GML C++ Camera Calibration Toolbox가 있습니다. 현재 0.73버전이 가장 최신버전이며 소소코드도 같이 공개되어 있습니다.


사이트 링크: http://graphics.cs.msu.ru/en/node/909

직접 다운로드: GML_CameraCalibrationInstall_0.73.exe



그림 7. GML 카메라 캘리브레이션 툴


기본적인 사용법은 캘리브레이션 패턴(chess board)이 인쇄된 종이를 다양한 위치 및 각도에서 카메라로 촬영한 후 영상으로 저장하고 위 툴(tool)로 캘리브레이션을 수행하면 됩니다. 자세한 사용법 및 최적의 영상획득 방법 등은 프로그램 자체에 포함된 설명문(Help)을 참조하시기 바랍니다.


이 툴의 특징은 위 그림과 같이 여러 개의 캘리브레이션 패턴을 동시에 사용하여 캘리브레이션을 수행할 수 있다는 점입니다. 툴의 설명문에 보면 2개 이상의 패턴을 사용했을 때 캘리브레이션 효과가 좀더 좋다고 나와 있습니다. 물론 1개의 패턴만을 사용하는 것도 가능합니다.


위 툴을 사용하여 캘리브레이션을 수행하면 다음과 같은 형태로 결과를 볼 수 있습니다.


그림 8. GML 카메라 캘리브레이션 툴 실행 예시


캘리브레이션 결과는 위 예와 같이 추정치 ± 추정오차(3*sigma) 형태로 출력되며 각각의 항목의 의미는 다음과 같습니다.

  • Focal length: fx = 3497.576, fy = 3501.038
  • Principal point: cx = 1058.429, cy = 797.136
  • Distortion: k1 = -0.041196, k2 = -0.203893, p1 = 0.006114, p2 = 0.002318 (k1,k2: radial distortion 계수, p1,p2: tangential distortion 계수)



C. Camera Calibration Toolbox for Matlab


아마도 카메라 캘리브레이션 분야에 있어서 가장 대표적인 툴로 생각됩니다. Matlab으로 구현되어 있으며 다소 사용법이 복잡하지만 캘리브레이션 과정의 세세한 부분을 직접 설정할 수 있으며 보다 정밀한 캘리브레이션이 가능합니다.


사이트 링크: http://www.vision.caltech.edu/bouguetj/calib_doc/


그림 9. Caltech 카메라 캘리브레이션 툴


위 사이트는 또한 카메라 캘리브레이션 분야에 있어서 가장 대표적인 사이트로서 캘리브레이션 툴 뿐만 아니라 캘리브레이션에 대한 전반적인 이론 및 정보가 잘 정리되어 있습니다. 캘리브레이션을 연구하는 (영어권) 사람들은 주로 이 사이트를 통해 필요한 정보를 얻는 것으로 알고 있습니다.



7. 캘리브레이션 결과가 달라지는 이유 (2015.5.12 추가)


댓글로 문의를 많이 주시는 내용인데 본문에 내용을 추가하는 것도 좋을 것 같아서 추가합니다.


카메라 캘리브레이션 결과가 달라지는 것은 먼저 카메라의 auto focus 기능이 켜져 있는지 확인해야 합니다. 물론 auto focus 기능이 꺼져 있음에도 불구하고 결과가 달라질 수 있지만 그 편차는 auto focus 기능이 켜져 있는 경우에 비해 훨씬 줄어들 것입니다. 하지만, auto focusing 여부와 관계없이 근본적으로 동일한 카메라에 대해 캘리브레이션 결과가 달라질 수 있는 이유는 몇 가지 원인이 있는데 적어보면 다음과 같습니다.

  • 캘리브레이션은 완벽한 핀홀 카메라 모델을 가정하고 파라미터를 찾지만 실제 카메라는 핀홀 카메라 모델이 아닐 수 있습니다.
  • 카메라 캘리브레이션 과정에 렌즈계 왜곡모델이 들어가는데, 일반적으로 사용되는 렌즈계 왜곡모델은 왜곡 특성을 저차의 다항함수로 근사하는 것이기 때문에 실제의 렌즈계 왜곡과는 차이가 발생할 수 있습니다.
  • 마지막으로 카메라 캘리브레이션은 어떤 방정식을 풀어서 딱 떨어지게 해를 찾는 것이 아니라 해에 대한 초기 추정치부터 시작해서 최적화 기법을 적용하여 반복적인 탐색 과정을 거쳐 근사적인 해를 찾는 것이기 때문에 매번 해가 달라질 수 있습니다.

결국 카메라의 내부 파라미터 자체는 고유값이지만 캘리브레이션 모델 자체가 근사적인 모델이기 때문에 사용한 이미지에 따라 최적 근사해가 달라질 수 있습니다.



8. 카메라 캘리브레이션 팁 (2015.5.12 추가)


카메라 캘리브레이션 팁도 간단하게 같이 적어봅니다. 카메라와 패턴과의 거리에 대해 문의를 많이 주시는데 패턴과의 거리는 최대한 가까울수록 좋습니다. 그 이유는 캘리브레이션 자체는 패턴과의 거리와 관계없지만 패턴과의 거리가 가까우면 영상에서 좀더 정밀하게 코너점의 위치를 찾을 수 있기 때문입니다. (경험적으로) 패턴 영상의 개수는 4개 이상이면 어느정도 캘리브레이션이 가능하지만 많을수록 좋으며 20장 이상 정도면 무난하다고 생각됩니다. 마지막으로 패턴 영상을 획득할 때에는 되도록 다양한 각도에서 영상을 획득하면 좋습니다.



관련 포스팅


by 다크 프로그래머

  • 이전 댓글 더보기
  • zyxc 2021.05.30 21:32 ADDR 수정/삭제 답글

    calibration 작업을 꼭 체스판이 있는 사진으로만 해야 가능한건가요?
    어떠한 임의의 두사진으로는 할 수 없는것인가요?
    임의의 물체까지의 거리를 구하려고 하는데
    인터넷 자료를 아무리 찾아봐도 체스판을 이용해 calibration하는것만 있어서 질문드립니다. ㅠㅠ

  • ㅇㅇ 2021.06.02 17:17 ADDR 수정/삭제 답글

    안녕하세요 좋은 글 감사드립니다. 맨 위에서 두 번째 사진(카메라 모델 수식)에서 좌변 벡터 앞에 곱해진 스칼라 s는 Extrinsic Matrix로 투영을 거친 뒤 나온 카메라 좌표계에서의 Z 값(Zc)이라고 봐도 되겠죠? 그렇게 생각하면 밑에 설명하신 내용이랑 모든 게 맞아 떨어지는 것 같아서요. Extrinsic Matrix로 카메라 좌표계로 투영을 거친 뒤 => Z값으로 나눠 정규좌표계로 만들어 버린다. => Intrinsic Matrix를 곱해 영상 좌표계로 보낸다.

  • masici12 2021.06.04 14:45 ADDR 수정/삭제 답글

    안녕하세요. 좋은 글을 쉽게 올려주신 덕분에 공부에 정말 많은 도움이 됩니다. 감사합니다.
    한 가지 궁금한 점이 있는데, 다크프로그래머님 캘리브레이션 툴을 사용해서 캘리브레이션을 하고 있는데 기존의 사진을 파이썬이나 매트랩같은 tool로 픽셀을 조정하여(resize()함수 이용) 사진의 크기를 줄이고 캘리브레이션을 했을 때 RMS가 줄어드는 것을 확인했습니다.( 물론 초점거리나 주점이 줄어든 크기에 비례해서 줄어듭니다.) 왜 RMS가 줄어드는지 알 수 있을까요??

    • BlogIcon 다크pgmr 2021.06.04 15:52 신고 수정/삭제

      rms는 캘리브레이션으로 찾아진 모델에서 추정한 픽셀 위치와 실제 검출된 코너점들 사이의 픽셀 에러를 의미합니다. 그런데 작아진 이미지 크기에 비례해서 동일하게 줄어든 캘리브레이션 모델이 얻어진다고 가정해 보면, 이미지 scale이 작아지면 비례해서 rms도 작아지는 것은 당연하지 않을까 싶습니다.

    • BlogIcon masici12 2021.06.04 15:57 수정/삭제

      좋은 답변 항상 감사합니다.^^

  • BlogIcon 쥐현자 2021.06.09 10:35 ADDR 수정/삭제 답글

    안녕하세요 비전맨들의 아버지 다크프로그래머님. 이 카메라 캘리브레이션 페이지는 대학에 다닐 때부터 직장인이 되어서도 계속 찾게 되네요. ㅋㅋㅋ 정말 대단한 정리라고 생각하고 항상 감사드립니다.

    카메라 조립과정에서 오차로 인해 렌즈와 이미지 센서의 수평이 어긋나면 여러 Intrinsic 패러미터들이 바뀔 수 있다고 설명해주셨는데요, 제 생각엔 '렌즈와 이미지 센서의 수평이 어긋난 경우'를 사실 근본적으로 핀홀카메라 모델만으로 표현할 방법이 없다고 생각하는데, 이를 보완하기 위한 다른 카메라 모델이 있는지, 해당 모델에 맞는 캘리브레이션 방법이 또 따로 존재하는지 궁금합니다.

  • 코코 2021.08.02 10:46 ADDR 수정/삭제 답글

    이미지센서의 cell이란 표현에서 cell 이 무엇을 말하는 것인지 궁금합니다!

    • BlogIcon 다크pgmr 2021.08.02 12:58 신고 수정/삭제

      셀은 이미지 센서에 집적되어 있는 photo diode(광학 다이오드)를 말합니다. 일정한 시간 동안 축적된 광량을 전기적 값(intensity)으로 변환시키는 역할을 합니다.

  • 조로악크 2021.08.03 16:41 ADDR 수정/삭제 답글

    안녕하세요! 다크프로그래머님!

    처음 카메라 칼리브레이션이 무엇인지 알아보고 공부한 덕에 실제 칼리브레이션 모델을 구현할 수 있게 되었습니다. 감사합니다.

    현재 제가 큰 직사각 물체 (ex. 탁구대)를 칼리브레이션하려고 A4 용지 4*11 원형 격자를 이용하였습니다. 그래서 탁구대의 테두리를 4*11 원형 격자 A4 용지 세로 방향으로 모두 사진을 찍어서 칼리브레이트를 했습니다. 그 결과 모두 drawchessboard()가 되었고, 그 결과로 카메라 내부 행렬과 왜곡 계수를 구했습니다만....
    그렇지만 잘 칼리브레이션되었는 지 확인 하기 위해 cv2.ProjectPoints를 활용해서 오차를 구했습니다만..
    error가 9000% 가 떴습니다.
    최종적으로 궁금한 것은 어떻게 하면 error를 잘 줄일 수 있는지가 궁금합니다.
    참고로 A4 용지와 카메라 사이 거리는 대략 1.3m입니다. 그리고 조명은 키지 않는 상태입니다.

    • BlogIcon 다크pgmr 2021.08.03 22:22 신고 수정/삭제

      안녕하세요. 여러 원인이 있을 수 있기 때문에 말씀만으로 원인을 짐작하기는 어렵습니다. 일반적인 말씀 밖에는 못 드리며, 카메라 캘리브레이션용 사진은 가급적 가까이서, 그리고 가급적 다양한 각도에서 촬영하면 좋습니다. 물론 사진을 찍기 전에 카메라의 초점거리는 원하는 물체와의 거리로 고정시켜 놓아야 합니다. 그리고, 가끔 보드판(A4 용지)을 수직으로만 사진을 찍는 경우가 있는데, 그러면 캘리브레이션이 되지 않습니다. 반드시 측면(사선)에서 찍은 사진이 포함되어야 합니다.

    • BlogIcon 조로악크 2021.08.04 23:59 수정/삭제

      안녕하세요! 다크 프로그래머님!
      정말로 Camera Calibratino의 대가 라고 할 수 있을 정도로 정말로 큰 도움을 받고 있습니다.

      앞서 올려 주었던 오차 (사실 처음에는 12000% 까지 나왔습니다 ㅠㅠ)가 9000% 였다고 했었는 데 선생님이 알려주신 조언대로 차근차근 조금씩 오차를 줄여나가 최소 오차는 40%까지 올라간 상태입니다.
      그리고 사진을 좀 더 추가해서 지금은 오차가 56%까지 도달하게 되었습니다.
      진심으로 감사합니다.

      그렇지만 이렇게 오차가 56% 로 되었으나 camera calibrate한 결과로 x,y,z 즉, 이동하는 물체의 직교좌표계를 구하려고 하는 데 좀 많이 심할까요?

      또한, 실시간으로 칼리브레이션을 통해 구한 카메라 내부 행렬, 왜곡계수 등 그런 값을 토대로 실시간으로 칼리브레이트한 결과를 영상으로 보았는 데 탁구대 모서리 양쪽이 좀 오목해진 결과를 보았는 데 오목해진 것을 좀 더 평평하게 만드는 방법은 없을까요? 오차를 줄이는 것과 일맥상통한 말일까요?

      오차를 줄이기 위한 시도, 더 평평해지기 위한 시도로는
      -모든 A4용지(4*11 원형격자가 그려진)로 다양한 각도로 모든 면을 커버쳐서 이미지를 캡쳐하였습니다.
      -조명도 켰습니다.
      -모든 것을 거의다 수평으로 맞추려고 했습니다.

      정말 큰 도움을 받고 있습니다. 항상 감사합니다!

    • BlogIcon 다크pgmr 2021.08.07 22:49 신고 수정/삭제

      1. 혹시 카메라 자동초점 기능을 켠 상태로 진행했다면, 자동초점 기능을 끄고 캘리브레이션하면 좋을 듯 싶습니다. 먼저, 카메라를 원하는 물체(탁구대)와의 거리에 놓고 초점을 맞춘 후, 그 시점에서 초점을 고정시킵니다. 그리고 영상을 획득해서 캘리브레이션을 하면 좋습니다. 만일 자동초점 기능을 마음대로 끄기 힘들다면, A4 용지말고 커다란 보드판을 별도로 제작해서 원하는 거리에서 캘리브레이션을 진행하는게 좋겠습니다.
      2. 영상에 왜곡이 펴지지 않을 때에는 캘리브레이션 방법을 바꾸는 수밖에 없습니다. opencv에 있는 기본 캘리브레이션 방법은 Zhang 방법인데, 광각 카메라의 경우에 왜곡을 잘 펴지 못하는 문제가 있습니다. 그 경우에는 fisheye 카메라용 캘리브레이션 모델 등을 사용해야 합니다만, 실제 사용하기는 쉽지 않습니다. 왜냐하면, 다른 모델로 캘리브레이션이 잘 되었다 하더라도 그 결과를 활용하려면 어느 정도 이 분야의 이론적인 배경지식이 있어야 하기 때문입니다. https://darkpgmr.tistory.com/139 글은 한번 참고해 보시기 바랍니다.
      3. 모든 것을 수평으로 맞춘다는 의미는 잘 이해가 안가네요. 캘리브레이션할 때 수평으로 맞출 것이 별로 없습니다만.. 오히려 수평이나 수직이 아니라 다양한 각도로 영상을 획득해야 합니다.

  • BlogIcon 꽁냥 2021.08.14 20:38 ADDR 수정/삭제 답글

    안녕하세요?
    필요한 부분인데 도움많이 받았습니다
    궁금한게 생겨서 여쭤봅니다
    카메라 인트린직 익스트린직 다 가지고 있을때 특정 이미지상의 한 좌표 x,y에 대응되는 월드상의 한 좌표 x,y,z 를 구할 수 있나요?

    • BlogIcon 다크pgmr 2021.08.14 20:58 신고 수정/삭제

      depth를 모르면 구할 수 없습니다. 월드좌표 P(x,y,z)에 대응되는 픽셀좌표 p는 P와 카메라의 원점을 잊는 직선이 이미지 평면과 만나는 교점입니다. 그런데, 이 직선(ray) 위의 모든 점들이 p로 투영되기 때문에 p로부터 원래의 점를 구하는 것은 불가능합니다.

  • BlogIcon 건짱짱 2021.08.15 17:20 ADDR 수정/삭제 답글

    안녕하세요! 카메라 캘리브레이션에 관해 공부를 하던중 글을 읽게되었고 정주행중입니다!
    궁금한점이있어서 댓글남깁니다
    제가 갤럭시 s20을 쓰고있는데 cv2함수를 이용해서 내부파라미터를 구했습니다. 이걸 이용해서s20으로 찍은 사진의 실제크기를 구할수 있나요?? 예를들어 a4 용지 내부에 그려진 그림의 크기를 구하고싶습니다

    • BlogIcon 다크pgmr 2021.08.16 01:52 신고 수정/삭제

      이미지 하나만 가지고는 못구합니다. 바로 윗 댓글에 답변을 달았듯이 2D 이미지 만으로 3D를 복원할 수는 없습니다. 어떤 식으로든 부가적인 조건이 있어야만 합니다. 예를 들어 스테레온 카메라를 사용하거나 realsense와 같은 RGBD 카메라를 사용하거나 또는 여러 장의 이미지를 찍어서 3D를 복원하거나, 아니면 사물이 지면에 붙어있고 카메라의 높이와 방향각을 알고 있다든지 하는 부가 조건이 있어야만 합니다.

    • 건짱짱 2021.08.16 19:37 수정/삭제

      그렇군요.. 감사합니다!

  • Lee 2021.08.25 21:42 ADDR 수정/삭제 답글

    안녕하세요 다크프로그래머님. 좋은 글 감사합니다.
    글을 읽으며 Intrinsic parameter와 Angle of View간의 관계에 대해 궁금한 점이 생겨 댓글 남깁니다.
    제가 생각하기에 Angle of view를 focal length, principal point, resolution(혹은 image sensor size)를 이용해 구할 수 있다고 보는데요. 제가 해당 내용에 대해 구글링을 해봤는데 focal Length와 Sensor size 정보를 이용하여 Vertical/Horizontal Angle of View를 구하는 것은 많이 나오나 여기에 Principal Point를 고려해서 구하는 것은 찾지 못했습니다. Principal point 또한 실제 angle of view 영향을 줄 것으로 보이는데 제 생각이 맞는지, 맞다면 angle of view와 focal length, principal point, resolution(mm단위계라면 sensor size) 간의 관계식이 어떻게 되는지 궁금합니다.

    • BlogIcon 다크pgmr 2021.08.26 09:13 신고 수정/삭제

      안녕하세요. 말씀하선 것처럼 principal point를 고려해서 시야각을 계산하는 것이 좀더 정확할 것 같습니다. 계산은 굳이 자료가 없더라도, 시야각과 초점거리 사이의 변환 원리를 이해하시면 직각삼각형에서의 삼각함수 등을 이용해서 어렵지 않게 직접 계산할 수 있을 것입니다. 다만, 보다 정밀한 결과를 위해서는 intrinsic 파라미터(왜곡계수 등)의 영향을 제거한 정규 좌표계에서 계산하는 것이 좋을 것으로 생각됩니다.

    • BlogIcon Lee 2021.08.26 09:35 수정/삭제

      답변 감사합니다.
      해당 내용을 여쭤본 이유는 일부 프로그램에서 Vertical to Horizontal(or Horizontal to Vertical) angle of view 변환을 할 때 resolution ratio(aspect ratio)만을 고려하여 변환하고 있어 이게 맞는지 의문이 생겼기 때문입니다. 답변해주신 말씀대로 라면 이 때도 principal point를 고려해야 될 것으로 보이네요. 말씀해주신 덕분에 이해에 도움이 됐습니다. 감사합니다. :)

  • 릴리 2021.10.05 11:50 ADDR 수정/삭제 답글

    tc camera calibration v0.3
    camera 0 cam_8
    frame 0
    sensorSize 10 10 # in mm
    focalLength 7.32506 # in mm
    pixelAspect 1.00044
    centerOffset -0.0322884 0.0929296 # in mm (positive values move right and down)

    MPI-inf-3dhp라는 테스트 데이터셋의 카메라 정보인데요
    위의 정보에서 focalLength를 pixel단위로 바꾸려면
    0.732506을 sensorsize로 나눈 0.732506 이 맞는지 궁금합니다.

    뭔가 값이 너무 작은 것 같아요

    그리고 pixelAspect, centeroffset의 의미도 알려주실 수 있나요?
    혹시 principle point를 centeroffset으로 표현하기도 하나요?


    • BlogIcon 다크pgmr 2021.10.06 11:09 신고 수정/삭제

      픽셀단위 focal length는 이미지 해상도에 dependent 한 값으로서sensor size가 아닌 cell 크기로 나눠줘야 합니다.
      pixelAspect는 cell의 가로, 세로 길이의 비, centeroffset은 principal point로 추측됩니다.

  • 비전꼬맹이 2021.12.16 09:41 ADDR 수정/삭제 답글

    카메라와 렌즈의 사양을 알고 있다면, 카메라 파라미터와 왜곡수치를 수학적으로 계산할수 있을까요?
    12MP(4096x3000)에 pixelsize가 3.65um이고, CCTV렌즈가 12mm 에 왜곡율 -0.1%일떄는
    fx : 20mm / 3.65um / 1000 fy : 20mm / 3.65um / 1000
    cx : 2048 cy : 1500
    k1 = k2 = -0.1 이렇게 되는 걸까요?

    • BlogIcon 다크pgmr 2021.12.16 11:15 신고 수정/삭제

      fx, fy, cx, cy는 맞게 잘 구하셨습니다만 렌즈의 왜곡률이란 것이 무엇인지(어떻게 정의되는 수치인지)는 잘 모르겠네요. k1, k2는 렌즈의 방사왜곡(radial distortion)을 다항함수(polynomial)로 근사했을 때의 계수이니, 왜곡률(무엇인지는 모르지만)을 k1, k2에 직접 대입하는 것은 맞지는 않을 것 같습니다.

    • BlogIcon 비전꼬맹이 2021.12.16 13:33 수정/삭제

      CCTV 렌즈 FA1216a 이런 모델에 보면 Distotion(TV) < 1.5%이렇게 스펙이 정해져있는데, 다른 렌즈 스펙으로 구할수 있는 방법이 있을까요?

    • BlogIcon 다크pgmr 2021.12.16 13:36 신고 수정/삭제

      혹시 distortion(tv)가 무엇인지는 찾아보셨나요?

    • BlogIcon 비전꼬맹이 2021.12.16 18:02 수정/삭제

      영상 중심에서부터의 픽셀이 왜곡된 비율인데,예로 cx가 2000이고, 3000px이라면, 왜곡된 px은 (3000-1000) * 왜곡율 + 3000으로 실제 위치가 달라지게되서 k1,k2랑 좀 다른개념인거 같습니다.

  • 비전초보 2022.01.12 11:54 ADDR 수정/삭제 답글

    안녕하세요 다크프로그래머님 항상 잘보고 있습니다.
    카메라 캘리브레이션이 필요할 때마다 글을 참고하고 있습니다. 하나의 카메라에서 캘리브레이션 후 사용하는데 무리가 없는데 하나의 고정된 스테레오 카메라(A)와 다른 움직이는 하나의 RGBD 카메라(B)이 두개의 카메라를 캘리브레이션 하려면 어떻게 해야할지 감이 안와서 한번 질문 드립니다.
    A에서는 마커를 트래킹해서 월드좌표계의 R|t 행렬을 제공받는데 RGBD 카메라에서 이 좌표를 사용하기 위해서 두 카메라의 좌표계를 정합해야 사용이 가능할듯 한데 조언좀 구하고자 이렇게 글을 적어봅니다.

    • BlogIcon 다크pgmr 2022.01.17 10:22 신고 수정/삭제

      남기신 글만 봐서는 어떤 것인지 파악이 어렵네요. 적절한 예인지는 모르겠지만, https://inmoonlight.github.io/2019/01/08/How-to-ask-good-question-to-my-mentor/ 참고 바랍니다..

  • 초보입니다. 2022.01.17 19:42 ADDR 수정/삭제 답글

    안녕하세요 다크프로그래머님.

    컴퓨터 비젼과 관련해 공부중인 학생입니다.

    글을 보던 중, 궁금한 점이 있어 이렇게 질문 남깁니다.

    현재 제가 찍어야할 대상은 상당히 큰 교량 구조물로,

    대상에서 200~300m 떨어진 곳에서 망원렌즈를 장착한 DSLR을 통해 촬영할 예정입니다.

    하지만, 거리에 따라 초점을 세팅 후 촬영해야할텐데 이러한 경우 체크보드 촬영이 어려울 것으로 예상됩니다.

    왜곡을 보정하고자 하는 이미지에서의 초점거리와 체크보드를 찍을때의 초점거리가 반드시 똑같아야 하나요?

    해결방법이 없을까요? 답변주시면 감사하겠습니다.

    • BlogIcon 다크pgmr 2022.01.18 00:29 신고 수정/삭제

      그냥 망원렌즈를 장착한 상태에서 원래 대상에 맞게 200 ~ 300m로 초점을 맞춘 후, 체크보드를 찍으면 될 것 같은데요.. 체크보드는 적당한 거리에 두고요. 초점은 당연히 원래 대상에 맞게 고정시킨 상태여야 하고요. 혹시 안되는 이유가 있을까요? 저도 망원렌즈에 대해 직접 해 본 것은 아니라서요.

    • BlogIcon 초보입니다. 2022.01.18 10:25 수정/삭제


      먼저 답변주셔서 너무 감사합니다.

      몇가지 어려움이 있습니다.

      1. 원래 대상에 맞게 200-300m로 초점을 맞춘 후, 원래 대상이 위치한 곳에 체크보드를 두고 찍게되면 거리로 인해 체크보드의 크기가 상당히 커야된다는 문제점이 있습니다.

      2. 만약 초점은 200-300m로 맞춘 후, 체크보드는 그 보다 가까이 위치하여 찍게 되면 이미지 내 체크보드의 초점이 맞지 않게 됩니다.

      지금 답변 주신거는 2번에 해당하게 찍으면 된다는 말씀이신가요?

      그렇다면, 체크보드의 초점이 맞고 안맞고는 calibration에 중요하지 않은 부분인가요?

    • BlogIcon 다크pgmr 2022.01.18 12:22 신고 수정/삭제

      네, 제가 말씀드린 것은 2번입니다. 체스판의 코너점만 정확히 찾을 수 있다면 상이 흐려도 관계없습니다. 만일 코너점을 찾지 못할 정도로 상이 흐려지면 어느정도 거리를 두고 체스판을 촬영하시면 될듯 싶습니다

  • 뚜벅이 2022.02.07 10:59 ADDR 수정/삭제 답글

    안녕하세요 다크님
    작은 FOV 및 디포커스를 고려하기 위해 체스보드대신 대칭 도트보드를 검토하고 있습니다.
    진행 중에 어려움이 있어 문의드립니다.
    1. 대칭 도트보드 사용 시 장점이 있을지요?
    2. 여러 방향, 정면 측면 영상들을 확보하여 캘리브레이션을 하였습니다만 할때 마다 fx, fy, cx, cy 값이 크게 변하는데 원인이 있을지요?
    - 여러 세트의 영상들을 얻어 비교하는데 세트별로 100pixel 이상씩 차이나는 경우도 있습니다. 특히 cy값은 200-300 pixel 이상 차이가 ㅠㅠ
    - 도트 보드로 여러번 세트로 영상을 획득 경우 pixel 편차가 어느 정도가 정상일지요? (rms 는 0.2 ~0.5 편차를 가지고 있습니다.)
    답변 주시면 감사하겠습니다. 꾸벅

  • 감사 2022.03.23 13:38 ADDR 수정/삭제 답글

    Reality Capture 라는 프로그램에 사진에 대한 calibration 정보로 focal length를 넣어주어야 하는데요,
    기입란 제목이 'focal length(35mm)'라고 되어 있고,
    그곳에 마우스를 올리면 "Camera length in the 35mm format" 이렇게 뜹니다.

    제가 가진 데이타셋의 focal length는 pixel 단위라서 일단 mm 단위로 바꾸어 주어야 하는데요
    F(mm) = F(pixels) * sensor Width(mm) / image Widht(pixel) 이 식을 사용하려고 하는데
    'sensor Width(mm) 이 부분에 위에 명시된 35mm를 넣어야 하는 걸까요?
    아니면 데이터셋 제작 카메라의 sensor Width를 넣어야 하는 걸까요?

    그리고 만약 후자라면,
    그렇게 만들어진 mm 단위의 focal length를 35mm format에 맞게 기입하는 건 어떻게 하는 걸까요?

    • BlogIcon 다크pgmr 2022.03.23 17:20 신고 수정/삭제

      35mm format이란, 35mm 필름 카메라(36mm x 24mm 이미지센서)를 기준으로 했을 때의 렌즈의 초점거리를 입력하라는 의미로 보입니다. 픽셀단위 초점거리를 화각으로 변환한 후에, 35mm 필름 카메라 기준의 초점거리(mm)로 다시 환산하여 입력하면 될 것 같습니다.
      https://en.wikipedia.org/wiki/Angle_of_view 내용을 살펴보시면 도움이 되리라 생각됩니다.

  • BlogIcon Leeys 2022.04.20 11:24 신고 ADDR 수정/삭제 답글

    안녕하세요.
    만약 두 카메라의 매개변수를 알고있으면 굳이 체스판 보정을 안해도 괜찮을까요?

    • BlogIcon 다크pgmr 2022.04.20 12:06 신고 수정/삭제

      체스판으로 캘리브이션하는 이유는 카메라 매개변수를 구하기 위함이니 알고 있다면 할 필요는 없겠지요.

  • 윌슨 2022.04.25 11:04 ADDR 수정/삭제 답글

    안녕하세요.
    요즘 산업용 카메라 보정작업을 하는데 원리가 궁금하던 차에 이해하는데 너무 도움이 많이 되었어요.
    감사합니다!

  • BlogIcon Ccaaaara 2022.05.20 14:37 신고 ADDR 수정/삭제 답글

    안녕하세요 ! matrix 설명 중에 [x y 1] 앞에 있는 s는 어떤걸 의미 할까요? scale 인가요?

    • BlogIcon 다크pgmr 2022.05.22 18:19 신고 수정/삭제

      식에서 s는 해당 3차원 점의 depth (카메라로부터 떨어진 z 거리)에 해당합니다.

  • BlogIcon 코딩킹 2022.06.06 16:29 신고 ADDR 수정/삭제 답글

    안녕하세요 다크 프로그래머님!! 덕분에 재밌게 관련 분야에 대해서 공부하고 있습니다.
    질문이 하나 있는데, 초점거리라는 개념이 약간 헷갈려서 그런데, 그림 3과 그림 4을 보면 초점거리를 의미하는 그림이 두 개가 있는데, 그림 3에서 보여지는 렌즈의 중심과 이미지 센서의 거리를 초점거리라고 하고 그림 4에서는 image plane과 원점 사이의 거리를 초점거리라고 하셨는데, 그러면 그림 4에서의 image plane을 렌즈라고 생각하고, 원점을 이미지 센서라고 생각을 해도 될까요?

    • BlogIcon 다크pgmr 2022.06.06 22:38 신고 수정/삭제

      렌즈 중심은 원점, 이미지 센서는 image plane에 해당합니다.

    • BlogIcon 코딩킹 2022.06.08 20:30 신고 수정/삭제

      답변 감사드립니다. 한 가지 더 궁금한 것이 있습니다. 렌즈가 원점이 되고, 이미지 센서가 image plane이라고 하셨는데, 그림 3같은 경우 예를들어 3차원 물체를 2차원 이미지로 가는 과정이 렌즈를 통과한 후에 이미지 센서로 들어가는 것이 아닌가요?
      그림 4에서는 image plane을 이미지 센서라고 하셨는데 3차원 점 (Xc, Yc, Zc)이 image plane(=이미지 센서)를 통과하고 원점(=렌즈)를 통과하는 것 같아서 이 두 과정이 반대여서 초점거리가 헷갈리네요...

    • BlogIcon 다크pgmr 2022.06.08 21:42 신고 수정/삭제

      물리적으로는 그림3, 그림6이 맞습니다. 그런데 그렇게 하면 계산이 너무 복잡해지기 때문에 계산상의 편의를 위해서 그림 4처럼 이미지 평면을 (가상으로) 렌즈 앞으로 옮겨놓고 계산하는 것이 일반적입니다.

    • BlogIcon 코딩킹 2022.06.09 13:16 신고 수정/삭제

      감사합니다!!! 포스팅 너무 잘보고 있습니다.

  • 아이고이거참 2022.06.22 21:19 ADDR 수정/삭제 답글

    안녕하세요 다크 프로그래머님
    공유해주신 GML Camera Calibration Tool 정말 잘 쓰고 있습니다.
    프로그램님의 앞길에 무궁한 영광이 함께하길 기원합니다.

    한가지 궁금한게 있는데
    GML Camera Cal로 Reprojection error값을 구할 수 있을까요?
    Reprojection error값을 구해야 한다는데 이번에 처음 보게되서 어리둥절하고 있는 상황입니다 ;;;;
    혹시 GML Camera cal tool로 상기 값을 산출 가능하다면..
    부디 이 불쌍한 민초에게 아량을 베풀어 주세요...
    GML로 불가하다면 혹시 알고계신 TOOL중에 가능한 툴이 있는지 소개만 좀...
    부탁 드립니다..ㅠ.ㅠ

    • BlogIcon 다크pgmr 2022.06.23 10:31 신고 수정/삭제

      https://darkpgmr.tistory.com/139 에 있는 툴을 써보시기 바랍니다 (rms가 reprojection error)