[go: up one dir, main page]

KR0139572B1 - Image distortion calibration method using nervous network - Google Patents

Image distortion calibration method using nervous network

Info

Publication number
KR0139572B1
KR0139572B1 KR1019940036967A KR19940036967A KR0139572B1 KR 0139572 B1 KR0139572 B1 KR 0139572B1 KR 1019940036967 A KR1019940036967 A KR 1019940036967A KR 19940036967 A KR19940036967 A KR 19940036967A KR 0139572 B1 KR0139572 B1 KR 0139572B1
Authority
KR
South Korea
Prior art keywords
image
neural network
network circuit
correction
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1019940036967A
Other languages
Korean (ko)
Other versions
KR960028194A (en
Inventor
김재한
Original Assignee
양승택
한국전자통신연구원
조백제
한국전기통신공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 양승택, 한국전자통신연구원, 조백제, 한국전기통신공사 filed Critical 양승택
Priority to KR1019940036967A priority Critical patent/KR0139572B1/en
Publication of KR960028194A publication Critical patent/KR960028194A/en
Application granted granted Critical
Publication of KR0139572B1 publication Critical patent/KR0139572B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 역 투사(back projection)를 오차의 보정에 효율적으로 사용할 수 있도록, 간편하고(convenient) 정확도가 높은(accurate) 신경망 회로를 이용한 카메라의 영상 왜곡 보정 방법에 관한 것으로, 3차원 공간의 영상을 카메라 영상면으로 투사할때 왜곡 현상이 발생하는 것을 방지하는 영상 왜곡 보정 방법에 있어서, 3차원 공간 좌표(X,Y,Z)상의 임의의 보정점들의 실제 좌표값과 이차원 영상면의 투사점들과의 사상 함수를 구하되, 기준선에 대한 조사 각도 세타(θ)를 사상의 추가 정보로 이용하는 제1단계; 상기 제1단계에서 구한 사상 함수를 신경망 회로의 연결 강도로 변환하여 테이블에 저장하는 제2단계; 및 획득된 카메라 영상을 역 투사하여 영상 정보에 대한 거리를 구한 후에 상기 거리에 해당하는 테이블 값을 상기 신경망 회로에 입력하여 보정하는 제3단계를 포함하여 영상 왜곡을 환경이나 카메라 종류, 파라미터 등의 변화에 관계없이 효율적으로 쉽게 보정할 수 있는 효과가 있다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for correcting image distortion of a camera using a convenient and highly accurate neural network circuit so that back projection can be efficiently used for error correction. In the image distortion correction method for preventing distortion from occurring when the image is projected onto the camera image plane, the actual coordinate values of the arbitrary correction points on the three-dimensional spatial coordinates (X, Y, Z) and the projection points of the two-dimensional image plane. Calculating a mapping function of and using the irradiation angle theta (θ) with respect to the reference line as additional information of the mapping; A second step of converting the mapping function obtained in the first step into a connection strength of a neural network circuit and storing the mapping function in a table; And obtaining a distance of the image information by reverse projecting the acquired camera image, and inputting and correcting a table value corresponding to the distance to the neural network circuit to correct the image distortion such as environment, camera type, parameter, and the like. There is an effect that can be easily and efficiently corrected regardless of the change.

Description

신경망 회로를 이용한 영상 왜곡 보정 방법Image Distortion Correction Method Using Neural Network

제1도는 본 발명이 적용되는 하드웨어의 일예시도.1 is an example of hardware to which the present invention is applied.

제2도는 사상 좌표계의 개념도.2 is a conceptual diagram of a mapping coordinate system.

제3도는 본 발명에 따른 신경망 회로를 이용한 사상 방법의 개념도.3 is a conceptual diagram of a mapping method using a neural network according to the present invention.

제4도는 본 발명에 따른 영상 왜곡 보정을 위한 학습 과정의 흐름도.4 is a flowchart of a learning process for image distortion correction according to the present invention.

제5도는 본 발명에 따른 영상 왜곡 보정 과정의 흐름도.5 is a flowchart of an image distortion correction process according to the present invention.

제6도는 본 발명에 이용되는 신경망 회로의 일예시도.6 is an exemplary diagram of a neural network circuit used in the present invention.

*도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

10:레이저 광원20:렌즈10: laser light source 20: lens

50:카메라60:평면광의 각도 조절 장치50: camera 60: angle control device of the plane light

70:영상처리용 컴퓨터80:모니터70: computer for image processing 80: monitor

본 발명은 CCD(Charge Coupled Device) 또는 텔레비젼(TV) 카메라(camera) 등에서 획득한 영상(image)이 실제와 달리 왜곡 현상(distortion)을 나타내는 경우에 이 왜곡을 신경망 회로를 이용하여 보정(calibration)하는 영상 왜곡 보정 방법에 관한 것이다.According to the present invention, when an image acquired by a CCD (Charge Coupled Device) or a TV (TV) camera exhibits a distortion unlike the reality, the distortion is calibrated using a neural network circuit. It relates to an image distortion correction method.

CCD 또는 텔레비젼(TV) 카메라 등은 광학계, 기구 장치 및 전자 장치 등에 제작상의 부정확성이 존재한다. 따라서, 카메라의 영상면(image plane)에 나타나는 영상은 3차원 공간상의 실제와 달리 왜곡(distortion)되어 나타난다. 즉, 3차원 공간의 영상이 카메라 영상면으로 투사시 왜곡 현상이 발생되는 것이다.CCD or television (TV) cameras and the like have manufacturing inaccuracies in optical systems, mechanical devices, and electronic devices. Accordingly, an image appearing on an image plane of the camera is distorted unlike an actual one in three-dimensional space. That is, distortion occurs when the image of the 3D space is projected onto the camera image plane.

그러므로, 3차원 물체 인식, 로보트 시각 장치 및 삼차원 텔레비젼(TV) 등에 대한 응용을 목적으로, 이 왜곡된 카메라 영상으로부터 역 투사(back projection)를 하여 3차원 공간상의 위치 좌표를 구해보면, 실제 좌표값과 많은 오차가 있어 응용에 어려움이 발생된다.Therefore, for the purpose of 3D object recognition, robot vision device, 3D television (TV), etc., the back coordinates of the distorted camera image are used to obtain the position coordinates in the 3D space. And many errors cause difficulty in application.

이 어려움을 제거하기 위해서는 획득된 영상을 실제와 같도록 보정하여야 한다.To remove this difficulty, the acquired image must be corrected to be realistic.

종래의 보정 방법으로는, 카메라의 구조나 기능별로 모델링하여 오차 요소(error components)를 보정(calibration)하는 방법을 사용하였다.As a conventional correction method, a method of calibrating error components by modeling the structure and function of a camera is used.

즉, Sobel은 바늘 구멍(pin-hole) 모델을 사용하고, 렌즈를 제외한 카메라 파라미터를 비선형 방정식으로 최적화(non-linear optimization method)하는 방법을 발명하였다. Tsai는 렌즈를 포함하여 네 단계로 왜곡을 모델링하여 보정하는 방법을 발명하였고, Martin외 2인은 2면 보정 방법(two plane method)을 발명하였다.That is, Sobel invented a method using a pin-hole model and a non-linear optimization method for camera parameters excluding lenses. Tsai invented a method of modeling and correcting distortion in four stages, including a lens, and Martin and two others invented a two plane method.

그러나, 수학적 모델링 및 해석(analysis)에 의한 종래 방법은 모델링을 할 때 카메라의 특성 및 규격을 잘 알고 있어야 하며, 수학적 해석이 복잡하고(complex), 시간이 많이 소요되는 문제점이 있었다.However, the conventional method by mathematical modeling and analysis should be well aware of the characteristics and specifications of the camera when modeling, and there is a problem that the mathematical analysis is complex and time consuming.

상기 종래 기술의 문제점을 해결하기 위하여 안출된 본 발명은, 역 투사(back projection)를 오차의 보정에 효율적으로 사용할 수 있도록, 간편하고(convenient) 정확도가 높은(accurate) 신경망 회로를 이용하여 영상 왜곡을 보정하는 영상 왜곡 보정방법을 제공하는데 그 목적이 있다.The present invention devised to solve the problems of the prior art, the image distortion by using a convenient and high accuracy neural network circuit, so that the back projection can be efficiently used for the correction of the error An object of the present invention is to provide a method for correcting image distortion.

상기 목적을 달성하기 위하여 본 발명은, 3차원 공간의 영상을 2차원 영상면으로 투사할때 발생하는 왜곡 현상을 보정하기 위한 영상 왜곡 보정 방법에 있어서, 3차원 공간 좌표(X,Y,Z)상의 임의의 보정점들의 실제 좌표값과 이차원 영상면의 투사점들과의 사상 함수를 구하되, 기준선에 대한 조사 각도 세타(θ)를 사상의 추가 정보로 이용하는 제1단계; 상기 제1단계에서 구한 사상 함수를 신경망 회로의 연결 강도로 변환하여 테이블에 저장하는 제2단계; 및 획득된 카메라 영상을 역 투사하여 영상 정보에 대한 거리를 구한 후에 상기 거리에 해당하는 테이블 값을 상기 신경망 회로에 입력하여 보정하는 제3단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention, in the image distortion correction method for correcting the distortion caused when projecting the image of the three-dimensional space to the two-dimensional image plane, three-dimensional space coordinates (X, Y, Z) Calculating a mapping function between the actual coordinate values of the correction points of the image and the projection points of the two-dimensional image plane, and using the irradiation angle theta (θ) with respect to the reference line as additional information of the mapping; A second step of converting the mapping function obtained in the first step into a connection strength of a neural network circuit and storing the mapping function in a table; And obtaining a distance of the image information by reverse projecting the acquired camera image, and then inputting and correcting a table value corresponding to the distance to the neural network circuit.

이하, 첨부된 도면을 참조하여 본 발명에 따른 일실시예를 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment according to the present invention;

제1도는 본 발명이 적용되는 하드웨어의 일예시도를 나타낸다.1 shows an example of hardware to which the present invention is applied.

실제 3차원 영상이 카메라의 2차원 영상 평면으로 투사된 영상으로부터 다시 3차원 좌표를 구하려 할 때 투사에 의하여 한 차원의 정보가 손실되므로 인해 3차원의 정보를 구할 수가 없으므로, 제1도에 도시된 바와 같이 3차원 공간에서 능동적으로 광원을 사용하여 광 평면을 물체(100)에 비추어(실시의 한 예로, 레이저 광원(10)과 반원통의 렌즈(20)를 이용하여 광평면(30)을 만듬) 구하려는 위치에 광 줄무늬(40)를 형성하며, 이 줄무늬 영상을 카메라(50)로 획득하여 이 광 평면의 방정식과 2차원 영상 평면의 한 점을 역 투사할때의 공간 시선 벡터를 구한 후 삼각 측량법으로 3차원 좌표를 구한다.When an actual three-dimensional image tries to obtain three-dimensional coordinates again from an image projected on the two-dimensional image plane of the camera, three-dimensional information cannot be obtained because the one-dimensional information is lost by the projection. As described above, the light plane is actively used in the three-dimensional space to illuminate the light plane on the object 100 (for example, the light plane 30 is formed by using the laser light source 10 and the semi-cylindrical lens 20). ) The light streaks 40 are formed at the desired position, and the streaked images are acquired by the camera 50 to obtain the spatial eye vector when the back projection of the equation of this light plane and a point of the 2D image plane is obtained. Get three-dimensional coordinates by surveying.

즉, 측량에서 흔히 사용되는 삼각 측량법에서와 같이 기준선에 대해 레이저의 조사각도와 시선 방향의 각도를 알 때 목표점까지의 거리를 알 수 있는 것을 이용하는 것이다. 도면에서 미설명 부호 60은 평면광의 각도 조절 장치, 70은 평면광의 기준선과의 각도 정보를 획득하여 영상을 처리하는 영상처리용 컴퓨터, 80은 3차원 거리 정보를 출력하는 모니터를 각각 나타낸다.In other words, as in the triangulation method commonly used in surveying, the distance to the target point can be known when the angle of irradiation and the direction of the laser beam with respect to the reference line are known. In the drawings, reference numeral 60 denotes an angle adjusting device for plane light, 70 denotes an image processing computer for obtaining angle information with a reference line of plane light, and an image processing computer for outputting three-dimensional distance information, respectively.

제2도는 사상 좌표계의 개념도이다.2 is a conceptual diagram of a mapping coordinate system.

공간상의 한 점이 주어졌을 때 카메라의 영상 평면상으로 투사되는 위치를 예측하는 투사 문제와 영상 평면상의 한 점이 주어지고 공간상으로 역 투사될 때의 공간 시선 벡터를 계산하는 역 투사 문제를 포함하여 3차원과 2차원의 사상 관계를 결정하여 오차를 줄이는 과정인 카메라의 영상 왜곡 보정 과정은, 도면에 도시된 바와 같이 3차원 좌표계 공간상의 알고 있는 점 Pw(X,Y,Z)들이 카메라의 2차원 영상 평면에 투사되었을 때, 영상 평면 좌표의 점 Qi(U,V)를 얻을 수 있으므로 두 좌표의 대응점 좌표값들로부터 좌표계 상관 관계인 사상 함수를 산출하며, 이 함수로부터 임의의 영상 좌표값에 대하여 3차원 좌표값을 오차가 적도록 보정한다.Including a projection problem that predicts the position projected onto the image plane of the camera when a point in space is given, and an inverse projection problem that calculates the spatial gaze vector when given a point on the image plane and is projected back into space. The image distortion correction process of the camera, which is a process of reducing the error by determining the mapping relationship between the dimension and the two-dimensional, is that the known points Pw (X, Y, Z) in the three-dimensional coordinate system space are two-dimensional When projected onto the image plane, the point Qi (U, V) of the image plane coordinates can be obtained so that the mapping function, which is a coordinate system correlation from the corresponding point coordinates of the two coordinates, is calculated. Correct the dimension coordinates so that there is little error.

본 발명은 사상 함수 구현 과정과 영상을 보정하는 과정으로이루어지며, 먼저, 첫단계인 사상 함수 구현 과정을 제3도 및 제4도를 참조하여 설명하면 다음과 같다.The present invention consists of a mapping function implementation process and a process of correcting an image. First, a mapping process implementation process, which is a first step, will be described with reference to FIGS. 3 and 4.

제3도는 본 발명에 따른 신경망 회로를 이용한 사상 방법의 개념도로서, 도면에 도시된 바와 같이 여러 위치와 여러 거리의 보정점 Pw들의 3차원 좌표값(X,Y,Z)들을 학습목적지(target data)로 정하여 신경망 회로에 출력단의 값으로 배정하며, 보정점 Pw와 대응되는 카메라 영상면의 점 Qi의 좌표값(U,V)들과 광평면의 각도인 세타(θ)를 입력단의 입력 데이타(U,V,θ)로 배정하여 학습 데이타 세트를 구성하고, 학습을 실시한다.3 is a conceptual diagram of a mapping method using a neural network according to the present invention. As shown in the drawing, three-dimensional coordinate values (X, Y, Z) of correction points Pw of various positions and various distances are set as target data. It is assigned to the value of the output terminal to the neural network circuit, and the coordinate values (U, V) of the point Qi of the camera image plane corresponding to the correction point Pw and theta (θ) of the optical plane are input data ( U, V, θ) to construct a training data set and perform training.

제4도는 본 발명에 따른 영상 왜곡 보정을 위한 학습 과정의 흐름도로서, 보정점 각각의 3차원 좌표값(X,Y,Z)이 대응되는 영상 좌표값 및 해당되는 광 평면 각도값인(U,V,θ)를 학습 세트로 하여 사상 관계를 신경망 회로로 학습시키는 과정을 도시하였다.4 is a flowchart of a learning process for image distortion correction according to the present invention, wherein the three-dimensional coordinate values (X, Y, Z) of each of the correction points correspond to the image coordinate values and the corresponding optical plane angle values (U, The process of learning a mapping relationship with a neural network using V, θ) as a learning set is shown.

도면에 도시된 바와 같이 3차원 좌표 공간의 n개 보정점(X,Y,Z)를 선정한 다음에(41) 신경망 회로의 출력단에 목적치 데이타 세트를 구성한다(42). 다음으로 보정점에 대응되는 2차원 영상면의 n개 점(U,V)과 해당 광 평면의 조사 각도 세타(θ)를 획득하고(43), 신경망 회로 입력단의 입력치인(U,V,θ)로 데이타 세트를 구성한다(44). 데이타 세트를 구성한 후에 신경망 회로에 대하여 반복 학습을 실시하고(45) 설정된 오차 이내로 학습되는지의 여부를 확인하여(46) 설정된 오차 이내로 학습된 경우에는 학습된 연결 강도를 테이블에 저장한다(47). 만일, 설정된 오차를 벗어날 경우에는 신경망 회로에 대하여 반복 학습을 실시하는 과정(45)부터 반복 수행한다.As shown in the figure, n correction points (X, Y, Z) of the three-dimensional coordinate space are selected (41), and then an objective data set is constructed (42) at the output terminal of the neural network. Next, n points (U, V) of the two-dimensional image plane corresponding to the correction point and the irradiation angle theta (θ) of the corresponding optical plane are obtained (43), and the input values (U, V, θ) of the neural network input terminal. Construct a data set (44). After constructing the data set, the neural network circuit is repeatedly trained (45) and checked whether it is trained within the set error (46). If the trained training is performed within the set error, the trained connection strength is stored in the table (47). If it is out of the set error, the process is repeatedly performed from the process 45 of performing the iterative learning on the neural network circuit.

즉, 이 학습을 원하는 오차 이내로 학습되도록 반복하여 사상 함수에 해당하는 뉴론간의 연결 강도를 구하고, 구해진 연결 강도의 값을 테이블로 유지한다.That is, the learning is repeated so as to be learned within a desired error, and the connection strength between neurons corresponding to the mapping function is obtained, and the value of the obtained connection strength is maintained in a table.

보정점의 수를 많이 선택하고 다양한 거리에서 대응점을 선택할수록 정확하게 학습되나 시간 소요가 증가하므로 적당한 수효를 선택한다. 학습은 원하는 거리에 대하여 보정점을 선택하여 반복하여 수행하고, 거리에 따라 구해진 연결 강도는 테이블로 유지한다.As the number of correction points is selected and the corresponding points are selected at various distances, the correct learning is performed, but the time required increases, so the appropriate number is selected. The learning is repeatedly performed by selecting a correction point for a desired distance, and the connection strength obtained according to the distance is maintained in a table.

이어서, 두번째 단계인 영상을 보정하는 과정을 제5도를 통하여 설명하면 다음과 같다.Next, a process of correcting an image, which is the second step, will be described with reference to FIG. 5.

제5도는 본 발명에 따른 영상 왜곡 보정 과정의 흐름도로서, 영상을 보정하는 과정은 먼저 영상면 좌표 및 광 평면 각도를 입력받아(51) 우선적으로 획득된 카메라 영상으로부터 보정없이 역 투사하여 영상 정보에 의한 대체적인 거리를 구한 후에(52)이 거리에 해당하는 테이블 값을 신경망 회로의 연결 강도로 입력하고(53), 신경망 회로에 임의의 영상 좌표값과 광 평면의 각도값인(U,V,θ)를 입력하면(54), 왜곡된 좌표값이 아닌 정확한 3차원 좌표값(X,Y,Z)을 신경망 회로를 통하여 출력(55)하게 되므로, 보정된 정확한 값을 구할 수 있다.5 is a flowchart of an image distortion correction process according to the present invention. The process of correcting an image first receives an image plane coordinate and an optical plane angle (51). After calculating the alternative distance (52), a table value corresponding to the distance is input as the connection strength of the neural network (53), and arbitrary image coordinate values and angle values of the optical plane (U, V, θ), the correct three-dimensional coordinate value (X, Y, Z) is output through the neural network circuit, not the distorted coordinate value, so that the corrected correct value can be obtained.

즉, 각도 θ를 Qi점의 U 및 V값과 함께 Pw점의 (X,Y,Z)에 대응시킨다. 이것을 식으로 표현하면, Pw(X,Y,Z)=F(U,V,θ)와 같다.That is, the angle θ corresponds to (X, Y, Z) of the Pw point together with the U and V values of the Qi point. This expression is equal to Pw (X, Y, Z) = F (U, V, θ).

따라서, 카메라 영상면에 (i,j,θ)로 나타나는 점 Q들은 F라는 사상 함수에 의하여 3차원 공간상의 (X,Y,Z)로 역 투사되는 점들을 구할 수 있게 되어 있어, 사상 함수 F를 이용하여 보정할 수 있다. 여기서, 보정의 정밀도는 사상 함수의 정밀도에 의해 정해진다.Therefore, the points Q represented by (i, j, θ) on the camera image plane can be obtained by inversely projecting the points projected to (X, Y, Z) in the three-dimensional space by the mapping function F. Can be corrected using. Here, the precision of the correction is determined by the precision of the mapping function.

제6도는 본 발명에 이용되는 신경망 회로의 일예시도로서, 비선형 사상을 할 수 있는 역 전파 학습 알고리즘을 이용하는 다층 구조 퍼셉트론 신경망 회로를 나타낸다.6 shows an example of a neural network circuit used in the present invention, and shows a multi-layered perceptron neural network circuit using an inverse propagation learning algorithm capable of nonlinear mapping.

도면에 도시된 바와 같이 입력단과 출력단의 뉴론 갯수는 각각 3개이며, 다중 은닉 층을 갖는다. 입력단에서는 영상면의 n개의 보정점들에 대한 (U,V,θ) 값들을 입력하고, 출력단에는 n개 보정점들에 대한 3차원 공간상의 (X,Y,Z)값을 대응시켜 입력하며, 역 전파에 의한 학습을 시킨다. 즉, 입출력 값을 사상하는 뉴런간의 연결강도 Wij를 구한다.As shown in the figure, the number of neurons of the input and output terminals is three, respectively, and has multiple hidden layers. The input terminal inputs (U, V, θ) values for n correction points on the image plane, and the output terminal inputs (X, Y, Z) values corresponding to n correction points in three-dimensional space. , Learn by back propagation. That is, the connection strength Wij between neurons that map input / output values is obtained.

상기와 같이 이루어지는 본 발명은 원하는 거리와 시야에 대하여 3차원 공간상의 보정점과 2차원 영상면에 투사된 보정점간의 사상 관계를 신경망 회로로 구하여 이 관계 값을 테이블로 갖고 있으면서 영상 왜곡에 대한 보정이 가능하므로, 외부 환경이나 카메라 종류, 파라미터 등의 변화에 관계없이 효율적으로 쉽게 영상 왜곡을 보정할 수 있는 장점이 있다.According to the present invention as described above, a mapping relationship between a correction point in three-dimensional space and a correction point projected on a two-dimensional image plane is obtained by a neural network for a desired distance and field of view, and the correction value is corrected for image distortion while having this relationship as a table. Since this is possible, the image distortion can be easily and efficiently corrected regardless of a change in external environment, camera type, or parameter.

또한, 응용의 한 예로 3차원 물체 인식이나 거리 측정 등의 목적으로 로보트 시각 장치에 장착된 카메라 보정에 효과적이다.In addition, as an example of the application, it is effective to calibrate a camera mounted on the robot vision apparatus for the purpose of 3D object recognition or distance measurement.

Claims (4)

3차원 공간의 영상을 2차원 영상면으로 투사할때 발생하는 왜곡 현상을 보정하기 위한 영상 왜곡 보정 방법에 있어서, 3차원 공간 좌표(X,Y,Z)상의 임의의 보정점들의 실제 좌표값과 이차원 영상면의 투사점들과의 사상 함수를 구하되, 기준선에 대한 조사 각도 세타(θ)를 사상의 추가 정보로 이용하는 제1단계; 상기 제1단계에서 구한 사상 함수를 신경망 회로의 연결 강도로 변환하여 테이블에 저장하는 제2단계; 및 획득된 카메라 영상을 역 투사하여 영상 정보에 대한 거리를 구한 후에 상기 거리에 해당하는 테이블 값을 상기 신경망 회로에 입력하여 보정하는 제3단계를 포함하여 이루어진 영상 왜곡 보정 방법.An image distortion correction method for correcting a distortion caused when a 3D space image is projected onto a 2D image plane, the method comprising: the actual coordinate values of arbitrary correction points on the 3D space coordinates (X, Y, and Z); Obtaining a mapping function with projection points of the two-dimensional image plane, and using the irradiation angle theta (θ) with respect to the reference line as additional information of the mapping; A second step of converting the mapping function obtained in the first step into a connection strength of a neural network circuit and storing the mapping function in a table; And obtaining a distance of the image information by reverse projecting the acquired camera image, and inputting and correcting a table value corresponding to the distance to the neural network circuit. 제1항에 있어서, 상기 제1단계는, 3차원 좌표 공간의 n개 보정점(X,Y,Z)를 선정한 후에 상기 신경망 회로의 출력단에 목적치 데이타 세트를 구성하는 제4단계; 상기 각 보정점에 대응되는 2차원 영상면의 n개 점(U,V)과 해당 광 평면의 조사 각도 세타(θ)를 획득한 후에 상기 신경망 회로 입력단의 입력치인(U,V,θ)로 데이타 세트를 구성하는 제5단계; 및 기설정된 오차 이내로 학습될때까지 상기 신경망 회로에 대하여 반복 학습을 실시하되, 기설정된 오차 이내로 학습된 경우에 상기 제2단계를 수행하는 제6단계를 포함하여 이루어진 영상 왜곡 보정 방법.The method of claim 1, wherein the first step comprises: a fourth step of configuring an object data set at an output of the neural network after selecting n correction points (X, Y, Z) in a three-dimensional coordinate space; After n points (U, V) of the two-dimensional image plane corresponding to the respective correction points and the irradiation angle theta (θ) of the corresponding optical plane are obtained, the input values of the neural network circuit input terminals (U, V, θ) are obtained. A fifth step of constructing a data set; And performing a repeating learning on the neural network circuit until the learning is performed within a predetermined error, and performing the second step when the learning is performed within a predetermined error. 제1항 또는 제2항에 있어서, 상기 제3단계는, 영상면 좌표와 광 평면 각도를 입력받아 획득된 카메라 영상으로부터 보정없이 역투사하여 영상 정보에 의한 대체적인 거리를 구하는 제7단계; 상기 제7단계에서 구한 거리에 해당하는 테이블 값을 상기 신경망 회로의 연결강도로 입력하는 제8단계; 및 상기 신경망 회로에 임의의 영상 좌표값과 광 평면의 각도값인 (U,V,θ)를 입력하여 3차원 좌표값(X,Y,Z)을 출력하는 제9단계를 포함하여 이루어진 영상 왜곡 보정 방법.3. The method of claim 1, wherein the third step comprises: a seventh step of obtaining an alternative distance based on the image information by back-projection without correction from the obtained camera image by receiving the image plane coordinates and the optical plane angle; An eighth step of inputting a table value corresponding to the distance obtained in the seventh step as a connection strength of the neural network; And a ninth step of inputting an arbitrary image coordinate value and (U, V, θ) which is an angle value of an optical plane to the neural network circuit, and outputting a three-dimensional coordinate value (X, Y, Z). Calibration method. 제3항에 있어서, 상기 신경망 회로는, 비선형 사상을 할 수 있는, 역 전파 학습 알고리즘을 이용하는 다층 구조 퍼셉트론 신경망 회로인 것을 특징으로 하는 영상 왜곡 보정 방법.4. The method of claim 3, wherein the neural network circuit is a multi-layered perceptron neural network circuit using an inverse propagation learning algorithm capable of nonlinear mapping.
KR1019940036967A 1994-12-23 1994-12-23 Image distortion calibration method using nervous network Expired - Fee Related KR0139572B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019940036967A KR0139572B1 (en) 1994-12-23 1994-12-23 Image distortion calibration method using nervous network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019940036967A KR0139572B1 (en) 1994-12-23 1994-12-23 Image distortion calibration method using nervous network

Publications (2)

Publication Number Publication Date
KR960028194A KR960028194A (en) 1996-07-22
KR0139572B1 true KR0139572B1 (en) 1998-06-15

Family

ID=19403665

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019940036967A Expired - Fee Related KR0139572B1 (en) 1994-12-23 1994-12-23 Image distortion calibration method using nervous network

Country Status (1)

Country Link
KR (1) KR0139572B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108769459A (en) * 2018-06-07 2018-11-06 北京理工大学 Multiple spot laser Full-automatic oblique angle shot based on image procossing corrects system
KR101939349B1 (en) * 2018-07-09 2019-04-11 장현민 Around view video providing method based on machine learning for vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100770019B1 (en) * 2004-12-06 2007-10-25 한국전자통신연구원 Apparatus and Method for correction of the image distortion of stereo-camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108769459A (en) * 2018-06-07 2018-11-06 北京理工大学 Multiple spot laser Full-automatic oblique angle shot based on image procossing corrects system
KR101939349B1 (en) * 2018-07-09 2019-04-11 장현민 Around view video providing method based on machine learning for vehicle

Also Published As

Publication number Publication date
KR960028194A (en) 1996-07-22

Similar Documents

Publication Publication Date Title
Tang et al. A precision analysis of camera distortion models
US5832106A (en) Method for camera calibration of range imaging system by use of neural network
US9858684B2 (en) Image processing method and apparatus for calibrating depth of depth sensor
US20210041236A1 (en) Method and system for calibration of structural parameters and construction of affine coordinate system of vision measurement system
Zhang et al. A novel calibration approach to structured light 3D vision inspection
EP3220099B1 (en) Calibration device, calibration method, optical device, imaging device, projection device, measurement system, and measurement method
US9165219B2 (en) Image distortion correction method and image distortion correction device using the same
KR100386090B1 (en) Camera calibration system and method using planar concentric circles
JP6079333B2 (en) Calibration apparatus, method and program
JPH0818848A (en) Camera system and distortion removing method
CN110447220A (en) Calibration device, calibration method, optical device, photographic device and projection device
WO2018029950A1 (en) Calibration device, calibration method, optical device, imaging device and projection device
WO2017195801A1 (en) Calibration device, calibration method, optical device, imaging device, projection device, measurement system and measurement method
CN105096329A (en) Method for accurately correcting ultra-wide-angle lens
CN111210468A (en) Image depth information acquisition method and device
CN114299156A (en) Method for calibrating and unifying coordinates of multiple cameras in non-overlapping area
CN109035345A (en) The TOF camera range correction method returned based on Gaussian process
Do Application of neural networks for stereo-camera calibration
CN111028294A (en) Multi-distance calibration method and system based on depth camera
Chatterjee et al. A nonlinear Gauss–Seidel algorithm for noncoplanar and coplanar camera calibration with convergence analysis
JP5487946B2 (en) Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus
CN113298886A (en) Calibration method of projector
CN115631099B (en) A method, apparatus and electronic device for measuring radial distortion parameters
KR0139572B1 (en) Image distortion calibration method using nervous network
JP7059406B2 (en) Optical member position adjustment support device, optical member position adjustment support method, optical member position adjustment support program, lens device manufacturing method

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

T11-X000 Administrative time limit extension requested

St.27 status event code: U-3-3-T10-T11-oth-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

Fee payment year number: 1

St.27 status event code: A-2-2-U10-U11-oth-PR1002

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

PR1001 Payment of annual fee

Fee payment year number: 4

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

R17-X000 Change to representative recorded

St.27 status event code: A-5-5-R10-R17-oth-X000

PR1001 Payment of annual fee

Fee payment year number: 5

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

PR1001 Payment of annual fee

Fee payment year number: 6

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 7

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 8

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 9

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 10

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 11

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PR1001 Payment of annual fee

Fee payment year number: 12

St.27 status event code: A-4-4-U10-U11-oth-PR1001

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

PR1001 Payment of annual fee

Fee payment year number: 13

St.27 status event code: A-4-4-U10-U11-oth-PR1001

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

PR1001 Payment of annual fee

Fee payment year number: 14

St.27 status event code: A-4-4-U10-U11-oth-PR1001

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

FPAY Annual fee payment

Payment date: 20120228

Year of fee payment: 15

PR1001 Payment of annual fee

Fee payment year number: 15

St.27 status event code: A-4-4-U10-U11-oth-PR1001

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

Not in force date: 20130305

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

St.27 status event code: A-4-4-U10-U13-oth-PC1903

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PC1903 Unpaid annual fee

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20130305

St.27 status event code: N-4-6-H10-H13-oth-PC1903

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

PN2301 Change of applicant

St.27 status event code: A-5-5-R10-R11-asn-PN2301

St.27 status event code: A-5-5-R10-R13-asn-PN2301

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000