KR0139572B1 - Image distortion calibration method using nervous network - Google Patents
Image distortion calibration method using nervous networkInfo
- Publication number
- KR0139572B1 KR0139572B1 KR1019940036967A KR19940036967A KR0139572B1 KR 0139572 B1 KR0139572 B1 KR 0139572B1 KR 1019940036967 A KR1019940036967 A KR 1019940036967A KR 19940036967 A KR19940036967 A KR 19940036967A KR 0139572 B1 KR0139572 B1 KR 0139572B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- neural network
- network circuit
- correction
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
- H04N9/3185—Geometric adjustment, e.g. keystone or convergence
Landscapes
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
본 발명은 역 투사(back projection)를 오차의 보정에 효율적으로 사용할 수 있도록, 간편하고(convenient) 정확도가 높은(accurate) 신경망 회로를 이용한 카메라의 영상 왜곡 보정 방법에 관한 것으로, 3차원 공간의 영상을 카메라 영상면으로 투사할때 왜곡 현상이 발생하는 것을 방지하는 영상 왜곡 보정 방법에 있어서, 3차원 공간 좌표(X,Y,Z)상의 임의의 보정점들의 실제 좌표값과 이차원 영상면의 투사점들과의 사상 함수를 구하되, 기준선에 대한 조사 각도 세타(θ)를 사상의 추가 정보로 이용하는 제1단계; 상기 제1단계에서 구한 사상 함수를 신경망 회로의 연결 강도로 변환하여 테이블에 저장하는 제2단계; 및 획득된 카메라 영상을 역 투사하여 영상 정보에 대한 거리를 구한 후에 상기 거리에 해당하는 테이블 값을 상기 신경망 회로에 입력하여 보정하는 제3단계를 포함하여 영상 왜곡을 환경이나 카메라 종류, 파라미터 등의 변화에 관계없이 효율적으로 쉽게 보정할 수 있는 효과가 있다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for correcting image distortion of a camera using a convenient and highly accurate neural network circuit so that back projection can be efficiently used for error correction. In the image distortion correction method for preventing distortion from occurring when the image is projected onto the camera image plane, the actual coordinate values of the arbitrary correction points on the three-dimensional spatial coordinates (X, Y, Z) and the projection points of the two-dimensional image plane. Calculating a mapping function of and using the irradiation angle theta (θ) with respect to the reference line as additional information of the mapping; A second step of converting the mapping function obtained in the first step into a connection strength of a neural network circuit and storing the mapping function in a table; And obtaining a distance of the image information by reverse projecting the acquired camera image, and inputting and correcting a table value corresponding to the distance to the neural network circuit to correct the image distortion such as environment, camera type, parameter, and the like. There is an effect that can be easily and efficiently corrected regardless of the change.
Description
제1도는 본 발명이 적용되는 하드웨어의 일예시도.1 is an example of hardware to which the present invention is applied.
제2도는 사상 좌표계의 개념도.2 is a conceptual diagram of a mapping coordinate system.
제3도는 본 발명에 따른 신경망 회로를 이용한 사상 방법의 개념도.3 is a conceptual diagram of a mapping method using a neural network according to the present invention.
제4도는 본 발명에 따른 영상 왜곡 보정을 위한 학습 과정의 흐름도.4 is a flowchart of a learning process for image distortion correction according to the present invention.
제5도는 본 발명에 따른 영상 왜곡 보정 과정의 흐름도.5 is a flowchart of an image distortion correction process according to the present invention.
제6도는 본 발명에 이용되는 신경망 회로의 일예시도.6 is an exemplary diagram of a neural network circuit used in the present invention.
*도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
10:레이저 광원20:렌즈10: laser light source 20: lens
50:카메라60:평면광의 각도 조절 장치50: camera 60: angle control device of the plane light
70:영상처리용 컴퓨터80:모니터70: computer for image processing 80: monitor
본 발명은 CCD(Charge Coupled Device) 또는 텔레비젼(TV) 카메라(camera) 등에서 획득한 영상(image)이 실제와 달리 왜곡 현상(distortion)을 나타내는 경우에 이 왜곡을 신경망 회로를 이용하여 보정(calibration)하는 영상 왜곡 보정 방법에 관한 것이다.According to the present invention, when an image acquired by a CCD (Charge Coupled Device) or a TV (TV) camera exhibits a distortion unlike the reality, the distortion is calibrated using a neural network circuit. It relates to an image distortion correction method.
CCD 또는 텔레비젼(TV) 카메라 등은 광학계, 기구 장치 및 전자 장치 등에 제작상의 부정확성이 존재한다. 따라서, 카메라의 영상면(image plane)에 나타나는 영상은 3차원 공간상의 실제와 달리 왜곡(distortion)되어 나타난다. 즉, 3차원 공간의 영상이 카메라 영상면으로 투사시 왜곡 현상이 발생되는 것이다.CCD or television (TV) cameras and the like have manufacturing inaccuracies in optical systems, mechanical devices, and electronic devices. Accordingly, an image appearing on an image plane of the camera is distorted unlike an actual one in three-dimensional space. That is, distortion occurs when the image of the 3D space is projected onto the camera image plane.
그러므로, 3차원 물체 인식, 로보트 시각 장치 및 삼차원 텔레비젼(TV) 등에 대한 응용을 목적으로, 이 왜곡된 카메라 영상으로부터 역 투사(back projection)를 하여 3차원 공간상의 위치 좌표를 구해보면, 실제 좌표값과 많은 오차가 있어 응용에 어려움이 발생된다.Therefore, for the purpose of 3D object recognition, robot vision device, 3D television (TV), etc., the back coordinates of the distorted camera image are used to obtain the position coordinates in the 3D space. And many errors cause difficulty in application.
이 어려움을 제거하기 위해서는 획득된 영상을 실제와 같도록 보정하여야 한다.To remove this difficulty, the acquired image must be corrected to be realistic.
종래의 보정 방법으로는, 카메라의 구조나 기능별로 모델링하여 오차 요소(error components)를 보정(calibration)하는 방법을 사용하였다.As a conventional correction method, a method of calibrating error components by modeling the structure and function of a camera is used.
즉, Sobel은 바늘 구멍(pin-hole) 모델을 사용하고, 렌즈를 제외한 카메라 파라미터를 비선형 방정식으로 최적화(non-linear optimization method)하는 방법을 발명하였다. Tsai는 렌즈를 포함하여 네 단계로 왜곡을 모델링하여 보정하는 방법을 발명하였고, Martin외 2인은 2면 보정 방법(two plane method)을 발명하였다.That is, Sobel invented a method using a pin-hole model and a non-linear optimization method for camera parameters excluding lenses. Tsai invented a method of modeling and correcting distortion in four stages, including a lens, and Martin and two others invented a two plane method.
그러나, 수학적 모델링 및 해석(analysis)에 의한 종래 방법은 모델링을 할 때 카메라의 특성 및 규격을 잘 알고 있어야 하며, 수학적 해석이 복잡하고(complex), 시간이 많이 소요되는 문제점이 있었다.However, the conventional method by mathematical modeling and analysis should be well aware of the characteristics and specifications of the camera when modeling, and there is a problem that the mathematical analysis is complex and time consuming.
상기 종래 기술의 문제점을 해결하기 위하여 안출된 본 발명은, 역 투사(back projection)를 오차의 보정에 효율적으로 사용할 수 있도록, 간편하고(convenient) 정확도가 높은(accurate) 신경망 회로를 이용하여 영상 왜곡을 보정하는 영상 왜곡 보정방법을 제공하는데 그 목적이 있다.The present invention devised to solve the problems of the prior art, the image distortion by using a convenient and high accuracy neural network circuit, so that the back projection can be efficiently used for the correction of the error An object of the present invention is to provide a method for correcting image distortion.
상기 목적을 달성하기 위하여 본 발명은, 3차원 공간의 영상을 2차원 영상면으로 투사할때 발생하는 왜곡 현상을 보정하기 위한 영상 왜곡 보정 방법에 있어서, 3차원 공간 좌표(X,Y,Z)상의 임의의 보정점들의 실제 좌표값과 이차원 영상면의 투사점들과의 사상 함수를 구하되, 기준선에 대한 조사 각도 세타(θ)를 사상의 추가 정보로 이용하는 제1단계; 상기 제1단계에서 구한 사상 함수를 신경망 회로의 연결 강도로 변환하여 테이블에 저장하는 제2단계; 및 획득된 카메라 영상을 역 투사하여 영상 정보에 대한 거리를 구한 후에 상기 거리에 해당하는 테이블 값을 상기 신경망 회로에 입력하여 보정하는 제3단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention, in the image distortion correction method for correcting the distortion caused when projecting the image of the three-dimensional space to the two-dimensional image plane, three-dimensional space coordinates (X, Y, Z) Calculating a mapping function between the actual coordinate values of the correction points of the image and the projection points of the two-dimensional image plane, and using the irradiation angle theta (θ) with respect to the reference line as additional information of the mapping; A second step of converting the mapping function obtained in the first step into a connection strength of a neural network circuit and storing the mapping function in a table; And obtaining a distance of the image information by reverse projecting the acquired camera image, and then inputting and correcting a table value corresponding to the distance to the neural network circuit.
이하, 첨부된 도면을 참조하여 본 발명에 따른 일실시예를 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described an embodiment according to the present invention;
제1도는 본 발명이 적용되는 하드웨어의 일예시도를 나타낸다.1 shows an example of hardware to which the present invention is applied.
실제 3차원 영상이 카메라의 2차원 영상 평면으로 투사된 영상으로부터 다시 3차원 좌표를 구하려 할 때 투사에 의하여 한 차원의 정보가 손실되므로 인해 3차원의 정보를 구할 수가 없으므로, 제1도에 도시된 바와 같이 3차원 공간에서 능동적으로 광원을 사용하여 광 평면을 물체(100)에 비추어(실시의 한 예로, 레이저 광원(10)과 반원통의 렌즈(20)를 이용하여 광평면(30)을 만듬) 구하려는 위치에 광 줄무늬(40)를 형성하며, 이 줄무늬 영상을 카메라(50)로 획득하여 이 광 평면의 방정식과 2차원 영상 평면의 한 점을 역 투사할때의 공간 시선 벡터를 구한 후 삼각 측량법으로 3차원 좌표를 구한다.When an actual three-dimensional image tries to obtain three-dimensional coordinates again from an image projected on the two-dimensional image plane of the camera, three-dimensional information cannot be obtained because the one-dimensional information is lost by the projection. As described above, the light plane is actively used in the three-dimensional space to illuminate the light plane on the object 100 (for example, the light plane 30 is formed by using the laser light source 10 and the semi-cylindrical lens 20). ) The light streaks 40 are formed at the desired position, and the streaked images are acquired by the camera 50 to obtain the spatial eye vector when the back projection of the equation of this light plane and a point of the 2D image plane is obtained. Get three-dimensional coordinates by surveying.
즉, 측량에서 흔히 사용되는 삼각 측량법에서와 같이 기준선에 대해 레이저의 조사각도와 시선 방향의 각도를 알 때 목표점까지의 거리를 알 수 있는 것을 이용하는 것이다. 도면에서 미설명 부호 60은 평면광의 각도 조절 장치, 70은 평면광의 기준선과의 각도 정보를 획득하여 영상을 처리하는 영상처리용 컴퓨터, 80은 3차원 거리 정보를 출력하는 모니터를 각각 나타낸다.In other words, as in the triangulation method commonly used in surveying, the distance to the target point can be known when the angle of irradiation and the direction of the laser beam with respect to the reference line are known. In the drawings, reference numeral 60 denotes an angle adjusting device for plane light, 70 denotes an image processing computer for obtaining angle information with a reference line of plane light, and an image processing computer for outputting three-dimensional distance information, respectively.
제2도는 사상 좌표계의 개념도이다.2 is a conceptual diagram of a mapping coordinate system.
공간상의 한 점이 주어졌을 때 카메라의 영상 평면상으로 투사되는 위치를 예측하는 투사 문제와 영상 평면상의 한 점이 주어지고 공간상으로 역 투사될 때의 공간 시선 벡터를 계산하는 역 투사 문제를 포함하여 3차원과 2차원의 사상 관계를 결정하여 오차를 줄이는 과정인 카메라의 영상 왜곡 보정 과정은, 도면에 도시된 바와 같이 3차원 좌표계 공간상의 알고 있는 점 Pw(X,Y,Z)들이 카메라의 2차원 영상 평면에 투사되었을 때, 영상 평면 좌표의 점 Qi(U,V)를 얻을 수 있으므로 두 좌표의 대응점 좌표값들로부터 좌표계 상관 관계인 사상 함수를 산출하며, 이 함수로부터 임의의 영상 좌표값에 대하여 3차원 좌표값을 오차가 적도록 보정한다.Including a projection problem that predicts the position projected onto the image plane of the camera when a point in space is given, and an inverse projection problem that calculates the spatial gaze vector when given a point on the image plane and is projected back into space. The image distortion correction process of the camera, which is a process of reducing the error by determining the mapping relationship between the dimension and the two-dimensional, is that the known points Pw (X, Y, Z) in the three-dimensional coordinate system space are two-dimensional When projected onto the image plane, the point Qi (U, V) of the image plane coordinates can be obtained so that the mapping function, which is a coordinate system correlation from the corresponding point coordinates of the two coordinates, is calculated. Correct the dimension coordinates so that there is little error.
본 발명은 사상 함수 구현 과정과 영상을 보정하는 과정으로이루어지며, 먼저, 첫단계인 사상 함수 구현 과정을 제3도 및 제4도를 참조하여 설명하면 다음과 같다.The present invention consists of a mapping function implementation process and a process of correcting an image. First, a mapping process implementation process, which is a first step, will be described with reference to FIGS. 3 and 4.
제3도는 본 발명에 따른 신경망 회로를 이용한 사상 방법의 개념도로서, 도면에 도시된 바와 같이 여러 위치와 여러 거리의 보정점 Pw들의 3차원 좌표값(X,Y,Z)들을 학습목적지(target data)로 정하여 신경망 회로에 출력단의 값으로 배정하며, 보정점 Pw와 대응되는 카메라 영상면의 점 Qi의 좌표값(U,V)들과 광평면의 각도인 세타(θ)를 입력단의 입력 데이타(U,V,θ)로 배정하여 학습 데이타 세트를 구성하고, 학습을 실시한다.3 is a conceptual diagram of a mapping method using a neural network according to the present invention. As shown in the drawing, three-dimensional coordinate values (X, Y, Z) of correction points Pw of various positions and various distances are set as target data. It is assigned to the value of the output terminal to the neural network circuit, and the coordinate values (U, V) of the point Qi of the camera image plane corresponding to the correction point Pw and theta (θ) of the optical plane are input data ( U, V, θ) to construct a training data set and perform training.
제4도는 본 발명에 따른 영상 왜곡 보정을 위한 학습 과정의 흐름도로서, 보정점 각각의 3차원 좌표값(X,Y,Z)이 대응되는 영상 좌표값 및 해당되는 광 평면 각도값인(U,V,θ)를 학습 세트로 하여 사상 관계를 신경망 회로로 학습시키는 과정을 도시하였다.4 is a flowchart of a learning process for image distortion correction according to the present invention, wherein the three-dimensional coordinate values (X, Y, Z) of each of the correction points correspond to the image coordinate values and the corresponding optical plane angle values (U, The process of learning a mapping relationship with a neural network using V, θ) as a learning set is shown.
도면에 도시된 바와 같이 3차원 좌표 공간의 n개 보정점(X,Y,Z)를 선정한 다음에(41) 신경망 회로의 출력단에 목적치 데이타 세트를 구성한다(42). 다음으로 보정점에 대응되는 2차원 영상면의 n개 점(U,V)과 해당 광 평면의 조사 각도 세타(θ)를 획득하고(43), 신경망 회로 입력단의 입력치인(U,V,θ)로 데이타 세트를 구성한다(44). 데이타 세트를 구성한 후에 신경망 회로에 대하여 반복 학습을 실시하고(45) 설정된 오차 이내로 학습되는지의 여부를 확인하여(46) 설정된 오차 이내로 학습된 경우에는 학습된 연결 강도를 테이블에 저장한다(47). 만일, 설정된 오차를 벗어날 경우에는 신경망 회로에 대하여 반복 학습을 실시하는 과정(45)부터 반복 수행한다.As shown in the figure, n correction points (X, Y, Z) of the three-dimensional coordinate space are selected (41), and then an objective data set is constructed (42) at the output terminal of the neural network. Next, n points (U, V) of the two-dimensional image plane corresponding to the correction point and the irradiation angle theta (θ) of the corresponding optical plane are obtained (43), and the input values (U, V, θ) of the neural network input terminal. Construct a data set (44). After constructing the data set, the neural network circuit is repeatedly trained (45) and checked whether it is trained within the set error (46). If the trained training is performed within the set error, the trained connection strength is stored in the table (47). If it is out of the set error, the process is repeatedly performed from the process 45 of performing the iterative learning on the neural network circuit.
즉, 이 학습을 원하는 오차 이내로 학습되도록 반복하여 사상 함수에 해당하는 뉴론간의 연결 강도를 구하고, 구해진 연결 강도의 값을 테이블로 유지한다.That is, the learning is repeated so as to be learned within a desired error, and the connection strength between neurons corresponding to the mapping function is obtained, and the value of the obtained connection strength is maintained in a table.
보정점의 수를 많이 선택하고 다양한 거리에서 대응점을 선택할수록 정확하게 학습되나 시간 소요가 증가하므로 적당한 수효를 선택한다. 학습은 원하는 거리에 대하여 보정점을 선택하여 반복하여 수행하고, 거리에 따라 구해진 연결 강도는 테이블로 유지한다.As the number of correction points is selected and the corresponding points are selected at various distances, the correct learning is performed, but the time required increases, so the appropriate number is selected. The learning is repeatedly performed by selecting a correction point for a desired distance, and the connection strength obtained according to the distance is maintained in a table.
이어서, 두번째 단계인 영상을 보정하는 과정을 제5도를 통하여 설명하면 다음과 같다.Next, a process of correcting an image, which is the second step, will be described with reference to FIG. 5.
제5도는 본 발명에 따른 영상 왜곡 보정 과정의 흐름도로서, 영상을 보정하는 과정은 먼저 영상면 좌표 및 광 평면 각도를 입력받아(51) 우선적으로 획득된 카메라 영상으로부터 보정없이 역 투사하여 영상 정보에 의한 대체적인 거리를 구한 후에(52)이 거리에 해당하는 테이블 값을 신경망 회로의 연결 강도로 입력하고(53), 신경망 회로에 임의의 영상 좌표값과 광 평면의 각도값인(U,V,θ)를 입력하면(54), 왜곡된 좌표값이 아닌 정확한 3차원 좌표값(X,Y,Z)을 신경망 회로를 통하여 출력(55)하게 되므로, 보정된 정확한 값을 구할 수 있다.5 is a flowchart of an image distortion correction process according to the present invention. The process of correcting an image first receives an image plane coordinate and an optical plane angle (51). After calculating the alternative distance (52), a table value corresponding to the distance is input as the connection strength of the neural network (53), and arbitrary image coordinate values and angle values of the optical plane (U, V, θ), the correct three-dimensional coordinate value (X, Y, Z) is output through the neural network circuit, not the distorted coordinate value, so that the corrected correct value can be obtained.
즉, 각도 θ를 Qi점의 U 및 V값과 함께 Pw점의 (X,Y,Z)에 대응시킨다. 이것을 식으로 표현하면, Pw(X,Y,Z)=F(U,V,θ)와 같다.That is, the angle θ corresponds to (X, Y, Z) of the Pw point together with the U and V values of the Qi point. This expression is equal to Pw (X, Y, Z) = F (U, V, θ).
따라서, 카메라 영상면에 (i,j,θ)로 나타나는 점 Q들은 F라는 사상 함수에 의하여 3차원 공간상의 (X,Y,Z)로 역 투사되는 점들을 구할 수 있게 되어 있어, 사상 함수 F를 이용하여 보정할 수 있다. 여기서, 보정의 정밀도는 사상 함수의 정밀도에 의해 정해진다.Therefore, the points Q represented by (i, j, θ) on the camera image plane can be obtained by inversely projecting the points projected to (X, Y, Z) in the three-dimensional space by the mapping function F. Can be corrected using. Here, the precision of the correction is determined by the precision of the mapping function.
제6도는 본 발명에 이용되는 신경망 회로의 일예시도로서, 비선형 사상을 할 수 있는 역 전파 학습 알고리즘을 이용하는 다층 구조 퍼셉트론 신경망 회로를 나타낸다.6 shows an example of a neural network circuit used in the present invention, and shows a multi-layered perceptron neural network circuit using an inverse propagation learning algorithm capable of nonlinear mapping.
도면에 도시된 바와 같이 입력단과 출력단의 뉴론 갯수는 각각 3개이며, 다중 은닉 층을 갖는다. 입력단에서는 영상면의 n개의 보정점들에 대한 (U,V,θ) 값들을 입력하고, 출력단에는 n개 보정점들에 대한 3차원 공간상의 (X,Y,Z)값을 대응시켜 입력하며, 역 전파에 의한 학습을 시킨다. 즉, 입출력 값을 사상하는 뉴런간의 연결강도 Wij를 구한다.As shown in the figure, the number of neurons of the input and output terminals is three, respectively, and has multiple hidden layers. The input terminal inputs (U, V, θ) values for n correction points on the image plane, and the output terminal inputs (X, Y, Z) values corresponding to n correction points in three-dimensional space. , Learn by back propagation. That is, the connection strength Wij between neurons that map input / output values is obtained.
상기와 같이 이루어지는 본 발명은 원하는 거리와 시야에 대하여 3차원 공간상의 보정점과 2차원 영상면에 투사된 보정점간의 사상 관계를 신경망 회로로 구하여 이 관계 값을 테이블로 갖고 있으면서 영상 왜곡에 대한 보정이 가능하므로, 외부 환경이나 카메라 종류, 파라미터 등의 변화에 관계없이 효율적으로 쉽게 영상 왜곡을 보정할 수 있는 장점이 있다.According to the present invention as described above, a mapping relationship between a correction point in three-dimensional space and a correction point projected on a two-dimensional image plane is obtained by a neural network for a desired distance and field of view, and the correction value is corrected for image distortion while having this relationship as a table. Since this is possible, the image distortion can be easily and efficiently corrected regardless of a change in external environment, camera type, or parameter.
또한, 응용의 한 예로 3차원 물체 인식이나 거리 측정 등의 목적으로 로보트 시각 장치에 장착된 카메라 보정에 효과적이다.In addition, as an example of the application, it is effective to calibrate a camera mounted on the robot vision apparatus for the purpose of 3D object recognition or distance measurement.
Claims (4)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1019940036967A KR0139572B1 (en) | 1994-12-23 | 1994-12-23 | Image distortion calibration method using nervous network |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1019940036967A KR0139572B1 (en) | 1994-12-23 | 1994-12-23 | Image distortion calibration method using nervous network |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR960028194A KR960028194A (en) | 1996-07-22 |
| KR0139572B1 true KR0139572B1 (en) | 1998-06-15 |
Family
ID=19403665
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1019940036967A Expired - Fee Related KR0139572B1 (en) | 1994-12-23 | 1994-12-23 | Image distortion calibration method using nervous network |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR0139572B1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108769459A (en) * | 2018-06-07 | 2018-11-06 | 北京理工大学 | Multiple spot laser Full-automatic oblique angle shot based on image procossing corrects system |
| KR101939349B1 (en) * | 2018-07-09 | 2019-04-11 | 장현민 | Around view video providing method based on machine learning for vehicle |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100770019B1 (en) * | 2004-12-06 | 2007-10-25 | 한국전자통신연구원 | Apparatus and Method for correction of the image distortion of stereo-camera |
-
1994
- 1994-12-23 KR KR1019940036967A patent/KR0139572B1/en not_active Expired - Fee Related
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108769459A (en) * | 2018-06-07 | 2018-11-06 | 北京理工大学 | Multiple spot laser Full-automatic oblique angle shot based on image procossing corrects system |
| KR101939349B1 (en) * | 2018-07-09 | 2019-04-11 | 장현민 | Around view video providing method based on machine learning for vehicle |
Also Published As
| Publication number | Publication date |
|---|---|
| KR960028194A (en) | 1996-07-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Tang et al. | A precision analysis of camera distortion models | |
| US5832106A (en) | Method for camera calibration of range imaging system by use of neural network | |
| US9858684B2 (en) | Image processing method and apparatus for calibrating depth of depth sensor | |
| US20210041236A1 (en) | Method and system for calibration of structural parameters and construction of affine coordinate system of vision measurement system | |
| Zhang et al. | A novel calibration approach to structured light 3D vision inspection | |
| EP3220099B1 (en) | Calibration device, calibration method, optical device, imaging device, projection device, measurement system, and measurement method | |
| US9165219B2 (en) | Image distortion correction method and image distortion correction device using the same | |
| KR100386090B1 (en) | Camera calibration system and method using planar concentric circles | |
| JP6079333B2 (en) | Calibration apparatus, method and program | |
| JPH0818848A (en) | Camera system and distortion removing method | |
| CN110447220A (en) | Calibration device, calibration method, optical device, photographic device and projection device | |
| WO2018029950A1 (en) | Calibration device, calibration method, optical device, imaging device and projection device | |
| WO2017195801A1 (en) | Calibration device, calibration method, optical device, imaging device, projection device, measurement system and measurement method | |
| CN105096329A (en) | Method for accurately correcting ultra-wide-angle lens | |
| CN111210468A (en) | Image depth information acquisition method and device | |
| CN114299156A (en) | Method for calibrating and unifying coordinates of multiple cameras in non-overlapping area | |
| CN109035345A (en) | The TOF camera range correction method returned based on Gaussian process | |
| Do | Application of neural networks for stereo-camera calibration | |
| CN111028294A (en) | Multi-distance calibration method and system based on depth camera | |
| Chatterjee et al. | A nonlinear Gauss–Seidel algorithm for noncoplanar and coplanar camera calibration with convergence analysis | |
| JP5487946B2 (en) | Camera image correction method, camera apparatus, and coordinate transformation parameter determination apparatus | |
| CN113298886A (en) | Calibration method of projector | |
| CN115631099B (en) | A method, apparatus and electronic device for measuring radial distortion parameters | |
| KR0139572B1 (en) | Image distortion calibration method using nervous network | |
| JP7059406B2 (en) | Optical member position adjustment support device, optical member position adjustment support method, optical member position adjustment support program, lens device manufacturing method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
Fee payment year number: 1 St.27 status event code: A-2-2-U10-U11-oth-PR1002 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 4 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-5-5-R10-R17-oth-X000 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 5 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 6 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 7 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 8 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 9 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 10 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 11 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 12 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 13 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 14 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| FPAY | Annual fee payment |
Payment date: 20120228 Year of fee payment: 15 |
|
| PR1001 | Payment of annual fee |
Fee payment year number: 15 St.27 status event code: A-4-4-U10-U11-oth-PR1001 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| LAPS | Lapse due to unpaid annual fee | ||
| PC1903 | Unpaid annual fee |
Not in force date: 20130305 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE St.27 status event code: A-4-4-U10-U13-oth-PC1903 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PC1903 | Unpaid annual fee |
Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20130305 St.27 status event code: N-4-6-H10-H13-oth-PC1903 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-5-5-R10-R11-asn-PN2301 St.27 status event code: A-5-5-R10-R13-asn-PN2301 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |