KR20110012317A - Light streaks detection method, target position detection method and parking assist device using the same - Google Patents
Light streaks detection method, target position detection method and parking assist device using the same Download PDFInfo
- Publication number
- KR20110012317A KR20110012317A KR1020090069996A KR20090069996A KR20110012317A KR 20110012317 A KR20110012317 A KR 20110012317A KR 1020090069996 A KR1020090069996 A KR 1020090069996A KR 20090069996 A KR20090069996 A KR 20090069996A KR 20110012317 A KR20110012317 A KR 20110012317A
- Authority
- KR
- South Korea
- Prior art keywords
- light
- streaks
- parking
- stripe
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/06—Automatic manoeuvring for parking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 빛 줄무늬 감지 방법, 목표 위치 검출 방법 및 그를 이용한 주차 보조 장치에 관한 것이다.The present invention relates to a light streaking detection method, a target position detection method and a parking assist device using the same.
본 발명에 따른 실시예는, 빛면 투사(Light Plane Projection)를 실내 주행(Indoor Navigation)에 적용하여 카메라를 통해 입력된 영상으로부터 빛 줄무늬(Light Stripe)를 감지하여 장애물을 감지한 후, 능동조향장치 및 전자제어 제동장치를 이용하여 차량의 주차를 보조하는 장치에 있어서, 빛 줄무늬 폭 함수(Light Stripe Width Function)를 이용하여 계산한 빛 줄무늬 폭의 반값을 로그 필터(LOG Filter: Laplacian of Gaussian Filter)의 상수값으로 사용하여 로그 필터링함으로써 검출된 결과와, 빛면 투사기(Light Plane Projector)를 이용하여 빛면(Light Plane)을 투사하여 획득한 영상과 빛면 투사기를 끈 상태에서 획득한 영상과의 차이인 차영상에 대하여 인텐시티 히스토그램(Intensity Histogram)을 구하여 임계값 이상의 밝기(Intensity)를 갖는 데이터를 검출한 결과를 합침으로써 상기 빛 줄무늬를 검출하는 것을 특징으로 하는 빛 줄무늬 감지 방법을 이용한 주차 보조 장치를 제공한다.According to an embodiment of the present invention, after applying a light plane projection (Indoor Navigation) to the indoor navigation (Indoor Navigation) by detecting a light stripe (Light Stripe) from the image input through the camera, the active steering device And an apparatus for assisting parking of a vehicle by using an electronically controlled braking device, wherein a half value of a light stripe width calculated using a light stripe width function is calculated by a log filter (LOG filter: Laplacian of Gaussian Filter). The difference between the result obtained by log filtering using the constant value of and the image obtained by projecting the light plane with the light plane projector and the image obtained with the light plane projector turned off. The light streaks are obtained by obtaining an intensity histogram of the image and combining the results of detecting data having intensity above a threshold. To provide a parking assistance apparatus using the light stripe detection method characterized in that the detection.
Description
본 발명은 빛 줄무늬 감지 방법, 목표 위치 검출 방법 및 그를 이용한 주차 보조 장치에 관한 것이다. 더욱 상세하게는, 지하 주차장에서의 자동 주차와 같은 실내 주행(Indoor Navigation) 환경에서 차량에서 방사되는 빛면 투사의 빛 줄무늬를 제대로 검출하여 주차할 목표 위치를 검출하고자 하는 빛 줄무늬 감지 방법, 목표 위치 검출 방법 및 그를 이용한 주차 보조 장치에 관한 것이다.The present invention relates to a light streaking detection method, a target position detection method and a parking assist device using the same. More specifically, in the indoor navigation environment, such as automatic parking in an underground parking lot, a light streaking detection method for detecting a target position to park by properly detecting the light streaks of the light plane projection emitted from the vehicle, the target position detection A method and a parking assist device using the same.
1.1 빛면 투사(Light Plane Projection)에 의한 3차원 정보 인식1.1 Recognition of 3D Information by Light Plane Projection
빛면 투사란 차량 후면에 장착되는 빛면 투사기(LPP: Light Plane Projector)를 이용하여 빛면(Light Plane)을 투사하여 차량의 후면에 장착되는 카메라로 영상을 획득하고, 빛면 투사기를 끈 상태에서 획득한 영상과의 차이인 차영상으로부터 물체에 생기는 줄무늬(Stripe)를 추출하여 3차원 정보를 인식하는 기술이다.Light Plane Projection Projects the Light Plane using a Light Plane Projector (LPP) mounted on the rear of the vehicle to obtain an image with a camera mounted on the rear of the vehicle. It is a technology that recognizes three-dimensional information by extracting stripes generated on an object from a difference image, which is a difference from.
도 1은 빛면 투사를 이용한 3차원 정보 인식 과정을 설명하기 위한 예시도이 다.1 is an exemplary view for explaining a three-dimensional information recognition process using light plane projection.
'O'는 차량의 후면에 장착되는 카메라의 광학중심(Optical Center), 'x-y 평면'은 영상면(Image Plane), 'b'는 카메라의 y축 방향으로 광학중심 'O'와 빛면 투사기 사이의 거리, P0는 빛면 투사기의 위치를 나타낸다. Π는 빛면 투사기가 만들어낸 빛면(Light Plane)을 나타낸다.'O' is the optical center of the camera mounted on the rear of the vehicle, 'xy plane' is the image plane, and 'b' is between the optical center 'O' and the light plane projector in the y-axis direction of the camera. The distance P 0 is the position of the light plane projector. Π represents the light plane produced by the light plane projector.
빛면 Π는 점 P0(0, -b, 0)에서 Y축과 만나고, 빛면 Π과 Y축 사이각은 α, 빛면과 X축 사이각은 ρ라고 가정하고, 빛면 투사기를 물체에 비추면 레이저 줄무늬(Laser Stripe)를 형성한다. 레이저 줄무늬의 한 점 P(X,Y,Z)의 영상면 상의 해당점을 p(x, y)로 나타내고, 평면 Π와 직선 Op의 교점을 이용하여 P의 좌표를 측정한다. 빛면이 카메라의 X축에 거의 평행한 구성을 사용할 경우, 빛 줄무늬(Light Stripe)는 영상 컬럼(Column)당 단 한 번 발생한다.The light plane Π meets the Y-axis at point P 0 (0, -b, 0), the angle between light plane Π and Y-axis is α, the angle between light plane and X-axis is ρ. Form a stripe (Laser Stripe). The corresponding point on the image plane of one point P (X, Y, Z) of the laser stripes is represented by p (x, y), and the coordinates of P are measured using the intersection point of the plane π and the straight line Op. When using a configuration where the light plane is almost parallel to the camera's X-axis, the light stripe occurs only once per image column.
1) 빛면 Π의 방정식1) Equation of the light side Π
XZ평면의 법선 벡터(Normal Vector)인 (0, 1, 0)을 X축에 대하여 π/2-α 만큼 회전시키고 Z축에 대하여 ρ만큼 회전시켜서 빛면 Π의 법선 벡터 n을 구하면 수학식 1과 같이 같다.When (0, 1, 0), which is the normal vector of the XZ plane, is rotated by π / 2-α about the X axis and ρ about the Z axis, the normal vector n of π is obtained. Same as
수학식 1의 법선 벡터 n과 빛면 상의 한점 P0를 이용하면 빛면 Π의 방정식을 수학식 2와 같이 구할 수 있다.Using the normal vector n of
2) 레이저 줄무늬 상의 점 P 구하기2) Find Point P on the Laser Stripe
광학중심 O, 영상면 상의 한 점 p, 이에 해당하는 3차원 공간상의 한 점 P는 모두 한 직선 위에 있다. 수학식 3과 같은 원근 카메라 모델(Perspective Camera Model)을 이용하여 직선상의 모든 점 Q를 매개변수 k를 이용하여 수학식 4와 같이 표현할 수 있다. 이때, f는 초점 길이(Focal Length)를 나타낸다.The optical center O, a point p on the image plane, and a corresponding point P in three-dimensional space are all on a straight line. Using a perspective camera model such as
여기서, 레이저 줄무늬 상의 한 점 P는 빛면 Π와 직선 Op의 교점이기 때문에 수학식 2와 수학식 4를 동시에 만족한다. 따라서, 수학식 4와 수학식 1을 수학식 2에 대입하면, 매개변수 k를 수학식 5와 같이 도출할 수 있다.Here, one point P on the laser stripes satisfies
또한, 수학식 5를 수학식 4에 대입하면, 점 P의 좌표를 수학식 6, 수학식 7, 수학식 8과 같이 구할 수 있다.In addition, by substituting
특히, 빛면과 X축이 평행하면(즉, ρ가 0이면), 수학식 6, 수학식 7, 수학식 8은 수학식 9, 수학식 10, 수학식 11과 같이 단순화할 수 있다. 이때, 카메라와 물체 상의 점 P사이의 거리 Z는 영상 상의 점의 y좌표와 1대1 관계임을 주목하자.In particular, when the light plane and the X axis are parallel (that is, ρ is 0),
1.2 로그(LOG: Laplacian Of Gaussian) 기반 선분 검출1.2 Log based Laplacian Of Gaussian
로그 또는 멕시칸 햇 웨이블릿(Mexican Hat Wavelet)은 컴퓨터 비전(Computer Vision) 분야에서 선분을 검출하기 위하여 가장 많이 사용하는 필터(Filter)이다.Log or Mexican Hat Wavelets are the most commonly used filters to detect line segments in the field of computer vision.
도 2는 멕시칸 햇 웨이블릿 함수를 그래프로 나타낸 예시도이다.Figure 2 is an exemplary diagram graphically showing the Mexican hat wavelet function.
로그는 수학식 12와 같이 정의되며, 가우시안(Gaussian) 함수의 표준이계도 함수(Normalized Second Derivative)이다. 또한, 로그는 가우시안 저역 통과 필터(Gaussian LPF(Low Pass Filter))와 최고 상승(Peak Enhancement)의 결합으로, 로그와 컨볼루션(Convolution)한 결과의 크기는 입력 영상이 선(Line)일 가능성에 비례한다.The log is defined as in
여기서, σ는 선폭(Line Width)에 해당하는 영전압점(Zero Crossing Point)의 위치를 결정한다. 실제 선의 폭보다 작은 σ를 사용하면, 줄무늬의 중심보다는 변두리 점을 검출한다. 실제 선의 폭보다 현저히 작은 σ를 사용하면, 강력한 저역 통과 필터의 효과로 선을 무시하게 된다. 빛면 투사기에서는 컬럼당 단 하나의 빛 줄무늬가 있기 때문에, 각 컬럼에 대한 1차원 LOG 필터링(Filtering)을 수행하여 가장 큰 출력을 나타내는 점을 줄무늬로 인식한다.Here, sigma determines the position of the zero crossing point corresponding to the line width. Using σ less than the actual line width detects edges rather than the center of the stripes. Using sigma, which is significantly smaller than the actual line width, ignores the line with the effect of a powerful low pass filter. Since there is only one light stripe per column in the light plane projector, one-dimensional LOG filtering is performed on each column to recognize the point showing the largest output as the stripe.
1.3 고 명암비 이미지(HDRi: High Dynamic Range Imaging)에 의한 레디언스 맵(Radiance Map) 구성1.3 Composition of Radiance Map by High Dynamic Range Imaging (HDRi)
노출(Exposure) X는 광휘(Irradiance) E와 노출 시간(Exposure Time) t의 곱으로 정의된다. 명암(Intensity) Z는 수학식 13과 같이 노출 X에 대한 비선형(Non-Linear) 함수로 표현된다.Exposure X is defined as the product of Irradiance E and Exposure Time t. Intensity Z is expressed as a non-linear function for exposure X as shown in Equation 13.
수학식 13의 양변에 로그(Log)를 취하면 수학식 14와 같이 되고, 함수 g를 logf - 1 로 정의하면 수학식 5와 같이 된다.Taking Log on both sides of Equation 13 gives Equation 14, and the function g is log f - 1 If it is defined as (5).
이때, i는 픽셀(Pixel) 좌표에 대한 인덱스(Index)이고, j는 촬영 시의 노출 시간에 대한 인덱스이다. 노출 X와 명암 Z 사이 관계를 정의하는 비선형 함수를 이미징 시스템(Imaging System)의 응답 커브(Response Curve)라고 한다.In this case, i is an index of pixel coordinates, and j is an index of exposure time during imaging. The nonlinear function that defines the relationship between exposure X and contrast Z is called the response curve of the imaging system.
데베벡(Debevec)은 픽셀들의 수학식 15에 대한 오류를 최소화하면서 응답 커브가 부드러워 지도록 하는 기준을 수학식 16과 같이 정의하고, 최소자승법(LS Method: Least Square Method)으로 추정하는 방법을 제시하였다. 이는 한 장면을 노출 시간을 달리해가면서 촬영하면, 센서의 응답 커브와 장면의 레디언스 맵을 구할 수 있다는 것을 의미한다.Debevec defined the criteria for smoothing the response curve while minimizing the error of the
본 발명의 실시예는, 지하 주차장에서의 자동 주차와 같은 실내 주행(Indoor Navigation) 환경에서 차량에서 방사되는 빛면 투사의 빛 줄무늬를 제대로 검출하여 주차할 목표 위치를 검출하고자 하는 데 그 목적이 있다.An embodiment of the present invention is to detect a target position to park by properly detecting the light streaks of the light surface projection emitted from the vehicle in an indoor navigation environment such as automatic parking in the underground parking lot.
본 발명의 일 실시예에 따르면, 빛면 투사(Light Plane Projection)를 실내 주행(Indoor Navigation)에 적용하여 카메라를 통해 입력된 영상으로부터 빛 줄무늬(Light Stripe)를 감지하여 장애물을 감지한 후, 능동조향장치 및 전자제어 제동장치를 이용하여 차량의 주차를 보조하는 장치에 있어서, 빛 줄무늬 폭 함수(Light Stripe Width Function)를 이용하여 계산한 빛 줄무늬 폭의 반값을 로그 필터(LOG Filter: Laplacian of Gaussian Filter)의 상수값으로 사용하여 로그 필터링함으로써 검출된 결과와, 빛면 투사기(Light Plane Projector)를 이용하여 빛면(Light Plane)을 투사하여 획득한 영상과 빛면 투사기를 끈 상태에서 획득한 영상과의 차이인 차영상에 대하여 인텐시티 히스토그램(Intensity Histogram)을 구하여 임계값 이상의 밝기(Intensity)를 갖는 데이터를 검출한 결과를 합침으로써 상기 빛 줄무늬를 검출하는 것을 특징으로 하는 빛 줄무늬 감지 방법을 이용한 주차 보조 장치를 제공한다.According to an embodiment of the present invention, after applying a light plane projection (Indoor Navigation) to the indoor navigation (Indoor Navigation) by detecting the light stripe (Light Stripe) from the image input through the camera, the active steering In a device that assists parking of a vehicle by using a device and an electronically controlled braking device, a half value of a light stripe width calculated by using a light stripe width function is a log filter (LOG filter: Laplacian of Gaussian Filter). Is a difference between the result obtained by log filtering using a constant value of), and the image obtained by projecting the light plane using the light plane projector and the image obtained when the light plane projector is turned off. Intensity Histogram of the difference image is obtained, and the result of detecting the data having intensity above the threshold is summed and the light line is added. It provides a parking assist device using a light streaks detection method characterized in that the detection of the pattern.
또한, 본 발명의 다른 실시예에 따르면, 빛면 투사(Light Plane Projection)를 실내 주행(Indoor Navigation)에 적용하여 카메라를 통해 입력된 영상으로부터 빛 줄무늬(Light Stripe)를 감지한 후, 능동조향장치 및 전자제어 제동장치를 이용하여 차량의 주차를 보조하는 장치에 있어서, 상기 빛 줄무늬를 구성하는 레인지 데이터에서 가이드라인의 방향을 수평하게 하도록 방향 표준화를 수행하고 상기 방향 표준화를 수행한 레인지 데이터로부터 깊이 지도를 작성하여 상기 깊이 지도로부터 목표 위치를 검출하는 것을 특징으로 하는 주차 보조 장치를 제공한다.In addition, according to another embodiment of the present invention, by applying a light plane projection (Indoor Navigation) to detect the light stripe (Light Stripe) from the image input through the camera, the active steering device and An apparatus for assisting parking of a vehicle using an electronically controlled braking apparatus, comprising: direction normalization to level the direction of a guideline in the range data constituting the light streaks, and a depth map from the range data where the direction standardization is performed. It provides a parking assist device characterized in that for detecting the target position from the depth map by writing.
또한, 본 발명의 다른 실시예에 따르면, 카메라, 능동조향장치 및 전자제어 제동장치와 연결되어 차량의 주차를 보조하는 주차 보조 장치가, 빛면 투사(Light Plane Projection)를 실내 주행(Indoor Navigation)에 적용하여 카메라를 통해 입력된 영상으로부터 빛 줄무늬(Light Stripe)를 감지하는 방법에 있어서, (a) 상기 카메라로부터 입력되는 입력 영상을 이용하여 빛 줄무늬 레디언스 맵(Light Stripe Radiance Map)을 구성하는 단계; (b) 상기 빛 줄무늬 레디언스 맵의 파라미터를 상기 카메라로부터 장애물까지의 거리의 함수로 모델링하는 단계; (c) 상기 빛 줄무늬 레디언스 맵의 파라미터를 이용하여 빛 줄무늬 폭 함수(Light Stripe Width Function)를 계산하는 단계; (d) 상기 빛 줄무늬 폭 함수를 이용하여 빛 줄무늬 폭(Light Stripe Width)을 계산하는 단계; (e) 상기 빛 줄무늬 폭의 1/2 크기를 로그 필터(LOG filter: Laplacian of Gaussian Filter)의 상수로서 사용하여 로그 필터링함으로써 제1 빛 줄무늬를 검출하는 단계; (f) 빛면 투사기(Light Plane Projector)를 이용하여 빛면(Light Plane)을 투사하여 획득한 영상과 빛면 투사기를 끈 상태에서 획득한 영상과의 차이인 차영상을 구하는 단계; (g) 상기 차영상에 대하여 인텐시티 히스토그램(Intensity Histogram)을 구하여 임계값 이상의 밝기(Intensity)를 갖는 제2 빛 줄무늬를 검출하는 단계; 및 (h) 상기 제1 빛 줄무늬와 상기 제2 빛 줄무늬를 합치는 단계를 포함하는 것을 특징으로 하는 빛 줄무늬 감지 방법을 제공한다.In addition, according to another embodiment of the present invention, the parking assistance device connected to the camera, the active steering device and the electronic control braking device to assist the parking of the vehicle, the light plane projection (Light Plane Projection) to the indoor navigation (Indoor Navigation) A method of detecting a light stripe from an image input through a camera by applying a method, the method comprising: (a) constructing a light stripe radiance map using an input image input from the camera ; (b) modeling a parameter of the light streaked radiance map as a function of distance from the camera to an obstacle; (c) calculating a light stripe width function using a parameter of the light stripe radiance map; (d) calculating a light stripe width using the light stripe width function; (e) detecting the first light streaks by log filtering using 1/2 the size of the light streaks width as a constant of a log filter (LOG filter: Laplacian of Gaussian Filter); (f) obtaining a difference image that is a difference between an image obtained by projecting a light plane using a light plane projector and an image obtained while the light plane projector is turned off; (g) obtaining an intensity histogram for the difference image and detecting second light streaks having intensity above a threshold; And (h) combining the first light streaks with the second light streaks.
또한, 본 발명의 다른 실시예에 따르면, 목표 위치 검출 방법에 있어서, (a) 빛면 투사(Light Plane Projection)를 실내 주행(Indoor Navigation)에 적용하여 카메라를 통해 입력된 영상으로부터 빛 줄무늬(Light Stripe)를 감지하는 단계; (b) 상기 빛 줄무늬를 구성하는 레인지 데이터에서 가이드라인의 방향을 수평하게 하도록 방향 표준화를 수행하는 단계; (c) 상기 방향 표준화를 수행한 레인지 데이터로부터 깊이 지도를 작성하는 단계; 및 (d) 상기 깊이 지도로부터 목표 위치를 검출하는 단계를 포함하는 것을 특징으로 하는 목표 위치 검출 방법을 제공한다.In addition, according to another embodiment of the present invention, in the target position detection method, (a) applying a light plane projection to the indoor navigation (Indoor Navigation) by applying a light stripe from the image input through the camera (Light Stripe) Detecting; (b) performing direction normalization to level the direction of the guideline in the range data constituting the light streaks; (c) creating a depth map from the range data on which the direction normalization is performed; And (d) detecting a target position from the depth map.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In describing the embodiments of the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.
또한, 본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적 으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only for distinguishing the components from other components, and the nature, order or order of the components are not limited by the terms. If a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected to or connected to that other component, but there may be another configuration between each component. It is to be understood that the elements may be "connected", "coupled" or "connected".
본 발명의 일 실시예에 따른 빛 줄무늬 감지 방법은 모델 기반방법으로 추출한 빛 줄무늬와 빛면 투사기(Light Plane Projector)를 이용하여 빛면(Light Plane)을 투사하여 획득한 영상과 빛면 투사기를 끈 상태에서 획득한 영상과의 차이인 차영상으로부터 히스토그램 기반 방법으로 추출한 빛 줄무늬를 합침으로써 구한다.The light streaks detection method according to an embodiment of the present invention is obtained by projecting the light plane by using the light streaks and the light plane projector extracted by the model-based method and the light plane projector obtained while the light plane projector is turned off. It is obtained by combining the light streaks extracted by the histogram-based method from the difference image, which is a difference from one image.
1. 모델 기반 방법에 의한 빛 줄무늬 추출1. Extracting light streaks by model-based method
1.1 카메라 응답 커브(Response Curve)의 근사화1.1 Approximation of Camera Response Curve
도 3은 실험에 따른 응답 커브를 그래프로 나타낸 예시도이다.3 is an exemplary diagram showing a graph of a response curve according to an experiment.
고 명암비 이미지(HDRi: High Dynamic Range Imaging, 이하 'HDRi'라 칭함)를 이용하여 카메라의 응답 커브를 구한다. 실험에 의한 응답 커브는 도 3에 도시한 바와 같이 잡음이 발생하므로, 수학식 17과 같이 모델링(Modeling)한 응답 커브를 사용한다. 여기서, 수학식 17의 파라미터는 최소자승법(LS Method: Least Square Method)에 의해 추정한다.The response curve of the camera is obtained by using a high contrast ratio image (HDRi: High Dynamic Range Imaging). Since the noise generated as shown in Fig. 3 results from the experiment, the response curve modeled as in Equation 17 is used. Here, the parameter of Equation 17 is estimated by the least square method (LS Method).
1.2 빛 줄무늬(Light Stripe)의 레디언스 맵(Radiance Map) 구하기1.2 Get Radiance Map of Light Stripe
도 4는 빛 줄무늬의 레디언스 맵을 구하는 과정을 나타낸 예시도이다.4 is an exemplary diagram illustrating a process of obtaining a radiance map of light streaks.
4A는 빛면 투사기를 켰을 때 노출 이미지를 달리하면서 빛 줄무늬 레디언스 맵을 구성하는 과정을 나타낸 것이며, 4B는 빛면 투사기를 껐을 때 노출 이미지를 달리하면서 빛 줄무늬 레디언스 맵을 구성하는 과정을 나타낸 것이며, 4C는 최종적인 빛 줄무늬 레디언스 맵을 나타낸 것이며, 4D는 왜곡을 보정한 빛 줄무늬 레디언스 맵을 나타낸 것이며, 4E는 왜곡을 보정한 빛 줄무늬 레디언스 맵을 영상으로 변환한 것을 나타낸 것이다.4A shows the process of constructing a light streaked radiance map with different exposure images when the light plane projector is turned on, and 4B shows the process of constructing a light streaked radiance map with different exposure images when the light projector is turned on. 4C shows the final light streaked radiance map, 4D shows the light streaked radiance map with distortion correction, and 4E shows the transformation of the light streaked radiance map with distortion correction as an image.
위 그림에서 보는 바와 같이, 빛면 투사기(Light Plane Projector)를 켜고 노출 시간(Exposure Time)을 바꿔가면서 찍은 영상들에 HDRi를 적용하여 레디언스 맵을 구성하고, 빛면 투사기를 끄고 노출 시간을 바꿔가면서 찍은 영상들에 HDRi를 적용하여 레디언스 맵을 구성한다. 이와 같이 구한 두 레디언스 맵의 차가 빛 줄무늬의 레디언스 맵이다.As shown in the figure above, HDRi is applied to the images taken while the Light Plane Projector is turned on and the Exposure Time is changed to compose a radiance map, and when the Light Plane Projector is turned off and the exposure time is changed. HDRi is applied to the images to construct a radiance map. The difference between the two radiance maps thus obtained is the radiance map of the light stripe.
일반적으로 실내 주행(Indoor Navigation)에서는 광각의 렌즈를 사용하기 때문에, 사전에 교정(Calibration) 과정을 통하여 방사상의 왜곡 파라미터(Radial Distortion Parameter)들을 추정하고 이것을 이용하여 방사상의 왜곡(Radial Distortion)을 제거한다.In general, since indoor navigation uses a wide-angle lens, the radial distortion parameters are estimated through a calibration process, and the radial distortion is removed using the wide-angle lens in advance. do.
1.3. 빛 줄무늬 레디언스 맵(Light Stripe Radiance Map)의 2차원 가우시안 모델링(2 Dimensional Gaussian Modeling)1.3. 2 Dimensional Gaussian Modeling of Light Stripe Radiance Map
빛 줄무늬의 레디언스 맵은 수학식 18과 같이 2차원 정규 분포(Gaussian Distribution)를 따른다.The radiance map of the light streaks follows a two-dimensional normal distribution (Gaussian Distribution) as shown in Equation 18.
2차원 정규 분포를 정의하기 위해서는 5개의 파라미터를 추정해야 한다. 여기서, 5개의 파라미터는 진폭(Amplitude) K, 평균값(Mean) (μx,μy ), 각 축(σx,σy)에 대한 표준 편차(Standard Deviation)이다. 최소자승법에 의하여 y축 분포를 먼저, 추정한 후, x축 분포를 추정하여 파라미터 값을 구할 수 있다.To define a two-dimensional normal distribution, five parameters must be estimated. Here, the five parameters are amplitude K , mean value (μ x , μ y ), and standard deviation with respect to each axis (σ x , σ y ). After estimating the y-axis distribution by the least square method, the x-axis distribution can be estimated to obtain parameter values.
도 5는 추정된 파라미터에 의해 묘사되는 빛 줄무늬 레디언스 맵을 나타낸 예시도이다.5 is an exemplary diagram showing a light streaked radiality map depicted by the estimated parameter.
도 5에 도시한 바와 같이, 추정된 파라미터에 의해 측정된 빛 줄무늬 레디언스 맵이 잘 묘사되고 있다.As shown in FIG. 5, the light streaked radiance map measured by the estimated parameters is well depicted.
빛 줄무늬 투사기(Light Stripe Projector)와 카메라가 장애물까지의 거리 d를 변화시키면, 2차원 가우시안 파라미터(Gaussian Parameter) 중 평균값은 변하지 않지만 K, σx, σy는 각각 수학식 19, 수학식 20, 수학식 21과 같이 거리 d에 대한 함수로 모델링될 수 있다.When the light stripe projector and the camera change the distance d to the obstacle, the mean value of the two-dimensional Gaussian parameter does not change, but K , σ x , and σ y are represented by
도 6은 측정된 파라미터들이 수학식으로 모델링된 결과를 나타낸 예시도이다.6 is an exemplary view illustrating a result of measuring parameters measured by a mathematical equation.
6A는 측정된 K를 나타낸 것이고, 6B는 측정된 σx를 나타낸 것이며, 6C는 측정된 σy를 나타낸 것이다. 도시한 바와 같이, K, σx, σy들이 수학식 19, 수학식 20, 수학식 21로 모델링된 결과를 보여준다.6A represents measured K , 6B represents measured sigma x , and 6C represents measured sigma y . As shown, K , σ x , σ y show the results of modeling by equations (19), (20) and (21).
1.4 빛 줄무늬 폭 함수(Light Stripe Width Function)1.4 Light Stripe Width Function
빛 줄무늬 폭(Light Stripe Width)을 주변과의 명암(Intensity) 차이 θZ 보다 큰 영역의 길이라고 가정하면, 명암 차이 θZ는 수학식 15에 의하여 이레디언스(Irradiance) 차이 θE로 변환할 수 있다. 이레디언스 임계치 θE를 수학식 18에 대입하고, log를 씌워 정리하면 수학식 22와 같이 도출된다.Assuming that the light stripe width is the length of the region greater than the difference in intensity from the surroundings θ Z , the contrast difference θ Z is converted into an irradiance difference θ E by equation (15). Can be. Substituting the irradiance threshold value θ E into Equation 18, and covering the log, Equation 22 is derived.
빛면 투사(Light Plane Projection)에서 빛 줄무늬(Light Stripe)는 영상의 한 컬럼(Column)당 단 한 번 나타나고, y축 방향으로 1차원 정규 분포를 따른다.In Light Plane Projection, Light Stripes appear only once per column of an image and follow a one-dimensional normal distribution in the y-axis direction.
따라서, 수학식 22와 같이 θE를 만족하는 y좌표가 빛 줄무늬의 경계의 y좌표이고, 평균값에서 가장 큰 이레디언스 값을 가짐을 알 수 있고, 경계의 y좌표와 평균값 사이 거리의 두 배가 빛 줄무늬 폭(Light Stripe Width)임을 알 수 있다.Accordingly, it can be seen that the y coordinate satisfying θ E is the y coordinate of the boundary of the light stripe and has the largest irradiance value in the mean value, as shown in Equation 22, and the distance between the y coordinate and the mean value of the boundary is doubled. It can be seen that the light stripe width (Light Stripe Width).
이때, K, σx, σy의 거리 d에 대한 모델링인 수학식 19, 수학식 20, 수학식 21을 수학식 22에 대입하면, 수학식 23과 같이 영상 x축 좌표 x와 거리 d에 대한 빛 줄무늬 폭(Light Stripe Width) 함수 w(x, d)를 얻을 수 있다.In this case, K, the equation model for the distance σ x, σ y d 19, Substituting
도 7은 측정된 빛 줄무늬 폭과 계산된 빛 줄무늬 폭을 나타낸 예시도이다.7 is an exemplary diagram showing the measured light streaks width and the calculated light streaks width.
7A는 실측된 빛 줄무늬 폭을 나타낸 것이고, 7B는 수학식 23에 의해 계산된 빛 줄무늬 폭을 나타낸 것이다.7A shows the measured light stripe width, and 7B shows the light stripe width calculated by Equation 23.
빛 줄무늬 투사에서는 수학식 11과 같이 거리 d(세계(world) 좌표계에서 Z)가 영상의 y좌표와 1 대 1 관계를 갖기 때문에, 수학식 23의 w(x, d)는 수학식 24와 같이 영상 상의 좌표 (x, y)에 대한 빛 줄무늬 폭 함수 w(x, y)로 변환될 수 있다.In the light-striped projection, since distance d (Z in the world coordinate system) has a one-to-one relationship with the y-coordinate of the image, as shown in
도 8은 영상의 각 픽셀에서 측정한 빛 줄무늬 폭과 계산된 빛 줄무늬 폭을 나타낸 예시도이다.8 is an exemplary diagram illustrating a light stripe width and a calculated light stripe width measured at each pixel of an image.
8A는 영상의 각 픽셀(Pixel) (x, y)에서 측정한 빛 줄무늬 폭을 나타낸 것이고, 8B는 수학식 24로 계산한 빛 줄무늬 폭을 나타낸 것이다.8A represents the light stripe width measured at each pixel (x, y) of the image, and 8B represents the light stripe width calculated by Equation (24).
따라서, 빛면 투사의 구성(Configuration)을 고정하고, 실내 주행(Indoor Navigation)의 주요 대상물인 도색벽(Painted Wall)에 대한 빛 줄무늬 레디언스 맵의 2차원 정규 분포의 파라미터 함수를 미리 추정해 놓으면, 영상 좌표 (x, y)에 나타날 빛 줄무늬의 폭을 추정할 수 있다Therefore, if the configuration of the light plane projection is fixed, and the parameter function of the two-dimensional normal distribution of the light streaked radiance map for the painted wall, which is the main object of indoor navigation, is estimated in advance, Estimate the width of light streaks to appear at image coordinates (x, y)
예를 들어 지하 주차장에서의 주행과 같은 실내 주행의 경우, 주변의 장애물은 대체로 도색벽으로서 비교적 동일한 반사 특성이 있다. 따라서, 이하에서는 장애물이 균등 확산면(Homogeneous Lambertian Surface)이라고 가정하고, 빛 줄무늬 레디언스 맵이 2D 정규 분포로 모델링될 수 있다고 가정한다.In the case of indoor driving such as, for example, driving in an underground parking lot, the obstacles in the surroundings have relatively the same reflective characteristics as the paint walls. Therefore, in the following, it is assumed that the obstacle is a homogeneous Lambertian Surface, and that the light streaked radiance map can be modeled as a 2D normal distribution.
2차원 가우시안 모델(Gaussian Model)의 진폭(Amplitude)과 x축, y축 정규 분포는 거리에 대한 함수이고, 이 함수의 파라미터들은 사전 교정을 통해 추정할 수 있다. 줄무늬를 배경으로부터 구분할 수 있는 명암 임계치 θZ에 대하여 수학식 23과 수학식 24를 이용하여 빛 줄무늬 폭 함수를 정의하고, 픽셀 좌표 (x, y)에 대한 빛 줄무늬 폭을 사전에 계산할 수 있다..The amplitude, x-axis, and y-axis normal distribution of the two-dimensional Gaussian model is a function of distance, and the parameters of this function can be estimated by pre-calibration. For the light intensity threshold θ Z that can distinguish the stripe from the background, the light stripe width function may be defined using Equation 23 and Equation 24, and the light stripe width for the pixel coordinates (x, y) may be calculated in advance. .
도 9는 영상의 모든 픽셀에 대한 빛 줄무늬 폭을 계산한 결과를 영상으로 나타낸 예시도이다.9 is an exemplary diagram illustrating an image of a result of calculating light streaks for all pixels of an image.
따라서, 빛면 투사를 실내 주행에 적용함에 있어 수학식 12와 같은 로그 필터(LOG Filter)를 이용하여 빛 줄무늬를 검출한다면, 수학식 22, 수학식 23으로 구한 빛 줄무늬 폭의 1/2 크기를 로그 필터의 σ로 사용함으로써, 로그 필터링(LOG Filtering)으로 구하는 빛 줄무늬의 정밀도와 인식률을 개선할 수 있다.Therefore, if the light streaks are detected by using a log filter as shown in
2. 히스토그램 기반 빛 줄무늬 추출2. Histogram Based Light Streaks Extraction
차영상의 데이터에 대하여 인텐시티 히스토그램(Intensity Histogram)을 구하여 인텐시티 히스토그램 상에서 임계값 이상의 밝기(Intensity)를 갖는 데이터를 빛 줄무늬로 인식한다. 본 실시예에서 임계값은 인텐시티 히스토그램 분포 상에서 6σ 지점을 임계값으로 취한다.An intensity histogram is obtained for the data of the difference image, and data having intensity greater than or equal to a threshold on the intensity histogram is recognized as light streaks. In this embodiment, the threshold value takes a point of 6σ on the intensity histogram distribution.
도 10은 본 발명의 일 실시예에 따른 빛 줄무늬 감지 방법에서 차영상의 데이터에 대하여 인텐시티 히스토그램을 예시한 도면이다.FIG. 10 is a diagram illustrating an intensity histogram of data of a difference image in a method of detecting light streaks according to an embodiment of the present invention.
도 10에서 x축은 밝기이고 y축은 히스토그램 돗수 값에 LOG를 취한 것이다.In FIG. 10, the x-axis is brightness and the y-axis is LOG in histogram frequency.
도 10에 도시하듯이, 일정 크기의 임계값 이상의 밝기를 나타내는 데이터를 빛 줄무늬로 추출한다.As shown in Fig. 10, data representing brightness above a threshold of a certain size is extracted as light streaks.
도 11a는 히스토그램 기반 빛 줄무늬를 추출한 것을 예시한 도면이고, 도 11b는 모델기반 빛 줄무늬를 추출한 것을 예시한 도면이고, 도 11c는 히스토그램 기반으로 추출한 빛 줄무늬와 모델기반으로 추출한 빛 줄무늬를 합쳐 최종 형성된 빛 줄무늬를 도시한 도면이고, 도 11d는 최종 형성된 빛 줄무늬 데이터(이하, 레인 지 데이터라 한다.)를 x, y 좌표로 도시한 도면이다.FIG. 11A is a diagram illustrating the extraction of histogram-based light streaks, FIG. 11B is a diagram illustrating the extraction of the model-based light streaks, and FIG. 11C is a final formed by combining the histogram-based light streaks and the model-based light streaks. 11D is a diagram showing light streaks, and FIG. 11D is a diagram showing final formed light streaks data (hereinafter referred to as range data) in x and y coordinates.
이와 같이 빛 줄무늬 검출에 있어서 모델기반 방법 및 히스토그램 기반 방법을 병용함으로써 빛 줄무늬 검출의 정확성을 높일 수 있다.As described above, the accuracy of the light streaks detection can be improved by using the model-based method and the histogram-based method together in the light streaks detection.
3. 방향의 표준화3. Standardization of Direction
일반적으로 주차구역 표시는 2 종류의 선으로 이루어진다. 즉, 도로와 주차구역을 분리하는 가이드라인(guideline), 그리고 주차구역 사이에 그려지는 직선이며, 이러한 두 종류의 직선은 서로에 대하여 직각이다.In general, parking area marking consists of two types of lines. That is, a guideline separating the road and the parking area, and a straight line drawn between the parking areas, and these two types of straight lines are perpendicular to each other.
벽, 기둥과 같은 주차구역 주위의 건축물과 주차된 차량의 측 표면은 이러한 두 종류의 라인과 거의 동일한 방향을 가지는 것으로 간주한다.Buildings around parking areas such as walls and columns, and the side surfaces of parked vehicles are considered to have nearly the same orientation as these two types of lines.
레인지 데이터의 가이드라인 방향을 평가하고 레인지 데이터를 회전시켜 가이드라인이 수평하도록 만든다. 그리하여 후술하는 깊이 지도 형성과 자유공간 탐지를 견실하면서도 간단하게 할 수 있도록 한다.Evaluate the guidelines of the range data and rotate the range data so that the guidelines are horizontal. Thus, the depth map formation and free space detection described later can be made robust and simple.
가이드라인의 방향을 추정하기 위해서 가중화 방향 히스토그램(WOH: weighted orientation histogram)이 사용된다.A weighted orientation histogram (WOH) is used to estimate the direction of the guideline.
레인지 데이터의 각 쌍에 대하여 그 방향이 구해지고 그 방향이 WOH의 히스토그램에 더해짐으로써 임의의 레인지 데이터 쌍의 방향에 대한 각도가 축적되어 WOH를 형성한다. 이때, 구해진 레인지 데이터 쌍의 방향에 대하여 히스토그램에 더할 때 무조건 1을 더하는 것이 아니라 원점에서부터 레인지 데이터 쌍이 이루는 각 벡터의 데스티네이션(즉, (V = Pn2 - Pn1)의 벡터에서 Pn2를 의미) 대한 거리의 제곱 으로 나눈 값을 해당 각도의 히스토그램에 더한다. 이는 거리가 먼 데이터 쌍의 방향에 대하여는 가중치를 낮게 하고 가까운 데이터쌍의 방향은 가중치를 높게 함으로써 거리가 먼 레인지 데이터에 나타나는 노이즈의 영향을 줄여 방향 추출에 있어서 그 정확성이 높아진다.The direction is obtained for each pair of range data, and the direction is added to the histogram of the WOH to accumulate the angle with respect to the direction of any range data pair to form the WOH. At this time, rather than add an unconditional one, when added to the histogram Destiny in each vector forming from the origin pair range data Nation (that is, (V = P n2 with respect to the direction of the obtained range data pairs means the P n2 in a vector of P n1) ) Divided by the square of the distance to the histogram of the angle. This reduces the weight of the data pairs in the long distance and increases the weight of the data pairs in the short distance, thereby reducing the influence of noise on the long range data and improving the accuracy of the direction extraction.
WOH를 구하는 알고리즘을 의사코드(pseudo-code)로 나타내면 아래와 같다.The algorithm for obtaining WOH is shown as pseudo-code as follows.
for n1=1: (N-1)for n 1 = 1: (N-1)
for n2=(n1+1): Nfor n 2 = (n 1 +1): N
V = Pn2 - Pn1 V = P n2 -P n1
θ = 각도(V)θ = angle (V)
WOH(θ) += 1/(|Pn2|)2)WOH (θ) + = 1 / (| P n2 |) 2 )
endend
endend
여기서, N은 레이지 데이터의 수를 의미하고, Pn1 및 Pn2는 N번째 레인지 데이터에 대한 좌표를 의미한다.Here, N means the number of lazy data, P n1 and P n2 means the coordinates for the N-th range data.
도 12는 WOH를 구하는 알고리즘을 통하여 도 11d의 레인지 데이터로부터 형성된 WOH를 도시한 도면이다.FIG. 12 illustrates WOH formed from the range data of FIG. 11D through an algorithm for obtaining WOH.
만일 운전자가 차량이 주차할 목표위치를 왼쪽 또는 오른쪽으로 선택한 경우에, 오른쪽의 경우 0°~ 90°에 있는 피크치를 검출하고, 왼쪽인 경우에는 경우 90 °~ 180°에 있는 피크치를 검출한다. 따라서, 도 11d의 레인지 데이터는 차량의 운전자 기준으로 왼쪽에 위치하는 장소이므로 90°~ 180°범위에 있는 피크치를 찾는다(도 12에서 x 표시). 따라서, 추출한 각도에 따라 레인지 데이터의 가이드라인 방향이 수평하게 되도록 레인지 데이터를 회전시키고 가이드라인을 인식한다.If the driver selects the target location for the vehicle to the left or right, it detects the peak value between 0 ° and 90 ° on the right side and the peak value between 90 ° and 180 ° on the left side. Therefore, since the range data of FIG. 11D is a place located on the left side of the vehicle's driver basis, the range data is found in the range of 90 ° to 180 ° (indicated by x in FIG. 12). Therefore, the range data is rotated so that the guideline direction of the range data becomes horizontal according to the extracted angle, and the guideline is recognized.
도 13a는 레인지 데이터의 방향(θ로 표시)을 도시한 도면이고, 도 13b는 레인지 데이터의 방향을 표준화고 가이드라인을 인식한 것을 도시한 도면이다. 따라서, 도 13b와 같이 WOH가 90°~ 180°범위의 피크치를 가질 때 방향 표준화를 하려면 (180 - θ)만큼 레인지 데이터를 반시계방향으로 회전시킨다.FIG. 13A is a diagram showing the direction of the range data (denoted by θ), and FIG. 13B is a diagram illustrating the standardization of the direction of the range data and the recognition of a guideline. Therefore, when the WOH has a peak value in the range of 90 ° to 180 °, as shown in FIG. 13B, the range data is rotated counterclockwise by (180-θ).
도 13b에서 가이드라인은 y 좌표에 대하여 일정 갯수 이상의 레인지 데이터가 발견되는 첫번째 y좌표를 가이드라인으로 인식한다.In FIG. 13B, the guideline recognizes as a guideline the first y-coordinate where a certain number or more of range data is found with respect to the y-coordinate.
4. 깊이 지도 형성4. Depth Lead Forming
깊이 지도는 도 13과 같이 방향이 표준화된 레인지 데이터의 각 x 좌표에 대하여 가장 작은 y 좌표를 가진 레인지 데이터를 찾아서 형성한다. 방향 표준화된 레인지 데이터의 경우에는 각 x 좌표에 대하여 여러개의 레인지 데이터가 존재할 수 있다. 따라서, 각 x 좌표의 레인지 데이터에 대하여 y 좌표가 가장 작은 것을 선택해서 형성할 수 있다. 이때 노이즈의 영향을 감소시키기 위하여 일정 폭 이하의 너무 짧은 폭을 가진 레인지 데이터는 깊이 지도의 설정 중에 삭제될 수 있다. 한편, 연속적인 2개의 레인지 데이터가 x-축에 대하여 일정거리 분리될 수 있다(즉, 불연속적). 이 경우에는 두 점 사이를 보간한 y 좌표가 주어지도록 깊이 지도 를 설정할 수도 있다.The depth map is formed by finding range data having the smallest y coordinate for each x coordinate of the range data whose direction is normalized as shown in FIG. 13. In the case of the direction normalized range data, several range data may exist for each x coordinate. Therefore, the smallest y coordinate can be selected and formed for the range data of each x coordinate. At this time, in order to reduce the influence of noise, the range data having an extremely short width of less than a predetermined width may be deleted during the setting of the depth map. On the other hand, two consecutive range data can be separated by a certain distance with respect to the x-axis (ie, discontinuous). In this case, the depth map can also be set to give the y coordinate interpolated between the two points.
도 14는 도 13의 레인지 데이터에 대하여 형성된 깊이 지도를 도시한 도면이다.FIG. 14 illustrates a depth map formed with respect to the range data of FIG. 13.
도 14에 도시하듯이, 빨간 선으로 표시된 깊이 지도를 형성하여 레인지 데이터 내에 일정 크기의 자유 공간이 존재함을 알 수 있다.As shown in FIG. 14, it can be seen that a depth map represented by a red line forms a free space having a predetermined size in the range data.
5. 목표 위치 설정5. Set target position
자유 공간은 차량의 폭과 길이를 고려하여 검출되고 여러 개의 자유공간이 검출되었을 때 가장 가까운 자유 공간이 목표 위치로 선택된다. 목표 위치가 차량의 왼쪽에 있을 때, 자유 공간 탐색은 깊이 지도의 좌에서 우로 시행된다. 만약에 차량의 우측이면, 탐색 방향은 반전, 즉 깊이 지도의 오른쪽에서 왼쪽으로 수행된다.The free space is detected in consideration of the width and length of the vehicle, and when several free spaces are detected, the nearest free space is selected as the target position. When the target position is to the left of the vehicle, free space search is performed from left to right on the depth map. If on the right side of the vehicle, the search direction is reversed, ie from right to left of the depth map.
자유 공간을 검출함에 있어서 깊이 지도의 특정 x 좌표가 자유공간을 형성하는지 아닐지는 대응하는 y 좌표가 가이드라인으로부터 대상 차량의 길이 보다 더 먼지 여부를 검사해서 결정된다. 이와 같이 y 좌표가 가이드라인으로부터 대상 차량의 길이 보다 더 먼 경우의 레인지 데이터의 x 좌표의 점을 연결하면서 이러한 방법을 차량의 길이보다 짧은 y 좌표를 갖는 레인지 데이터 까지의 x 좌표까지를 자유공간의 x축 성분으로 인식한다. 검출된 자유공간의 x축 성분의 길이가 차량의 폭보다 넓으면 검출된 자유공간이 유효한 주차 공간으로 인식되고, 그 중에서 가장 가까운 자유 공간의 위치가 목표 위치로 설정된다.In detecting the free space, whether or not a particular x coordinate of the depth map forms a free space is determined by checking whether the corresponding y coordinate is dustier than the length of the target vehicle from the guideline. In this way, the method connects the points of the x coordinate of the range data when the y coordinate is farther than the length of the target vehicle from the guideline, and this method is applied to the x coordinate up to the range data having the y coordinate shorter than the vehicle length. Recognize it as an x-axis component. When the length of the detected x-axis component of the free space is wider than the width of the vehicle, the detected free space is recognized as a valid parking space, and the position of the nearest free space is set as the target position.
도 15a는 도 14의 깊이 지도에서 검출된 목표 위치를 도시한 도면이고, 도 15b는 차량 좌표계로 변환된 목표 위치를 도시한 도면이다. 만일 목표 위치가 깊이 지도에서 설정되면, 설정된 목표 위치에 대하여 방향 표준화시의 회전방향과는 반대방향으로 회전을 적용시킴으로써 도 15b와 같이 차량 좌표계로 변환될 수 있다.15A is a diagram illustrating a target position detected in the depth map of FIG. 14, and FIG. 15B is a diagram illustrating a target position converted to a vehicle coordinate system. If the target position is set in the depth map, the target position may be converted to the vehicle coordinate system as shown in FIG. 15B by applying rotation in a direction opposite to the rotation direction at the time of normalizing the direction.
한편, 차량 후면에 장착되는 카메라의 x-축 FOV(Field of View)가 제한적이므로, 때때로 자유 공간의 양측면을 검출하는 것은 차량의 위치에 따라서 실패할 수 있다.On the other hand, since the x-axis field of view (FOV) of the camera mounted on the rear of the vehicle is limited, sometimes detecting both sides of the free space may fail depending on the position of the vehicle.
도 16a는 빛면 투사기가 빛을 방출한 모습을 차량 후면의 카메라가 획득한 이미지를 도시한 도면이고, 도 16b는 도 16a의 상황에서 검출한 레인지 데이터를 도시한 도면이고, 도 16c는 검출된 레인지 데이터를 방향 표준화한 후 깊이 지도를 설정한 모습을 도시한 도면이다.FIG. 16A illustrates an image obtained by a camera on a rear surface of a vehicle when a light plane projector emits light, FIG. 16B illustrates range data detected in the situation of FIG. 16A, and FIG. 16C illustrates detected range. The depth map is set after directional normalization of data.
도 16c에 도시하듯이, 설정된 깊이 지도에서 자유 공간의 왼쪽이 검출되지 않는다. 자유 공간의 양측이 검출되지 않기 때문에, 표적 위치는 이전에 설명한 방법에 근거하여 설치될 수 없다. 이러한 상황처럼, 자유공간 검출이 끝날 때까지 차량의 길이보다 짧은 y 좌표를 갖는 레인지 데이터까지의 x 좌표를 구하지 못함으로써 2개의 물체 사이의 자유 공간을 검출하지 못하는 경우에는, 자유공간 검출이 끝날 때까지 검출된 자유공간의 x 축 성분의 길이가 차량의 폭보다 충분히 넓으면 이를 목표 위치로 설정할 수 있다. As shown in Fig. 16C, the left side of the free space is not detected in the set depth map. Since both sides of the free space are not detected, the target position cannot be established based on the method described previously. In this situation, when the free space between two objects cannot be detected by not obtaining the x coordinate up to the range data having the y coordinate shorter than the vehicle length until the free space detection is completed, the free space detection is completed. If the length of the x-axis component of the free space detected so far is wider than the width of the vehicle, it can be set as the target position.
도 16d는 깊이 지도에서 설정된 목표위치를 도시한 도면이다.16D illustrates a target position set in the depth map.
도 16d에 도시하듯이, 자유공간의 한쪽 측면에 대한 레인지 데이터가 없더라 도 자유공간이 정확하게 검출될 수 있다.As shown in Fig. 16D, the free space can be accurately detected even without range data for one side of the free space.
6. 숨겨진 차량을 위한 보상6. Rewards for Hidden Vehicles
주차된 차량의 옆 표면이 방향 표준화된 레인지 데이터와 수평하거나 직각으로 가정되므로, 차량의 정면 표면이 부족하게 검출되는 경우에 차량은 깊이 지도에서 사라질 수 있다. Since the side surface of the parked vehicle is assumed to be horizontal or perpendicular to the direction normalized range data, the vehicle may disappear from the depth map if the front surface of the vehicle is insufficiently detected.
도 17a는 자유 공간의 좌우 측에 주차된 차량이 주차 구역 방향에 따라 정확하게 배열될 때 빛면 투사기가 빛을 방출한 모습을 차량 후면의 카메라가 획득한 이미지를 도시한 도면이고, 도 17b는 도 17a의 상황에서 깊이 지도를 설정한 모습을 도시한 도면이다.17A is a view showing an image obtained by the camera on the rear of the vehicle when the light is projected to emit light when the vehicle parked on the left and right sides of the free space is correctly arranged in accordance with the direction of the parking zone, and FIG. 17B is FIG. 17A In this situation, the depth map is shown.
도 17a에 도시하듯이, 자유 공간의 좌우 측에 주차된 차량이 주차구역 방향에 따라 정확하게 배열될 때, 각 차량의 옆 표면의 레인지 데이터는 도 17b에 도시한 것처럼 직각 선으로 나타난다. 노이즈의 영향을 감소시키기 위하여 너무 짧은 폭을 가진 레인지 데이터는 깊이 지도의 설정 중에 삭제되고 직각 선에 위치한 레인지 데이터가 아주 좁은 폭에 투영되는 경향이 있기 때문에, 주차된 차량의 옆 표면의 레인지 데이터가 깊이 지도 설정 중에 삭제될 수 있다.As shown in Fig. 17A, when the vehicles parked on the left and right sides of the free space are arranged correctly in accordance with the direction of the parking area, the range data of the side surface of each vehicle is represented by a perpendicular line as shown in Fig. 17B. To reduce the effects of noise, range data with too short a width is deleted during setting of the depth map, and range data on a right angle tends to be projected on a very narrow width, so range data on the side surfaces of parked vehicles Can be deleted during depth map setup.
이 문제를 해결하기 위하여, 방향 표준화된 레인지 데이터의 x 축에 대하여 x축 히스토그램을 작성하여 x축 히스토그램 상에 일정 폭 이하의 x 축에 대하여 일정 갯수 이상의 히스토그램 상에 나타나면 차량의 측면으로 인식한다.In order to solve this problem, an x-axis histogram is created for the x-axis of the direction-normalized range data, and it is recognized as the side of the vehicle when it appears on the x-axis histogram on the x-axis histogram with a predetermined number or more for the x-axis having a predetermined width or less.
도 17c는 도 17b의 레인지 데이터에 대하여 x축 히스토그램을 작성한 도면이 다.FIG. 17C is a diagram showing an x-axis histogram of the range data of FIG. 17B.
도 17c에 도시하듯이, 기준 돗수 이상의 경우에는 주차된 차량의 측면으로 인식할 수 있다. 'ㄴ'과 'ㄷ'의 경우에는 이미 깊이 지도에서 반영되었으므로, 깊이 지도에 반영되지 않은 'ㄱ'의 경우에는 숨겨진 차량의 측면으로 인식하고 깊이 지도가 존재하지 않는 방향으로 일정폭과 길이를 가지는 주차된 차량이 존재하는 것으로 가정함으로써 깊이 지도에 반영될 수 있도록 한다.As shown in FIG. 17C, when the reference temperature is greater than or equal to, it may be recognized as the side of the parked vehicle. In the case of 'b' and 'c', it is already reflected in the depth map, so 'b' which is not reflected in the depth map is recognized as the side of the hidden vehicle and has a certain width and length in the direction where the depth map does not exist. It is assumed that a parked vehicle exists so that it can be reflected in the depth map.
도 18a는 일정 폭과 길이의 숨겨진 차량을 고려하여 작성된 깊이 지도를 도시한 도면이고, 도 18b는 이를 바탕으로 설정한 목표 위치를 도시한 도면이다.FIG. 18A illustrates a depth map created in consideration of a hidden vehicle having a predetermined width and length, and FIG. 18B illustrates a target position set based on the depth map.
도 18에서와 같이 검출된 숨겨진 차량으로 깊이 지도를 보강함으로써, 만일의 경우에 주차중에 발생할 수도 있는 주차된 차량의 손실을 피할 수 있으며, 도 18b에서와 같이 목표 위치가 정확하게 설정될 수 있다. By reinforcing the depth map with the detected hidden vehicle as in FIG. 18, the loss of the parked vehicle, which may occur during parking in the event of emergency, can be avoided, and the target position can be set correctly as in FIG. 18B.
도 19는 본 발명의 일 실시예에 따른 주차 보조 장치를 간략하게 나타낸 블록 구성도이다.19 is a block diagram schematically illustrating a parking assist device according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 주차 보조 장치(1920)는 카메라(1910), 능동조향장치(1930) 및 전자제어 제동장치(1940)와 연결되어, 카메라로부터 입력되는 영상을 이용하여 주변 환경의 장애물을 감지하고 능동조향장치(1930) 및 전자제어 제동장치(1940)를 이용하여 차량을 조향 및 제동함으로써, 차량의 주차를 보조한다.
여기서, 능동조향장치(1930)는 차량의 운전 상황과 운전자의 운전 의도를 파악하여 차량의 조향을 보조하는 조향 보조 수단으로서, 전동식 조향장치(EPS: Electronic Power Steering), 모터구동 조향장치(MDPS: Motor Driven Power Steering), 능동전류 조향장치(AFS: Active Front Steering) 등을 포함하는 개념이다.Here, the
또한, 전자제어 제동장치(1940)는 차량의 제동 상태를 변환하는 제동 제어 수단으로서, 안티록 브레이크 시스템(ABS: Anti-lock Brake System), 자동 안정성 제어(ASC: Automatic Stability Control) 시스템, 동적 안정성 제어(DSC: Dynamic Stabilty Control) 시스템 등을 포함하는 개념이다.In addition, the electronically controlled
본 발명의 일 실시예에 따른 주차 보조 장치(1920)는 빛면 투사를 실내 주행에 적용하여 카메라를 통해 입력된 영상으로부터 빛 줄무늬를 감지하고 빛 줄무늬를 이용하여 장애물을 감지하여 차량의 주차를 보조한다.The
또한, 본 발명의 일 실시예에 따른 주차 보조 장치(1920)는 빛 줄무늬를 감지하는 데 있어서, 빛 줄무늬 폭 함수(Light Stripe Width Function)를 이용하여 계산한 빛 줄무늬 폭의 반값을 로그 필터(LOG Filter: Laplacian of Gaussian Filter)의 상수값으로 사용하여 로그 필터링함으로써 검출된 결과와, 빛면 투사기(Light Plane Projector)를 이용하여 빛면(Light Plane)을 투사하여 획득한 영상과 빛면 투사기를 끈 상태에서 획득한 영상과의 차이인 차영상에 대하여 인텐시티 히스토그램(Intensity Histogram)을 구하여 임계값 이상의 밝기(Intensity)를 갖는 데이터를 검출한 결과를 합침으로써 빛 줄무늬를 검출한다.In addition, in the
또한, 본 발명의 일 실시예에 따른 주차 보조 장치(1920)는 빛면 투사에서 빛 줄무늬 레디언스 맵(Light Stripe Radiance Map)을 2차원 정규 분포로 모델링할 때, 빛 줄무늬 레디언스 맵의 파라미터를 카메라로부터 장애물까지의 거리의 함수 로 모델링한다.In addition, the
본 발명의 일 실시예에 따른 주차 보조 장치(1920)는 빛 줄무늬를 구성하는 레인지 데이터에서 가이드라인의 방향을 수평하게 하도록 방향 표준화를 수행하고 방향 표준화를 수행한 레인지 데이터로부터 깊이 지도를 작성하여 깊이 지도로부터 목표 위치를 검출한다.The
여기서, 방향 표준화는 레인지 데이터에서 가이드라인의 방향을 계산하기 위하여 가중화 방향 히스토그램을 적용하고 차량이 주차할 방향이 차량의 오른쪽이면 가중화 방향 히스토그램에서 0°~ 90°에 있는 피크치를 검출하고 왼쪽이면 90°~ 180°에 있는 피크치를 검출하여 가이드라인의 방향을 구한 후 가이드라인이 수평하도록 레인지 데이터를 회전시킨다.In this case, the direction normalization applies a weighted direction histogram to calculate the direction of the guideline in the range data, and if the direction in which the vehicle is parked is the right side of the vehicle, the peak value from 0 ° to 90 ° is detected and left on the weighted direction histogram. After detecting the peak value between 90 ° and 180 °, the direction of the guideline is determined, and the range data is rotated so that the guideline is horizontal.
한편, 깊이 지도에서 일정 폭 이하의 짧은 폭을 가지는 데이터는 깊이 지도에서 삭제될 수 있으며, 이 경우 방향 표준화된 데이터에 대한 x축 히스토그램을 작성하여 일정 폭 이하의 짧은 폭을 가지는 데이터에 대한 돗수가 기준 돗수 이상인 경우에는 차량의 옆면으로 인식하여 설정될 수 있다.Meanwhile, data having a short width less than or equal to a predetermined width in the depth map may be deleted from the depth map. If it is more than the standard tap water can be set by recognizing the side of the vehicle.
도 20은 본 발명의 일 실시예에 따른 빛 줄무늬 감지 방법을 설명하기 위한 순서도이다.20 is a flowchart illustrating a light streaks detection method according to an embodiment of the present invention.
도 19를 통해 전술한 주차 보조 장치(1920)는 지하 주차장과 같은 실내 주행 환경에서 장애물을 감지하여 차량의 운행 또는 주차를 보조하는데, 빛면 투사를 실내 주행에 적용하여 빛 줄무늬를 감지함으로써 장애물을 감지한다.The above-described
즉, 주차 보조 장치(1920)는 카메라(1910)에 장착된 빛면 투사기를 이용하여 실내 주행 환경에 빛면을 투사하고(S2010), 카메라(1910)로부터 입력되는 입력 영상을 수신하면(S2020), 입력 영상으로부터 빛 줄무늬 레디언스 맵을 구성한다(S2030).That is, the
빛 줄무늬 레디언스 맵을 구성한 주차 보조 장치(1920)는 빛 줄무늬 레디언스 맵의 파라미터를 카메라로부터 장애물까지의 거리의 함수로 모델링하고(S2040), 모델링한 빛 줄무늬 레디언스 맵의 파라미터를 이용하여 빛 줄무늬 폭 함수를 계산한다(S2050).The
주차 보조 장치(1920)는 빛 줄무늬 폭 함수를 이용하여 빛 줄무늬 폭을 계산하고, 계산한 빛 줄무늬 폭의 1/2 크기를 선분 검출을 위한 로그 필터의 상수 즉, σ로 사용하여 빛 줄무늬를 검출한다(S2060).The
주차 보조 장치(1920)는 빛면 투사기(Light Plane Projector)를 이용하여 빛면(Light Plane)을 투사하여 획득한 영상과 빛면 투사기를 끈 상태에서 획득한 영상과의 차이인 차영상을 구한다(S2070).The
주차 보조 장치(1920)는 차영상에 대하여 인텐시티 히스토그램(Intensity Histogram)을 구하여 임계값 이상의 밝기(Intensity)를 갖는 제2 빛 줄무늬를 검출한다(S2080).The
주차 보조 장치(1920)는 제1 빛 줄무늬와 제2 빛 줄무늬를 합하여 빛 줄무늬를 추출한다(S2090).The
도 21은 본 발명의 일 실시예에 따른 목표 위치 검출 방법을 설명하기 위한 순서도이다.21 is a flowchart illustrating a target position detection method according to an embodiment of the present invention.
목표 위치 검출을 위하여 주차 보조 장치(1920)는 빛면 투사(Light Plane Projection)를 실내 주행(Indoor Navigation)에 적용하여 카메라를 통해 입력된 영상으로부터 빛 줄무늬(Light Stripe)를 감지한다(S2110).In order to detect the target position, the
주차 보조 장치(1920)는 상기 빛 줄무늬를 구성하는 레인지 데이터에서 가이드라인의 방향을 수평하게 하도록 방향 표준화를 수행한다(S2120).The
주차 보조 장치(1920)는 상기 방향 표준화를 수행한 레인지 데이터로부터 깊이 지도를 작성한다(S2130).The
주차 보조 장치(1920)는 상기 깊이 지도로부터 목표 위치를 검출한다(S2140).The
이상에서 설명한 바와 같이, 본 발명에 의하면 차량을 주차함에 있어서 어두운 주차장에서도 주차 가능한 위치를 인식할 수 있도록 함으로써 운전자의 주차 편이를 증진함으로써 주차 상의 안전도를 높이는 효과가 있다. As described above, according to the present invention, when parking a vehicle, it is possible to recognize a location that can be parked even in a dark parking lot, thereby improving the parking safety of the driver, thereby increasing the safety of parking.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자 에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.In the above description, all elements constituting the embodiments of the present invention are described as being combined or operating in combination, but the present invention is not necessarily limited to the embodiments. That is, all of the components may operate selectively in combination with one or more of them. In addition, although all of the components may be implemented in one independent hardware, each or all of the components may be selectively combined to perform some or all functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 이와 명시적으로 상반되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, the terms "comprise", "comprise", or "having" described above mean that the corresponding component may be embedded unless otherwise stated, and thus, other components. It should be construed that it may further include other components rather than to exclude them. All terms, including technical and scientific terms, have the same meanings as commonly understood by one of ordinary skill in the art unless otherwise defined. Terms commonly used, such as terms defined in a dictionary, should be interpreted to coincide with the contextual meaning of the related art, and shall not be construed in an ideal or excessively formal sense unless explicitly defined in the present invention.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.
도 1은 빛면 투사를 이용한 3차원 정보 인식 과정을 설명하기 위한 예시도,1 is an exemplary view for explaining a three-dimensional information recognition process using light plane projection,
도 2는 멕시칸 햇 웨이블릿 함수를 그래프로 나타낸 예시도,2 is an exemplary diagram showing a Mexican hat wavelet function graphically;
도 3은 실험에 따른 응답 커브를 그래프로 나타낸 예시도,3 is an exemplary diagram showing a graph of a response curve according to an experiment;
도 4는 빛 줄무늬의 레디언스 맵을 구하는 과정을 나타낸 예시도,4 is an exemplary diagram illustrating a process of obtaining a radiance map of light streaks;
도 5는 추정된 파라미터에 의해 묘사되는 빛 줄무늬 레디언스 맵을 나타낸 예시도,5 is an exemplary diagram showing a light streaked radiality map depicted by the estimated parameter;
도 6은 측정된 파라미터들이 수학식으로 모델링된 결과를 나타낸 예시도,6 is an exemplary view illustrating a result of measuring parameters measured by a mathematical equation;
도 7은 측정된 빛 줄무늬 폭과 계산된 빛 줄무늬 폭을 나타낸 예시도,7 is an exemplary view showing the measured light streaks width and the calculated light streaks width,
도 8은 영상의 각 픽셀에서 측정한 빛 줄무늬 폭과 계산된 빛 줄무늬 폭을 나타낸 예시도,8 is an exemplary diagram illustrating a light stripe width and a calculated light stripe width measured at each pixel of an image;
도 9는 영상의 모든 픽셀에 대한 빛 줄무늬 폭을 계산한 결과를 영상으로 나타낸 예시도,9 is an exemplary diagram showing an image of a result of calculating light streaks for all pixels of an image.
도 10은 본 발명의 일 실시예에 따른 빛 줄무늬 감지 방법에서 차영상의 데이터에 대하여 인텐시티 히스토그램을 예시한 도면,FIG. 10 is a diagram illustrating an intensity histogram of data of a difference image in a method of detecting light streaks according to an embodiment of the present invention; FIG.
도 11a는 히스토그램 기반 빛 줄무늬를 추출한 것을 예시한 도면이고, 도 11b는 모델기반 빛 줄무늬를 추출한 것을 예시한 도면이고, 도 11c는 히스토그램 기반으로 추출한 빛 줄무늬와 모델기반으로 추출한 빛 줄무늬를 합쳐 최종 형성된 빛 줄무늬를 도시한 도면이고, 도 11d는 최종 형성된 빛 줄무늬 데이터(이하, 레인지 데이터라 한다.)를 x, y 좌표로 도시한 도면,FIG. 11A is a diagram illustrating the extraction of histogram-based light streaks, FIG. 11B is a diagram illustrating the extraction of the model-based light streaks, and FIG. 11C is a final formed by combining the histogram-based light streaks and the model-based light streaks. FIG. 11D is a diagram showing light streaks, and FIG. 11D is a diagram showing final formed light streaks data (hereinafter, referred to as range data) in x and y coordinates.
도 12는 WOH를 구하는 알고리즘을 통하여 도 11d의 레인지 데이터로부터 형성된 WOH를 도시한 도면,12 illustrates a WOH formed from the range data of FIG. 11D through an algorithm for obtaining a WOH;
도 13a는 레인지 데이터의 방향(θ로 표시)을 도시한 도면이고, 도 13b는 레인지 데이터의 방향을 표준화고 가이드라인을 인식한 것을 도시한 도면,FIG. 13A is a diagram illustrating the direction of range data (denoted by θ), and FIG. 13B is a diagram illustrating the standardization of the direction of range data and recognition of a guideline;
도 14는 도 13의 레인지 데이터에 대하여 형성된 깊이 지도를 도시한 도면,14 illustrates a depth map formed with respect to the range data of FIG. 13;
도 15a는 도 14의 깊이 지도에서 검출된 목표 위치를 도시한 도면이고, 도 15b는 차량 좌표계로 변환된 목표 위치를 도시한 도면,15A is a diagram illustrating a target position detected in the depth map of FIG. 14, and FIG. 15B is a diagram illustrating a target position converted to a vehicle coordinate system.
도 16a는 빛면 투사기가 빛을 방출한 모습을 차량 후면의 카메라가 획득한 이미지를 도시한 도면이고, 도 16b는 도 16a의 상황에서 검출한 레인지 데이터를 도시한 도면이고, 도 16c는 검출된 레인지 데이터를 방향 표준화한 후 깊이 지도를 설정한 모습을 도시한 도면, 도 16d는 깊이 지도에서 설정된 목표위치를 도시한 도면,FIG. 16A illustrates an image obtained by a camera on a rear surface of a vehicle when a light plane projector emits light, FIG. 16B illustrates range data detected in the situation of FIG. 16A, and FIG. 16C illustrates detected range. FIG. 16D illustrates a depth map set after normalizing data in a direction direction, FIG. 16D illustrates a target position set on a depth map;
도 17a는 자유 공간의 좌우 측에 주차된 차량이 주차 구역 방향에 따라 정확하게 배열될 때 빛면 투사기가 빛을 방출한 모습을 차량 후면의 카메라가 획득한 이미지를 도시한 도면이고, 도 17b는 도 17a의 상황에서 깊이 지도를 설정한 모습을 도시한 도면이고, 도 17c는 도 17b의 레인지 데이터에 대하여 x축 히스토그램을 작성한 도면,17A is a view showing an image obtained by the camera on the rear of the vehicle when the light is projected to emit light when the vehicle parked on the left and right sides of the free space is correctly arranged in accordance with the direction of the parking zone, and FIG. 17B is FIG. 17A FIG. 17C is a diagram illustrating an x-axis histogram of the range data of FIG. 17B.
도 18a는 일정 폭과 길이의 숨겨진 차량을 고려하여 작성된 깊이 지도를 도시한 도면이고, 도 18b는 이를 바탕으로 설정한 목표 위치를 도시한 도면,FIG. 18A illustrates a depth map created in consideration of a hidden vehicle having a predetermined width and length, and FIG. 18B illustrates a target position set based on the depth map;
도 19는 본 발명의 일 실시예에 따른 주차 보조 장치를 간략하게 나타낸 블 록 구성도,19 is a block diagram schematically illustrating a parking assisting device according to an embodiment of the present invention;
도 12는 본 발명의 일 실시예에 따른 실내 주행을 위한 빛 줄무늬 감지 방법을 설명하기 위한 순서도이다.12 is a flowchart illustrating a light streaking detection method for indoor driving according to an embodiment of the present invention.
< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>
1910: 카메라 1920: 주차 보조 장치1910: camera 1920: parking assist device
1930: 능동조향장치 1940: 전자제어 제동장치1930: active steering 1940: electronically controlled brake
Claims (9)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020090069996A KR20110012317A (en) | 2009-07-30 | 2009-07-30 | Light streaks detection method, target position detection method and parking assist device using the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020090069996A KR20110012317A (en) | 2009-07-30 | 2009-07-30 | Light streaks detection method, target position detection method and parking assist device using the same |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20110012317A true KR20110012317A (en) | 2011-02-09 |
Family
ID=43772255
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020090069996A Ceased KR20110012317A (en) | 2009-07-30 | 2009-07-30 | Light streaks detection method, target position detection method and parking assist device using the same |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20110012317A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110536117A (en) * | 2019-09-03 | 2019-12-03 | 北京蓦然认知科技有限公司 | A kind of target assisted lookup method and apparatus using vehicle-mounted camera |
| US10849205B2 (en) | 2015-10-14 | 2020-11-24 | Current Lighting Solutions, Llc | Luminaire having a beacon and a directional antenna |
| KR20200134498A (en) * | 2019-05-22 | 2020-12-02 | 한양대학교 산학협력단 | A method and apparatus of estimating a parking vehicle pose |
| CN116857581A (en) * | 2023-07-28 | 2023-10-10 | 中建八局发展建设有限公司 | Automatic brightness compensation natural light guide tube adjusting method, medium and system |
-
2009
- 2009-07-30 KR KR1020090069996A patent/KR20110012317A/en not_active Ceased
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10849205B2 (en) | 2015-10-14 | 2020-11-24 | Current Lighting Solutions, Llc | Luminaire having a beacon and a directional antenna |
| KR20200134498A (en) * | 2019-05-22 | 2020-12-02 | 한양대학교 산학협력단 | A method and apparatus of estimating a parking vehicle pose |
| CN110536117A (en) * | 2019-09-03 | 2019-12-03 | 北京蓦然认知科技有限公司 | A kind of target assisted lookup method and apparatus using vehicle-mounted camera |
| CN116857581A (en) * | 2023-07-28 | 2023-10-10 | 中建八局发展建设有限公司 | Automatic brightness compensation natural light guide tube adjusting method, medium and system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112861653B (en) | Method, system, equipment and storage medium for detecting fused image and point cloud information | |
| EP3673233B1 (en) | Vehicle environment modeling with a camera | |
| CN107577988B (en) | Method, device, storage medium and program product for realizing side vehicle positioning | |
| KR102815456B1 (en) | Learning data generation method for image processing, image processing method, and apparatus thereof | |
| CN111178122B (en) | Detection and planar representation of three-dimensional lanes in road scene | |
| US11010622B2 (en) | Infrastructure-free NLoS obstacle detection for autonomous cars | |
| KR101165122B1 (en) | Light Stripe Detection Method for Indoor Navigation and Parking Assist Apparatus Using Same | |
| Oliveira et al. | Multimodal inverse perspective mapping | |
| CN110203210A (en) | A kind of lane departure warning method, terminal device and storage medium | |
| JP6519505B2 (en) | Object detection apparatus, object detection method, and program | |
| CN105719311A (en) | Vehicle System For Detecting Object And Operation Method Thereof | |
| JP4344860B2 (en) | Road plan area and obstacle detection method using stereo image | |
| CN109840463B (en) | Lane line identification method and device | |
| KR100816377B1 (en) | Parking Lot Recognition Method and Apparatus Using Hough Transformation and Parking Assistance System Using the Same | |
| KR20110012317A (en) | Light streaks detection method, target position detection method and parking assist device using the same | |
| WO2011039977A1 (en) | Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device | |
| US20200193184A1 (en) | Image processing device and image processing method | |
| KR102133020B1 (en) | Around view monitoring system and method for detecting parking line with deep learning | |
| CN103523021B (en) | Lane detection confidence level method of calculating and perform its computer device | |
| US11373327B2 (en) | Image processing device and method that determine a stop position in a parking frame using images from two cameras | |
| KR102239734B1 (en) | Moving route creation device and method for autonomous vehicles using around view monitor system | |
| KR101568745B1 (en) | Vehicle assistant apparatus and method based on infrared images | |
| KR102529835B1 (en) | Method and apparatus for outputting graphic objects related to vehicel driving information | |
| Chen et al. | Vehicle tracking and distance estimation based on multiple image features | |
| CN109544648A (en) | A kind of scaling method and device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20090730 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20110623 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20090730 Comment text: Patent Application |
|
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20121114 Patent event code: PE09021S01D |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20130501 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20121114 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |