KR102785794B1 - 운동 정보 추정 방법 및 장치 - Google Patents
운동 정보 추정 방법 및 장치 Download PDFInfo
- Publication number
- KR102785794B1 KR102785794B1 KR1020190163932A KR20190163932A KR102785794B1 KR 102785794 B1 KR102785794 B1 KR 102785794B1 KR 1020190163932 A KR1020190163932 A KR 1020190163932A KR 20190163932 A KR20190163932 A KR 20190163932A KR 102785794 B1 KR102785794 B1 KR 102785794B1
- Authority
- KR
- South Korea
- Prior art keywords
- motion information
- information
- image feature
- feature information
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/009—Priority selection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Navigation (AREA)
Abstract
Description
도 2는 일 실시예에 따른 운동 정보 추정 방법의 전체 동작을 도시한 순서도이다.
도 3은 일 실시예에 따른 보정 단계를 구체화한 순서도이다.
도 4는 다른 실시예에 따른 보정 단계를 구체화한 순서도이다.
도 5는 일 실시예에 따른 운동 정보 추정 장치에 의해 최종 운동 정보가 도출되는 과정을 도시한 도면이다.
도 6은 일 실시예에 따른 운동 정보 추정 장치의 전체 구성을 도시한 도면이다.
Claims (19)
- 프로세서에 의해 수행되는 운동 정보 추정 방법에 있어서,
하나 이상의 센서로부터 획득한 차량의 하나 이상의 초기 운동 정보를 기초로 추정 운동 정보를 추정하는 단계;
상기 추정 운동 정보를 기초로 상기 차량의 주변에 대한 복수의 예측 이미지 특징 정보를 예측하는 단계;
뉴럴 네트워크를 이용하여 이미지 센서로부터 획득한 입력 이미지로부터 복수의 검출 이미지 특징 정보 및 각각의 정확도를 획득하는 단계;
상기 복수의 예측 이미지 특징 정보 및 상기 복수의 검출 이미지 특징 정보를 각각 비교하여 상기 각각의 검출 이미지 특징 정보의 신뢰도를 평가하는 단계; 및
상기 신뢰도의 평가 결과 및 상기 정확도를 기초로 선택된 하나 이상의 검출 이미지 특징 정보를 기초로 상기 추정 운동 정보를 보정하는 단계를 포함하고,
상기 보정하는 단계는,
상기 신뢰도의 평가 결과 및 상기 정확도를 기초로 융합 모드를 선택하는 단계를 포함하고,
상기 융합 모드를 선택하는 단계는,
상기 하나 이상의 검출 이미지 특징 정보 또는 상기 하나 이상의 초기 운동 정보를 사용하는 복수의 모드 중에서 상기 융합 모드를 선택하는 단계를 포함하는,
운동 정보 추정 방법.
- 제1항에 있어서,
상기 보정하는 단계는,
상기 융합 모드에 대응하는 하나 이상의 검출 이미지 특징 정보를 기초로 상기 추정 운동 정보를 보정하는 단계를 포함하는, 운동 정보 추정 방법.
- 삭제
- 제1항에 있어서,
상기 융합 모드를 선택하는 단계는,
상기 복수의 모드의 우선순위에 따라 상기 복수의 모드 중에서 상기 융합 모드를 선택하는 단계를 포함하는, 운동 정보 추정 방법.
- 제4항에 있어서,
상기 융합 모드를 선택하는 단계는,
이전 시각에 선택된 융합 모드의 우선순위가 현재 시각에 선택될 융합 모드의 우선순위보다 높은 경우, 일정 시간 지연 이후에 상기 현재 시각에 대한 융합 모드를 선택하는 단계를 더 포함하는, 운동 정보 추정 방법.
- 제1항에 있어서,
상기 신뢰도를 평가하는 단계는,
상기 복수의 예측 이미지 특징 정보 및 상기 복수의 검출 이미지 특징 정보 간의 차이를 기초로 상기 신뢰도를 평가하는 단계를 포함하는, 운동 정보 추정 방법.
- 제1항에 있어서,
상기 예측하는 단계는,
상기 추정 운동 정보를 상기 이미지 센서의 시야각에 기초하여 이미지 상의 2차원 좌표로 변환함으로써, 상기 복수의 예측 이미지 특징 정보를 예측하는 단계를 포함하는, 운동 정보 추정 방법.
- 제1항에 있어서,
상기 보정하는 단계는,
상기 선택된 하나 이상의 검출 이미지 특징 정보의 2차원 좌표를 상기 추정 운동 정보의 차원으로 변환하는 단계;
상기 변환된 결과를 기초로 상기 추정 운동 정보를 보정하는 단계
를 포함하는, 운동 정보 추정 방법.
- 제1항에 있어서,
상기 추정하는 단계는,
IMU 센서로부터 상기 차량의 위치, 속도 및 자세를 계산하는 단계;
GPS 센서로부터 위치를 획득하는 단계;
차량 속도계로부터 속도를 획득하는 단계; 및
상기 복수의 센서로부터 획득된 정보들을 융합하여 상기 추정 운동 정보를 추정하는 단계
를 포함하는, 운동 정보 추정 방법.
- 프로세서에 의해 수행되는 운동 정보 추정 방법에 있어서,
하나 이상의 센서로부터 획득한 차량의 하나 이상의 초기 운동 정보를 기초로 추정 운동 정보를 추정하는 단계;
상기 추정 운동 정보를 기초로 상기 차량의 주변에 대한 복수의 예측 이미지 특징 정보를 예측하는 단계;
뉴럴 네트워크를 이용하여 이미지 센서로부터 획득한 입력 이미지로부터 복수의 검출 이미지 특징 정보 및 각각의 정확도를 획득하는 단계;
상기 복수의 예측 이미지 특징 정보 및 상기 복수의 검출 이미지 특징 정보를 각각 비교하여 상기 각각의 검출 이미지 특징 정보의 신뢰도를 평가하는 단계;
상기 신뢰도의 평가 결과 및 상기 정확도를 기초로 선택된 하나 이상의 검출 이미지 특징 정보를 기초로 상기 추정 운동 정보를 보정하는 단계; 및
차량 속도계로부터 획득한 속도에 기초하여 상기 운동 정보 추정 방법을 수행할지 여부를 판단하는 단계
를 포함하는, 운동 정보 추정 방법.
- 적어도 하나의 프로세서;
뉴럴 네트워크를 저장하는 메모리;
차량 주변에 대한 입력 이미지를 획득하는 이미지 센서; 및
하나 이상의 비 이미지 센서를 포함하고,
상기 하나 이상의 비 이미지 센서는 상기 차량의 운동과 관련된 하나 이상의 센서 정보를 획득하고,
상기 프로세서는,
상기 하나 이상의 센서 정보를 기초로 상기 차량의 하나 이상의 초기 운동 정보를 계산하고,
상기 하나 이상의 초기 운동 정보를 기초로 추정 운동 정보를 추정하고,
상기 추정 운동 정보를 기초로 상기 차량의 주변에 대한 복수의 예측 이미지 특징 정보를 예측하고,
상기 뉴럴 네트워크를 이용하여 상기 입력 이미지로부터 복수의 검출 이미지 특징 정보 및 각각의 정확도를 획득하고,
상기 복수의 예측 이미지 특징 정보 및 상기 복수의 검출 이미지 특징 정보를 각각 비교하여 상기 각각의 검출 이미지 특징 정보의 신뢰도를 평가하고,
상기 신뢰도의 평가 결과 및 상기 정확도를 기초로 선택된 하나 이상의 검출 이미지 특징 정보를 기초로 상기 추정 운동 정보를 보정하고,
상기 신뢰도의 평가 결과 및 상기 정확도를 기초로 융합 모드를 선택하고,
상기 하나 이상의 검출 이미지 특징 정보 또는 상기 하나 이상의 초기 운동 정보를 사용하는 복수의 모드 중에서 상기 융합 모드를 선택하는,
운동 정보 추정 장치.
- 제11항에 있어서,
상기 프로세서는,
상기 융합 모드에 대응하는 하나 이상의 검출 이미지 특징 정보를 기초로 상기 추정 운동 정보를 보정하는, 운동 정보 추정 장치.
- 삭제
- 제11항에 있어서,
상기 프로세서는,
상기 복수의 모드의 우선순위에 따라 상기 복수의 모드 중에서 상기 융합 모드를 선택하는, 운동 정보 추정 장치.
- 제14항에 있어서,
상기 프로세서는,
이전 시각에 선택된 융합 모드의 우선순위가 현재 시각에 선택될 융합 모드의 우선순위보다 높은 경우, 일정 시간 지연 이후에 상기 현재 시각에 대한 융합 모드를 선택하는, 운동 정보 추정 장치.
- 제11항에 있어서,
상기 프로세서는,
상기 복수의 예측 이미지 특징 정보 및 상기 복수의 검출 이미지 특징 정보 간의 차이를 기초로 상기 신뢰도를 평가하는, 운동 정보 추정 장치.
- 제11항에 있어서,
상기 프로세서는,
상기 추정 운동 정보를 상기 이미지 센서의 시야각에 기초하여 이미지 상의 2차원 좌표로 변환함으로써, 상기 복수의 예측 이미지 특징 정보를 예측하는, 운동 정보 추정 장치.
- 제11항에 있어서,
상기 프로세서는,
상기 선택된 하나 이상의 검출 이미지 특징 정보의 2차원 좌표를 상기 추정 운동 정보의 차원으로 변환하고,
상기 변환된 결과를 기초로 상기 추정 운동 정보를 보정하는,
운동 정보 추정 장치.
- 제11항에 있어서,
상기 프로세서는,
IMU 센서로부터 상기 차량의 위치, 속도 및 자세를 계산하고,
GPS 센서로부터 위치를 획득하고,
차량 속도계로부터 속도를 획득하고,
상기 복수의 센서로부터 획득된 정보들을 융합하여 상기 추정 운동 정보를 추정하는,
운동 정보 추정 장치.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190163932A KR102785794B1 (ko) | 2019-12-10 | 2019-12-10 | 운동 정보 추정 방법 및 장치 |
| US16/916,669 US11983890B2 (en) | 2019-12-10 | 2020-06-30 | Method and apparatus with motion information estimation |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020190163932A KR102785794B1 (ko) | 2019-12-10 | 2019-12-10 | 운동 정보 추정 방법 및 장치 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20210073281A KR20210073281A (ko) | 2021-06-18 |
| KR102785794B1 true KR102785794B1 (ko) | 2025-03-26 |
Family
ID=76209802
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020190163932A Active KR102785794B1 (ko) | 2019-12-10 | 2019-12-10 | 운동 정보 추정 방법 및 장치 |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11983890B2 (ko) |
| KR (1) | KR102785794B1 (ko) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11713978B2 (en) * | 2019-08-31 | 2023-08-01 | Nvidia Corporation | Map creation and localization for autonomous driving applications |
| KR20220025585A (ko) | 2020-08-24 | 2022-03-03 | 삼성전자주식회사 | 위치 추정 방법 및 장치 |
| US20220137626A1 (en) * | 2020-11-04 | 2022-05-05 | Canon Kabushiki Kaisha | Apparatus, method, and non-transitory computer-readable storage medium |
| CN113899363B (zh) * | 2021-09-29 | 2022-10-21 | 北京百度网讯科技有限公司 | 车辆的定位方法、装置及自动驾驶车辆 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010157093A (ja) * | 2008-12-26 | 2010-07-15 | Toyota Central R&D Labs Inc | 運動推定装置及びプログラム |
| JP2015205522A (ja) * | 2014-04-17 | 2015-11-19 | いすゞ自動車株式会社 | 車両状態推定装置 |
| JP2019530608A (ja) * | 2016-09-29 | 2019-10-24 | ザ・チャールズ・スターク・ドレイパー・ラボラトリー・インコーポレイテッド | 物体レベル融合の自律走行車両 |
Family Cites Families (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6052647A (en) | 1997-06-20 | 2000-04-18 | Stanford University | Method and system for automatic control of vehicles based on carrier phase differential GPS |
| KR100556104B1 (ko) | 2005-10-04 | 2006-03-03 | (주)아세아항측 | Gps/ins 비행선을 이용한 항공측량방법 |
| US7646336B2 (en) * | 2006-03-24 | 2010-01-12 | Containertrac, Inc. | Automated asset positioning for location and inventory tracking using multiple positioning techniques |
| KR100945447B1 (ko) | 2007-11-30 | 2010-03-05 | 삼성전기주식회사 | 오차를 보정하기 위한 gps 시스템 및 오차보정방법 |
| JP2009198185A (ja) | 2008-02-19 | 2009-09-03 | Toyota Motor Corp | 車両位置姿勢推測装置 |
| KR101014070B1 (ko) | 2008-08-11 | 2011-02-14 | 대성전기공업 주식회사 | 차량의 위치확인장치와 그 확인방법 |
| US7868821B2 (en) | 2009-01-15 | 2011-01-11 | Alpine Electronics, Inc | Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera |
| KR101239864B1 (ko) | 2010-04-13 | 2013-03-18 | 위드로봇 주식회사 | 다중 센서를 이용한 항법시스템 및 그 제공방법 |
| US8676498B2 (en) | 2010-09-24 | 2014-03-18 | Honeywell International Inc. | Camera and inertial measurement unit integration with navigation data feedback for feature tracking |
| KR101183866B1 (ko) | 2011-04-20 | 2012-09-19 | 서울시립대학교 산학협력단 | Gps/ins/영상at를 통합한 실시간 위치/자세 결정 장치 및 방법 |
| KR101394546B1 (ko) | 2012-07-31 | 2014-05-13 | 울산대학교 산학협력단 | Gps와 imu의 데이터 융합에 의한 위치 정보 획득장치 및 그의 위치 정보 획득방법 |
| KR101470103B1 (ko) | 2012-12-26 | 2014-12-05 | 현대자동차주식회사 | 위치정보 추정 방법 및 시스템 |
| JP6337961B2 (ja) * | 2014-05-20 | 2018-06-06 | 日産自動車株式会社 | 信号機認識装置及び信号機認識方法 |
| KR20160027739A (ko) * | 2014-09-02 | 2016-03-10 | 현대모비스 주식회사 | 차량의 위치 추정 장치 및 그 방법 |
| EP3399381A1 (en) | 2014-09-05 | 2018-11-07 | SZ DJI Technology Co., Ltd. | Context-based flight mode selection |
| KR102201649B1 (ko) | 2016-07-28 | 2021-01-12 | 한국전자통신연구원 | 분산 융합 필터 기반 자세 인식 장치 및 방법 |
| EP3497405B1 (en) | 2016-08-09 | 2022-06-15 | Nauto, Inc. | System and method for precision localization and mapping |
| US10395127B2 (en) * | 2016-09-13 | 2019-08-27 | Hitachi Information & Telecommunication Engineering, Ltd. | State prediction device and state prediction method |
| KR102529903B1 (ko) * | 2016-12-14 | 2023-05-08 | 현대자동차주식회사 | 차량의 위치 추정 장치 및 방법 |
| CN112703457A (zh) * | 2018-05-07 | 2021-04-23 | 强力物联网投资组合2016有限公司 | 用于使用工业物联网进行数据收集、学习和机器信号流传输实现分析和维护的方法和系统 |
| KR20200044420A (ko) | 2018-10-19 | 2020-04-29 | 삼성전자주식회사 | 위치 추정 방법 및 장치 |
| US10943401B2 (en) * | 2019-02-01 | 2021-03-09 | International Business Machines Corporation | Active visual recognition in mobile augmented reality |
| US11170238B2 (en) * | 2019-06-26 | 2021-11-09 | Woven Planet North America, Inc. | Approaches for determining traffic light state |
| CN110458895B (zh) * | 2019-07-31 | 2020-12-25 | 腾讯科技(深圳)有限公司 | 图像坐标系的转换方法、装置、设备及存储介质 |
| WO2021097426A1 (en) * | 2019-11-15 | 2021-05-20 | Brain Corporation | Systems and methods for training neural networks on a cloud server using sensory data collected by robots |
-
2019
- 2019-12-10 KR KR1020190163932A patent/KR102785794B1/ko active Active
-
2020
- 2020-06-30 US US16/916,669 patent/US11983890B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010157093A (ja) * | 2008-12-26 | 2010-07-15 | Toyota Central R&D Labs Inc | 運動推定装置及びプログラム |
| JP2015205522A (ja) * | 2014-04-17 | 2015-11-19 | いすゞ自動車株式会社 | 車両状態推定装置 |
| JP2019530608A (ja) * | 2016-09-29 | 2019-10-24 | ザ・チャールズ・スターク・ドレイパー・ラボラトリー・インコーポレイテッド | 物体レベル融合の自律走行車両 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20210174516A1 (en) | 2021-06-10 |
| US11983890B2 (en) | 2024-05-14 |
| KR20210073281A (ko) | 2021-06-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102463176B1 (ko) | 위치 추정 장치 및 방법 | |
| US11915099B2 (en) | Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data | |
| KR102785794B1 (ko) | 운동 정보 추정 방법 및 장치 | |
| KR20200044420A (ko) | 위치 추정 방법 및 장치 | |
| CN111721285B (zh) | 在自动代客泊车系统中用于估计位置的设备及方法 | |
| CN108828527B (zh) | 一种多传感器数据融合方法、装置、车载设备及存储介质 | |
| Atia et al. | A low-cost lane-determination system using GNSS/IMU fusion and HMM-based multistage map matching | |
| US10369993B2 (en) | Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free | |
| KR102627453B1 (ko) | 위치 추정 장치 및 방법 | |
| CN111176270B (zh) | 使用动态地标的定位 | |
| US11321572B2 (en) | Self-position estimation method and self-position estimation device | |
| US11260861B2 (en) | Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes on a roadway | |
| JP2018155732A (ja) | 自己位置推定装置 | |
| KR102565482B1 (ko) | 차량의 측위 장치 및 그 방법 | |
| KR20180106417A (ko) | 차량의 위치 인식 시스템 및 방법 | |
| JP7113134B2 (ja) | 車両制御装置 | |
| KR101803195B1 (ko) | 차량의 주행 환경에 따라 적응적으로 다중센서를 제어하는 장치 및 방법 | |
| US20190331496A1 (en) | Locating a vehicle | |
| JP7275553B2 (ja) | 移動体、移動体の制御方法及びプログラム | |
| KR20220025585A (ko) | 위치 추정 방법 및 장치 | |
| WO2018168961A1 (ja) | 自己位置推定装置 | |
| KR20220068710A (ko) | 차량 측위 방법 및 장치 | |
| US11061145B2 (en) | Systems and methods of adjusting position information | |
| CN108776333B (zh) | 一种数据二次级联融合方法、系统、车载设备及存储介质 | |
| Li et al. | Indoor localization for an autonomous model car: A marker-based multi-sensor fusion framework |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |