JP2018017668A - Information processing device and information processing program - Google Patents
Information processing device and information processing program Download PDFInfo
- Publication number
- JP2018017668A JP2018017668A JP2016149694A JP2016149694A JP2018017668A JP 2018017668 A JP2018017668 A JP 2018017668A JP 2016149694 A JP2016149694 A JP 2016149694A JP 2016149694 A JP2016149694 A JP 2016149694A JP 2018017668 A JP2018017668 A JP 2018017668A
- Authority
- JP
- Japan
- Prior art keywords
- positioning
- vehicle
- camera image
- unit
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
- Image Processing (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、及び情報処理プログラムに関する。 The present invention relates to an information processing apparatus and an information processing program.
近年、自動運転車輌の実現や車輌ナビゲーション機能の高度化の要請から、より測位誤差が小さい測位技術が求められている。 In recent years, a positioning technique with a smaller positioning error has been demanded in order to realize an autonomous driving vehicle and a sophisticated vehicle navigation function.
このような背景から、種々の測位技術の研究開発がなされており、その一つとして、車載カメラが撮影する車輌の周囲の風景の画像(以下、「カメラ画像」と称する)から視標を抽出し、当該視標に基づいて自車位置を測位する技術(以下、「カメラ画像測位」と称する)が注目されている(例えば、特許文献1を参照)。 Against this background, various positioning technologies have been researched and developed, and one of them is to extract a target from an image of a landscape around the vehicle (hereinafter referred to as a “camera image”) taken by an in-vehicle camera. A technique for positioning the vehicle position based on the target (hereinafter referred to as “camera image positioning”) has attracted attention (for example, see Patent Document 1).
しかしながら、カメラ画像測位においては、自車位置を特定するために有効な視標が抽出されなくなった場合、測位確度が走行距離とともに低下するという問題を有する。 However, in the camera image positioning, there is a problem that the positioning accuracy decreases with the travel distance when an effective target for identifying the vehicle position is not extracted.
自車位置を特定するために有効な視標が抽出されなくなった場合には、遠方にある視標等、自車位置を特定しにくい視標を用いて測位を行ったり、車速センサの信号等を用いて測位を行うことになるため、測位誤差が増大しやすい。特に、信号機のような絶対位置を特定することができる視標が車輌の周囲に存在しない場合には、過去の位置を元に、現在の位置を算出するため、演算誤差が蓄積することにより、測位誤差が増大するおそれがある。 When an effective target for identifying the vehicle position is no longer extracted, positioning is performed using a target that is difficult to identify the vehicle position, such as a distant target, or a vehicle speed sensor signal, etc. Since positioning is performed using, positioning error tends to increase. In particular, when there is no target around the vehicle that can specify an absolute position such as a traffic light, the current position is calculated based on the past position. Positioning error may increase.
本発明は、上記の問題点に鑑みてなされたもので、測位誤差の増大を防止し得るカメラ画像測位を実現する情報処理装置、及び情報処理プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object thereof is to provide an information processing apparatus and an information processing program for realizing camera image positioning that can prevent an increase in positioning error.
前述した課題を解決する主たる本発明は、車輌の位置を特定する情報処理装置であって、前記車輌の周囲を撮影する車載カメラから画像データを取得する第1の入力部と、前記車輌に搭載されたGPS受信機からGPS測位データを取得する第2の入力部と、前記画像データに基づいて、前記車輌の位置を測位するカメラ画像測位部と、前記カメラ画像測位部の測位結果に基づいて、前記車輌の位置を決定する位置決定部と、を備え、前記位置決定部は、前記カメラ画像測位部の測位確度が低下した場合、前記GPS測位データに基づいて前記カメラ画像測位部の測位結果を補正して、前記車輌の位置を決定する情報処理装置である。 The main present invention that solves the above-described problems is an information processing apparatus that identifies the position of a vehicle, and is mounted on the vehicle, a first input unit that acquires image data from an in-vehicle camera that captures the surroundings of the vehicle A second input unit that acquires GPS positioning data from the received GPS receiver, a camera image positioning unit that measures the position of the vehicle based on the image data, and a positioning result of the camera image positioning unit A position determination unit that determines the position of the vehicle, and the position determination unit, when the positioning accuracy of the camera image positioning unit decreases, the positioning result of the camera image positioning unit based on the GPS positioning data Is an information processing apparatus that determines the position of the vehicle.
本発明に係る情報処理装置によれば、測位誤差の増大を抑制したカメラ画像測位を実現することができる。 According to the information processing apparatus according to the present invention, it is possible to realize camera image positioning in which an increase in positioning error is suppressed.
(第1の実施形態)
以下、図1を参照して、本実施形態に係る情報処理装置の構成について説明する。
(First embodiment)
Hereinafter, the configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG.
本実施形態に係る情報処理装置1は、例えば、自動運転車輌A(以下、「車輌A」と略称する)に搭載され、自動運転のための自車位置の特定に用いられる。但し、情報処理装置1は、自動運転車輌Aに限らず、カーナビゲーション装置等、任意の装置に適用し得る。
The
図1は、本実施形態に係る車輌Aの機能構成の一例を示す図である。尚、図1中の矢印は信号の経路を表している。 FIG. 1 is a diagram illustrating an example of a functional configuration of a vehicle A according to the present embodiment. The arrows in FIG. 1 represent signal paths.
本実施形態に係る車輌Aは、情報処理装置1、記憶装置2、車載カメラ3、各種センサ4、GPS(Global Positioning System)受信機5、車輌ECU6(Electronic Control Unit)を備えている。
The vehicle A according to the present embodiment includes an
本実施形態では、情報処理装置1が、記憶装置2、車載カメラ3、各種センサ4、GPS受信機5とデータ通信することで、車輌Aの自車位置を特定する構成となっている。具体的には、情報処理装置1は、車輌Aの自車位置を測位するべく、車載カメラ3から画像データを取得してカメラ画像測位を行うとともに、GPS受信機5からGPS測位データを取得して、当該カメラ画像測位の測位結果を補正する(詳細は後述する)。
In the present embodiment, the
尚、情報処理装置1によって特定された自車位置を示す位置データは、例えば、車輌ECU6に送信されて、車輌ECU6における自動運転制御に用いられる。
The position data indicating the vehicle position specified by the
車載カメラ3は、例えば、車輌Aの周囲(例えば、車外の前方)を撮影する可視光カメラである。車載カメラ3は、例えば、CMOSセンサ等の撮像素子を含んで構成され、当該撮像素子が生成する画素ごとの画像信号から画像データを生成して、情報処理装置1に送信する。車載カメラ3は、例えば、逐次変化する車輌Aの周囲の風景の動画像をフレーム単位の画像データで情報処理装置1に送信する。
The in-vehicle camera 3 is, for example, a visible light camera that captures the surroundings of the vehicle A (for example, the front outside the vehicle). The in-vehicle camera 3 is configured to include an image sensor such as a CMOS sensor, for example, and generates image data from an image signal for each pixel generated by the image sensor and transmits the image data to the
尚、車載カメラ3は、車輛の周囲の複数の方向を撮影するため、複数取り付けられても勿論よい。又、車載カメラ3は、可視光カメラに限らず、赤外線カメラやステレオカメラ等が用いられてもよい。又、車載カメラ3は、動画像等に代えて、連続的に静止画像を撮影するものであってもよい。 Of course, a plurality of in-vehicle cameras 3 may be attached to photograph a plurality of directions around the vehicle. The in-vehicle camera 3 is not limited to a visible light camera, and an infrared camera, a stereo camera, or the like may be used. The in-vehicle camera 3 may be a camera that continuously captures still images instead of moving images.
各種センサ4は、車輌Aの挙動を検出するセンサであり、例えば、車速センサや方位センサを含んで構成される。車速センサとしては、例えば、ドライブシャフトやホイール等の回転量を検出する車速パルスセンサや加速度センサ等が用いられる。又、方位センサとしては、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転を検出する回転センサ等が用いられる。尚、上記の他にも、車両Aの挙動を示す種々のセンサが用いられてもよい。 The various sensors 4 are sensors that detect the behavior of the vehicle A, and include, for example, a vehicle speed sensor and a direction sensor. As the vehicle speed sensor, for example, a vehicle speed pulse sensor, an acceleration sensor, or the like that detects a rotation amount of a drive shaft, a wheel, or the like is used. Further, as the azimuth sensor, for example, a gyro sensor, a geomagnetic sensor, a rotation sensor for detecting the rotation of the handle, or the like is used. In addition to the above, various sensors that indicate the behavior of the vehicle A may be used.
GPS受信機5は、複数のGPS衛星からGPS信号を受信して、自車位置を示すGPS測位データを生成して、情報処理装置1に送信する。GPS受信機5は、例えば、GPS信号に含まれる各GPS衛星の位置と送信時刻により、自車位置(例えば、緯度経度)を求める(以下、「衛星測位」とも称する)。又、GPS受信機5は、GPS衛星からのGPS信号に加えて、絶対位置が既知の地上の基準局からの疑似距離補正信号を受信するディファレンシャル方式GPS等を採用したものであってもよい。
The
但し、GPS信号を使った衛星測位は、カメラ画像測位と比較して測位誤差が大きく、測位誤差が数m程度も生ずる場合がある。そのため、本実施形態に係る情報処理装置1は、カメラ画像測位の測位結果を補正するための補助的な役割として、当該GPS測位データを利用する。
However, satellite positioning using a GPS signal has a positioning error larger than that of camera image positioning, and the positioning error may occur as much as several meters. Therefore, the
記憶装置2は、例えば、HDD(Hard Disk Drive)、フラッシュメモリー等を含んで構成される。記憶装置2は、情報処理装置1にて実行される各種処理プログラム、画像DB2a、地図DB2b等の各種データを記憶する。記憶装置2に記憶されたデータは、例えば、情報処理装置1の有するRAM等に転送されて用いられる。尚、これらのデータは、車輌Aの位置やユーザの操作に応じて、逐次、インターネット回線を通じてダウンロードされ、記憶装置2に格納されるものとしてもよい。
The
画像DB2aは、視標の「画像」と当該視標の「座標」とを関連付けて格納する画像データに係るデータベースである。画像DB2aは、カメラ画像測位において、車載カメラ3で撮影したカメラ画像から視標を抽出する際に参照される。
The image DB 2a is a database related to image data that stores an “image” of a target and the “coordinates” of the target in association with each other. The
画像DB2aに格納される「画像」は、例えば、車線境界線や路面構造物の等の視標毎の形状を示す画像や当該視標を含むフレーム単位の風景の画像である。画像DB2aには、予めカメラ画像測位における参照用として撮影されたカメラ画像や、過去(例えば、数秒前)に車載カメラ3が撮影したカメラ画像がデータとして格納される。
The “image” stored in the
尚、画像DB2aに格納される「画像」は、種々の形態が可能である。例えば、カメラ画像に撮影される視標を推測可能とする上空から撮影された航空画像であってもよい。
The “image” stored in the
画像DB2aにおいて、視標に関連付けられた「座標」は、例えば、緯度経度等や所定位置(例えば、車輌Aの周辺の交差点)を基準とした位置である。当該「座標」は、例えば、視標を含む風景を撮影した際の撮影位置に関連付けられている。
In the
尚、視標に関連付けられた「座標」は、種々の形態が可能である。例えば、当該「座標」は、各視標に関連付けられた座標であってもよい。又、当該「座標」は、視標が存在する位置を示すものであってもよい。又、当該「座標」は、絶対位置を示す座標(例えば、緯度経度)であってもよいし、相対位置を示す座標(例えば、直前に測位された座標)であってもよい。又、当該「座標」は、道路の車幅方向の位置のみに関連付けられた座標(例えば、車線境界線からの距離)や、道路の走行方向の位置のみに関連付けられた座標(例えば、周囲の交差点からの距離)であってもよい。 The “coordinates” associated with the visual target can take various forms. For example, the “coordinates” may be coordinates associated with each visual target. The “coordinates” may indicate the position where the visual target is present. The “coordinates” may be coordinates indicating an absolute position (for example, latitude and longitude) or coordinates indicating a relative position (for example, coordinates measured immediately before). In addition, the “coordinates” are coordinates associated only with the position in the vehicle width direction of the road (for example, a distance from the lane boundary line) or coordinates associated only with the position in the traveling direction of the road (for example, surroundings). Distance from the intersection).
地図DB2bは、道路地図と当該道路地図の座標とを関連付けて格納する地図データに係るデータベースである。 The map DB 2b is a database related to map data that stores a road map and coordinates of the road map in association with each other.
地図DB2bの道路地図は、例えば、交差点の位置、信号機の位置、車線数等の道路情報を含んで構成される。当該道路地図と関連付けられた座標は、例えば、緯度経度等や所定位置(例えば、車輌Aの周辺の交差点)を基準とした位置である。 The road map of the map DB 2b includes road information such as the position of an intersection, the position of a traffic light, and the number of lanes. The coordinates associated with the road map are positions based on, for example, latitude and longitude or a predetermined position (for example, an intersection around the vehicle A).
尚、地図DB2bの道路地図は、カメラ画像測位において、カメラ画像と比較する参照対象を抽出する際に参照される。又、当該道路地図は、その他、自動運転をする際に走行経路を特定したりする際にも参照される。
The road map in the
情報処理装置1は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を含んで構成されている。
The
情報処理装置1は、上記したとおり、記憶装置2、車載カメラ3、各種センサ4、GPS受信機5とデータ通信することで、これらを制御したり、これらから受信するデータに基づいて車輌Aの自車位置を特定する。尚、情報処理装置1と、各部との信号の送受信は、例えば、信号線を介してCAN(Controller Area Network)通信プロトコル方式で行われる。
As described above, the
情報処理装置1は、画像信号入力部1a(本発明の第1の入力部に相当)、センサ信号入力部1b、GPS信号入力部1c(本発明の第2の入力部に相当)、カメラ画像測位部1d、位置決定部1eを備えている。
The
画像信号入力部1aは、車載カメラ3が生成した画像データを取得する。尚、画像信号入力部1aは、車載カメラ3の撮像素子が生成する画像信号のローデータを取得してもよいし、所定の画像補正処理、データ圧縮処理等が施されたデータを取得してもよい。又、画像信号入力部1aは、複数の車載カメラ3から画像データを取得してもよい。 The image signal input unit 1 a acquires image data generated by the in-vehicle camera 3. The image signal input unit 1a may acquire raw data of an image signal generated by the image sensor of the in-vehicle camera 3, or may acquire data that has been subjected to predetermined image correction processing, data compression processing, and the like. Also good. Further, the image signal input unit 1 a may acquire image data from the plurality of in-vehicle cameras 3.
センサ信号入力部1bは、各種センサ4が生成したセンサ信号を取得する。尚、センサ信号入力部1bは、各種センサ4が生成したセンサ信号のローデータを取得してもよいし、比較回路等でレベル判定された信号を取得してもよい。
The sensor
GPS信号入力部1cは、GPS受信機5が生成したGPS測位データを取得する。尚、GPS信号入力部1cは、当該GPS信号に基づいて演算処理されたデータを取得してもよいし、複数のGPS衛星から受信したGPS信号のローデータを取得してもよい。又、GPS測位データは、進行方位、走行速度等を含むものであってもよい。
The GPS signal input unit 1c acquires GPS positioning data generated by the
カメラ画像測位部1dは、車輌Aの周囲のカメラ画像に基づいて自車位置を測位する。 The camera image positioning unit 1d measures the own vehicle position based on the camera images around the vehicle A.
カメラ画像測位部1dが測位する「自車位置」とは、緯度経度等の座標であってもよいし、所定位置(例えば、車輌Aの周囲の交差点)を基準とした座標であってもよい。又、「自車位置」は、車幅方向と走行方向とで、基準とする位置が異なってもよく、例えば、車幅方向の座標は、走行中の道路の車線境界線を基準とする座標とし、走行方向の座標は、車輌Aが通過した交差点を基準とする座標としてもよい。 The “own vehicle position” measured by the camera image positioning unit 1d may be coordinates such as latitude and longitude, or coordinates based on a predetermined position (for example, an intersection around the vehicle A). . In addition, the “own vehicle position” may have different reference positions in the vehicle width direction and the traveling direction. For example, the coordinates in the vehicle width direction are coordinates based on the lane boundary line of the road being traveled. The coordinates in the traveling direction may be coordinates based on the intersection where the vehicle A has passed.
但し、カメラ画像測位部1dは、車幅方向に係る自車位置と走行方向に係る自車位置とを識別可能に算出する。 However, the camera image positioning unit 1d calculates the vehicle position in the vehicle width direction and the vehicle position in the traveling direction so as to be distinguishable.
位置決定部1eは、カメラ画像測位部1dの測位結果に基づいて、自車位置を決定する。又、位置決定部1eは、カメラ画像測位部1dの測位確度を求め、当該測位確度が低下している場合には、GPS受信機5から取得するGPS測位データによって、当該カメラ画像測位部1dの測位結果を補正する。
The
尚、上記した画像信号入力部1a、センサ信号入力部1b、GPS信号入力部1c、カメラ画像測位部1d、位置決定部1eは、例えば、CPUがROM、RAM等に記憶された制御プログラムや各種データを参照することによって実現される。但し、当該機能は、ソフトウェアによる処理に限られず、専用のハードウェア回路によっても実現できることは勿論である。
The image signal input unit 1a, the sensor
[情報処理装置の動作フロー]
次に、図2〜図5を参照して、本実施形態に係る情報処理装置1が、自車位置を特定するための動作フローについて説明する。
[Operation flow of information processing device]
Next, with reference to FIG. 2 to FIG. 5, an operation flow for the
図2、図3は、本実施形態に係る情報処理装置1の動作フローの一例を示す図である。尚、図2、図3に示す動作フローは、例えば、情報処理装置1がコンピュータプログラムに従って実行するものである。この動作フローは、例えば、車輌Aが動作している際、情報処理装置1に繰り返し実行される。
2 and 3 are diagrams illustrating an example of an operation flow of the
図4、図5は、本実施形態に係る情報処理装置1のカメラ画像測位について説明する図である。
4 and 5 are diagrams for describing camera image positioning of the
図4は、車輌Aを上方から見た模式図であり、カメラ画像測位部1dが、車輌の走行方向の前方を撮影している車載カメラ3のカメラ画像に基づいて、自車位置を測位している様子を表している。 FIG. 4 is a schematic view of the vehicle A as viewed from above, and the camera image positioning unit 1d measures the position of the vehicle based on the camera image of the in-vehicle camera 3 that captures the front in the traveling direction of the vehicle. It shows how it is.
図4中では、M1は道路の車線境界線、M2は道路の停止線を表している。上記したように、道路の停止線M2は、走行方向の位置を特定するための視標となり、道路の車線境界線M1は、車幅方向の位置を特定するための視標となる。又、図4中のRは、カメラ画像測位部1dの測定確度を表し、dxは車幅方向の測定確度、dyは走行方向の測定確度を表している。尚、「測位確度」とは、カメラ画像測位によって算出された測位結果に含まれる測位誤差の大きさを意味する。 In FIG. 4, M1 represents a road lane boundary line, and M2 represents a road stop line. As described above, the road stop line M2 is a target for specifying the position in the traveling direction, and the road lane boundary line M1 is a target for specifying the position in the vehicle width direction. In addition, R in FIG. 4 represents the measurement accuracy of the camera image positioning unit 1d, dx represents the measurement accuracy in the vehicle width direction, and dy represents the measurement accuracy in the traveling direction. “Positioning accuracy” means the magnitude of a positioning error included in the positioning result calculated by camera image positioning.
図5は、車輌Aを走行している際における、車幅方向の測定確度dx、走行方向の測定確度dyの低下量を示す図である。 FIG. 5 is a diagram illustrating the amount of decrease in the measurement accuracy dx in the vehicle width direction and the measurement accuracy dy in the travel direction when the vehicle A is traveling.
尚、詳細は後述するが、図5中では、自車位置を特定するための視標が抽出されてから、走行距離が増加するに応じて、車幅方向の測定確度dx、走行方向の測定確度dyが低下することを示している。図5中の縦軸の測定確度の低下量とは、測定確度が低下している度合いを示す指標であり、例えば、車輌Aの車幅方向及び走行方向それぞれについて、位置を特定するために有効な視標が抽出されなくなってからの走行距離である。又、図5における測位確度dy、dxの低下量の傾きは、当該車輌Aが走行する道路の形状や、当該車輌Aの周囲に検出される視標の状態等によって異なっている。 Although details will be described later, in FIG. 5, the measurement accuracy dx in the vehicle width direction and the measurement in the traveling direction as the travel distance increases after the target for specifying the vehicle position is extracted. It shows that the accuracy dy decreases. The amount of decrease in measurement accuracy on the vertical axis in FIG. 5 is an index indicating the degree of decrease in measurement accuracy. For example, it is effective for specifying the position in the vehicle width direction and the traveling direction of the vehicle A. This is the distance traveled after a correct target is no longer extracted. In addition, the slopes of the decrease amounts of the positioning accuracy dy and dx in FIG. 5 differ depending on the shape of the road on which the vehicle A travels, the state of the target detected around the vehicle A, and the like.
以下、図2、図3に示す動作フローに従って、それぞれのステップにおける処理を説明する。 Hereinafter, processing in each step will be described according to the operation flow shown in FIGS.
まず、カメラ画像測位部1dが、カメラ画像測位を行う(ステップS1)。 First, the camera image positioning unit 1d performs camera image positioning (step S1).
このカメラ画像測位の処理(図3を参照)において、カメラ画像測位部1dは、まず、自車位置の推定範囲を設定する(ステップS1a)。 In this camera image positioning process (see FIG. 3), the camera image positioning unit 1d first sets the estimated range of the vehicle position (step S1a).
ステップS1aにおいて、カメラ画像測位部1dは、例えば、センサ信号入力部1bを介して各種センサ4(車速センサ、方位センサ)から車速や走行方向等に関するデータを取得し、直前の自車位置を元に、自律航法測位によって自車位置の推定範囲を設定する。
In step S1a, the camera image positioning unit 1d acquires data relating to the vehicle speed, the traveling direction, and the like from the various sensors 4 (vehicle speed sensor, azimuth sensor) via the sensor
ステップS1aを実行することによって、カメラ画像測位部1dは、画像DB2aに格納された画像データの中から、カメラ画像とパターンマッチングする対象の視標の画像データを特定する。
By executing step S1a, the camera image positioning unit 1d specifies image data of a target to be pattern-matched with the camera image from the image data stored in the
尚、ステップS1aにおいて、自車位置の推定範囲を設定する方法は、任意であり、カメラ画像測位部1dは、GPS測位データや地図DB2bの地図データ等に基づいて設定してもよい。
In step S1a, the method for setting the estimated range of the vehicle position is arbitrary, and the camera image positioning unit 1d may set based on GPS positioning data, map data in the
次に、カメラ画像測位部1dは、画像信号入力部1aを介して車載カメラ3から画像データを取得する(ステップS1b)。 Next, the camera image positioning unit 1d acquires image data from the in-vehicle camera 3 via the image signal input unit 1a (step S1b).
次に、カメラ画像測位部1dは、当該車載カメラ3から取得した画像データに対してエッジ検出処理、画像特徴点の抽出処理等を実行し、カメラ画像から視標を抽出する(ステップS1c)。 Next, the camera image positioning unit 1d performs edge detection processing, image feature point extraction processing, and the like on the image data acquired from the in-vehicle camera 3, and extracts a target from the camera image (step S1c).
ステップS1cにおいて、カメラ画像測位部1dは、カメラ画像の画像特徴点と画像DB2aの視標の画像とを照合するため、例えば、公知のテンプレートマッチング法等によるパターンマッチングを行う。
In step S1c, the camera image positioning unit 1d performs pattern matching using, for example, a known template matching method in order to collate image feature points of the camera image with the target image in the
ステップS1cによって、カメラ画像から視標が抽出され、カメラ画像中における当該視標の位置(二次元座標)が求められる。 In step S1c, a target is extracted from the camera image, and the position (two-dimensional coordinates) of the target in the camera image is obtained.
次に、カメラ画像測位部1dは、カメラ画像中における視標の位置や、画像DB2aにおいて当該視標に関連付けられた座標から自車位置を測位する(ステップS1d)。
Next, the camera image positioning unit 1d measures the position of the host vehicle from the position of the target in the camera image and the coordinates associated with the target in the
ステップS1dにおいて、カメラ画像測位部1dは、例えば、カメラ画像中の複数の視標の位置関係から自車位置を測位する。カメラ画像測位部1dは、例えば、カメラ画像中における2本の車線境界線の位置M1と停止線M2から自車位置を測位する(図4参照)。 In step S1d, the camera image positioning unit 1d measures the position of the host vehicle from the positional relationship among a plurality of targets in the camera image, for example. For example, the camera image positioning unit 1d measures the vehicle position from the position M1 and the stop line M2 of the two lane boundary lines in the camera image (see FIG. 4).
ステップS1dにおいては、自車位置の測位結果を車幅方向と走行方向に識別して補正を可能とするため(詳細は後述する)、カメラ画像測位部1dは、自車位置を走行方向及び車幅方向としても算出するものとする。尚、カメラ画像測位における当該演算処理は、公知の方法であるから、ここでの詳細な説明は省略する。 In step S1d, the camera image positioning unit 1d determines the position of the vehicle in the traveling direction and the vehicle in order to identify and correct the positioning result of the vehicle position in the vehicle width direction and the traveling direction (details will be described later). The width direction is also calculated. In addition, since the said calculation process in camera image positioning is a well-known method, detailed description here is abbreviate | omitted.
尚、カメラ画像測位部1dは、カメラ画像に視標が抽出されない場合には、カメラ画像測位部1dは、各種センサ4(車速センサや方位センサ)からの検出信号に基づいて、自律航法測位によって、自車位置を導出してもよい。 The camera image positioning unit 1d performs autonomic navigation positioning based on detection signals from various sensors 4 (vehicle speed sensor and direction sensor) when the target is not extracted from the camera image. The vehicle position may be derived.
図2に戻って、カメラ画像測位に続く処理について説明する。 Returning to FIG. 2, processing following the camera image positioning will be described.
次に、位置決定部1eが、カメラ画像測位部1dの測位確度が低下していないかを判定する(ステップS2)。そして、位置決定部1eは、カメラ画像測位部1dによる測位確度が低下していないと判定した場合(ステップS2:YES)、当該カメラ画像測位部1dの測位結果をそのまま自車位置として決定する(ステップS3)。
Next, the
一方、位置決定部1eは、カメラ画像測位部1dによる測位確度が低下していると判定した場合(ステップS2:NO)、GPS信号入力部1cを介してGPS受信機5からGPS測位データを取得する(ステップS4)。そして、位置決定部1eは、当該GPS測位データに基づいて、当該カメラ画像測位部1dの測位結果を補正して、自車位置として決定する(ステップS5)。
On the other hand, when the
より詳細には、ステップS2において、位置決定部1eは、車輌Aの走行方向に係るカメラ画像測位による測位確度と車幅方向に係るカメラ画像測位による測位確度を識別して、少なくとも車輌Aの走行方向に係るカメラ画像測位による測位確度を求める。具体的には、位置決定部1eは、例えば、カメラ画像測位部1dが抽出した視標や、当該視標が抽出された時間を監視し、カメラ画像測位による測位確度を求めている。
More specifically, in step S2, the
そして、ステップS2において、走行方向に係る測位確度dyが低下していると判定した場合(ステップS2:NO)、位置決定部1eは、例えば、当該走行方向に係るGPS測位データを用いて補正する(ステップS5)。具体的には、位置決定部1eは、例えば、GPS測位データが示す自車位置を車輌Aの走行方向と車幅方向とに変換して、カメラ画像測位部1dが示す走行方向に係る測位結果を、当該GPS測位データが示す走行方向の位置に置換することによって、補正を行う。
If it is determined in step S2 that the positioning accuracy dy related to the traveling direction has decreased (step S2: NO), the
ここで、上記したステップS2のカメラ画像測位部1dの測位確度を判定する処理、及びステップS5のカメラ画像測位部1dの測位結果を補正する処理について説明する。 Here, the process for determining the positioning accuracy of the camera image positioning unit 1d in step S2 and the process for correcting the positioning result of the camera image positioning unit 1d in step S5 will be described.
図5は、カメラ画像測位による測位確度の時間的変化を表しており、カメラ画像測位の測位確度を走行方向及び車幅方向に区別して図示している。 FIG. 5 shows temporal changes in positioning accuracy due to camera image positioning, and shows the positioning accuracy of camera image positioning separately for the traveling direction and the vehicle width direction.
図5に示すように、カメラ画像測位においては、自車位置を特定するために有効な視標が抽出されなくなった場合、測位確度が走行距離とともに低下する。 As shown in FIG. 5, in camera image positioning, if an effective target for identifying the vehicle position is not extracted, the positioning accuracy decreases with the travel distance.
カメラ画像測位においては、「視標」の種類によっては、位置を特定するための測位確度が車輌Aの走行方向と車幅方向とで異なっており、車輌Aの走行方向の位置を特定する際に有効な視標と、車輌Aの車幅方向の位置を特定する際に有効な視標とがある。例えば、走行方向の位置を特定する際に有効な視標としては、例えば、停止線、路面マーク、信号機、街灯、電信柱、横断歩道、ゼブラゾーン等が挙げられる。車幅方向の位置を特定する際に有効な視標としては、道路の車線境界線、ガードレール、縁石等が挙げられる。 In camera image positioning, depending on the type of “target”, the positioning accuracy for specifying the position differs between the traveling direction of the vehicle A and the vehicle width direction, and the position of the traveling direction of the vehicle A is specified. And a target effective for specifying the position of the vehicle A in the vehicle width direction. For example, effective targets for specifying the position in the traveling direction include, for example, stop lines, road markings, traffic lights, street lights, telephone poles, pedestrian crossings, zebra zones, and the like. Targets that are effective in specifying the position in the vehicle width direction include road lane boundaries, guardrails, curbs, and the like.
走行方向に係る測位確度dyは、例えば、停止線や信号機のような、車輌Aの走行方向の位置を特定するために有効な視標が抽出されなくなった場合に、走行距離とともに低下する。この状態においては、カメラ画像測位部1dは、走行方向の位置を特定しにくい視標(例えば、ガードレール)や、遠方にある視標に基づいて走行方向の位置を導出することになる。つまり、カメラ画像測位の測位誤差が増大し、演算誤差が蓄積することにより、測位誤差が増大するおそれがある。 The positioning accuracy dy related to the traveling direction decreases with the traveling distance when an effective target such as a stop line or a traffic light is no longer extracted for specifying the position in the traveling direction of the vehicle A. In this state, the camera image positioning unit 1d derives the position in the traveling direction based on a target (for example, a guardrail) that is difficult to specify the position in the traveling direction or a target far away. That is, the positioning error of the camera image positioning increases, and the calculation error accumulates, so that the positioning error may increase.
又、車幅方向に係る測位確度dxも、同様に、車輌Aの車幅方向の位置を特定するために有効な視標が抽出されなくなった場合には、走行距離とともに低下する。しかしながら、車幅方向に係る測位確度dxについては、車幅方向の位置を特定するための視標として有効な車道の車線境界線が走行中に常に検出されるため低下しにくいという特徴を有する。 Similarly, the positioning accuracy dx in the vehicle width direction also decreases with the travel distance when an effective target for identifying the position of the vehicle A in the vehicle width direction is not extracted. However, the positioning accuracy dx in the vehicle width direction has a feature that the lane boundary line of the roadway that is effective as a visual target for specifying the position in the vehicle width direction is always detected during traveling, and thus is difficult to decrease.
本出願に係る発明者らは、一般的な道路の特性上、カメラ画像測位における測位確度の低下特性が、図5に示すように車輌Aの走行方向と車幅方向とで異なることに鑑み、これらを識別して扱うことによって、測位誤差の増大を防止できることに想到した。つまり、本実施形態に係る情報処理装置1は、緯度経度のみで考える一般的な衛星測位等と異なり、常時、車輌Aの走行方向と車幅方向に識別して、測位確度や自車位置を算出する。
The inventors according to the present application consider that the degradation characteristics of the positioning accuracy in the camera image positioning are different between the traveling direction of the vehicle A and the vehicle width direction as shown in FIG. It was conceived that an increase in positioning error can be prevented by identifying and handling these. That is, the
一方、GPS信号に基づく衛星測位は、カメラ画像測位と異なり、常時、絶対位置を測位することができる。そのため、衛星測位は、測定確度が比較的一定であり、測位誤差が過度に増大することが少ない。換言すると、カメラ画像測位の測位確度が低下している状況下においては、カメラ画像測位を利用するよりも衛星測位を利用した方が、測位確度を高く維持することが可能となる。 On the other hand, unlike satellite image positioning, satellite positioning based on GPS signals can always measure an absolute position. Therefore, in satellite positioning, the measurement accuracy is relatively constant, and the positioning error does not increase excessively. In other words, under the situation where the positioning accuracy of the camera image positioning is lowered, the positioning accuracy can be maintained higher by using the satellite positioning than by using the camera image positioning.
このようなことから、位置決定部1eは、カメラ画像測位の測位確度を走行方向と車幅方向で識別して求め、一方の測位確度が閾値レベル以下まで低下した場合には、GPS測位データに基づいて当該低下した側の測位結果のみを補正する。これによって、例えば、走行方向の測位確度のみが低下した場合も、車幅方向の測位確度については、カメラ画像測位に基づいて走行を継続することが可能となる。
For this reason, the
尚、位置決定部1eは、より望ましくは、地図DB2bを用いて、マップマッチングにより、GPS測位データの測位確度をより高めたうえで、カメラ画像測位の測位結果を補正するのが望ましい。
More preferably, the
そして、位置決定部1eは、このようにして決定した自車位置に係るデータを、例えば、自動運転を行う車輌ECU6に対して出力する(ステップS6)。このような処理を繰り返し実行することで、情報処理装置1は、車輌Aの車輌ECU6等に自車位置を認識させる。
And the
以上、本実施形態に係る情報処理装置1によれば、カメラ画像測位の測位確度を監視し、当該カメラ画像測位の測位確度が低下した場合には、衛星測位によってカメラ画像測位の測位結果を補正する構成としている。従って、この情報処理装置1は、測位誤差の増大を抑制したカメラ画像測位を実現することができる。
As described above, according to the
特に、本実施形態に係る情報処理装置1によれば、車輌Aの走行方向に係る測位確度を車幅方向に係る測位確度と識別し、当該車輌の走行方向に係る測位確度が低下した場合には、当該車輌の走行方向に係る測位結果をGPS測位データに基づいて補正する構成となっている。従って、この情報処理装置1は、走行方向の測位確度が低下した場合も、車幅方向の位置については測位誤差の小さいカメラ画像測位を継続することができる。
In particular, according to the
尚、上記実施形態では、車輌Aの走行方向に係る測位誤差を補正する態様を示したが、車輌Aの車幅方向に係る測位誤差が増大した場合には、車輌Aの車幅方向に係る測位誤差についても補正する構成としてもよい。 In the above-described embodiment, the aspect of correcting the positioning error related to the traveling direction of the vehicle A is shown. However, when the positioning error related to the vehicle width direction of the vehicle A increases, the positioning error related to the vehicle A It is good also as a structure which correct | amends also about a positioning error.
尚、上記実施形態では、測位確度dy、dxを求める方法として、位置を特定するために有効な視標が抽出されなくなってからの走行距離を算出する態様を示したが、他の方法で求めてもよいのは勿論である。例えば、車輌Aの走行方向の位置を特定するために有効な視標が抽出されなくなってからの経過時間を用いてもよい。又、地図DB2bの道路情報等に基づいて、地図上で視標が抽出されない距離を算出してもよい。
In the above embodiment, as a method for obtaining the positioning accuracy dy, dx, the mode of calculating the travel distance after the effective target is not extracted for specifying the position is shown, but it is obtained by other methods. Of course, it may be. For example, you may use the elapsed time after an effective target is no longer extracted in order to specify the position of the vehicle A in the running direction. Further, based on the road information and the like in the
(第2の実施形態)
次に、図6を参照して、第2の実施形態に係る情報処理装置1について説明する。
(Second Embodiment)
Next, the
図6は、本実施形態に係る情報処理装置1の動作フローの一例を示す図である。
FIG. 6 is a diagram illustrating an example of an operation flow of the
本実施形態に係る情報処理装置1は、カメラ画像測位部1dの測位確度が低下した場合に(ステップS2)、GPS測位データの測位確度に基づいて、カメラ画像測位部1dの測位結果を補正するか否かを判定する処理を行う(ステップS4a)点で、第1の実施形態と相違する。尚、第1の実施形態と共通する構成については、説明を省略する(以下、他の実施形態についても同様)。
The
衛星測位は、GPS信号に基づいて絶対位置を測位することができるため、測定確度が比較的一定である。しかし、衛星測位によっても、複数の衛星の幾何学的配置関係や、車輌Aが建物に囲まれた環境下においては、測定確度が一時的に低下する場合がある。 Since satellite positioning can measure an absolute position based on a GPS signal, the measurement accuracy is relatively constant. However, even with satellite positioning, the measurement accuracy may temporarily decrease under the geometrical arrangement relationship of a plurality of satellites or in an environment where the vehicle A is surrounded by a building.
本実施形態に係る位置決定部1eは、例えば、GPS信号に含まれるDOP情報(Dilution of Precision)やGPS信号の信号強度に基づいて、GPS測位データの測位確度を判定する(ステップS4a)。尚、DOP情報とは、複数の衛星の幾何学的配置関係に依存して定まる測位確度を示す情報である。
The
そして、位置決定部1eは、GPS測位データの測位確度が所定レベル以上場合には(ステップS4a:YES)、第1の実施形態と同様に、ステップS5のGPS測位データに基づく補正処理を行う。一方、位置決定部1eは、GPS測位データの測位確度が所定レベルを下回る場合には(ステップS4a:NO)には、GPS測位データに基づく補正処理を行うことなく、当該カメラ画像測位部1dによる測位結果をそのまま自車位置として決定する(ステップS3)。
Then, when the positioning accuracy of the GPS positioning data is equal to or higher than a predetermined level (step S4a: YES), the
尚、本実施形態においては、GPS測位データの測位確度とカメラ画像測位部1dの測位確度の対応関係を予め設定しておき、位置決定部1eが、当該測位確度を比較することにより、GPS測位データに基づく補正処理を行うか否かを判定するのが望ましい。
In the present embodiment, a correspondence relationship between the positioning accuracy of the GPS positioning data and the positioning accuracy of the camera image positioning unit 1d is set in advance, and the
以上、本実施形態に係る情報処理装置1によれば、GPS測位データの測位確度も考慮してカメラ画像測位の測位結果を補正する。そのため、本実施形態に係る情報処理装置1は、GPS測位データの測位確度が低下した状況下で、カメラ画像測位の測位結果を補正して、カメラ画像測位の測位誤差を逆に増大させる事態を回避することができる。
As described above, according to the
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
(Other embodiments)
The present invention is not limited to the above embodiment, and various modifications can be considered.
上記実施形態では、情報処理装置1の構成の一例として、カメラ画像測位部1d、位置決定部1e等の機能が一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。例えば、演算処理の負荷を軽減するべく、複数のコンピュータが分散して演算処理を行うことによってカメラ画像測位部1dの機能を実現してもよい。
In the above embodiment, as an example of the configuration of the
又、上記実施形態では、情報処理装置1の構成の一例として、カメラ画像測位部1dや位置決定部1eの処理を一連のフローの中で実行されるものとして示したが、これらの処理の一部が並列で実行されるものとしてもよい。
In the above embodiment, as an example of the configuration of the
本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。 At least the following matters will become apparent from the description of this specification and the accompanying drawings.
車輌Aの位置を特定する情報処理装置1であって、前記車輌Aの周囲を撮影する車載カメラから画像データを取得する第1の入力部1aと、前記車輌Aに搭載されたGPS受信機からGPS測位データを取得する第2の入力部1cと、前記画像データに基づいて、前記車輌Aの位置を測位するカメラ画像測位部1dと、前記カメラ画像測位部1dの測位結果に基づいて、前記車輌Aの位置を決定する位置決定部1eと、を備え、前記位置決定部1eは、前記カメラ画像測位部1dの測位確度が低下した場合、前記GPS測位データに基づいて前記カメラ画像測位部1dの測位結果を補正して、前記車輌Aの位置を決定する情報処理装置1を開示する。
An
この情報処理装置1によれば、カメラ画像測位の測位確度を監視し、カメラ画像測位の測位確度が低下した場合には、衛星測位によってカメラ画像測位の測位結果を補正する構成としているため、測位誤差の増大を抑制したカメラ画像測位を実現することができる。
According to the
この情報処理装置1において、前記位置決定部1eは、前記車輌Aの走行方向に係る前記カメラ画像測位部1dの測位確度dyが低下した場合、前記GPS測位データに基づいて、前記カメラ画像測位部1dの前記車輌の走行方向に係る測位結果を補正して、前記車輌Aの位置を決定するものであってもよい。
In the
この情報処理装置1によれば、走行方向の測位確度が低下した場合も、車幅方向の位置については測位誤差の小さいカメラ画像測位を継続することができる。
According to the
この情報処理装置1において、前記位置決定部1eは、前記カメラ画像測位部1dが前記車輌Aの走行方向の位置を特定するために有効な視標を抽出しない時間又は距離の少なくともいずれか一方に基づいて、前記車輌Aの走行方向に係る前記カメラ画像測位部1dの測位確度を識別するものであってもよい。
In the
この情報処理装置1において、前記位置決定部1eは、前記カメラ画像測位部1dの測位確度が低下したとき、前記GPS測位データの測位確度が所定のレベルよりも高い場合、前記GPS測位データに基づいて前記カメラ画像測位部1dの測位結果を補正するものであってもよい。
In the
この情報処理装置1によれば、GPS測位データの測位確度が低下した状況下で、カメラ画像測位の測位結果を補正して、カメラ画像測位の測位誤差を逆に増大させる事態を回避することができる。
According to the
車輌Aの位置を特定する情報処理プログラムであって、コンピュータに、前記車輌Aの周囲を撮影する車載カメラから画像データを取得する処理と、前記車輌Aに搭載されたGPS受信機からGPS測位データを取得する処理と、前記画像データに基づいて、前記車輌Aの位置を測位する処理と、前記カメラ画像測位部1dの測位結果に基づいて、前記車輌Aの位置を決定する処理と、前記画像データに基づく測位確度が低下した場合、前記GPS測位データに基づいて前記カメラ画像測位部1dの測位結果を補正して、前記車輌Aの位置を決定する処理と、を実行させる情報処理プログラムを開示する。 An information processing program for specifying the position of the vehicle A, wherein the computer acquires image data from an in-vehicle camera that captures the surroundings of the vehicle A, and GPS positioning data from a GPS receiver mounted on the vehicle A , A process of positioning the position of the vehicle A based on the image data, a process of determining the position of the vehicle A based on the positioning result of the camera image positioning unit 1d, and the image Disclosed is an information processing program that executes a process of correcting the positioning result of the camera image positioning unit 1d based on the GPS positioning data and determining the position of the vehicle A when the positioning accuracy based on the data is reduced. To do.
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。 As mentioned above, although the specific example of this invention was demonstrated in detail, these are only illustrations and do not limit a claim. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
本開示に係る情報処理装置は、カメラ画像測位に好適に用いることができる。 The information processing apparatus according to the present disclosure can be suitably used for camera image positioning.
1 情報処理装置
2 記憶装置
3 車載カメラ
4 各種センサ
5 GPS受信機
6 車輌ECU
DESCRIPTION OF
Claims (5)
前記車輌の周囲を撮影する車載カメラから画像データを取得する第1の入力部と、
前記車輌に搭載されたGPS受信機からGPS測位データを取得する第2の入力部と、
前記画像データに基づいて、前記車輌の位置を測位するカメラ画像測位部と、
前記カメラ画像測位部の測位結果に基づいて、前記車輌の位置を決定する位置決定部と、
を備え、
前記位置決定部は、前記カメラ画像測位部の測位確度が低下した場合、前記GPS測位データに基づいて前記カメラ画像測位部の測位結果を補正して、前記車輌の位置を決定する
情報処理装置。 An information processing device for identifying the position of a vehicle,
A first input unit that obtains image data from an in-vehicle camera that captures the periphery of the vehicle;
A second input unit for acquiring GPS positioning data from a GPS receiver mounted on the vehicle;
Based on the image data, a camera image positioning unit that measures the position of the vehicle;
A position determining unit that determines the position of the vehicle based on the positioning result of the camera image positioning unit;
With
The position determining unit corrects the positioning result of the camera image positioning unit based on the GPS positioning data and determines the position of the vehicle when the positioning accuracy of the camera image positioning unit decreases.
ことを特徴とする請求項1に記載の情報処理装置。 When the positioning accuracy of the camera image positioning unit related to the traveling direction of the vehicle decreases, the position determining unit obtains a positioning result related to the traveling direction of the vehicle of the camera image positioning unit based on the GPS positioning data. The information processing apparatus according to claim 1, wherein the position of the vehicle is determined by correction.
ことを特徴とする請求項2に記載の情報処理装置。 The position determination unit relates to the traveling direction of the vehicle based on at least one of a time and a distance during which the camera image positioning unit does not extract an effective target for specifying the position of the traveling direction of the vehicle. The information processing apparatus according to claim 2, wherein the positioning accuracy of the camera image positioning unit is identified.
前記GPS測位データに基づいて前記カメラ画像測位部の測位結果を補正する
ことを特徴とする請求項1に記載の情報処理装置。 When the positioning accuracy of the GPS positioning data is higher than a predetermined level when the positioning accuracy of the camera image positioning unit is lowered,
The information processing apparatus according to claim 1, wherein a positioning result of the camera image positioning unit is corrected based on the GPS positioning data.
コンピュータに、
前記車輌の周囲を撮影する車載カメラから画像データを取得する処理と、
前記車輌に搭載されたGPS受信機からGPS測位データを取得する処理と、
前記画像データに基づいて、前記車輌の位置を測位する処理と、
前記カメラ画像測位部の測位結果に基づいて、前記車輌の位置を決定する処理と、
前記画像データに基づく測位確度が低下した場合、前記GPS測位データに基づいて前記カメラ画像測位部の測位結果を補正して、前記車輌の位置を決定する処理と、
を実行させる情報処理プログラム。 An information processing program for identifying the position of a vehicle,
On the computer,
Processing to acquire image data from an in-vehicle camera that captures the surroundings of the vehicle;
Processing for obtaining GPS positioning data from a GPS receiver mounted on the vehicle;
Based on the image data, a process of positioning the vehicle;
Based on the positioning result of the camera image positioning unit, the process of determining the position of the vehicle,
When the positioning accuracy based on the image data is lowered, correcting the positioning result of the camera image positioning unit based on the GPS positioning data, and determining the position of the vehicle;
Information processing program that executes
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016149694A JP2018017668A (en) | 2016-07-29 | 2016-07-29 | Information processing device and information processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016149694A JP2018017668A (en) | 2016-07-29 | 2016-07-29 | Information processing device and information processing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018017668A true JP2018017668A (en) | 2018-02-01 |
Family
ID=61076440
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016149694A Pending JP2018017668A (en) | 2016-07-29 | 2016-07-29 | Information processing device and information processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018017668A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108262931A (en) * | 2018-04-02 | 2018-07-10 | 王慧丽 | A kind of PE bellowss production and processing technology |
| WO2019188874A1 (en) * | 2018-03-27 | 2019-10-03 | パイオニア株式会社 | Data structure, information processing device, and map data generation device |
| JP2020038071A (en) * | 2018-09-03 | 2020-03-12 | Zホールディングス株式会社 | Information processing apparatus, information processing method, and program |
| CN113932793A (en) * | 2021-09-24 | 2022-01-14 | 江门职业技术学院 | Three-dimensional coordinate positioning method, device, electronic device and storage medium |
| CN114518119A (en) * | 2020-11-19 | 2022-05-20 | 三星电子株式会社 | Positioning method and device |
| JP7706035B1 (en) * | 2025-05-20 | 2025-07-10 | 株式会社 ミックウェア | GEOSPATIAL INFORMATION PROCESSING APPARATUS AND GEOSPATIAL INFORMATION PROCESSING METHOD |
-
2016
- 2016-07-29 JP JP2016149694A patent/JP2018017668A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019188874A1 (en) * | 2018-03-27 | 2019-10-03 | パイオニア株式会社 | Data structure, information processing device, and map data generation device |
| CN108262931A (en) * | 2018-04-02 | 2018-07-10 | 王慧丽 | A kind of PE bellowss production and processing technology |
| JP2020038071A (en) * | 2018-09-03 | 2020-03-12 | Zホールディングス株式会社 | Information processing apparatus, information processing method, and program |
| JP7184569B2 (en) | 2018-09-03 | 2022-12-06 | ヤフー株式会社 | Information processing device, information processing method, and program |
| CN114518119A (en) * | 2020-11-19 | 2022-05-20 | 三星电子株式会社 | Positioning method and device |
| JP2022081396A (en) * | 2020-11-19 | 2022-05-31 | 三星電子株式会社 | Vehicle localization method and device |
| CN113932793A (en) * | 2021-09-24 | 2022-01-14 | 江门职业技术学院 | Three-dimensional coordinate positioning method, device, electronic device and storage medium |
| CN113932793B (en) * | 2021-09-24 | 2024-03-22 | 江门职业技术学院 | Three-dimensional coordinate positioning method, three-dimensional coordinate positioning device, electronic equipment and storage medium |
| JP7706035B1 (en) * | 2025-05-20 | 2025-07-10 | 株式会社 ミックウェア | GEOSPATIAL INFORMATION PROCESSING APPARATUS AND GEOSPATIAL INFORMATION PROCESSING METHOD |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7020348B2 (en) | Vehicle position estimation device | |
| KR102286673B1 (en) | Position correction of a vehicle by referencing to objects in the surroundings | |
| JP6753527B2 (en) | Map data correction method and equipment | |
| US10788830B2 (en) | Systems and methods for determining a vehicle position | |
| JP5747787B2 (en) | Lane recognition device | |
| JP5761162B2 (en) | Vehicle position estimation device | |
| US11092442B2 (en) | Host vehicle position estimation device | |
| US9767372B2 (en) | Target detection apparatus and target detection method | |
| JP5966747B2 (en) | Vehicle travel control apparatus and method | |
| JP6859927B2 (en) | Vehicle position estimation device | |
| JP2020115136A (en) | Sparse map for autonomous vehicle navigation | |
| KR20220033477A (en) | Appratus and method for estimating the position of an automated valet parking system | |
| US10710583B2 (en) | Vehicle control apparatus | |
| JP2018017668A (en) | Information processing device and information processing program | |
| US10679077B2 (en) | Road marking recognition device | |
| JP6806891B2 (en) | Information processing equipment, control methods, programs and storage media | |
| KR101704405B1 (en) | System and method for lane recognition | |
| JP6278791B2 (en) | Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system | |
| JP6758160B2 (en) | Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection | |
| JP6828655B2 (en) | Own vehicle position estimation device | |
| US20190212747A1 (en) | Lane Marker Signal Improvement through Mapped Geo-Referenced Lane Boundaries | |
| JP2017138660A (en) | Object detection method, object detection device and program | |
| JP2018084960A (en) | Self-position estimation method and self-position estimation apparatus | |
| JP6790951B2 (en) | Map information learning method and map information learning device | |
| JP7613287B2 (en) | Map update device, map update method, and computer program for updating map |