JP2018128389A - 画像処理システム及び画像処理方法 - Google Patents
画像処理システム及び画像処理方法 Download PDFInfo
- Publication number
- JP2018128389A JP2018128389A JP2017022365A JP2017022365A JP2018128389A JP 2018128389 A JP2018128389 A JP 2018128389A JP 2017022365 A JP2017022365 A JP 2017022365A JP 2017022365 A JP2017022365 A JP 2017022365A JP 2018128389 A JP2018128389 A JP 2018128389A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing system
- image processing
- vehicle
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3602—Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3644—Landmark guidance, e.g. using POIs or conspicuous other objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3691—Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Atmospheric Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Ecology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Instructional Devices (AREA)
Abstract
【課題】 画像を送受信するためのデータ量を小さくする。【解決手段】 車両に搭載される撮像装置と、前記撮像装置と接続される情報処理装置とを有する画像処理システムでは、前記車両は、前記撮像装置によって撮像される前記車両の周辺を示す複数の画像を取得する画像取得部を有し、前記情報処理装置は、前記画像取得部から、前記複数の画像のうち、第1画像を受信する第1受信部と、前記第1画像に基づいて、交差点を示す目印となる目印情報及び前記車両の周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出部と、前記第1検出部により、前記所定情報が検出されないと、前記画像取得部から、前記複数の画像のうち、第2画像を受信する第2受信部と、前記第1画像及び前記第2画像に基づいて、又は、前記第2画像に基づいて、前記所定情報を検出する第2検出部とを有することを特徴とする。【選択図】図1
Description
本発明は、画像処理システム及び画像処理方法に関する。
従来、車両の周辺を撮影した画像に基づいて、渋滞の要因等を調べる技術が知られている。
例えば、システムは、渋滞の要因を判断するため、まず、各車両のそれぞれの周辺を撮像した画像を収集する。次に、収集された画像に基づいて、システムが、渋滞の先頭となる車両を検知する。そして、システムは、先頭となる車両が位置する先頭地点を複数の方向から撮像した画像に基づいて、渋滞の要因を判断する。このようにして、システムが、交通の渋滞を検知し、かつ、渋滞の要因を判断できる技術が知られている(例えば、特許文献1等である)。
しかしながら、従来の技術では、車両と、情報処理装置との間で、多くの画像が送受信されることが多い。そのため、画像を送受信するためのデータ量が大きくなり、通信回線が圧迫される問題等が生じやすい。
そこで、本発明の実施形態に係る画像処理システムは、所定情報を検出するのに、検出に用いられる画像を追加するか否かを判断する。このようにして、本発明の実施形態に係る画像処理システムは、画像を送受信するためのデータ量を小さくすることを目的にする。
一側面によれば、車両に搭載される撮像装置と、前記撮像装置と接続される情報処理装置とを有する画像処理システムでは、前記車両は、前記撮像装置によって撮像される前記車両の周辺を示す複数の画像を取得する画像取得部を有し、前記情報処理装置は、前記画像取得部から、前記複数の画像のうち、第1画像を受信する第1受信部と、前記第1画像に基づいて、交差点を示す目印となる目印情報及び前記車両の周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出部と、前記第1検出部により、前記所定情報が検出されないと、前記画像取得部から、前記複数の画像のうち、第2画像を受信する第2受信部と、前記第1画像及び前記第2画像に基づいて、又は、前記第2画像に基づいて、前記所定情報を検出する第2検出部とを有する。
まず、画像処理システムは、撮像装置によって車両の周辺を示す複数の画像を撮像する。そして、画像取得部によって、第1画像及び第2画像が取得される。次に、情報処理装置は、車両側から第1画像を受信して所定情報を検出する。続いて、第1画像だけでは所定情報を検出できない場合には、情報処理装置は、第2画像を追加して受信する。そのため、第1画像だけで、所定情報が検出されると、第2画像の送受信が不要となる。したがって、第2画像が不要と判断された場合は、第2画像が送受信されないため、画像処理システムでは、車両と、情報処理装置との間を流れるデータ量が小さくなる場合が多い。ゆえに、画像処理システムは、画像を送受信するためのデータ量を小さくできる。
画像を送受信するためのデータ量を小さくできる。
以下、本発明の実施形態について、添付の図面を参照しながら説明する。
<全体構成例及びハードウェア構成例>
図1は、本発明の一実施形態に係る画像処理システムの全体構成例及びハードウェア構成例を示す図である。図示する例では、画像処理システムISは、撮像装置の例であるカメラCMと、情報処理装置の例であるサーバSRとを有する。
図1は、本発明の一実施形態に係る画像処理システムの全体構成例及びハードウェア構成例を示す図である。図示する例では、画像処理システムISは、撮像装置の例であるカメラCMと、情報処理装置の例であるサーバSRとを有する。
図示するように、車両CAには、撮像装置の例であるカメラCMが搭載される。そして、カメラCMは、車両CAの周辺を撮像して画像を生成する。例えば、図示するように、カメラCMは、車両CAの前方を撮像する。次に、カメラCMによって生成された画像は、画像取得装置IMに取得される。
画像取得装置IMは、例えば、電子回路、ECU(Engine Control Unit)又はCPU(Central Processing Unit)等の演算装置及び制御装置を有する。そして、画像取得装置IMは、ハードディスク等の補助記憶装置を更に有し、カメラCMから取得した画像を記憶する。さらに、画像取得装置IMは、アンテナ及び処理IC(Integrated Circuit)等の通信器を有し、ネットワークNWを介してサーバSR等の外部装置に、画像を送信する。
なお、カメラCM及び画像取得装置IMは、複数の装置であってもよい。また、車両CAは、複数台あってもよい。
一方で、サーバSRは、ネットワーク等を介して、車両CAに接続される。また、サーバSRは、例えば、CPUSH1、記憶装置SH2、入力装置SH3、出力装置SH4及び通信装置SH5を有する。
そして、サーバSRが有する各ハードウェア資源は、バスSH6によって相互に接続される。また、各ハードウェア資源は、バスSH6によって、信号及びデータを送受信する。
CPUSH1は、演算装置及び制御装置である。記憶装置SH2は、メモリ等の主記憶装置である。また、記憶装置SH2は、補助記憶装置を更に有してもよい。入力装置SH3は、キーボード等であって、ユーザからの操作を入力する。出力装置SH4は、ディスプレイ等であって、ユーザに処理結果等を出力する。通信装置SH5は、コネクタ又はアンテナ等であって、ネットワークNW又はケーブル等を介して外部装置とデータを送受信する。
なお、サーバSRは、図示する構成に限られず、例えば、各装置を更に有してもよい。また、サーバSRは、複数の装置であってもよい。
<使用例>
図2は、本発明の一実施形態に係る画像処理システムの使用例を示す図である。以下、図示するような場面を例に説明する。
図2は、本発明の一実施形態に係る画像処理システムの使用例を示す図である。以下、図示するような場面を例に説明する。
例えば、図示するように、車両CAが目的地に向かって走行しているとする。そして、目的地に向かう経路上、図示するように、車両CAは、前方にある交差点CRを右折する経路(図では、矢印で示す経路である。)を走行する場面である。すなわち、この場面は、いわゆるカーナビゲーション装置が車両CAに搭載されている場合には、交差点CRを右折するように、車両CAを運転するドライバに対して、音声、画像又はこれらの組み合わせ等で、カーナビゲーション装置が案内を行う場面である。
また、車両CAは、例えば、外部装置から地図データDMを受信したり、又は、地図データDMを記録媒体によって入力したりして取得すると、自車両の位置、交差点CRの位置及び目的地が交差点CRを右折した方向にある等を把握することができる。
以下、図示するような場面を例に説明するが、画像処理システムが使用される場面は、図示するような場面に限られず、例えば、交差点以外の場面で使用されてもよい。
<第1全体処理例>
図3は、本発明の一実施形態に係る画像処理システムによる第1全体処理の一例を示すフローチャートである。図示する第1全体処理のうち、図3(A)に示す処理は、車両CAが搭載するカメラCM(図1参照)又は画像取得装置IM(図1参照)が行う処理の例である。一方で、図示する第1全体処理のうち、図3(B)に示す処理は、サーバSR(図1参照)が行う処理の例である。
図3は、本発明の一実施形態に係る画像処理システムによる第1全体処理の一例を示すフローチャートである。図示する第1全体処理のうち、図3(A)に示す処理は、車両CAが搭載するカメラCM(図1参照)又は画像取得装置IM(図1参照)が行う処理の例である。一方で、図示する第1全体処理のうち、図3(B)に示す処理は、サーバSR(図1参照)が行う処理の例である。
ステップSA01では、画像処理システムは、車両CAが交差点CR(図2参照)から所定距離以内の位置にいるか否かを判断する。なお、所定距離は、ユーザ等があらかじめ設定できる値であるとする。つまり、画像処理システムは、車両CAが交差点CRに近づいたか否かを判断する。
次に、所定距離以内であると画像処理システムが判断すると(ステップSA01でYES)、画像処理システムは、ステップSA02に進む。一方で、所定距離以内でないと画像処理システムが判断すると(ステップSA01でNO)、画像処理システムは、ステップSA01に進む。
ステップSA02では、画像処理システムは、撮像装置によって、撮像する。すなわち、画像処理システムは、撮像装置による撮像を開始し、主に、車両CAが交差点CRに達するまで、車両CAの前方を示す複数の画像を撮像する。以下、ステップSA02で撮像されるすべての画像を「全画像」とよぶ。
具体的には、現在、車両CAが交差点CRから「Zm」離れた位置にいるとする。そして、交差点CRからの所定距離が「Zm」に設定されているとする。このような場合には、「Zm」(交差点CRより「Zm」手前となる位置)から「0m」(交差点CRの位置)まで、画像処理システムは、撮像装置によって、画像を撮像し、記憶する。なお、画像は、あらかじめ撮像装置に設定されるフレームレート等によって定まる間隔で撮像される。
ステップSA03では、画像処理システムは、第1画像を情報処理装置に送信する。具体的には、まず、ステップSA02が行われると、「0m」から「Zm」までの複数の画像が取得される。この全画像のうち、一部の画像(以下「第1画像」という。)が、画像取得装置IM(図1参照)によって、サーバSRに送信される。
第1画像は、例えば、全画像のうち、交差点CRに近い位置で撮像された画像である。具体的には、「0m」(交差点CRの位置)から「Zm」(撮像開始の位置)の間に、「Ym」となる位置があるとする。すなわち、この例では、「0<Y<Z」という関係があるとする。なお、全画像のうち、どこからどこまでが第1画像となる、すなわち、この例における「Y」の値は、あらかじめ設定できるとする。
ステップSA04では、画像処理システムは、第2画像をキャッシュする。具体的には、画像処理システムは、全画像のうち、第1画像以外の画像(以下「第2画像」という。)を画像取得装置IMによって、車両CA側に保存する。また、この例では、第2画像は、「Ym」から「Zm」の間で撮像される画像である。すなわち、第2画像は、第1画像では、撮像されていない範囲を写した画像である。
ステップSA05では、画像処理システムは、第2画像の要求があるか否かを判断する。この例では、サーバSRがステップSB06を行うと、画像処理システムは、画像取得装置IMによって、第2画像を要求されたと判断する(ステップSA05でYES)。
次に、第2画像の要求があると画像処理システムが判断すると(ステップSA05でYES)、画像処理システムは、ステップSA06に進む。一方で、第2画像の要求がないと画像処理システムが判断すると(ステップSA05でNO)、画像処理システムは、処理を終了する。
ステップSA06では、画像処理システムは、第2画像を情報処理装置に送信する。具体的には、第2画像の要求があると、画像処理システムは、画像取得装置IMによって、ステップSA04で保存した第2画像をサーバSRに送信する。
以上のようにして、画像処理システムでは、車両CA側からは、まず、第1画像が送信される。そして、サーバSR側から第2画像が要求されると、車両CA側からサーバSR側に、第2画像が送信される。
ステップSB01では、画像処理システムは、第1画像を受信したか否かを判断する。この例では、画像取得装置IMによってステップSA03が行われると、第1画像がサーバSRに送信され、サーバSRによって第1画像が受信される(ステップSB01でYES)。
次に、第1画像を受信したと画像処理システムが判断すると(ステップSB01でYES)、画像処理システムは、ステップSB02に進む。一方で、第1画像を受信していないと画像処理システムが判断すると(ステップSB01でNO)、画像処理システムは、ステップSB01に進む。
ステップSB02では、画像処理システムは、第1画像を保存する。以下、サーバSRが、画像をデータベース(以下「走行データベースDB1」という。)に保存する例で説明する。
ステップSB03では、画像処理システムは、走行データベースDB1が更新されたか否かを判断する。具体的には、サーバSRがステップSB02を行うと、走行データベースDB1に、第1画像が追加される。このような場合には、画像処理システムは、走行データベースDB1が更新されたと判断する(ステップSB03でYES)。
次に、走行データベースDB1が更新されたと画像処理システムが判断すると(ステップSB03でYES)、画像処理システムは、ステップSB04に進む。一方で、走行データベースDB1が更新されていないと画像処理システムが判断すると(ステップSB03でNO)、画像処理システムは、ステップSB03に進む。
ステップSB04では、画像処理システムは、第1画像に基づいて、所定情報を検出する。なお、所定情報は、あらかじめ設定できる情報である。また、所定情報は、交差点CRを特定できる目印となる情報(以下「目印情報」という。)及び車両CAの周辺で発生する渋滞に関する情報(以下「渋滞情報」という。)のうち、少なくともいずれか1つを含む情報である。以下の説明では、所定情報が目印情報である場合を例に説明する。
具体的には、目印となる物体は、例えば、交差点の付近に設置されている看板、建物、ペイント、レーン、道路の特徴又は標識等である。すなわち、目印は、交差点CRの付近に設置される構造物等であったり、交差点CRの付近の道路に記載される図、文字、数字又はこれらの組み合わせ等であったりする。
また、画像処理システムは、第1画像から、例えば、ディープラーニング(Deep Learning)等によって、目印を認識する。なお、ディープラーニングは、例えば、"http://www.slideshare.net/kazoo04/deep−learning−15097274"又は"http://www.slideshare.net/NVIDIAJapan/nvidia−deep−learning−sdk"等に記載される方法によって実現できる。
なお、目印の認識方法は、ディープラーニングに限られない。例えば、目印の認識方法は、特開2007−240198号公報、特開2009−186372号公報、特開2014−163814号公報又は特開2014−173956号公報等に記載される方法によって実現されてもよい。
以上のような方法によって、例えば、看板を目印と認識するように設定した場合を例に以下説明する。
ステップSB05では、画像処理システムは、目印があるか否かを判断する。具体的には、目印となる看板が交差点CRの付近にある場合、すなわち、第1画像が撮像される範囲(「0m」から「Ym」の範囲である。)に看板が設置されていると、第1画像には、看板が撮像されている。このような場合には、ステップSB04によって看板が検出され、画像処理システムは、目印があると判断する(ステップSB05でYES)。一方で、看板が交差点CRの付近にないと、第1画像には、看板が写らない。そのため、画像処理システムは、目印がないと判断する(ステップSB05でNO)。
次に、目印があると画像処理システムが判断すると(ステップSB05でYES)、画像処理システムは、ステップSB12に進む。一方で、目印がないと画像処理システムが判断すると(ステップSB05でNO)、画像処理システムは、ステップSB06に進む。
ステップSB06では、画像処理システムは、第2画像を要求する。すなわち、画像処理システムは、「Ym」から「Zm」の範囲を撮像した第2画像を要求する。
ステップSB07では、画像処理システムは、第2画像を受信したか否かを判断する。この例では、画像取得装置IMによってステップSA06が行われると、第2画像がサーバSRに送信され、サーバSRによって第1画像が受信される(ステップSB07でYES)。
次に、第2画像を受信したと画像処理システムが判断すると(ステップSB07でYES)、画像処理システムは、ステップSB08に進む。一方で、第2画像を受信していないと画像処理システムが判断すると(ステップSB07でNO)、画像処理システムは、ステップSB07に進む。
ステップSB08では、画像処理システムは、第2画像を保存する。例えば、受信された第2画像は、第1画像と同様に、走行データベースDB1保存される。
ステップSB09では、画像処理システムは、走行データベースDB1が更新されたか否かを判断する。具体的には、サーバSRがステップSB08を行うと、走行データベースDB1に、第2画像が追加される。このような場合には、画像処理システムは、走行データベースDB1が更新されたと判断する(ステップSB09でYES)。
次に、走行データベースDB1が更新されたと画像処理システムが判断すると(ステップSB09でYES)、画像処理システムは、ステップSB10に進む。一方で、走行データベースDB1が更新されていないと画像処理システムが判断すると(ステップSB09でNO)、画像処理システムは、ステップSB09に進む。
ステップSB10では、画像処理システムは、第2画像に基づいて、所定情報を検出する。例えば、画像処理システムは、ステップSB04と同様の方法によって所定情報を検出する。なお、ステップSB10では、第2画像のみを用いて検出を行ってもよく、第1画像と第2画像の両方を用いて検出を行ってもよい。
ステップSB11では、画像処理システムは、目印があるか否かを判断する。まず、第2画像が撮像される範囲(「Ym」から「Zm」の範囲である。)に看板が設置されていると、第2画像には、看板が写る。このような場合には、ステップSB10によって看板が検出され、画像処理システムは、目印があると判断する(ステップSB11でYES)。一方で、第2画像が撮像される範囲に、看板がないと、第2画像には、看板が写らない。そのため、画像処理システムは、目印がないと判断する(ステップSB11でNO)。
次に、目印があると画像処理システムが判断すると(ステップSB11でYES)、画像処理システムは、ステップSB13に進む。一方で、目印がないと画像処理システムが判断すると(ステップSB11でNO)、画像処理システムは、処理を終了する。
ステップSB12及びステップSB13では、画像処理システムは、目印情報を保存する。以下、サーバSRが、目印情報をデータベース(以下「案内データベースDB2」という。)に保存する例で説明する。
ステップSB12又はステップSB13が行われた場合は、案内の対象となる交差点CRの付近に、看板がある場合である。そこで、ステップSB12及びステップSB13では、画像処理システムは、検出された看板の位置等を示す目印情報を案内データベースDB2に保存する。そして、目印情報が案内データベースDB2に保存されると、カーナビゲーション装置等は、目印情報を参照して、目印を用いて案内を行うことができる。
<効果例>
図4は、本発明の一実施形態に係る第1全体処理の効果の一例を示す図(その1)である。図3に示す第1全体処理が行われると、例えば、図示するような効果を奏する。
図4は、本発明の一実施形態に係る第1全体処理の効果の一例を示す図(その1)である。図3に示す第1全体処理が行われると、例えば、図示するような効果を奏する。
まず、交差点CRから「300m」以内の範囲を第1距離DIS1とする(上記の説明では、「0m」から「Ym」の範囲である)。第1距離DIS1では、第1画像IMG1が撮像され、例えば、図示するような画像が生成される。図示するように、第1画像IMG1を撮像する画角には、看板LMが入らない。そのため、第1画像IMG1には、目印となる看板LMが写らない状況となる(ステップSB05でNOとなる)。したがって、第1画像IMG1からは、所定情報が検出されない場合である。
次に、交差点CRから「300m」離れた位置から、更に「200m」以内の範囲を第2距離DIS2とする(上記の説明では、「Ym」から「Zm」の範囲である)。図示するように、第2距離DIS2となる範囲、すなわち、交差点CRの手前に、看板LMが設置されているとする。そのため、図示するように、第2画像IMG2には、目印となる看板LMが写る状況となる(ステップSB11でYESとなる)。したがって、第2画像IMG2からは、所定情報が検出される場合である。
また、第1全体処理による効果は、以下のような場面でも効果を奏する。
図5は、本発明の一実施形態に係る第1全体処理の効果の一例を示す図(その2)である。以下、図5は、図4と同様の交差点CR付近の場面であるとする。なお、図5は、図4とは、異なる視点(いわゆる側面図)である。
図4に示す場面と比較すると、図5は、看板LMが設置されている位置が異なる。具体的には、図示するように、図5では、看板LMは、交差点CR付近に設置されている。ただし、看板LMは、交差点CR付近の建物BUの上に設置されているとする。このような場面では、例えば、以下のような現象が起きる場合がある。
図示するように、第1距離DIS1では、カメラCMによって撮像される範囲(以下「第1撮像範囲RA1」という。)に、すなわち、第1画像IMG1(図4参照)が示す範囲には、図4と同様に、看板LMが入らない。
一方で、建物BUから、第1距離DIS1より離れている第2距離DIS2では、カメラCMによって撮像される範囲(以下「第2撮像範囲RA2」という。)に、すなわち、第2画像IMG2(図4参照)が示す範囲には、看板LMが入る。
そのため、図4と同様に、第2画像IMG2を用いると、第1画像IMG1では、検出できない所定情報が検出できる。このように、看板LMが設置される高さ(Z方向における位置)によって、第1画像IMG1では検出できない場合がある。このような場合であっても、第2画像IMG2を用いると、画像処理システムは、所定情報を検出できる。
以上のように、画像処理システムは、まず、第1画像IMG1から、所定情報を検出しようとする。そして、画像処理システムは、第1画像IMG1から所定情報が検出できた場合には、サーバSRが第2画像を要求しない。そのため、車両CAと、サーバSRとの間で送受信される画像が少なくなる。
また、第1画像IMG1又は第2画像IMG2から目印情報が案内データベースDB2に保存できた場合には、以下のような処理が実行できる。
図6は、本発明の一実施形態に係る画像処理システムによる地図データの取得及び案内を行う処理の一例を示すフローチャートである。例えば、カーナビゲーション装置等がある車両CAにある場合には、画像処理システムは、以下のような処理を行うのが望ましい。
ステップS201では、画像処理システムは、地図データを取得する。
ステップS202では、画像処理システムは、経路を探索する。
例えば、図2に示すように、ステップS201によって、車両CAの現在位置、目的地、現在位置から目的地までの途中又はこれらの周辺を示す地図データDMが取得されると、画像処理システムは、ステップS202によって現在地から目的地までの経路を探索し、案内を行うことができる。そして、図2のように、経路上、右折するように案内をする場面となると、画像処理システムは、ステップS203を行う。
ステップS203では、画像処理システムは、目印があるか否かを判断する。具体的には、あらかじめ第1全体処理が行われるため、目印がある場合には、目印情報が、案内データベースDB2にあらかじめ保存されている。すなわち、第1全体処理において、ステップSB12又はステップSB13が行われると、ステップS203では、画像処理システムは、目印があると判断する(ステップS203でYES)。
次に、目印があると画像処理システムが判断すると(ステップS203でYES)、画像処理システムは、ステップS205に進む。一方で、目印がないと画像処理システムが判断すると(ステップS203でNO)、画像処理システムは、ステップS204に進む。
ステップS204では、画像処理システムは、目印を用いない案内を行う。例えば、図示するように、画像処理システムは、音声又は画像表示によって、「300m先の交差点を右折です。」という内容のメッセージ(以下「第1メッセージMS1」という。)をドライバに出力する。
ステップS205では、画像処理システムは、目印を用いる案内を行う。例えば、図示するように、画像処理システムは、音声又は画像表示によって、「○○看板のある300m先の交差点を右折です。」という内容のメッセージ(以下「第2メッセージMS2」という。)をドライバに出力する。
ステップS204と、ステップS205とを比較すると、出力されるメッセージが異なる。さらに、第1メッセージMS1と、第2メッセージMS2とを比較すると、同じ交差点を案内するメッセージであるのに、「○○看板」という目印情報が用いられているか否かが異なる。なお、「○○看板」は、図4における看板LMを説明するメッセージであるとする。
ステップS205では、目印情報が案内データベースDB2にあらかじめ保存されているため、図4に示すように、画像処理システムは、看板LMがある交差点CRを右折するように案内することができる。特に、図2に示すような場面では、右折できる箇所が密集している。このような場面では、第2メッセージMS2のように、看板LMを目印に用いると、画像処理システムは、ドライバに右折する箇所を間違えないように案内できる。したがって、目印を用いない案内より、画像処理システムは、交差点CRを分かりやすく案内することができる。
<第2全体処理例>
図7は、本発明の一実施形態に係る画像処理システムによる第2全体処理の一例を示すフローチャートである。画像処理システムは、以下のような第2全体処理を行ってもよい。
図7は、本発明の一実施形態に係る画像処理システムによる第2全体処理の一例を示すフローチャートである。画像処理システムは、以下のような第2全体処理を行ってもよい。
第2全体処理は、第1全体処理(図3参照)と比較すると、渋滞情報に係る所定情報を検出する点が異なる。具体的には、第2全体処理では、第1全体処理におけるステップSA01、ステップSB05、ステップSB11乃至ステップSB13が、ステップSA20、ステップSB21乃至ステップSB24となる点が異なる。また、第2全体処理は、第1全体処理とステップSB04及びステップSB10の処理内容が異なる。以下、第1全体処理と同一の処理には、同一の符号を付し説明を省略し、異なる点を中心に説明する。
ステップSA20では、画像処理システムは、渋滞を検出したか否かを判断する。例えば、車速があらかじめ設定される速度以下となると、画像処理システムは、渋滞を検出したと判断する(ステップSA20でYES)。なお、渋滞を検出したか否かは、例えば、車間距離、周辺にある車両の密度、車速が低速である時間又は距離等に基づいて判断されてもよい。
次に、渋滞を検出したと画像処理システムが判断すると(ステップSA20でYES)、画像処理システムは、ステップSA03に進む。一方で、渋滞を検出していないと画像処理システムが判断すると(ステップSA20でNO)、画像処理システムは、ステップSA20に進む。
ステップSB04では、画像処理システムは、第1画像に基づいて、所定情報を検出する。第2全体処理では、所定情報は、渋滞情報を含む情報である。以下の説明では、所定情報が渋滞情報である場合を例に説明する。また、画像処理システムは、第1全体処理と同様に、第1画像から、ディープラーニング等によって所定情報を検出する。
渋滞情報は、例えば、車両CAが渋滞に入った地点、渋滞の原因又は渋滞の距離等を示す情報である。なお、渋滞情報をどういった情報にするかは、あらかじめ設定できてもよい。以下、渋滞情報が、交通事故を原因とする例で説明する。
具体的には、画像に、前方の車両が近く写っていたり、事故にあった車両又は工事中を示す看板等が写っていたりすると、画像処理システムは、ディープラーニング等によって渋滞の原因として検出する。また、このような渋滞の原因が確認できる位置等が分かると、画像処理システムは、車両が渋滞に入った地点を把握することができる。
また、例えば、車両が渋滞に入った地点と、渋滞が解消した地点とを把握できると、これらの地点の距離が、渋滞の距離となり、画像処理システムは、渋滞の距離を検出できる。
ステップSB21では、画像処理システムは、渋滞情報があるか否かを判断する。すなわち、ステップSB04によって渋滞の原因が検出できていると、画像処理システムは、渋滞情報があると判断する(ステップSB21でYES)。
次に、渋滞情報があると画像処理システムが判断すると(ステップSB21でYES)、画像処理システムは、ステップSB23に進む。一方で、渋滞情報がないと画像処理システムが判断すると(ステップSB21でNO)、画像処理システムは、ステップSB06に進む。
ステップSB10では、画像処理システムは、第2画像に基づいて、所定情報を検出する。例えば、ステップSB04と同様の方法によって、画像処理システムは、所定情報を検出する。
ステップSB22では、画像処理システムは、渋滞情報があるか否かを判断する。すなわち、ステップSB10によって渋滞の原因が検出できていると、画像処理システムは、渋滞情報があると判断する(ステップSB22でYES)。
次に、渋滞情報があると画像処理システムが判断すると(ステップSB22でYES)、画像処理システムは、ステップSB24に進む。一方で、渋滞情報がないと画像処理システムが判断すると(ステップSB22でNO)、画像処理システムは、処理を終了する。
ステップSB23及びステップSB24では、画像処理システムは、渋滞情報を保存する。以下、サーバSRが、渋滞情報をデータベース(以下「渋滞データベースDB3」という。)に保存する例で説明する。
ステップSB23又はステップSB24が行われた場合は、渋滞情報が検出できた場合である。そこで、ステップSB23及びステップSB24では、画像処理システムは、渋滞の原因等を示す渋滞情報を渋滞データベースDB3に保存する。そして、渋滞情報が渋滞データベースDB3に保存されると、カーナビゲーション装置等は、渋滞情報を参照して、渋滞が起きていることを案内することができる。
図8は、本発明の一実施形態に係る第2全体処理の効果の一例を示す図である。以下、図示する位置において、渋滞が検出された(ステップSA20でYES)場合を例に説明する。なお、図では、車両CAが進行する方向(以下「進行方向RD」という。)を前方向とし、「+」で示す。
第2全体処理では、例えば、図示するように、渋滞が検出された位置を中心した前後所定距離以内を第1距離DIS1とする。具体的には、図示する例では、第1距離DIS1は、渋滞が検出された位置の前後「300m」が第1距離DIS1である。したがって、第1画像は、渋滞が検出された位置の前後「300m」、合計「600m」を示す画像である。
一方で、第1画像では、渋滞情報が検出されない(ステップSB21でNO)場合には、画像処理システムは、更に前後所定距離以内を示す第2画像を要求する(ステップSB06)。図示する例では、第2距離DIS2は、第1距離DIS1に更に「200m」を加えた距離である。したがって、第1画像は、第1距離DIS1より更に前後「200m」、合計「400m」を示す画像である。
以上のように、画像処理システムは、まず、第1画像から所定情報を検出しようとする。そして、第1画像から所定情報が検出できた場合には、サーバSRは、第2画像を要求しない。そのため、車両CAと、サーバSRとの間で送受信される画像が少なくなる。
<機能構成例>
図9は、本発明の一実施形態に係る画像処理システムの機能構成例を示す機能ブロック図である。例えば、画像処理システムISは、画像取得部ISF1と、第1受信部ISF2と、第2受信部ISF3と、第1検出部ISF4と、第2検出部ISF5とを有する。また、画像処理システムISは、図示するように、地図データ取得部ISF6と、案内部ISF7とを更に有する機能構成であるのが望ましい。
図9は、本発明の一実施形態に係る画像処理システムの機能構成例を示す機能ブロック図である。例えば、画像処理システムISは、画像取得部ISF1と、第1受信部ISF2と、第2受信部ISF3と、第1検出部ISF4と、第2検出部ISF5とを有する。また、画像処理システムISは、図示するように、地図データ取得部ISF6と、案内部ISF7とを更に有する機能構成であるのが望ましい。
画像取得部ISF1は、カメラCMによって撮像される車両CAの周辺を示す複数の画像を取得する画像取得手順を行う。例えば、画像取得部ISF1は、画像取得装置IM(図1参照)等によって実現される。
第1受信部ISF2は、画像取得部ISF1から、複数の画像のうち、第1画像IMG1を受信する第1受信手順を行う。例えば、第1受信部ISF2は、通信装置SH5(図1参照)等によって実現される。
第1検出部ISF4は、第1受信部ISF2が受信する第1画像IMG1に基づいて、交差点を示す目印となる目印情報及び車両CAの周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出手順を行う。例えば、第1検出部ISF4は、CPUSH1(図1参照)等によって実現される。
第2受信部ISF3は、第1検出部ISF4により、所定情報が検出されないと、画像取得部ISF1から、複数の画像のうち、第2画像IMG2を受信する第2受信手順を行う。例えば、第2受信部ISF3は、通信装置SH5(図1参照)等によって実現される。
第2検出部ISF5は、第1画像IMG1及び第2画像IMG2の両方に基づいて、又は、第2画像IMG2に基づいて、所定情報を検出する第2検出手順を行う。例えば、第2検出部ISF5は、CPUSH1(図1参照)等によって実現される。
地図データ取得部ISF6は、車両CAの現在位置、目的地及び現在位置から目的地までの途中を示す地図データDMを取得する地図データ取得手順を行う。例えば、地図データ取得部ISF6は、車両に搭載されるカーナビゲーション装置等によって実現される。
案内部ISF7は、地図データ取得部ISF6が取得する地図データDMに基づいて、車両CAが走行する経路を案内する案内手順を行う。例えば、案内部ISF7は、車両に搭載されるカーナビゲーション装置等によって実現される。
まず、撮像装置の例であるカメラCMによって、第1画像IMG1及び第2画像IMG2を含む複数の画像が撮像される。次に、カメラCMによって撮像された第1画像IMG1及び第2画像IMG2等の画像は、画像取得部ISF1によって取得される。
次に、画像処理システムISは、まず、第1受信部ISF2によってサーバSRに、第1画像IMG1を受信させる。そして、画像処理システムISは、第1検出部ISF4によって、第1画像IMG1から、所定情報を検出する。例えば、第1検出部ISF4は、ステップSB04等によって所定情報を検出する。
第1画像IMG1に、看板LM(図4参照)のような目印となる被写体が写っている場合には、第1検出部ISF4は、目印情報を検出し、保存することができる(ステップSB12)。このように、まず、画像処理システムISは、全画像を用いず、一部の画像である第1画像IMG1に基づいて、所定情報を検出する(ステップSB04)。
そして、第1検出部ISF4による検出、すなわち、第1画像IMG1から、所定情報が検出されない場合には、画像処理システムISは、第2受信部ISF3によって、第2画像IMG2を要求し(ステップSB06)、追加で画像を受信する。そして、画像処理システムISは、第2画像IMG2に基づいて、所定情報を検出する(ステップSB10)。
以上のような構成とすると、第1画像IMG1だけでは、所定情報が検出されない場合には、第2画像IMG2が受信される。そのため、第2画像IMG2が要求されない場合には、第2画像IMG2分、データ量が小さくなる。ゆえに、画像処理システムISは、車両CAと、サーバSRとの間に流れるデータ量を小さくすることができる。このようにして、画像処理システムISは、通信回線が圧迫されるのを少なくできる。
一方で、第1画像IMG1だけでは、所定情報が検出されない場合には、画像処理システムISは、第2画像IMG2を要求する。このようにすると、例えば、図4に示すように、所定情報を検出できる。また、画像処理システムISは、所定情報を検出できる画像を効率的に収集できる。そのため、画像処理システムISは、所定情報を精度良く検出することができる。このようにして、画像処理システムISは、所定情報の精度と、データ量を小さくすることを両立させることができる。
所定情報は、どこにあるかあらかじめ分からない場合が多い。そのため、例えば、交差点から「300m」の範囲を撮像した画像を用いる場合と、交差点から「500m」の範囲を撮像した画像を用いる場合とでは、「500m」の範囲を撮像した画像を用いる場合の方が、画像処理システムISは、所定情報を検出しやすい。しかし、「500m」の範囲を撮像した画像を用いる場合の方が、データ量が大きい場合が多い。そのため、「500m」の範囲を撮像した画像を用いる場合の方が、通信料金が高くなったり、通信回線の負荷が高くなったりする場合が多い。
実験の結果、図9に示す機能構成によって、平均して「400m」分の画像を収集した場合には、単に連続して「300m」分の画像を収集した場合より、画像処理システムISは、多くの所定情報を検出できた。
さらに、図9に示す機能構成によって、平均して「400m」分の画像を収集した場合には、単に連続して「500m」分の画像を収集した場合より、画像処理システムISは、通信費を2割程度削減できた。
また、地図データ取得部ISF6及び案内部ISF7があると、例えば、図6に示す第2メッセージMS2のように、画像処理システムISは、目印を用いる案内をドライバDVに行うことができる。
<その他の実施形態>
第1画像及び第2画像が示す範囲は、距離による設定に限られない。例えば、1秒間に30フレームの画像を撮像する撮像装置であるとする。そして、画像処理システムISは、第1画像を30フレームのうち、15フレームとし、残りの15フレームを第2画像とする等といった設定であってもよい。このようにして、検出に用いられる画像を追加できると、画像処理システムISは、所定情報を精度良く検出できる。
第1画像及び第2画像が示す範囲は、距離による設定に限られない。例えば、1秒間に30フレームの画像を撮像する撮像装置であるとする。そして、画像処理システムISは、第1画像を30フレームのうち、15フレームとし、残りの15フレームを第2画像とする等といった設定であってもよい。このようにして、検出に用いられる画像を追加できると、画像処理システムISは、所定情報を精度良く検出できる。
地図データ取得部ISF6及び案内部ISF7は、撮像装置を搭載した車両以外の車両が有してもよい。
本発明に係る実施形態は、情報処理装置又は情報処理システム等のコンピュータに、上記の画像処理方法に係る各手順を実行させるためのプログラムによって実現されてもよい。また、プログラムは、コンピュータが読み取り可能な記録媒体に格納して頒布することができる。
さらに、上記に説明した各装置は、複数の装置であってもよい。そして、上記の画像処理方法に係る各手順の全部又は一部は、並列、分散又は冗長して実行されてもよい。
以上、本発明の好ましい実施例について説明したが、本発明は、説明した実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。
IS 画像処理システム
CM カメラ
SR サーバ
CR 交差点
LM 看板
DM 地図データ
IMG1 第1画像
IMG2 第2画像
CM カメラ
SR サーバ
CR 交差点
LM 看板
DM 地図データ
IMG1 第1画像
IMG2 第2画像
Claims (7)
- 車両に搭載される撮像装置と、前記撮像装置と接続される情報処理装置とを有する画像処理システムであって、
前記車両は、
前記撮像装置によって撮像される前記車両の周辺を示す複数の画像を取得する画像取得部を有し、
前記情報処理装置は、
前記画像取得部から、前記複数の画像のうち、第1画像を受信する第1受信部と、
前記第1画像に基づいて、交差点を示す目印となる目印情報及び前記車両の周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出部と、
前記第1検出部により、前記所定情報が検出されないと、前記画像取得部から、前記複数の画像のうち、第2画像を受信する第2受信部と、
前記第1画像及び前記第2画像に基づいて、又は、前記第2画像に基づいて、前記所定情報を検出する第2検出部と
を有する
画像処理システム。 - 前記目印は、前記交差点の付近に設置されている看板、建物、ペイント、レーン、道路の特徴又は標識である請求項1に記載の画像処理システム。
- 前記撮像装置は、前記交差点から所定距離以内となると、前記複数の画像を撮像する請求項1又は2に記載の画像処理システム。
- 前記第1画像は、前記第2画像が撮像された位置よりも、前記交差点に近い位置に前記車両がいる場合に撮像される画像である請求項1乃至3のいずれか1項に記載の画像処理システム。
- 前記車両の現在位置、目的地及び現在位置から目的地までの途中を示す地図データを取得する地図データ取得部と、
前記地図データに基づいて、前記車両が走行する経路を案内する案内部と
を更に有し、
前記案内部は、前記所定情報に基づく前記目印を用いて、前記交差点を案内する請求項1乃至4のいずれか1項に記載の画像処理システム。 - 前記渋滞情報は、前記車両が渋滞に入った地点、前記渋滞の原因又は前記渋滞の距離である請求項1乃至5のいずれか1項に記載の画像処理システム。
- 車両に搭載される撮像装置と、前記撮像装置と接続される情報処理装置とを有する画像処理システムが行う画像処理方法であって、
前記画像処理システムが、前記撮像装置によって撮像される前記車両の周辺を示す複数の画像を取得する画像取得手順と、
前記画像処理システムが、前記画像取得手順によって取得される前記複数の画像のうち、第1画像を受信する第1受信手順と、
前記画像処理システムが、前記第1画像に基づいて、交差点を示す目印となる目印情報及び前記車両の周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出手順と、
前記画像処理システムが、前記第1検出手順により、前記所定情報が検出されないと、前記画像取得手順によって取得される前記複数の画像のうち、第2画像を受信する第2受信手順と、
前記画像処理システムが、前記第1画像及び前記第2画像に基づいて、又は、前記第2画像に基づいて、前記所定情報を検出する第2検出手順と
を含む画像処理方法。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017022365A JP2018128389A (ja) | 2017-02-09 | 2017-02-09 | 画像処理システム及び画像処理方法 |
| DE102018102364.2A DE102018102364A1 (de) | 2017-02-09 | 2018-02-02 | Bildverarbeitungssystem und bildverarbeitungsverfahren |
| CN201810123123.2A CN108417028A (zh) | 2017-02-09 | 2018-02-07 | 图像处理系统和图像处理方法 |
| US15/891,001 US20180224296A1 (en) | 2017-02-09 | 2018-02-07 | Image processing system and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017022365A JP2018128389A (ja) | 2017-02-09 | 2017-02-09 | 画像処理システム及び画像処理方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018128389A true JP2018128389A (ja) | 2018-08-16 |
Family
ID=62910281
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017022365A Pending JP2018128389A (ja) | 2017-02-09 | 2017-02-09 | 画像処理システム及び画像処理方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20180224296A1 (ja) |
| JP (1) | JP2018128389A (ja) |
| CN (1) | CN108417028A (ja) |
| DE (1) | DE102018102364A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110473396A (zh) * | 2019-06-27 | 2019-11-19 | 安徽科力信息产业有限责任公司 | 交通拥堵数据分析方法、装置、电子设备及存储介质 |
| KR102302977B1 (ko) * | 2020-10-21 | 2021-09-16 | 서경덕 | 복수의 무인 이동체 통합 제어 시스템 |
| JP2021170260A (ja) * | 2020-04-16 | 2021-10-28 | 矢崎エナジーシステム株式会社 | 運転評価装置及び運転評価プログラム |
| JP2023523255A (ja) * | 2020-04-24 | 2023-06-02 | 華為技術有限公司 | 道路渋滞原因を提供するための方法および装置 |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019189218A1 (ja) * | 2018-03-29 | 2019-10-03 | 日本電気株式会社 | 交通監視装置、交通監視システム、交通監視方法及びプログラムが格納された非一時的なコンピュータ可読媒体 |
| JP7063723B2 (ja) * | 2018-05-22 | 2022-05-09 | 本田技研工業株式会社 | 表示制御装置及びプログラム |
| JP2020027400A (ja) * | 2018-08-10 | 2020-02-20 | 本田技研工業株式会社 | 制御装置及びプログラム |
| EP3637056B1 (en) * | 2018-10-08 | 2022-05-25 | HERE Global B.V. | Method and system for generating navigation data for a geographical location |
| US11656090B2 (en) | 2018-10-08 | 2023-05-23 | Here Global B.V. | Method and system for generating navigation data for a geographical location |
| CN114746721A (zh) * | 2019-12-27 | 2022-07-12 | 日本精机株式会社 | 导航装置、导航装置的控制方法、导航装置的控制程序 |
| EP4372584A1 (en) * | 2022-11-17 | 2024-05-22 | Zenseact AB | A method for performing a perception task of an electronic device or a vehicle using a plurality of neural networks |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008065529A (ja) * | 2006-09-06 | 2008-03-21 | Denso Corp | 渋滞要因判断システム |
| JP2009162722A (ja) * | 2008-01-10 | 2009-07-23 | Pioneer Electronic Corp | 案内装置、案内方法、及び案内プログラム |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101287963B (zh) * | 2005-11-30 | 2012-07-04 | 爱信艾达株式会社 | 路径引导系统及路径引导方法 |
| JP2007240198A (ja) | 2006-03-06 | 2007-09-20 | Aisin Aw Co Ltd | ナビゲーション装置 |
| JP4935145B2 (ja) * | 2006-03-29 | 2012-05-23 | 株式会社デンソー | カーナビゲーション装置 |
| JP4831434B2 (ja) * | 2007-12-27 | 2011-12-07 | アイシン・エィ・ダブリュ株式会社 | 地物情報収集装置及び地物情報収集プログラム、並びに自車位置認識装置及びナビゲーション装置 |
| JP2009186372A (ja) | 2008-02-07 | 2009-08-20 | Nissan Motor Co Ltd | ナビゲーション装置およびナビゲーション方法 |
| JP5505729B2 (ja) * | 2011-01-27 | 2014-05-28 | アイシン・エィ・ダブリュ株式会社 | 案内装置、案内方法、および、案内プログラム |
| JP5625987B2 (ja) * | 2011-02-16 | 2014-11-19 | アイシン・エィ・ダブリュ株式会社 | 案内装置、案内方法、および、案内プログラム |
| JP2014163814A (ja) | 2013-02-26 | 2014-09-08 | Aisin Aw Co Ltd | 走行案内システム、走行案内方法及びコンピュータプログラム |
| JP2014173956A (ja) | 2013-03-07 | 2014-09-22 | Aisin Aw Co Ltd | 経路案内装置、及び経路案内プログラム |
| US10037469B2 (en) * | 2013-12-10 | 2018-07-31 | Google Llc | Image location through large object detection |
| CN106092114A (zh) * | 2016-06-22 | 2016-11-09 | 江苏大学 | 一种图像识别的汽车实景导航装置及方法 |
-
2017
- 2017-02-09 JP JP2017022365A patent/JP2018128389A/ja active Pending
-
2018
- 2018-02-02 DE DE102018102364.2A patent/DE102018102364A1/de not_active Withdrawn
- 2018-02-07 US US15/891,001 patent/US20180224296A1/en not_active Abandoned
- 2018-02-07 CN CN201810123123.2A patent/CN108417028A/zh active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008065529A (ja) * | 2006-09-06 | 2008-03-21 | Denso Corp | 渋滞要因判断システム |
| JP2009162722A (ja) * | 2008-01-10 | 2009-07-23 | Pioneer Electronic Corp | 案内装置、案内方法、及び案内プログラム |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110473396A (zh) * | 2019-06-27 | 2019-11-19 | 安徽科力信息产业有限责任公司 | 交通拥堵数据分析方法、装置、电子设备及存储介质 |
| CN110473396B (zh) * | 2019-06-27 | 2020-12-04 | 安徽科力信息产业有限责任公司 | 交通拥堵数据分析方法、装置、电子设备及存储介质 |
| JP2021170260A (ja) * | 2020-04-16 | 2021-10-28 | 矢崎エナジーシステム株式会社 | 運転評価装置及び運転評価プログラム |
| JP7572158B2 (ja) | 2020-04-16 | 2024-10-23 | 矢崎エナジーシステム株式会社 | 運転評価装置及び運転評価プログラム |
| JP2023523255A (ja) * | 2020-04-24 | 2023-06-02 | 華為技術有限公司 | 道路渋滞原因を提供するための方法および装置 |
| JP7564239B2 (ja) | 2020-04-24 | 2024-10-08 | 華為技術有限公司 | 道路渋滞原因を提供するための方法および装置 |
| KR102302977B1 (ko) * | 2020-10-21 | 2021-09-16 | 서경덕 | 복수의 무인 이동체 통합 제어 시스템 |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102018102364A1 (de) | 2018-08-09 |
| US20180224296A1 (en) | 2018-08-09 |
| CN108417028A (zh) | 2018-08-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018128389A (ja) | 画像処理システム及び画像処理方法 | |
| JP4985362B2 (ja) | ナビゲーション装置、ナビゲーション方法およびナビゲーションプログラム | |
| RU2597066C2 (ru) | Способ и устройство для распознавания дорожных знаков | |
| CN108932470B (zh) | 图像处理系统、图像处理方法、信息处理装置和记录介质 | |
| CN112639907B (zh) | 一种交通拥堵感知方法、装置、电子设备及存储介质 | |
| JP6252670B2 (ja) | 注意案内システム、方法およびプログラム | |
| EP4635819A1 (en) | Vehicle control method and apparatus, device and computer-readable storage medium | |
| JP7135796B2 (ja) | サーバ装置、サーバ制御方法、サーバ制御プログラム、車両、車両制御方法、及び車両制御プログラム | |
| JP5565203B2 (ja) | 交差点情報取得装置、交差点情報取得方法及びコンピュータプログラム | |
| WO2017010209A1 (ja) | 周辺環境認識装置、及びコンピュータプログラム製品 | |
| CN102227758A (zh) | 摄像装置 | |
| US11410429B2 (en) | Image collection system, image collection method, image collection device, recording medium, and vehicle communication device | |
| CN111319560B (zh) | 信息处理系统、程序和信息处理方法 | |
| JP5994574B2 (ja) | 位置案内システム、方法およびプログラム | |
| JP2005267120A (ja) | 周辺車両識別方法及びこれを用いた走行支援システム | |
| JP2012007986A (ja) | ナビゲーション装置および経路誘導案内方法 | |
| CN114092909A (zh) | 一种车道线提取方法、装置、车辆及存储介质 | |
| JP2007271384A (ja) | 道路案内システム | |
| JP2013130464A (ja) | レーン案内表示システム、方法およびプログラム | |
| JP6799523B2 (ja) | 走行現調支援装置 | |
| US12412474B2 (en) | Information provision server, information provision method, and recording medium storing program | |
| JP2015156089A (ja) | 注意案内システム、方法およびプログラム | |
| JP5935661B2 (ja) | 交差点案内システム、方法およびプログラム | |
| JP6462443B2 (ja) | 運転支援システム、方法およびプログラム | |
| JP6500805B2 (ja) | 推奨車線案内システムおよび推奨車線案内プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190612 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200423 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200519 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210105 |