[go: up one dir, main page]

JP2018128389A - 画像処理システム及び画像処理方法 - Google Patents

画像処理システム及び画像処理方法 Download PDF

Info

Publication number
JP2018128389A
JP2018128389A JP2017022365A JP2017022365A JP2018128389A JP 2018128389 A JP2018128389 A JP 2018128389A JP 2017022365 A JP2017022365 A JP 2017022365A JP 2017022365 A JP2017022365 A JP 2017022365A JP 2018128389 A JP2018128389 A JP 2018128389A
Authority
JP
Japan
Prior art keywords
image
processing system
image processing
vehicle
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017022365A
Other languages
English (en)
Inventor
功一 鈴木
Koichi Suzuki
功一 鈴木
純一郎 井川
Junichiro Igawa
純一郎 井川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Toyota Motor Corp
Original Assignee
Aisin AW Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Toyota Motor Corp filed Critical Aisin AW Co Ltd
Priority to JP2017022365A priority Critical patent/JP2018128389A/ja
Priority to DE102018102364.2A priority patent/DE102018102364A1/de
Priority to CN201810123123.2A priority patent/CN108417028A/zh
Priority to US15/891,001 priority patent/US20180224296A1/en
Publication of JP2018128389A publication Critical patent/JP2018128389A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】 画像を送受信するためのデータ量を小さくする。【解決手段】 車両に搭載される撮像装置と、前記撮像装置と接続される情報処理装置とを有する画像処理システムでは、前記車両は、前記撮像装置によって撮像される前記車両の周辺を示す複数の画像を取得する画像取得部を有し、前記情報処理装置は、前記画像取得部から、前記複数の画像のうち、第1画像を受信する第1受信部と、前記第1画像に基づいて、交差点を示す目印となる目印情報及び前記車両の周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出部と、前記第1検出部により、前記所定情報が検出されないと、前記画像取得部から、前記複数の画像のうち、第2画像を受信する第2受信部と、前記第1画像及び前記第2画像に基づいて、又は、前記第2画像に基づいて、前記所定情報を検出する第2検出部とを有することを特徴とする。【選択図】図1

Description

本発明は、画像処理システム及び画像処理方法に関する。
従来、車両の周辺を撮影した画像に基づいて、渋滞の要因等を調べる技術が知られている。
例えば、システムは、渋滞の要因を判断するため、まず、各車両のそれぞれの周辺を撮像した画像を収集する。次に、収集された画像に基づいて、システムが、渋滞の先頭となる車両を検知する。そして、システムは、先頭となる車両が位置する先頭地点を複数の方向から撮像した画像に基づいて、渋滞の要因を判断する。このようにして、システムが、交通の渋滞を検知し、かつ、渋滞の要因を判断できる技術が知られている(例えば、特許文献1等である)。
特開2008−65529号公報
しかしながら、従来の技術では、車両と、情報処理装置との間で、多くの画像が送受信されることが多い。そのため、画像を送受信するためのデータ量が大きくなり、通信回線が圧迫される問題等が生じやすい。
そこで、本発明の実施形態に係る画像処理システムは、所定情報を検出するのに、検出に用いられる画像を追加するか否かを判断する。このようにして、本発明の実施形態に係る画像処理システムは、画像を送受信するためのデータ量を小さくすることを目的にする。
一側面によれば、車両に搭載される撮像装置と、前記撮像装置と接続される情報処理装置とを有する画像処理システムでは、前記車両は、前記撮像装置によって撮像される前記車両の周辺を示す複数の画像を取得する画像取得部を有し、前記情報処理装置は、前記画像取得部から、前記複数の画像のうち、第1画像を受信する第1受信部と、前記第1画像に基づいて、交差点を示す目印となる目印情報及び前記車両の周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出部と、前記第1検出部により、前記所定情報が検出されないと、前記画像取得部から、前記複数の画像のうち、第2画像を受信する第2受信部と、前記第1画像及び前記第2画像に基づいて、又は、前記第2画像に基づいて、前記所定情報を検出する第2検出部とを有する。
まず、画像処理システムは、撮像装置によって車両の周辺を示す複数の画像を撮像する。そして、画像取得部によって、第1画像及び第2画像が取得される。次に、情報処理装置は、車両側から第1画像を受信して所定情報を検出する。続いて、第1画像だけでは所定情報を検出できない場合には、情報処理装置は、第2画像を追加して受信する。そのため、第1画像だけで、所定情報が検出されると、第2画像の送受信が不要となる。したがって、第2画像が不要と判断された場合は、第2画像が送受信されないため、画像処理システムでは、車両と、情報処理装置との間を流れるデータ量が小さくなる場合が多い。ゆえに、画像処理システムは、画像を送受信するためのデータ量を小さくできる。
画像を送受信するためのデータ量を小さくできる。
本発明の一実施形態に係る画像処理システムの全体構成例及びハードウェア構成例を示す図である。 本発明の一実施形態に係る画像処理システムの使用例を示す図である。 本発明の一実施形態に係る画像処理システムによる第1全体処理の一例を示すフローチャートである。 本発明の一実施形態に係る第1全体処理の効果の一例を示す図(その1)である。 本発明の一実施形態に係る第1全体処理の効果の一例を示す図(その2)である。 本発明の一実施形態に係る画像処理システムによる地図データの取得及び案内を行う処理の一例を示すフローチャートである。 本発明の一実施形態に係る画像処理システムによる第2全体処理の一例を示すフローチャートである。 本発明の一実施形態に係る第2全体処理の効果の一例を示す図である。 本発明の一実施形態に係る画像処理システムの機能構成例を示す機能ブロック図である。
以下、本発明の実施形態について、添付の図面を参照しながら説明する。
<全体構成例及びハードウェア構成例>
図1は、本発明の一実施形態に係る画像処理システムの全体構成例及びハードウェア構成例を示す図である。図示する例では、画像処理システムISは、撮像装置の例であるカメラCMと、情報処理装置の例であるサーバSRとを有する。
図示するように、車両CAには、撮像装置の例であるカメラCMが搭載される。そして、カメラCMは、車両CAの周辺を撮像して画像を生成する。例えば、図示するように、カメラCMは、車両CAの前方を撮像する。次に、カメラCMによって生成された画像は、画像取得装置IMに取得される。
画像取得装置IMは、例えば、電子回路、ECU(Engine Control Unit)又はCPU(Central Processing Unit)等の演算装置及び制御装置を有する。そして、画像取得装置IMは、ハードディスク等の補助記憶装置を更に有し、カメラCMから取得した画像を記憶する。さらに、画像取得装置IMは、アンテナ及び処理IC(Integrated Circuit)等の通信器を有し、ネットワークNWを介してサーバSR等の外部装置に、画像を送信する。
なお、カメラCM及び画像取得装置IMは、複数の装置であってもよい。また、車両CAは、複数台あってもよい。
一方で、サーバSRは、ネットワーク等を介して、車両CAに接続される。また、サーバSRは、例えば、CPUSH1、記憶装置SH2、入力装置SH3、出力装置SH4及び通信装置SH5を有する。
そして、サーバSRが有する各ハードウェア資源は、バスSH6によって相互に接続される。また、各ハードウェア資源は、バスSH6によって、信号及びデータを送受信する。
CPUSH1は、演算装置及び制御装置である。記憶装置SH2は、メモリ等の主記憶装置である。また、記憶装置SH2は、補助記憶装置を更に有してもよい。入力装置SH3は、キーボード等であって、ユーザからの操作を入力する。出力装置SH4は、ディスプレイ等であって、ユーザに処理結果等を出力する。通信装置SH5は、コネクタ又はアンテナ等であって、ネットワークNW又はケーブル等を介して外部装置とデータを送受信する。
なお、サーバSRは、図示する構成に限られず、例えば、各装置を更に有してもよい。また、サーバSRは、複数の装置であってもよい。
<使用例>
図2は、本発明の一実施形態に係る画像処理システムの使用例を示す図である。以下、図示するような場面を例に説明する。
例えば、図示するように、車両CAが目的地に向かって走行しているとする。そして、目的地に向かう経路上、図示するように、車両CAは、前方にある交差点CRを右折する経路(図では、矢印で示す経路である。)を走行する場面である。すなわち、この場面は、いわゆるカーナビゲーション装置が車両CAに搭載されている場合には、交差点CRを右折するように、車両CAを運転するドライバに対して、音声、画像又はこれらの組み合わせ等で、カーナビゲーション装置が案内を行う場面である。
また、車両CAは、例えば、外部装置から地図データDMを受信したり、又は、地図データDMを記録媒体によって入力したりして取得すると、自車両の位置、交差点CRの位置及び目的地が交差点CRを右折した方向にある等を把握することができる。
以下、図示するような場面を例に説明するが、画像処理システムが使用される場面は、図示するような場面に限られず、例えば、交差点以外の場面で使用されてもよい。
<第1全体処理例>
図3は、本発明の一実施形態に係る画像処理システムによる第1全体処理の一例を示すフローチャートである。図示する第1全体処理のうち、図3(A)に示す処理は、車両CAが搭載するカメラCM(図1参照)又は画像取得装置IM(図1参照)が行う処理の例である。一方で、図示する第1全体処理のうち、図3(B)に示す処理は、サーバSR(図1参照)が行う処理の例である。
ステップSA01では、画像処理システムは、車両CAが交差点CR(図2参照)から所定距離以内の位置にいるか否かを判断する。なお、所定距離は、ユーザ等があらかじめ設定できる値であるとする。つまり、画像処理システムは、車両CAが交差点CRに近づいたか否かを判断する。
次に、所定距離以内であると画像処理システムが判断すると(ステップSA01でYES)、画像処理システムは、ステップSA02に進む。一方で、所定距離以内でないと画像処理システムが判断すると(ステップSA01でNO)、画像処理システムは、ステップSA01に進む。
ステップSA02では、画像処理システムは、撮像装置によって、撮像する。すなわち、画像処理システムは、撮像装置による撮像を開始し、主に、車両CAが交差点CRに達するまで、車両CAの前方を示す複数の画像を撮像する。以下、ステップSA02で撮像されるすべての画像を「全画像」とよぶ。
具体的には、現在、車両CAが交差点CRから「Zm」離れた位置にいるとする。そして、交差点CRからの所定距離が「Zm」に設定されているとする。このような場合には、「Zm」(交差点CRより「Zm」手前となる位置)から「0m」(交差点CRの位置)まで、画像処理システムは、撮像装置によって、画像を撮像し、記憶する。なお、画像は、あらかじめ撮像装置に設定されるフレームレート等によって定まる間隔で撮像される。
ステップSA03では、画像処理システムは、第1画像を情報処理装置に送信する。具体的には、まず、ステップSA02が行われると、「0m」から「Zm」までの複数の画像が取得される。この全画像のうち、一部の画像(以下「第1画像」という。)が、画像取得装置IM(図1参照)によって、サーバSRに送信される。
第1画像は、例えば、全画像のうち、交差点CRに近い位置で撮像された画像である。具体的には、「0m」(交差点CRの位置)から「Zm」(撮像開始の位置)の間に、「Ym」となる位置があるとする。すなわち、この例では、「0<Y<Z」という関係があるとする。なお、全画像のうち、どこからどこまでが第1画像となる、すなわち、この例における「Y」の値は、あらかじめ設定できるとする。
ステップSA04では、画像処理システムは、第2画像をキャッシュする。具体的には、画像処理システムは、全画像のうち、第1画像以外の画像(以下「第2画像」という。)を画像取得装置IMによって、車両CA側に保存する。また、この例では、第2画像は、「Ym」から「Zm」の間で撮像される画像である。すなわち、第2画像は、第1画像では、撮像されていない範囲を写した画像である。
ステップSA05では、画像処理システムは、第2画像の要求があるか否かを判断する。この例では、サーバSRがステップSB06を行うと、画像処理システムは、画像取得装置IMによって、第2画像を要求されたと判断する(ステップSA05でYES)。
次に、第2画像の要求があると画像処理システムが判断すると(ステップSA05でYES)、画像処理システムは、ステップSA06に進む。一方で、第2画像の要求がないと画像処理システムが判断すると(ステップSA05でNO)、画像処理システムは、処理を終了する。
ステップSA06では、画像処理システムは、第2画像を情報処理装置に送信する。具体的には、第2画像の要求があると、画像処理システムは、画像取得装置IMによって、ステップSA04で保存した第2画像をサーバSRに送信する。
以上のようにして、画像処理システムでは、車両CA側からは、まず、第1画像が送信される。そして、サーバSR側から第2画像が要求されると、車両CA側からサーバSR側に、第2画像が送信される。
ステップSB01では、画像処理システムは、第1画像を受信したか否かを判断する。この例では、画像取得装置IMによってステップSA03が行われると、第1画像がサーバSRに送信され、サーバSRによって第1画像が受信される(ステップSB01でYES)。
次に、第1画像を受信したと画像処理システムが判断すると(ステップSB01でYES)、画像処理システムは、ステップSB02に進む。一方で、第1画像を受信していないと画像処理システムが判断すると(ステップSB01でNO)、画像処理システムは、ステップSB01に進む。
ステップSB02では、画像処理システムは、第1画像を保存する。以下、サーバSRが、画像をデータベース(以下「走行データベースDB1」という。)に保存する例で説明する。
ステップSB03では、画像処理システムは、走行データベースDB1が更新されたか否かを判断する。具体的には、サーバSRがステップSB02を行うと、走行データベースDB1に、第1画像が追加される。このような場合には、画像処理システムは、走行データベースDB1が更新されたと判断する(ステップSB03でYES)。
次に、走行データベースDB1が更新されたと画像処理システムが判断すると(ステップSB03でYES)、画像処理システムは、ステップSB04に進む。一方で、走行データベースDB1が更新されていないと画像処理システムが判断すると(ステップSB03でNO)、画像処理システムは、ステップSB03に進む。
ステップSB04では、画像処理システムは、第1画像に基づいて、所定情報を検出する。なお、所定情報は、あらかじめ設定できる情報である。また、所定情報は、交差点CRを特定できる目印となる情報(以下「目印情報」という。)及び車両CAの周辺で発生する渋滞に関する情報(以下「渋滞情報」という。)のうち、少なくともいずれか1つを含む情報である。以下の説明では、所定情報が目印情報である場合を例に説明する。
具体的には、目印となる物体は、例えば、交差点の付近に設置されている看板、建物、ペイント、レーン、道路の特徴又は標識等である。すなわち、目印は、交差点CRの付近に設置される構造物等であったり、交差点CRの付近の道路に記載される図、文字、数字又はこれらの組み合わせ等であったりする。
また、画像処理システムは、第1画像から、例えば、ディープラーニング(Deep Learning)等によって、目印を認識する。なお、ディープラーニングは、例えば、"http://www.slideshare.net/kazoo04/deep−learning−15097274"又は"http://www.slideshare.net/NVIDIAJapan/nvidia−deep−learning−sdk"等に記載される方法によって実現できる。
なお、目印の認識方法は、ディープラーニングに限られない。例えば、目印の認識方法は、特開2007−240198号公報、特開2009−186372号公報、特開2014−163814号公報又は特開2014−173956号公報等に記載される方法によって実現されてもよい。
以上のような方法によって、例えば、看板を目印と認識するように設定した場合を例に以下説明する。
ステップSB05では、画像処理システムは、目印があるか否かを判断する。具体的には、目印となる看板が交差点CRの付近にある場合、すなわち、第1画像が撮像される範囲(「0m」から「Ym」の範囲である。)に看板が設置されていると、第1画像には、看板が撮像されている。このような場合には、ステップSB04によって看板が検出され、画像処理システムは、目印があると判断する(ステップSB05でYES)。一方で、看板が交差点CRの付近にないと、第1画像には、看板が写らない。そのため、画像処理システムは、目印がないと判断する(ステップSB05でNO)。
次に、目印があると画像処理システムが判断すると(ステップSB05でYES)、画像処理システムは、ステップSB12に進む。一方で、目印がないと画像処理システムが判断すると(ステップSB05でNO)、画像処理システムは、ステップSB06に進む。
ステップSB06では、画像処理システムは、第2画像を要求する。すなわち、画像処理システムは、「Ym」から「Zm」の範囲を撮像した第2画像を要求する。
ステップSB07では、画像処理システムは、第2画像を受信したか否かを判断する。この例では、画像取得装置IMによってステップSA06が行われると、第2画像がサーバSRに送信され、サーバSRによって第1画像が受信される(ステップSB07でYES)。
次に、第2画像を受信したと画像処理システムが判断すると(ステップSB07でYES)、画像処理システムは、ステップSB08に進む。一方で、第2画像を受信していないと画像処理システムが判断すると(ステップSB07でNO)、画像処理システムは、ステップSB07に進む。
ステップSB08では、画像処理システムは、第2画像を保存する。例えば、受信された第2画像は、第1画像と同様に、走行データベースDB1保存される。
ステップSB09では、画像処理システムは、走行データベースDB1が更新されたか否かを判断する。具体的には、サーバSRがステップSB08を行うと、走行データベースDB1に、第2画像が追加される。このような場合には、画像処理システムは、走行データベースDB1が更新されたと判断する(ステップSB09でYES)。
次に、走行データベースDB1が更新されたと画像処理システムが判断すると(ステップSB09でYES)、画像処理システムは、ステップSB10に進む。一方で、走行データベースDB1が更新されていないと画像処理システムが判断すると(ステップSB09でNO)、画像処理システムは、ステップSB09に進む。
ステップSB10では、画像処理システムは、第2画像に基づいて、所定情報を検出する。例えば、画像処理システムは、ステップSB04と同様の方法によって所定情報を検出する。なお、ステップSB10では、第2画像のみを用いて検出を行ってもよく、第1画像と第2画像の両方を用いて検出を行ってもよい。
ステップSB11では、画像処理システムは、目印があるか否かを判断する。まず、第2画像が撮像される範囲(「Ym」から「Zm」の範囲である。)に看板が設置されていると、第2画像には、看板が写る。このような場合には、ステップSB10によって看板が検出され、画像処理システムは、目印があると判断する(ステップSB11でYES)。一方で、第2画像が撮像される範囲に、看板がないと、第2画像には、看板が写らない。そのため、画像処理システムは、目印がないと判断する(ステップSB11でNO)。
次に、目印があると画像処理システムが判断すると(ステップSB11でYES)、画像処理システムは、ステップSB13に進む。一方で、目印がないと画像処理システムが判断すると(ステップSB11でNO)、画像処理システムは、処理を終了する。
ステップSB12及びステップSB13では、画像処理システムは、目印情報を保存する。以下、サーバSRが、目印情報をデータベース(以下「案内データベースDB2」という。)に保存する例で説明する。
ステップSB12又はステップSB13が行われた場合は、案内の対象となる交差点CRの付近に、看板がある場合である。そこで、ステップSB12及びステップSB13では、画像処理システムは、検出された看板の位置等を示す目印情報を案内データベースDB2に保存する。そして、目印情報が案内データベースDB2に保存されると、カーナビゲーション装置等は、目印情報を参照して、目印を用いて案内を行うことができる。
<効果例>
図4は、本発明の一実施形態に係る第1全体処理の効果の一例を示す図(その1)である。図3に示す第1全体処理が行われると、例えば、図示するような効果を奏する。
まず、交差点CRから「300m」以内の範囲を第1距離DIS1とする(上記の説明では、「0m」から「Ym」の範囲である)。第1距離DIS1では、第1画像IMG1が撮像され、例えば、図示するような画像が生成される。図示するように、第1画像IMG1を撮像する画角には、看板LMが入らない。そのため、第1画像IMG1には、目印となる看板LMが写らない状況となる(ステップSB05でNOとなる)。したがって、第1画像IMG1からは、所定情報が検出されない場合である。
次に、交差点CRから「300m」離れた位置から、更に「200m」以内の範囲を第2距離DIS2とする(上記の説明では、「Ym」から「Zm」の範囲である)。図示するように、第2距離DIS2となる範囲、すなわち、交差点CRの手前に、看板LMが設置されているとする。そのため、図示するように、第2画像IMG2には、目印となる看板LMが写る状況となる(ステップSB11でYESとなる)。したがって、第2画像IMG2からは、所定情報が検出される場合である。
また、第1全体処理による効果は、以下のような場面でも効果を奏する。
図5は、本発明の一実施形態に係る第1全体処理の効果の一例を示す図(その2)である。以下、図5は、図4と同様の交差点CR付近の場面であるとする。なお、図5は、図4とは、異なる視点(いわゆる側面図)である。
図4に示す場面と比較すると、図5は、看板LMが設置されている位置が異なる。具体的には、図示するように、図5では、看板LMは、交差点CR付近に設置されている。ただし、看板LMは、交差点CR付近の建物BUの上に設置されているとする。このような場面では、例えば、以下のような現象が起きる場合がある。
図示するように、第1距離DIS1では、カメラCMによって撮像される範囲(以下「第1撮像範囲RA1」という。)に、すなわち、第1画像IMG1(図4参照)が示す範囲には、図4と同様に、看板LMが入らない。
一方で、建物BUから、第1距離DIS1より離れている第2距離DIS2では、カメラCMによって撮像される範囲(以下「第2撮像範囲RA2」という。)に、すなわち、第2画像IMG2(図4参照)が示す範囲には、看板LMが入る。
そのため、図4と同様に、第2画像IMG2を用いると、第1画像IMG1では、検出できない所定情報が検出できる。このように、看板LMが設置される高さ(Z方向における位置)によって、第1画像IMG1では検出できない場合がある。このような場合であっても、第2画像IMG2を用いると、画像処理システムは、所定情報を検出できる。
以上のように、画像処理システムは、まず、第1画像IMG1から、所定情報を検出しようとする。そして、画像処理システムは、第1画像IMG1から所定情報が検出できた場合には、サーバSRが第2画像を要求しない。そのため、車両CAと、サーバSRとの間で送受信される画像が少なくなる。
また、第1画像IMG1又は第2画像IMG2から目印情報が案内データベースDB2に保存できた場合には、以下のような処理が実行できる。
図6は、本発明の一実施形態に係る画像処理システムによる地図データの取得及び案内を行う処理の一例を示すフローチャートである。例えば、カーナビゲーション装置等がある車両CAにある場合には、画像処理システムは、以下のような処理を行うのが望ましい。
ステップS201では、画像処理システムは、地図データを取得する。
ステップS202では、画像処理システムは、経路を探索する。
例えば、図2に示すように、ステップS201によって、車両CAの現在位置、目的地、現在位置から目的地までの途中又はこれらの周辺を示す地図データDMが取得されると、画像処理システムは、ステップS202によって現在地から目的地までの経路を探索し、案内を行うことができる。そして、図2のように、経路上、右折するように案内をする場面となると、画像処理システムは、ステップS203を行う。
ステップS203では、画像処理システムは、目印があるか否かを判断する。具体的には、あらかじめ第1全体処理が行われるため、目印がある場合には、目印情報が、案内データベースDB2にあらかじめ保存されている。すなわち、第1全体処理において、ステップSB12又はステップSB13が行われると、ステップS203では、画像処理システムは、目印があると判断する(ステップS203でYES)。
次に、目印があると画像処理システムが判断すると(ステップS203でYES)、画像処理システムは、ステップS205に進む。一方で、目印がないと画像処理システムが判断すると(ステップS203でNO)、画像処理システムは、ステップS204に進む。
ステップS204では、画像処理システムは、目印を用いない案内を行う。例えば、図示するように、画像処理システムは、音声又は画像表示によって、「300m先の交差点を右折です。」という内容のメッセージ(以下「第1メッセージMS1」という。)をドライバに出力する。
ステップS205では、画像処理システムは、目印を用いる案内を行う。例えば、図示するように、画像処理システムは、音声又は画像表示によって、「○○看板のある300m先の交差点を右折です。」という内容のメッセージ(以下「第2メッセージMS2」という。)をドライバに出力する。
ステップS204と、ステップS205とを比較すると、出力されるメッセージが異なる。さらに、第1メッセージMS1と、第2メッセージMS2とを比較すると、同じ交差点を案内するメッセージであるのに、「○○看板」という目印情報が用いられているか否かが異なる。なお、「○○看板」は、図4における看板LMを説明するメッセージであるとする。
ステップS205では、目印情報が案内データベースDB2にあらかじめ保存されているため、図4に示すように、画像処理システムは、看板LMがある交差点CRを右折するように案内することができる。特に、図2に示すような場面では、右折できる箇所が密集している。このような場面では、第2メッセージMS2のように、看板LMを目印に用いると、画像処理システムは、ドライバに右折する箇所を間違えないように案内できる。したがって、目印を用いない案内より、画像処理システムは、交差点CRを分かりやすく案内することができる。
<第2全体処理例>
図7は、本発明の一実施形態に係る画像処理システムによる第2全体処理の一例を示すフローチャートである。画像処理システムは、以下のような第2全体処理を行ってもよい。
第2全体処理は、第1全体処理(図3参照)と比較すると、渋滞情報に係る所定情報を検出する点が異なる。具体的には、第2全体処理では、第1全体処理におけるステップSA01、ステップSB05、ステップSB11乃至ステップSB13が、ステップSA20、ステップSB21乃至ステップSB24となる点が異なる。また、第2全体処理は、第1全体処理とステップSB04及びステップSB10の処理内容が異なる。以下、第1全体処理と同一の処理には、同一の符号を付し説明を省略し、異なる点を中心に説明する。
ステップSA20では、画像処理システムは、渋滞を検出したか否かを判断する。例えば、車速があらかじめ設定される速度以下となると、画像処理システムは、渋滞を検出したと判断する(ステップSA20でYES)。なお、渋滞を検出したか否かは、例えば、車間距離、周辺にある車両の密度、車速が低速である時間又は距離等に基づいて判断されてもよい。
次に、渋滞を検出したと画像処理システムが判断すると(ステップSA20でYES)、画像処理システムは、ステップSA03に進む。一方で、渋滞を検出していないと画像処理システムが判断すると(ステップSA20でNO)、画像処理システムは、ステップSA20に進む。
ステップSB04では、画像処理システムは、第1画像に基づいて、所定情報を検出する。第2全体処理では、所定情報は、渋滞情報を含む情報である。以下の説明では、所定情報が渋滞情報である場合を例に説明する。また、画像処理システムは、第1全体処理と同様に、第1画像から、ディープラーニング等によって所定情報を検出する。
渋滞情報は、例えば、車両CAが渋滞に入った地点、渋滞の原因又は渋滞の距離等を示す情報である。なお、渋滞情報をどういった情報にするかは、あらかじめ設定できてもよい。以下、渋滞情報が、交通事故を原因とする例で説明する。
具体的には、画像に、前方の車両が近く写っていたり、事故にあった車両又は工事中を示す看板等が写っていたりすると、画像処理システムは、ディープラーニング等によって渋滞の原因として検出する。また、このような渋滞の原因が確認できる位置等が分かると、画像処理システムは、車両が渋滞に入った地点を把握することができる。
また、例えば、車両が渋滞に入った地点と、渋滞が解消した地点とを把握できると、これらの地点の距離が、渋滞の距離となり、画像処理システムは、渋滞の距離を検出できる。
ステップSB21では、画像処理システムは、渋滞情報があるか否かを判断する。すなわち、ステップSB04によって渋滞の原因が検出できていると、画像処理システムは、渋滞情報があると判断する(ステップSB21でYES)。
次に、渋滞情報があると画像処理システムが判断すると(ステップSB21でYES)、画像処理システムは、ステップSB23に進む。一方で、渋滞情報がないと画像処理システムが判断すると(ステップSB21でNO)、画像処理システムは、ステップSB06に進む。
ステップSB10では、画像処理システムは、第2画像に基づいて、所定情報を検出する。例えば、ステップSB04と同様の方法によって、画像処理システムは、所定情報を検出する。
ステップSB22では、画像処理システムは、渋滞情報があるか否かを判断する。すなわち、ステップSB10によって渋滞の原因が検出できていると、画像処理システムは、渋滞情報があると判断する(ステップSB22でYES)。
次に、渋滞情報があると画像処理システムが判断すると(ステップSB22でYES)、画像処理システムは、ステップSB24に進む。一方で、渋滞情報がないと画像処理システムが判断すると(ステップSB22でNO)、画像処理システムは、処理を終了する。
ステップSB23及びステップSB24では、画像処理システムは、渋滞情報を保存する。以下、サーバSRが、渋滞情報をデータベース(以下「渋滞データベースDB3」という。)に保存する例で説明する。
ステップSB23又はステップSB24が行われた場合は、渋滞情報が検出できた場合である。そこで、ステップSB23及びステップSB24では、画像処理システムは、渋滞の原因等を示す渋滞情報を渋滞データベースDB3に保存する。そして、渋滞情報が渋滞データベースDB3に保存されると、カーナビゲーション装置等は、渋滞情報を参照して、渋滞が起きていることを案内することができる。
図8は、本発明の一実施形態に係る第2全体処理の効果の一例を示す図である。以下、図示する位置において、渋滞が検出された(ステップSA20でYES)場合を例に説明する。なお、図では、車両CAが進行する方向(以下「進行方向RD」という。)を前方向とし、「+」で示す。
第2全体処理では、例えば、図示するように、渋滞が検出された位置を中心した前後所定距離以内を第1距離DIS1とする。具体的には、図示する例では、第1距離DIS1は、渋滞が検出された位置の前後「300m」が第1距離DIS1である。したがって、第1画像は、渋滞が検出された位置の前後「300m」、合計「600m」を示す画像である。
一方で、第1画像では、渋滞情報が検出されない(ステップSB21でNO)場合には、画像処理システムは、更に前後所定距離以内を示す第2画像を要求する(ステップSB06)。図示する例では、第2距離DIS2は、第1距離DIS1に更に「200m」を加えた距離である。したがって、第1画像は、第1距離DIS1より更に前後「200m」、合計「400m」を示す画像である。
以上のように、画像処理システムは、まず、第1画像から所定情報を検出しようとする。そして、第1画像から所定情報が検出できた場合には、サーバSRは、第2画像を要求しない。そのため、車両CAと、サーバSRとの間で送受信される画像が少なくなる。
<機能構成例>
図9は、本発明の一実施形態に係る画像処理システムの機能構成例を示す機能ブロック図である。例えば、画像処理システムISは、画像取得部ISF1と、第1受信部ISF2と、第2受信部ISF3と、第1検出部ISF4と、第2検出部ISF5とを有する。また、画像処理システムISは、図示するように、地図データ取得部ISF6と、案内部ISF7とを更に有する機能構成であるのが望ましい。
画像取得部ISF1は、カメラCMによって撮像される車両CAの周辺を示す複数の画像を取得する画像取得手順を行う。例えば、画像取得部ISF1は、画像取得装置IM(図1参照)等によって実現される。
第1受信部ISF2は、画像取得部ISF1から、複数の画像のうち、第1画像IMG1を受信する第1受信手順を行う。例えば、第1受信部ISF2は、通信装置SH5(図1参照)等によって実現される。
第1検出部ISF4は、第1受信部ISF2が受信する第1画像IMG1に基づいて、交差点を示す目印となる目印情報及び車両CAの周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出手順を行う。例えば、第1検出部ISF4は、CPUSH1(図1参照)等によって実現される。
第2受信部ISF3は、第1検出部ISF4により、所定情報が検出されないと、画像取得部ISF1から、複数の画像のうち、第2画像IMG2を受信する第2受信手順を行う。例えば、第2受信部ISF3は、通信装置SH5(図1参照)等によって実現される。
第2検出部ISF5は、第1画像IMG1及び第2画像IMG2の両方に基づいて、又は、第2画像IMG2に基づいて、所定情報を検出する第2検出手順を行う。例えば、第2検出部ISF5は、CPUSH1(図1参照)等によって実現される。
地図データ取得部ISF6は、車両CAの現在位置、目的地及び現在位置から目的地までの途中を示す地図データDMを取得する地図データ取得手順を行う。例えば、地図データ取得部ISF6は、車両に搭載されるカーナビゲーション装置等によって実現される。
案内部ISF7は、地図データ取得部ISF6が取得する地図データDMに基づいて、車両CAが走行する経路を案内する案内手順を行う。例えば、案内部ISF7は、車両に搭載されるカーナビゲーション装置等によって実現される。
まず、撮像装置の例であるカメラCMによって、第1画像IMG1及び第2画像IMG2を含む複数の画像が撮像される。次に、カメラCMによって撮像された第1画像IMG1及び第2画像IMG2等の画像は、画像取得部ISF1によって取得される。
次に、画像処理システムISは、まず、第1受信部ISF2によってサーバSRに、第1画像IMG1を受信させる。そして、画像処理システムISは、第1検出部ISF4によって、第1画像IMG1から、所定情報を検出する。例えば、第1検出部ISF4は、ステップSB04等によって所定情報を検出する。
第1画像IMG1に、看板LM(図4参照)のような目印となる被写体が写っている場合には、第1検出部ISF4は、目印情報を検出し、保存することができる(ステップSB12)。このように、まず、画像処理システムISは、全画像を用いず、一部の画像である第1画像IMG1に基づいて、所定情報を検出する(ステップSB04)。
そして、第1検出部ISF4による検出、すなわち、第1画像IMG1から、所定情報が検出されない場合には、画像処理システムISは、第2受信部ISF3によって、第2画像IMG2を要求し(ステップSB06)、追加で画像を受信する。そして、画像処理システムISは、第2画像IMG2に基づいて、所定情報を検出する(ステップSB10)。
以上のような構成とすると、第1画像IMG1だけでは、所定情報が検出されない場合には、第2画像IMG2が受信される。そのため、第2画像IMG2が要求されない場合には、第2画像IMG2分、データ量が小さくなる。ゆえに、画像処理システムISは、車両CAと、サーバSRとの間に流れるデータ量を小さくすることができる。このようにして、画像処理システムISは、通信回線が圧迫されるのを少なくできる。
一方で、第1画像IMG1だけでは、所定情報が検出されない場合には、画像処理システムISは、第2画像IMG2を要求する。このようにすると、例えば、図4に示すように、所定情報を検出できる。また、画像処理システムISは、所定情報を検出できる画像を効率的に収集できる。そのため、画像処理システムISは、所定情報を精度良く検出することができる。このようにして、画像処理システムISは、所定情報の精度と、データ量を小さくすることを両立させることができる。
所定情報は、どこにあるかあらかじめ分からない場合が多い。そのため、例えば、交差点から「300m」の範囲を撮像した画像を用いる場合と、交差点から「500m」の範囲を撮像した画像を用いる場合とでは、「500m」の範囲を撮像した画像を用いる場合の方が、画像処理システムISは、所定情報を検出しやすい。しかし、「500m」の範囲を撮像した画像を用いる場合の方が、データ量が大きい場合が多い。そのため、「500m」の範囲を撮像した画像を用いる場合の方が、通信料金が高くなったり、通信回線の負荷が高くなったりする場合が多い。
実験の結果、図9に示す機能構成によって、平均して「400m」分の画像を収集した場合には、単に連続して「300m」分の画像を収集した場合より、画像処理システムISは、多くの所定情報を検出できた。
さらに、図9に示す機能構成によって、平均して「400m」分の画像を収集した場合には、単に連続して「500m」分の画像を収集した場合より、画像処理システムISは、通信費を2割程度削減できた。
また、地図データ取得部ISF6及び案内部ISF7があると、例えば、図6に示す第2メッセージMS2のように、画像処理システムISは、目印を用いる案内をドライバDVに行うことができる。
<その他の実施形態>
第1画像及び第2画像が示す範囲は、距離による設定に限られない。例えば、1秒間に30フレームの画像を撮像する撮像装置であるとする。そして、画像処理システムISは、第1画像を30フレームのうち、15フレームとし、残りの15フレームを第2画像とする等といった設定であってもよい。このようにして、検出に用いられる画像を追加できると、画像処理システムISは、所定情報を精度良く検出できる。
地図データ取得部ISF6及び案内部ISF7は、撮像装置を搭載した車両以外の車両が有してもよい。
本発明に係る実施形態は、情報処理装置又は情報処理システム等のコンピュータに、上記の画像処理方法に係る各手順を実行させるためのプログラムによって実現されてもよい。また、プログラムは、コンピュータが読み取り可能な記録媒体に格納して頒布することができる。
さらに、上記に説明した各装置は、複数の装置であってもよい。そして、上記の画像処理方法に係る各手順の全部又は一部は、並列、分散又は冗長して実行されてもよい。
以上、本発明の好ましい実施例について説明したが、本発明は、説明した実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。
IS 画像処理システム
CM カメラ
SR サーバ
CR 交差点
LM 看板
DM 地図データ
IMG1 第1画像
IMG2 第2画像

Claims (7)

  1. 車両に搭載される撮像装置と、前記撮像装置と接続される情報処理装置とを有する画像処理システムであって、
    前記車両は、
    前記撮像装置によって撮像される前記車両の周辺を示す複数の画像を取得する画像取得部を有し、
    前記情報処理装置は、
    前記画像取得部から、前記複数の画像のうち、第1画像を受信する第1受信部と、
    前記第1画像に基づいて、交差点を示す目印となる目印情報及び前記車両の周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出部と、
    前記第1検出部により、前記所定情報が検出されないと、前記画像取得部から、前記複数の画像のうち、第2画像を受信する第2受信部と、
    前記第1画像及び前記第2画像に基づいて、又は、前記第2画像に基づいて、前記所定情報を検出する第2検出部と
    を有する
    画像処理システム。
  2. 前記目印は、前記交差点の付近に設置されている看板、建物、ペイント、レーン、道路の特徴又は標識である請求項1に記載の画像処理システム。
  3. 前記撮像装置は、前記交差点から所定距離以内となると、前記複数の画像を撮像する請求項1又は2に記載の画像処理システム。
  4. 前記第1画像は、前記第2画像が撮像された位置よりも、前記交差点に近い位置に前記車両がいる場合に撮像される画像である請求項1乃至3のいずれか1項に記載の画像処理システム。
  5. 前記車両の現在位置、目的地及び現在位置から目的地までの途中を示す地図データを取得する地図データ取得部と、
    前記地図データに基づいて、前記車両が走行する経路を案内する案内部と
    を更に有し、
    前記案内部は、前記所定情報に基づく前記目印を用いて、前記交差点を案内する請求項1乃至4のいずれか1項に記載の画像処理システム。
  6. 前記渋滞情報は、前記車両が渋滞に入った地点、前記渋滞の原因又は前記渋滞の距離である請求項1乃至5のいずれか1項に記載の画像処理システム。
  7. 車両に搭載される撮像装置と、前記撮像装置と接続される情報処理装置とを有する画像処理システムが行う画像処理方法であって、
    前記画像処理システムが、前記撮像装置によって撮像される前記車両の周辺を示す複数の画像を取得する画像取得手順と、
    前記画像処理システムが、前記画像取得手順によって取得される前記複数の画像のうち、第1画像を受信する第1受信手順と、
    前記画像処理システムが、前記第1画像に基づいて、交差点を示す目印となる目印情報及び前記車両の周辺で発生する渋滞に関する渋滞情報のうち、少なくともいずれか1つを含む所定情報を検出する第1検出手順と、
    前記画像処理システムが、前記第1検出手順により、前記所定情報が検出されないと、前記画像取得手順によって取得される前記複数の画像のうち、第2画像を受信する第2受信手順と、
    前記画像処理システムが、前記第1画像及び前記第2画像に基づいて、又は、前記第2画像に基づいて、前記所定情報を検出する第2検出手順と
    を含む画像処理方法。
JP2017022365A 2017-02-09 2017-02-09 画像処理システム及び画像処理方法 Pending JP2018128389A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017022365A JP2018128389A (ja) 2017-02-09 2017-02-09 画像処理システム及び画像処理方法
DE102018102364.2A DE102018102364A1 (de) 2017-02-09 2018-02-02 Bildverarbeitungssystem und bildverarbeitungsverfahren
CN201810123123.2A CN108417028A (zh) 2017-02-09 2018-02-07 图像处理系统和图像处理方法
US15/891,001 US20180224296A1 (en) 2017-02-09 2018-02-07 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022365A JP2018128389A (ja) 2017-02-09 2017-02-09 画像処理システム及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2018128389A true JP2018128389A (ja) 2018-08-16

Family

ID=62910281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022365A Pending JP2018128389A (ja) 2017-02-09 2017-02-09 画像処理システム及び画像処理方法

Country Status (4)

Country Link
US (1) US20180224296A1 (ja)
JP (1) JP2018128389A (ja)
CN (1) CN108417028A (ja)
DE (1) DE102018102364A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473396A (zh) * 2019-06-27 2019-11-19 安徽科力信息产业有限责任公司 交通拥堵数据分析方法、装置、电子设备及存储介质
KR102302977B1 (ko) * 2020-10-21 2021-09-16 서경덕 복수의 무인 이동체 통합 제어 시스템
JP2021170260A (ja) * 2020-04-16 2021-10-28 矢崎エナジーシステム株式会社 運転評価装置及び運転評価プログラム
JP2023523255A (ja) * 2020-04-24 2023-06-02 華為技術有限公司 道路渋滞原因を提供するための方法および装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019189218A1 (ja) * 2018-03-29 2019-10-03 日本電気株式会社 交通監視装置、交通監視システム、交通監視方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP7063723B2 (ja) * 2018-05-22 2022-05-09 本田技研工業株式会社 表示制御装置及びプログラム
JP2020027400A (ja) * 2018-08-10 2020-02-20 本田技研工業株式会社 制御装置及びプログラム
EP3637056B1 (en) * 2018-10-08 2022-05-25 HERE Global B.V. Method and system for generating navigation data for a geographical location
US11656090B2 (en) 2018-10-08 2023-05-23 Here Global B.V. Method and system for generating navigation data for a geographical location
CN114746721A (zh) * 2019-12-27 2022-07-12 日本精机株式会社 导航装置、导航装置的控制方法、导航装置的控制程序
EP4372584A1 (en) * 2022-11-17 2024-05-22 Zenseact AB A method for performing a perception task of an electronic device or a vehicle using a plurality of neural networks

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065529A (ja) * 2006-09-06 2008-03-21 Denso Corp 渋滞要因判断システム
JP2009162722A (ja) * 2008-01-10 2009-07-23 Pioneer Electronic Corp 案内装置、案内方法、及び案内プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101287963B (zh) * 2005-11-30 2012-07-04 爱信艾达株式会社 路径引导系统及路径引导方法
JP2007240198A (ja) 2006-03-06 2007-09-20 Aisin Aw Co Ltd ナビゲーション装置
JP4935145B2 (ja) * 2006-03-29 2012-05-23 株式会社デンソー カーナビゲーション装置
JP4831434B2 (ja) * 2007-12-27 2011-12-07 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集プログラム、並びに自車位置認識装置及びナビゲーション装置
JP2009186372A (ja) 2008-02-07 2009-08-20 Nissan Motor Co Ltd ナビゲーション装置およびナビゲーション方法
JP5505729B2 (ja) * 2011-01-27 2014-05-28 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、および、案内プログラム
JP5625987B2 (ja) * 2011-02-16 2014-11-19 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、および、案内プログラム
JP2014163814A (ja) 2013-02-26 2014-09-08 Aisin Aw Co Ltd 走行案内システム、走行案内方法及びコンピュータプログラム
JP2014173956A (ja) 2013-03-07 2014-09-22 Aisin Aw Co Ltd 経路案内装置、及び経路案内プログラム
US10037469B2 (en) * 2013-12-10 2018-07-31 Google Llc Image location through large object detection
CN106092114A (zh) * 2016-06-22 2016-11-09 江苏大学 一种图像识别的汽车实景导航装置及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065529A (ja) * 2006-09-06 2008-03-21 Denso Corp 渋滞要因判断システム
JP2009162722A (ja) * 2008-01-10 2009-07-23 Pioneer Electronic Corp 案内装置、案内方法、及び案内プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473396A (zh) * 2019-06-27 2019-11-19 安徽科力信息产业有限责任公司 交通拥堵数据分析方法、装置、电子设备及存储介质
CN110473396B (zh) * 2019-06-27 2020-12-04 安徽科力信息产业有限责任公司 交通拥堵数据分析方法、装置、电子设备及存储介质
JP2021170260A (ja) * 2020-04-16 2021-10-28 矢崎エナジーシステム株式会社 運転評価装置及び運転評価プログラム
JP7572158B2 (ja) 2020-04-16 2024-10-23 矢崎エナジーシステム株式会社 運転評価装置及び運転評価プログラム
JP2023523255A (ja) * 2020-04-24 2023-06-02 華為技術有限公司 道路渋滞原因を提供するための方法および装置
JP7564239B2 (ja) 2020-04-24 2024-10-08 華為技術有限公司 道路渋滞原因を提供するための方法および装置
KR102302977B1 (ko) * 2020-10-21 2021-09-16 서경덕 복수의 무인 이동체 통합 제어 시스템

Also Published As

Publication number Publication date
DE102018102364A1 (de) 2018-08-09
US20180224296A1 (en) 2018-08-09
CN108417028A (zh) 2018-08-17

Similar Documents

Publication Publication Date Title
JP2018128389A (ja) 画像処理システム及び画像処理方法
JP4985362B2 (ja) ナビゲーション装置、ナビゲーション方法およびナビゲーションプログラム
RU2597066C2 (ru) Способ и устройство для распознавания дорожных знаков
CN108932470B (zh) 图像处理系统、图像处理方法、信息处理装置和记录介质
CN112639907B (zh) 一种交通拥堵感知方法、装置、电子设备及存储介质
JP6252670B2 (ja) 注意案内システム、方法およびプログラム
EP4635819A1 (en) Vehicle control method and apparatus, device and computer-readable storage medium
JP7135796B2 (ja) サーバ装置、サーバ制御方法、サーバ制御プログラム、車両、車両制御方法、及び車両制御プログラム
JP5565203B2 (ja) 交差点情報取得装置、交差点情報取得方法及びコンピュータプログラム
WO2017010209A1 (ja) 周辺環境認識装置、及びコンピュータプログラム製品
CN102227758A (zh) 摄像装置
US11410429B2 (en) Image collection system, image collection method, image collection device, recording medium, and vehicle communication device
CN111319560B (zh) 信息处理系统、程序和信息处理方法
JP5994574B2 (ja) 位置案内システム、方法およびプログラム
JP2005267120A (ja) 周辺車両識別方法及びこれを用いた走行支援システム
JP2012007986A (ja) ナビゲーション装置および経路誘導案内方法
CN114092909A (zh) 一种车道线提取方法、装置、车辆及存储介质
JP2007271384A (ja) 道路案内システム
JP2013130464A (ja) レーン案内表示システム、方法およびプログラム
JP6799523B2 (ja) 走行現調支援装置
US12412474B2 (en) Information provision server, information provision method, and recording medium storing program
JP2015156089A (ja) 注意案内システム、方法およびプログラム
JP5935661B2 (ja) 交差点案内システム、方法およびプログラム
JP6462443B2 (ja) 運転支援システム、方法およびプログラム
JP6500805B2 (ja) 推奨車線案内システムおよび推奨車線案内プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210105