[go: up one dir, main page]

JP2018156462A - 移動体及びそれを含む運転支援システム - Google Patents

移動体及びそれを含む運転支援システム Download PDF

Info

Publication number
JP2018156462A
JP2018156462A JP2017053462A JP2017053462A JP2018156462A JP 2018156462 A JP2018156462 A JP 2018156462A JP 2017053462 A JP2017053462 A JP 2017053462A JP 2017053462 A JP2017053462 A JP 2017053462A JP 2018156462 A JP2018156462 A JP 2018156462A
Authority
JP
Japan
Prior art keywords
unit
moving body
information
vehicle
communication unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017053462A
Other languages
English (en)
Inventor
万里江 高田
Marie Takada
万里江 高田
白川 政信
Masanobu Shirakawa
政信 白川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kioxia Corp
Original Assignee
Toshiba Memory Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Memory Corp filed Critical Toshiba Memory Corp
Priority to JP2017053462A priority Critical patent/JP2018156462A/ja
Priority to US15/906,378 priority patent/US10262533B2/en
Publication of JP2018156462A publication Critical patent/JP2018156462A/ja
Priority to US16/371,315 priority patent/US10636304B2/en
Priority to US16/838,164 priority patent/US11315420B2/en
Priority to US17/705,766 priority patent/US12131637B2/en
Priority to US18/897,414 priority patent/US20250022371A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/133Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
    • G08G1/137Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops the indicator being in the form of a map
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】安全に自動運転が可能な移動体及びそれを含む運転支援システムを提供する。【解決手段】第1移動体と、第2移動体と、第1及び第2移動体と通信できるサーバと、を含む運転支援システムであって、第1及び第2移動体それぞれは、移動体の運転状況に関する情報を取得できる取得部と、移動体の周囲を撮像できる撮像部と、サーバと通信できる第1通信部と、表示部と、取得部、撮像部、通信部、表示部を制御する第1制御部と、を含む。サーバは、移動体と通信できる第2通信部と、第2通信部と接続された第2制御部と、を含む。第1移動体の第1制御部は、第1移動体周辺のマップを生成し、第1移動体の表示部に表示し、第2移動体の第1制御部は、第2移動体周辺のマップを生成し、前記第2移動体の前記表示部に表示する。【選択図】図2

Description

本実施形態は、移動体及びそれを含む運転支援システムに関する。
近年、車両にカメラや各種センサを搭載して車外の情報を収集し、運転者が危険を見逃
した場合に警告を発する車載装置が提案されている。
特許第4525915号公報
本発明が解決しようとする課題は、安全に自動運転が可能な移動体及びそれを含む運転
支援システムを提供する。
実施形態の一つは、第1移動体と、第2移動体と、前記第1及び第2移動体と通信でき
るサーバと、を含む運転支援システムであって、前記第1及び第2移動体それぞれは、前
記移動体の運転状況に関する情報を取得できる取得部と、前記移動体の周囲を撮像できる
撮像部と、前記サーバと通信できる第1通信部と、表示部と、前記取得部、前記撮像部、
前記通信部、前記表示部を制御する第1制御部と、を含み、前記サーバは、前記移動体と
通信できる第2通信部と、前記第2通信部と接続された第2制御部と、を含み、前記第1
及び第2移動体それぞれの前記第1通信部は、第1時刻において前記取得部が取得した、
前記第1及び第2移動体それぞれの運転状況に関する情報と、前記第1時刻において前記
撮像部が取得した画像または動画から対象物に関する情報と、を前記第2通信部に送信し
たのち、前記サーバは、前記第2通信部にて受信した前記第1及び第2移動体の情報を、
前記第1及び第2移動体が属するエリアの対象物に関する情報として、前記第2通信部か
ら前記第1及び第2移動体それぞれの前記第1通信部に送信し、前記第1移動体の前記第
1制御部は、前記第1移動体の前記第1通信部が受信した情報から、前記第1移動体周辺
のマップを生成して、前記第1移動体の前記表示部に表示し、前記第2移動体の前記第1
制御部は、前記第2移動体の前記第1通信部が受信した情報から、前記第2移動体周辺の
マップを生成し、前記第2移動体の前記表示部に表示する運転支援システム。
また、運転状況に関する情報を取得できる取得部と、周囲を撮像できる撮像部と、外部
機器と通信できる第1通信部と、表示部と、前記取得部、前記撮像部、前記通信部、前記
表示部を制御する第1制御部と、を含み、前記第1通信部は、第1時刻において前記取得
部が取得した、運転状況に関する情報と前記第1時刻において前記撮像部が取得した画像
または動画から対象物に関する情報を送信し、また、前記第1通信部は、他の移動体が取
得した対象物に関する情報を受信し、前記第1制御部は、前記第1移動体周辺とした他の
移動体が取得した対象物に関する情報を含むマップを生成し、前記マップを前記第1移動
体の前記表示部に表示する移動体。
第1実施形態に係るシステムの全体構成を示す概念図である。 第1実施形態に係る運転支援システム100のブロック図の一例である。 ROM42、ROM212の記憶領域を図式的に表したものである。 画像認識プログラムの動作例である。 危険レベル1を判定する距離及び速度差テーブルの一例である。 第1システムのフローチャートの一例である。 第1システムのフローチャートの一例である。 第2システムのフローチャートの一例である。 時刻T1におけるエリアAの簡易的な上面図である。 時刻T1におけるエリアAの車両aからの目視情報の一例である。 時刻T1におけるエリアAの車両bからの目視情報の一例である。 時刻T1におけるエリアAの車両cからの目視情報の一例である。 時刻T1におけるエリアAの車両aからの画像認識の一例である。 時刻T1におけるエリアAの車両bからの画像認識の一例である。 時刻T1におけるエリアAの車両車両cからの画像認識の一例である。 図10(a)、図10(b)、図10(c)はそれぞれ各車両が送信するリスト情報の一例である。 エリアのモデル図である。 第2データ制御部21が作成する着目リストの一例である。 時刻T1+ΔTにおける車両aの目視情報のみを表示した上面図の例である。 時刻T1+ΔTにおける車両aの表示部に表示されるリアルタイムマップの例である。 時刻T1+ΔTにおける車両bの表示部に表示されるリアルタイムマップの例である。 時刻T1+ΔTにおける車両cの表示部に表示されるリアルタイムマップの例である。 図14(a)において、車両aの表示部にアイコンのみを表示した例である。 時刻T2におけるエリアAの簡易的な上面図である。 T2+ΔTの時刻における車両aの表示部に表示されるリアルタイムマップの例である。 T2+ΔTの時刻における車両bの表示部に表示されるリアルタイムマップの例である。 T2+ΔTの時刻における車両cの表示部に表示されるリアルタイムマップの例である。 第2実施形態に係る運転支援システム200の全体構成を示す概念図である。 第2実施形態に係る運転支援システム200のブロック図の一例である。 第3システム50のフローチャートの一例である。 第3システム50のフローチャートの一例である。 ROM512の記憶領域を図式的に表したものである。 第3実施形態に係る運転支援システム300の全体構成を示す概念図である。 第4実施形態に係る運転支援システム400の全体構成を示す概念図である。 時刻T2におけるエリアAのカーブミラーやデバイス携帯者を含めた簡易的な上面図である。 図20(b)に対応する運転支援システム300の第1システム1のフローチャートの一例である。 第4実施形態に係る運転支援システム400の全体構成を示す概念図の一例である。 第4実施形態に係る運転支援システム400の全体構成を示す概念図の一例である。 時刻T3におけるエリアAとエリアBの簡易的な上面図である。 車両hのリスト情報の一例である。
以下、図面を参照しつつ、実施形態について説明する。この説明に際し、全図にわたり
、共通する部分には共通する参照符号を付す。本実施形態は、種々の実施形態が述べられ
る添付図面を参照して後に十分に述べられる。同じ数字は同じエレメントで参照される。
説明の際、移動体は主に車両として説明するが、後に示すようにこれは必ずしも車両に
限定されるわけではない。
各実施形態で使用する文言を以下のように定義する。
(1)“運転情報”:運転情報とは、車両ID、車両運転時における時刻、車両の位置、
車両の進行方向、車両の速度、車両の加速度といった情報である。
(2)“対象物情報”:車両周囲を撮影した画像から、物体を認識し、認識した物体の種
類、位置、進行方向、速度、加速度といった情報である。
(3)“リスト情報”:運転情報及び対象物情報を含めた情報である。
(4)“エリア”:各車両が取得した運転情報、リスト情報を共有する範囲である。同エ
リア内にある全車両は、サーバから共通の情報を受信する。
(5)“リアルタイムマップ”:リアルタイムマップとは、エリア内で検出された対象物
を表記した自車両周辺の地図である。リアルタイムマップは、入力された信号に対して即
時応答する処理を行うことで随時更新される。リアルタイムマップの範囲は、車両から数
10mとし、エリアと同範囲、またはエリアよりも狭い範囲であるとする。このマップは
、車両のフロントガラス等に設けられた表示部に表示される。
(6)“道路区分”:道路構造令が定めるような道路区分のことである。例えば、第2種
は、都市部の高速道路に該当する。
(7)“着目リスト情報”:サーバ内でエリアごとに集めたリスト情報と、車両の位置に
該当する道路区分情報と、を時刻ごとにまとめた情報である。
(第1実施形態)
第1の実施形態について、図1から図16を用いて説明する。
[運転支援システムの全体構成例]
図1を用いて、第1実施形態の運転支援システム100の全体構成について説明する。図
1に示すように、運転支援システム100は、大まかに、第1システム1、第2システム
2を備える。
図2に示すように、第1システム1は、撮像部3、第1データ制御部4、時刻取得部5
、位置情報取得部6、速度センサ7、加速度センサ8、無線通信機器9、表示部10、ア
ラート部11、アクチュエータ制御部12を備える。
第2システム2は、サーバ20を備える。サーバ20は、第2データ制御部21、送受
信部25を備える。
<第1システム1>
第1システム1は、例えば車両に搭載されるシステムである。第1システム1は、搭載
された車両に関する運転情報を取得し、車両が取得した対象物の情報(例えば、歩行者の
位置や歩行速度など)を運転情報と合わせて第2システム2に送信する。また、第2シス
テムから受けとった情報をもとに第1システム1は、リアルタイムマップを作成し、例え
ば表示部10に潜在的な危険を表示することで車両の安全運転を支援する。
図2は、第1実施形態に係る運転支援システム100のブロック図の一例である。
第1システム1の構成について、図2を用いて説明する。
第1システム1は、撮像部3、第1制御部4、時刻取得部5、位置情報取得部6、速度
センサ7、加速度センサ8、無線通信機器9、表示部10、アラート部11、アクチュエ
ータ制御部12を備える。
撮像部3は、例えばCCDカメラである。撮像部3は例えば車両の前方や周囲を撮像す
るためのものである。撮像部3は第1データ制御部4に接続される。撮像部3は、撮像し
た画像または動画を常に第1データ制御部4に送信する。
時刻取得部5は、例えば、カウンタを有して時刻を取得する。内部にカウンタを設ける
場合に限られず、例えば外部から時刻に関する情報を取得してもよい。
位置情報取得部6は、例えばGPS(グローバルポジショニングシステム)衛星から信
号を受信して、車両の位置を取得する。GPS衛星からの信号に限られず、車両の位置を
特定する信号であればいかなる信号であってもよい。
速度センサ7、加速度センサ8は、それぞれ車両の速度及び加速度を計測する。
第1制御部4は、第1システム1全体を制御する。第1制御部4は、例えばCPU41
、ROM42(記憶部)、RAM43(記憶部)、及び入出力制御用のインターフェース
45、これらを接続するバスライン44を備える。また、図3(a)に示すようにROM
42には各種プログラム30p〜39pが記憶されている。CPU41は、これらのプロ
グラムをRAM43に読み出して実行する。
画像認識プログラム30pは、撮像部3から入力された画像または動画を、画像処理し
て、人、車両などを認識するためのプログラムである。第1制御部4は、画像認識プログ
ラム30pによって、画像または動画から対象物やその動きを検知する。具体的には、図
4に示すように、第1制御部4は、画像認識プログラム30pによって、“入力”、“前
処理”、“特徴量抽出”、“識別”の4つの工程を経て画像処理する。“入力”では、画
像や動画の入力、縮小、切り出し、明るさ補正、ゆがみ補正が行われる。“前処理”では
、ノイズの低減、ステレオ視差計算、探索候補領域の特定を行う。“特徴量抽出”では、
画像解析や画像のデータ化を行う。“識別”では、対象物の識別、追跡といった処理を行
う。また、画像認識プログラム30pは、例えば画像認識プロセッサLSIなど別構成で
設けてもよい。画像認識プロセッサLSIの構成については、例えば“画像処理装置及び
画像処理システム”という2011年3月21日に出願された米国特許出願2012/0
183207号、“画像処理装置、画像処理システム及び画像処理方法”という2011
年8月11日に出願された米国特許出願2012/0288205号、“画像識別装置及
び画像識別方法”という2011年9月9日に出願された米国特許出願2012/024
3778号、“マイクロプロセッサ及びデバッグシステム”という1995年12月28
日に出願された米国特許5978937号、“マルチプロセツサシステム”という200
8年3月24日に出願された米国特許出願2008/0244192号、“メモリコント
ロ−ラ”という2012年11月12日に出願された米国特許出願2010/00052
71号、“画像処理装置”という2008年10月28日に出願された米国特許出願20
10/0103282号、“画像処理プロセッサ”という2009年8月13日に出願さ
れた米国特許出願2010/0110289号、“特徴抽出装置、特徴抽出方法、画像処
理装置、及び、プログラム”という2009年8月6日に出願された米国特許出願201
0/0034459号、“特徴量算出装置及び識別装置”という2011年9月1日に出
願された米国特許出願2012/0057787号、“マルチプロセッサ”という201
2年8月27日に出願された米国特許出願2013/0326203号、“特徴量抽出装
置、特徴量抽出方法、画像処理装置、及び、プログラム”という2009年8月6日に出
願された米国特許出願2010/0034465号、“トレース装置”という2005年
6月9日に出願された米国特許7444553号、“コンパイル装置”という2010年
9月7日に出願された米国特許出願2011/0138371号に記載されている。これ
らの特許出願は、その全体が本願明細書において参照により援用されている。
進行方向プログラム31pは、車両の運転情報(例えば位置情報、速度情報、加速度情
報等)に基づいて車両の進行方向の方位を算出するプログラムである。第1制御部4は、
進行方向プログラム31pで、車両の進行方向を算出する。
例えば、車両がある時刻t0において、北緯at0度、東経bt0度の座標を得ていた
ときに、時刻t1に北緯at1、東経bt1の座標へと移動した場合、その座標間の移動
から方位角を算出することができる。方位角の算出は、以下の式より求められる。
方位角=90−atan2(sin(at1−at0),cos(bt0)tan(bt1)−
sin(bt0)cos(at1−at0))・・・(1)となる。これにより、車両が進む
進行方向が算出できる。ここで、方位角とは北を0度として時計回りに角度を振ったもの
である。座標に限らず、速度や加速度から算出してもよい。
リスト情報生成プログラム32pは、各車両の運転情報や各車両が認識した対象物の情
報を一覧にするプログラムである。第1制御部4がリスト情報生成プログラム32pで生
成した一覧を、説明の便宜上、リスト情報と呼ぶ。このリスト情報とは、車両の車両ID
、データ取得時刻、GPS位置情報、進行方向、加速度と対象物の種目、相対位置情報、
進行方向、加速度といった情報を一覧にしたものであり、後に具体例を交えて説明する。
図10はその一例を示す。
通信処理プログラム33pは、サーバ20との通信を接続するプログラムである。
相対化プログラム34pは、車両の運転情報と着目リスト内の対象物の情報に基づいて
車両と対象物との相対距離や相対速度を算出するプログラムである。
リアルタイムマッピング生成プログラム35pは、着目リストからエリア内に存在する
対象物の情報を取得し、車両の運転情報と対象物の情報をリアルタイムで合成し、車両周
辺の車両と各対象物との位置関係を示すマップを生成するプログラムである。
危険判断プログラム36pは、相対化プログラム34pを用いて算出した相対距離や相
対速度の数値と、事前に設定された危険度を示す閾値との比較を行い、危険レベルを判定
するプログラムである。ここで、危険レベルとは、車両と対象物が将来的に衝突する可能
性を示唆するものである。例えば、車両が予定されている運転ルートを運転したときに、
対象物に衝突する確率が高くなると、より高い危険レベルが判定される。危険レベルは危
険レベル1から危険レベル3の3段階あり、対象物に衝突する確率が高いほど、危険レベ
ルの数値は大きい。つまり、危険レベル1よりも2が、2よりも3の方が対象物との衝突
可能性が高いことを表す。危険レベル1の状況は、運転手が対象物に対して注意して車両
を走行していればよい状況である。危険レベル2の状況は、危険レベル1よりも車両が対
象物に衝突する確率が高くなった場合に、運転手が衝突を自力で回避することが可能な状
況である。危険レベル3の状況は、車両が危険レベル2よりも更に対象物に衝突する確率
が高くなり、運転手が自力では衝突を回避できない状況である。
危険レベル1がどのような数値条件下で設定されるかを示す具体例を図5に示す。図5
には、危険レベル1以上と判断される場合の車両と対象物間の距離テーブル及び速度差テ
ーブルの例を示している。各テーブルは、道路区分、自車両からの対象物、他車両からの
対象物で分類されており、閾値がそれぞれ設定されている。対象物によって、判定される
際の閾値は異なっている。閾値となる数値は、過去の事故情報や車両がブレーキをかけた
際に止まるまでの制動距離、衝突回避にかかる時間等の情報を加味し、適正値を設定する
のが望ましい。また、距離テーブル及び速度差テーブルで、どちらか1つでも危険レベル
1以上を判定した場合には、次の危険レベルの判定に進む。動作の説明の際に、この具体
的なステップについて説明する。また、道路区分や対象物の分類によって、距離テーブル
及び速度差テーブルの両方の閾値を満たした場合に危険レベルを判定したほうが適切であ
る場合には、そのように設定してもよい。
各テーブルは危険を判断するアルゴリズムとともに危険判断プログラム36pに保持さ
れる。
また、危険レベル2及び危険レベル3を判定する方法は、上記危険レベル1の判定と同
様である。車両と対象物間の距離テーブル及び速度差テーブルの閾値は、危険レベル1の
場合よりも、危険レベル2や危険レベル3の場合の方が、距離の閾値は小さい数値、速度
差の閾値は大きい数値となっている。危険レベル2、危険レベル3の距離テーブル、速度
差テーブルは、図5と同様であり、閾値の値が変わるだけなので、ここでは省略する。
以上のように、第1データ制御部4は、危険判断プログラム36pにて、車両と対象物
との距離や速度差の数値を図5のテーブルに記載した閾値と照会することで、危険レベル
を決定する。
強調表示プログラム37pは、危険レベル1の場合に、衝突可能性の高い対象物のアイ
コンを強調して表示部に表示するプログラムである。
警告プログラム38pは、危険レベル2の場合に、アラート部11に警告を発信させる
プログラムである。アラート部11は、運転者に車両の減速を促す警告音などを発する。
制動制御プログラム39pは、危険レベル3の場合に、アクチュエータ制御部12を制
御するプログラムである。
無線通信機器9は、第2システム2とデータの通信を無線で行う。リスト情報をサーバ
20へ随時送信したり、逆にサーバ20からの着目リスト情報を随時受信したりする機器
である。
表示部10は、第1データ制御部4で作成されたリアルタイムマップが表示される。表
示部10は、例えば車両内部にディスプレイを設けてもよく、この場合に限らずフロント
ガラスなどでもよい。また、表示するものはリアルタイムマップではなく、リアルタイム
マップ上にある物体を例えばアイコンで表示してもよい。
アラート部11は、例えば音や光、振動といったものを出力する装置である。危険レベ
ル2の場合に、第1データ制御部4が警告プログラム38pによって、アラート部に実行
コマンドを送る。
アクチュエータ制御部12は、危険レベル3の場合に第1データ制御部4によって実行
される。アクチュエータ制御部12は、車両の動きを制御する。
<第2システム2>
第2システム2は、複数の第1システム1からリスト情報を受信する。第2データ制御
部21は、受信したリスト情報の中から車両の位置情報を参照し、各車両が属するエリア
を決定する。その後、エリア内に属する複数の車両(第1システム1)から得たリスト情
報から着目リストを生成する。エリア内の全ての車両に着目リストを送信する。この着目
リストは、車両ID、サーバ内でエリアごとに集めた運転情報及びリスト情報と、現在の
エリアが種別や級別によって区分されている道路区分のどれに該当するかとの情報を時刻
毎にまとめたものである。着目リストの例は、動作の説明の際に、具体例と図10を用い
て説明する。
第2システム2の構成について、図2を用いて説明する。
第2システム2は、サーバ20を有する。サーバ20は、第2データ制御部21と送受
信部25を具備する。
送受信部25は、第1システム1、第2システム2との通信を無線で行う。例えば、送
受信部25は、第1システム1からリスト情報を受信する。また、送受信部25は、第1
システムに着目リストを随時送信する。
第2制御部21は、第2システム2全体を制御する。第2制御部21は、例えばCPU
211、ROM212(記憶部)、RAM213(記憶部)、及び入出力制御用のインタ
ーフェース215、これらを接続するバスライン214を備える。また、図3(b)に示
すようにROM212には各種プログラム22p〜24pが記憶されている。CPU21
1はこれらのプログラムをRAM213に読み出して実行する。
エリア決定プログラム22pは、リスト情報に含まれる車両の位置情報から車両が属す
るエリアを決定するプログラムである。
着目リスト生成プログラム23pは、エリア内にある全てのリスト情報の中から、運転
情報や対象物情報を時系列ごとにまとめて、着目リストを生成するプログラムである。
通信処理プログラム24pは、第1システム1との通信を接続するプログラムである。
<動作>
次に、図6のフローチャートを参照して、実施形態の動作について説明する。また、説
明の際に、図7から図15を用いて具体例を交えて説明する。
まず、第1システム1は、撮像部3から車両周辺の画像または動画を取得する(ステッ
プS1)。取得した画像または動画は、撮像部3から接続された第1データ制御部4へと
送られる。第1データ制御部4は、画像認識プログラム30pによって、取得した対象物
の種目、位置情報、方向、速度、加速度を対象物情報として抽出する(ステップS2)。例
えば、画像認識により歩行者を認識した場合には、その歩行者の画像を連続して解析する
ことで、第1データ制御部4は、歩行者の位置、方向、速度、加速度を検出できる。
次に、第1データ制御部4は、時刻取得部5、位置情報取得部6、速度センサ7、加速
度センサ8にて、それぞれ時刻、その時刻での車両の位置、その時刻での車両の速度、そ
の時刻での車両の加速度といった運転情報を取得する(ステップS3)。時刻取得部5は
、撮像部3が画像や動画を取得したのに合わせて、常時時刻を取得する。
第1データ制御部4では、進行方向プログラム31pによって車両の進行方向を算出す
る(ステップS4)。
なお、本実施形態では説明の便宜上、ステップS1からS4を順に行ったが、この場合
に限定されず、例えばステップS1からステップS2の処理を、ステップS3及びステッ
プS4と並列に行ってもよい。
次に、第1データ制御部4がリスト情報生成プログラム32pによって、リスト情報を
形成する(ステップS5)。第1データ制御部4は、通信処理プログラム33pによって、
サーバ20との通信を接続する(ステップS6)。そして、無線通信機器9が、第2シス
テム2のサーバ20へリスト情報を送信する(ステップS7)。
ここで、ステップS1からステップS7に関して、具体例を用いて説明を加える。
図7は、時刻T1におけるエリアAの上面図を表している。この時刻T1におけるエリ
アAの、車両a、車両b、車両cからの目視情報は、図8(a)から図8(c)にそれぞ
れ対応する。また、時刻T1における各車両の画像認識の図は、図9(a)から図9(c
)に対応する。
図7に示した状況において、各車両からの目視情報は以下のようである。車両aから見
て、建物が障害となり、T字路に存在する歩行者e、fや自転車d、車両cを目視するこ
とはできない。また、車両bからは前方の車両aは目視することができるが、車両a同様
にT字路に存在する歩行者e、fや自転車d、車両cを目視することはできない。一方で
、車両cは、歩行者e、f及び自転車dが目視できているが、車両a及び車両bは、目視
できない。
車両aが自車両の場合を考える。車両aは、ステップS1に従い、撮像部3から車両周
辺の画像または動画を取得する。図7の場合、車両aが認識する物体は存在しないため、
ステップS2では対象物の情報なしとなる。次に、ステップS3に進み、車両aが画像取
得した際の時刻T1、位置、速度、加速度を車両aの第1データ制御部4が取得する。ス
テップS4に進み、車両aの進行方向を算出する。
ステップS5では、車両aの第1データ制御部4がリスト情報生成プログラム32pに
よって、リスト情報を形成する。作成されたリスト情報の例を図10(a)に示す。
ステップS6にて、車両aの第1制御部4は、サーバ20との通信を接続する。ステッ
プ7で、車両aの通信機器9は、生成したリスト情報をサーバ20へ送信する。車両b、
車両cにおいてもステップS1からステップS7が実施されるが、同様なため説明は省略
している。車両b、車両cのリスト情報の例はそれぞれ図10(b)と図10(c)に示
す。
次に、図6に示すように、第2システム2のサーバ20は、複数の第1システム1から
送られてきた複数のリスト情報を送受信部25で受信する(ステップS8)。受信したリス
ト情報は、第2データ制御部21に送られる。第2データ制御部21では、まず受信した
リスト情報から、エリア決定プログラム22pにて、車両がどのエリアに属しているかを
判別する(ステップS9)。すなわち、車両の位置情報がサーバ20内で予め設定されてい
たエリアAに属する場合には、第2データ制御部21は、車両がエリアAに位置すると判
断する。
次に、第2データ制御部21は、エリアごとにリスト情報を一覧にする。第2データ制
御部21は、着目リスト生成プログラム23pを用いて着目リストを生成する(ステップ
S10)。第2データ制御部21は、通信処理プログラム24によって送受信部25と第
1システム1との通信を接続する。(ステップS11)。そして、送受信部25は、その
リスト情報をエリア内に存在する全ての第1システム1へ送信する(ステップS12)。
ここで、ステップS8からステップS12に関して、具体例を用いて説明を加える。
図7で示した時刻T1におけるエリアAの場合を考える。送受信部25は、図10(a
)〜(c)に示したリスト情報を各車両から受信する。ステップS9にて、第2データ制
御部21は、各リスト情報の中から位置情報を取得し、エリアを決定する。
図10(a)〜(c)に示したリスト情報内に示す、時刻T1における車両aの位置情
報(Xa1,Ya1)、車両bの位置情報(Xb1,Yb1)、車両cの位置情報(Xc1
,Yc1)が、エリアAの内部に位置する座標であったとする。この時、第2データ制御
部21は車両aから車両cがエリアAに属していると判断する。
(エリア)
ここでエリアについて更に説明を加える。図11に示すように、エリアは、例えば1辺
が数10mの正方形とする。各エリアは隣接する他のエリアとの重複部Dを有している。
エリアは、重複部Dを持つことで、車両がエリア間をまたがる移動をした場合でもシーム
レスにエリアの切り替えが可能となる。また、エリアの一例を正方形としたが、半径数1
0mの円をエリアとし、円の外周部が隣接する円の中心を通過するようにとってもよい。
車両aが移動した場合でも同じエリア内に留まっている限りは、所属エリアは変わらな
い。すなわち、図7に示すように、車両aの位置情報がエリアAに属する限りは、第2デ
ータ制御部21は、車両aはエリアAのあるものと判断する。一方、図11において、エ
リアAは、内部A1と外周部A2を含んでおり、エリアBも同様に内部B1、外周部B2
を含んでいるとする。ここで、ある時間の間に、車両aがエリアAからエリアBに移動し
たとする。エリア間の境界線を越えることで車両が所属するエリアは変更される。しかし
、第2データ制御部21は、各エリアが互いに重複部Dを持っているため、シームレスに
車両のエリアを切り替えることが出来る。重複部Dでは、より面積の大きい方のエリアに
属しているとしても、重複するエリア全てに属しているとしてもよい。その場合、車両は
、サーバ20から重複するエリア全ての着目リストを受信する。
次に第2データ制御部21は、ステップS10にて、受信したリスト情報をから、エリ
ア毎に着目リストを生成する。生成される着目リストの例を図12に示す。図12の着目
リストは、図10で示した各車両のリスト情報を含んだ情報となっている。
ステップ11では、第2データ制御部21が、エリアAに属する全ての車両aからcと
の通信を接続する。そして、ステップS12で、送受信部25は、通信接続した全車両へ
図12に示した着目リストを送信する。
サーバ20は、車両から運転情報とリスト情報をリアルタイムで取得している。そのた
め、第2データ制御部21は、取得した運転情報とリスト情報をもとにエリアAの着目リ
ストを順次作成していく。作成した着目リストは、その都度ステップS12にて、エリア
内に存在する車両全てに送信される。つまり、同じエリア内に属する車両は、共通の着目
リストをサーバ20から常時受け取ることになる。
図6に示すように、第1システム1の無線通信機器9は、第2システム2から着目リス
トを受信する(ステップS13)。第1データ制御部4は、この着目リスト情報から以下の
工程を行う。
第1データ制御部4では、相対化プログラム34pにて、車両の運転情報と着目リスト
上の対象物の情報をもとに相対距離や相対速度を算出する(ステップS14)。一度サーバ
20を経由することで、送信時と受信時でタイムラグが生じるが、車両の位置情報をもと
にリスト情報の修正を行う。つまり、タイムラグで生じたリスト情報のずれを、受信時の
車両の位置情報をもとに修正し、対象物を車両からの位置に基づいて相対位置を再度計算
する。
次に、第1データ制御部4は、着目リストをもとにリアルタイムマッピング生成プログ
ラム35pを用いて、車両を中心としたリアルタイムマップを生成する(ステップS15)
。リアルタイムマップの生成は、後に具体例を示す。
第1データ制御部4は危険判断プログラム36pにて、全対象物の危険レベルの判断が
終了したかを確認する(ステップS16)。全ての対象物の危険レベルを判断したあと(
ステップS16、YES)は、ステップS13に戻る。一方で、危険レベルの判定が終了
していない場合(ステップS16、NO)には、引き続き危険判断プログラム36pにて
、未処理の対象物の危険レベルの判定を行う(ステップS17)。
第1データ制御部4は危険判断プログラム36pにて、ステップS14で算出した車両
と対象物との相対距離や相対速度に応じて、危険レベル1の判定を行う(ステップS18)
。危険レベルが1の閾値を超えた場合(ステップS18、YES)には、より危険度の高い
危険レベル2の判定へと進む(ステップS19)。しかし、ステップS18にて、危険レ
ベルが1に満たない場合(ステップS18、NO)には、ステップS16へ戻る。ステップ
S19にて、危険レベルが2に満たなかった場合(ステップS19、NO)には、第1デー
タ制御部4は、危険レベルが1だと決定する(ステップS20)。この時、第1データ制
御部4は、強調表示プログラム37pによって、リアルタイムマッピング上の対象物のア
イコンを強調して表示器に表示する。また、その際に車両からは、視認できない死角に位
置する対象物も強調して表示してもよい。その場合、図5に示すように車両にとって死角
に位置するかしないか対象物の危険レベルを判定する閾値を参考に危険レベルの判定を行
う。
危険レベルが2以上の場合(ステップS19、YES)には、危険レベル3の判定に進
む(ステップS21)。ステップS21にて、危険レベルが3に満たない場合(ステップ
S21、NO)には、第1データ制御部4は、危険レベルを2と決定する(ステップS2
2)。第1データ制御部4は、警告プログラム38pによって、アラート部11に警告信
号を発する。アラート部11は、音声や光の出力による警告を発する。ステップS21に
て、危険レベルが3の場合(ステップS21、YES)には、第1データ制御部4は、危
険レベルを3と決定する(ステップS23)。この時、第1データ制御部4は、制動制御
プログラム39にて、アクチュエータ制御部12を始動させる。アクチュエータ制御部1
2は、車両を制動する。その後また、ステップ13に戻る。なお、ステップ1からステッ
プ7、ステップ13からステップ21の処理は、並行して処理を行ってもよい。
ここで、ステップS13からステップS23に関して、具体例を用いて説明を加える。
図7で示した時刻T1におけるエリアAを考える。
まずステップS13にて、車両aから車両cの各通信機器9がサーバ20から着目リス
トを取得する。ステップS14では、各車両の第1データ制御部4は、着目リストの中の
対象物情報を、自車両から適切な位置へと相対変換する。着目リストの時点では、各車両
から取得した対象物の座標は、取得した車両からの相対座標であるため、着目リストを受
信した車両を中心とした座標へと変換する必要がある。第1データ制御部4は、変換した
座標等から、相対距離や相対速度を算出する。
ここで、車両cが自車両であるとする。車両cがサーバ20へリスト情報を送信し、車
両cがサーバ20から着目リストを受信するまでの時間をΔTとする。
例えば図10のように、時刻T1の時に、車両cが位置(Xc1、Yc1)におり、方
向Dc1、速度Vc1、加速度αc1の運転情報を有しているとする。また、車両cは、
位置(Xc11、Yc11)、方向Dc11、速度Vc11、加速度αc11を持つ自転
車dの対象物情報、位置(Xc12、Yc12)、方向Dc12、速度Vc12、加速度
αc12を持つ歩行者eの対象物情報、位置(Xc13、Yc13)、方向Dc13、速
度Vc13、加速度αc13を持つ歩行者fの対象物情報を有しているとする。これらを
リスト情報として、車両cは、第2システム2のサーバ20へ送る。サーバ20は、第2
データ制御部21にて、他の車両からのリスト情報を足し合わせて図12に示す着目リス
トを生成する。この時、同一の対象物に対しては、位置情報を加味して足し合わせるよう
にし、着目リストに二重にカウントされないようにする。サーバ20は、着目リストを車
両cへ送信するが、車両cがサーバ20から、着目リストを受信した時刻は、T1+ΔT
である。このとき、本来時刻T1に関するリスト情報であるため、ΔTの分だけ着目リス
トの値にずれが生じる。しかし、T1+ΔTでの車両の位置(Xc1+ΔXc1、Yc1
+ΔYc1)や方向、速度、加速度の値と時刻T1のときの値とをそれぞれ比較すること
により、ΔT間にどの程度のずれが発生したかを計算できるため、着目リスト内の情報の
ずれを調整することが可能である。
また、時間のズレを修正しても、図12に示す着目リスト情報は、車両aにとっては、
適切な座標になっていない。そのため、例えば車両aの第1データ制御部4は、対象物を
取得した車両cの座標(Xc1、Yc1)と、着目リスト上の歩行者eの座標(Xc12
、Yc12)から車両aからみた歩行者eの座標(Xac12、Yac12)を算出する
。また、車両aの第1データ制御部4は、算出した座標から車両aから歩行者eまでの距
離をさらに算出する。
(リアルタイムマップ生成)
ステップS15では、第1データ制御部4は、車両を中心としたリアルタイムマップを
生成する。生成されたリアルタイムマップは、各車両の表示部10に表示される。または
、表示部10には、リアルタイムマップ上の対象物を例えばアイコンのみで表示してもよ
い。ここで、図13、図14を用いて、リアルタイムマップ生成について具体例を用いて
説明する。
図13は、時刻T1+ΔTにおける車両aの目視情報のみ表示した上面図の例である。
図13には、車両b、車両c、自転車d、歩行者e、歩行者fは表示されていない。一方
で、図14(a)は、時刻T1+ΔTにおける車両aの表示部に表示されるリアルタイム
マップの例を示している。第1データ制御部4は、ステップS14で相対変換した対象物
をもとにマッピングする。これにより、建物等の障害物によって目視できなかった物体も
、サーバ20からの情報をもとにリアルタイムマップ上に表記することが可能となる。生
成されたリアルタイムマップは、各ステップが繰り返されることで、順次更新されていく
時刻T1+ΔTにおける車両bの表示部に表示されるリアルタイムマップの例と、車両
cの表示部に表示されるリアルタイムマップの例とをそれぞれ図14(b)、図14(c
)に示す。どちらも自車両からは目視できなかった物体まで、リアルタイムマップ上に表
記されている。
(危険レベルの判定)
次にステップS16からステップS23について、具体例を交えて説明する。
着目リスト内に含まれる走行中の道路区分情報と危険判断プログラム36pによって、
各車両の第1データ制御部4は、リアルタイムマップ上に表示された各物体の危険レベル
を設定する。危険レベルは、例えば上述した危険レベル1に対応する図5のテーブルによ
って決定する。図示しないが、図5に相当する危険レベル2、危険レベル3のテーブルに
よって危険レベル2と3の判定を行う。ここで、第1データ制御部4は、危険レベル毎に
以下の対応を行う。危険レベル1では、第1データ制御部4は、リアルタイムマップ上の
アイコンを強調表示する。危険レベル2では、第1データ制御部4は、車両の運転手に警
告を出す。危険レベル3では、第1データ制御部4は、車両の運転制御を行う。ステップ
16にて、着目リストに載っている全対象物の危険レベルを判断した場合には、ステップ
S13へ戻り、再び各ステップを繰り返し行う。
(危険レベル1)
図14に時刻T1+ΔTにおける車両aから車両cの表示部10に表示されたリアルタ
イムマップの例を表している。ΔTは通信時に起こるタイムラグを表している。
まず、図14(a)に示すように、車両aの表示部10では、時刻T1+ΔTにおける
リアルタイムマップが表示される。このリアルタイムマップには、建物などの障害物によ
って認識できなかった歩行者や車両も表示されている。
これらの対象物が危険判断プログラム36pによって危険レベル1と判断された場合、
強調表示プログラム37pによって第1データ制御部4は、表示アイコンを強調して表示
する。
例えば図14(a)に示す車両aと歩行者eとの距離La−eが図5に示す閾値Xp1
b_a1以下となった場合を考える。ステップS18では、車両aの第1データ制御部4
は、図5のテーブルを照会して、歩行者eの危険レベルが1以上だと判断する。次に、ス
テップS19で車両aの第1データ制御部4は、歩行者eの危険レベルが2以上でないと
判断した場合には、車両aの第1データ制御部4は、歩行者eの危険レベルが1だと決定
する。
ステップ20で、車両aの第1データ制御部4は、表示部10に表示されるリアルタイ
ムマップ上の歩行者eのアイコンを強調する。また、距離を例に説明したが、車両aと歩
行者eの速度差によって危険レベルを判断した場合や両方の条件を満たした際に危険レベ
ルを判断してもよい。その場合でも、危険レベル1と決定した場合は、車両aの表示部1
0に歩行者eのアイコンを強調して表示する。図14(a)に示すように、車両c、自転
車d、歩行者e、歩行者fも同様に、危険レベルが1となった場合には、車両aのリアル
タイムマップ上の各アイコンが強調して表示される。
ここでアイコンの強調は、アイコンを中心に円などの図形で表示するが、対象物に応じ
てその半径や図形の大きさは変わるものとする。すなわち、人、自転車、バイク、車等で
注意喚起時の半径、図形の形状は異なるものとしてもよい。また、車両の速度、もしくは
、走っている道路の規格(高速道路、国道、市街地、等)に応じて、上記半径、図形の形状
は変化してもよい。表示する移動体が多数の場合には、表示数の設定、アイコンの大きさ
の調節等が可能とする。さらに、車両にとって死角となる位置にある対象物を点滅などで
強調して表示してもよい。図14から図17では、自動車を円形に、自転車や歩行者をそ
れとは異なる図形を用いてアイコンを強調している。
また、図15に示すように、表示部10に対象物のアイコンのみを表示し、危険レベル
1の対象物のアイコンを強調して表示してもよい。
次に、図14(b)に示すように、同時刻における車両bの表示部10では、車両aと
同様、建物などの障害物によって認識できなかった歩行者や車両も表示されている。車両
bの第1データ制御部4は、危険レベル1と判断した車両aのアイコンを強調して表示し
ている。しかし、危険レベル1に該当しない歩行者e等のアイコンは強調して表示してい
ない。
図14(c)に示したように、同時刻における車両cの表示部10では、車両aと同様
に、建物などの障害物によって認識できなかった歩行者や車両も表示されている。図14
(c)の例では、車両cの第1データ制御部4が車両a、自転車d、歩行者e、歩行者f
を危険レベル1と判断し、表示アイコンを強調している。図14(c)では、歩行者や自
転車と車両とを異なる図形を用いて強調している。
ステップS22にて、第1データ制御部4が危険レベルを2と決定した場合には、第1デ
ータ制御部4は、警告プログラム37pによってアラート部11にコマンドを送る。アラ
ート部11は、運転手に危険を知らせる警告を出す。
図16を用いて具体的に説明する。図16は、時刻T1より時刻が進んだ時刻T2にお
けるエリアAの上面図を表している。また、図17は、時刻T2+ΔTの時間における車
両a〜車両cにおける表示部10の例を表している。ΔTは通信時に起こるタイムラグを
表しており、T2に対して非常に小さい値であるとする。
まず、図17(a)に示すように、時刻T2+ΔTにおける車両aの表示部10では、
時刻T1において目視できなかった物体が目視できるようになっている。時刻T1と同様
に、リアルタイムマップには、引き続き建物などの障害物によって認識できなかった歩行
者や車両もアイコン表示されている。これらの対象物が危険レベル1と判断された場合に
は、強調表示プログラム37pによって表示アイコンが強調して表示される。図17(a
)では、自転車dと歩行者eが強調して表示されている。
(危険レベル2)
図17(b)に示すように、同時刻における車両bの表示部10では、車両aと同様に
リアルタイムマップが表示される。例えば、図17(b)に示す状況下において、車両b
が車両aに接近し、危険判断プログラム36pによって車両bの第1データ制御部4が、
車両aを危険レベル2だと判断したとする。この場合、第1データ制御部4は警告プログ
ラム38pにより、アラート部11へコマンドを発振する。車両bのアラート部11は、
車両bの運転者へ車両aとの衝突を回避するよう音などを出して警告する。
(危険レベル3)
また、図17(c)に示すように、同時刻における車両cの表示部10でも、同様にリ
アルタイムマップが表示される。車両cにとって、車両a及び車両bは、走行に伴って目
視できなくなるが、各車両が常にサーバ20に現在位置を送信しているため、車両cは属
するエリアが変更されるまで他車の情報を把握することが可能である。これにより、急に
車両を見失うことはない。
また、例えば、図17(c)に示す状況下において、車両cと自転車dが接近し、車両
cの第1データ制御部4が危険判断プログラム36pによって自転車dを危険レベル3と
判断したとする。第1データ制御部4は、制動制御プログラム38pによってアクチュエ
ータ制御部12にコマンドを送る。車両cのアクチュエータ制御部12は、ハンドル、ブ
レーキ、エアバック等、車両に搭載されている機器の操作を自動で行う。これにより、車
両cが自転車dへ衝突することを防ぐことができる。
このようにエリア内で着目リストは共有されるが、車両ごとに表示部10に表示される
リアルタイムマップは異なる。リアルタイムマップはサーバ20から送られる着目リスト
によって常時更新される。
また、図17(a)から図17(c)に表示される歩行者fは、どの車両からも認識す
ることができない。しかし、車両の後方部に、撮像部3を設けることや道路に設置されて
いるカーブミラーやデバイスを搭載した機器を活用することで認識し、エリア間で共有す
ることは可能である。
[作用、効果]
次に、第1実施形態の作用、効果について説明する。
第1の実施形態に係る車両及びそれを含む運転支援システムでは、車両が撮像部3から
取得した画像から対象物を抽出し、同エリア内の複数の車両間でその対象物の情報を共有
している。共有した情報をもとに、各車両が対象物の危険度を考慮したリアルタイムマッ
プを生成できる。これにより、車両から目視できなかった物体もリアルタイムマップ上で
認識できるようになる。また、撮像した画像を単に合成して共有するのではなく、対象物
の情報や車両の運転情報を合わせて共有しているため、必要な情報のみを処理し、危険を
認識しやすくなる。
(第2実施形態)
本発明に係る第2実施形態について、第1実施形態との差異を中心に説明する。第2実
施形態では、車両間で相互にリスト情報の送受信を行う。つまり、各車両が各々のリスト
情報を、サーバ2を介することなく共有する。その概念図を図18に示す。
図18、図19を用いて、第2実施形態の運転支援システム200の全体構成について
説明する。運転支援システム200は、複数の第3システム50を備える。図19に示す
ように、第3システム50は、撮像部3、第3データ制御部51、時刻取得部5、位置情
報取得部6、速度センサ7、加速度センサ8、無線通信機器9、表示部10、アラート部
11、アクチュエータ制御部12を備える。
第1実施形態と異なり、第2実施形態では、同エリア内に属する複数車両間で、直接リ
スト情報を送受信する。すなわち、第1実施形態のサーバ2が行っていた処理を各車両が
行う。第3データ制御部51にて、第2データ制御部21で実行していたプログラムの処
理が行われる。
図20を用いて、運転支援システム200と運転支援システム100の動作の差異を簡
単に説明する。
図20(a)、図20(b)に示すように、第3システム50は、ステップR1からス
テップR21までの動作を実行する。図20(a)に示したステップR1からステップR
7と、図20(b)に示したステップR8からステップR21までの処理は、常時並列に
実行されてもよい。運転支援システム100において、サーバ2が実行していた処理は、
図20(b)に示す運転支援システム200のステップR8からステップR11に該当す
る。図21には、ROM512の記憶領域を図式的に示している。
車両の第3データ制御部51は、エリア内の他の車両から送信されたリスト情報を参考
に着目リストを生成する。この過程は、第1実施形態の第2システム2のサーバ20と同
様である。この時、同一の対象物に対しては、位置情報を加味して足し合わせるようにし
、着目リストに二重にカウントされないようにする。その後、生成した着目リストから対
象物を相対化し、リアルタイムマップを生成する。この過程は第2実施形態の第1システ
ム1と同様である。
サーバを介することなく、車両間で通信を行うことで、処理速度の高速化を図ることが
できる。通信方法は、例えばスペクトラム拡散通信方式といった、周波数帯域が狭く、且
つノイズや電波干渉に強い通信方式などを採用してもよい。
(第3実施形態)
第3実施形態に係る運転支援システム300は、第1実施形態、及び第2実施形態にお
いて、少なくとも一つ以上の第1及び第3システムが車両ではなく、人が所持するスマー
トフォン、またはコンピュータ、時計、メガネ等のデバイスであるとする。または、ロボ
ット、柱や塀、道路上に設けられたビーコン等が第1及び第3システムの役割を果たすと
する。その概念図を図22、図23に示す。図22では、第3実施形態は第1システム1
と第2システム2からなり、図23では、第3実施形態は、第3システム50からなって
いる。
ここで、図22で示した第3実施形態が第1システム1と第2システム2からなる例を
用いて説明する。図24は、時刻T2におけるエリアAの上面図を示している。この例で
は、歩行者eは、第1システム1であるデバイス端末を有しており、またカーブミラーg
も第1システム1の1つである。
歩行者e及びカーブミラーgは、車両aや車両bと同様に、図6で示した第1システム
及び第2システムのフローチャートの一例に沿って動作する。
運転支援システム300の動作は、運転支援システム100及び運転支援システム20
0と同様である。また、運転支援システム300においては、必ずしも全ての第3システ
ムがリスト情報及び着目リストを受信する必要はない。
例えば、図24において、第1システム1の1つが例えば、通信道路に設置されている
カーブミラーgであった場合には、リスト情報及び着目リストを受信してリアルタイムマ
ップを生成する必要はない。この場合、カーブミラーgの第1データ制御部4は、図6(
b)で示したステップS13からステップS23、図20(b)で示したステップR8か
らステップR21の工程を実施しなくてもよい。また、図25に示すように、カーブミラ
ーgの第1データ制御部4は、リアルタイムマップの生成後に危険レベルの判定を行わず
、図6(b)で示したステップの代わりにステップR8からR15の処理によって、異な
る外部器の表示部にリアルタイムマップを表示してもよい。
また、図24において、第3システム50が例えば歩行者eが持つデバイス機器を携帯
するであった場合には、デバイス機器の第1データ制御部4は、対象物の情報が入力され
ていないリスト情報を第2システム2に送信される。しかし、デバイス機器が撮像部3を
有している場合には、運転支援システム100及び運転支援システム200の車両の場合
と同様に取り扱ってよい。アクチュエータ制御においては、ハンドル、ブレーキ、エアバ
ック等、車両に搭載されている機器の操作の代わりに、端末の振動などで衝突の回避を行
う。これにより、歩行者なども車両や対象物との衝突を防ぐことができる。
車両以外の周辺機器、及び公共設備を活用することにより、より正確な情報を共有する
ことで、精度の高いリアルタイムマップを生成することが可能となる。つまり、車通りの
少ない道や、障害物によって道が走行できない場合でも、実施可能である。また、車両以
外であっても、運転支援システム300により、衝突などの危険を検知して回避を促すこ
とが可能となる。
(第4実施形態)
第4実施形態に係る運転支援システム400は、第1及び第3システムで生成されたリ
アルタイムマップ、または第2及び第3システムで生成された着目リストを受信すること
で、異なるエリアに属する車両が道路交通情報を取得することを可能にする。第2及び第
3システムで生成した着目リスト情報を受信することで、異なるエリアに存在する車両か
らも交通情報を取得することができる。
図26にその例を示す。図26(a)、図26(b)は、それぞれ第4実施形態に係る
運転支援システム400の全体構成を示す概念図である。図26(a)において、エリア
Aに属する車両の第1データ制御部4は、サーバ20にアクセスし、エリアBに該当する
複数または一部の着目リストを取得する。着目リストから車両や歩行者といった交通量の
把握が可能である。または、図26(b)に示すように、エリアAの車両が、エリアBに
属する車両が生成したリアルタイムマップまたは着目リストを直接受信してもよい。
道路の混雑や、事故情報などをリアルタイムで検出することで、渋滞を回避するルート
探索を迅速且つ的確に行えるようになる。さらに、車両以外の歩行者などの情報も合わせ
て認識することが可能となるため、より潜在する危険が少ない道を選択して、走行するこ
とが可能となる。
(第5実施形態)
第5実施形態に係る運転支援システム500は、他のエリアの第1及び第3システムで
生成されたリアルタイムマップ、または第2及び第3システムで生成された着目リストを
受信することで、他のエリアの気象情報を取得することを可能にする。
運転支援システム500の車両の第3システム50は、撮像部3から取得した画像及び
動画情報から、車両が属するエリアの気象情報を取得する。その気象情報をリスト情報に
付与しておくことで、サーバや異なるエリアに属する車両等は、気象情報を取得すること
が可能となる。
例えば図27に示すように、エリアAとエリアBにおける簡易的な上面図を用いて説明
する。図27において、エリアAとエリアBは隣接しており、斜線部は共有部を表してい
る。図27において、エリアBでは雪が降っていたとする。このとき、エリアBに属する
車両hの第1データ取得部4または第3データ制御部51は、撮像部3から取得した画像
及び動画情報から、エリアBで雪が降っていることを判断する。第1データ取得部4また
は第3データ制御部51は、図28に示した例のように、車両hのリスト情報に気象情報
を追記し、サーバ2または、異なるエリアに属する他車両に送信する。図28のリスト情
報には、例として天候しか記載していないが、これは例えば運転支援システム500の第
1及び第3システムに温度計測部や湿度計測部を新たに搭載し、リスト情報に温度や湿度
といった情報を含ませてもよい。
第1実施形態から第4実施形態と同様に、エリアAに属する車両aは、サーバ2または
エリアBに属している車両hと交信し、エリアBの気象情報をリアルタイムで取得するこ
とができる。これにより、目的地に向かう際や道路状態を把握することができ、より安全
で快適な運転を可能とする。
本発明の実施形態および変形例を説明したが、これらの実施形態および変形例は、例と
して提示したものであり、発明の範囲を限定することは意図していない。これら新規な実
施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない
範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形
は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等
の範囲に含まれる。
1 第1システム
2 第2システム
3 撮像部
4 第1データ制御部
5 時刻取得部
6 位置情報取得部
7 速度センサ
8 加速度センサ
9 無線通信機器
10 表示部
11 アラート部
12 アクチェータ制御部
20 サーバ
21 第2データ制御部
22p エリア決定プログラム
23p 着目リスト生成プログラム
24p 通信処理プログラム
25 無線通信機器
30p 画像認識プログラム
31p 進行方向推定プログラム
32p リスト情報生成プログラム
33p 通信処理プログラム
34p 相対化プログラム
35p リアルタイムマップ生成プログラム
36p 危険判断プログラム
37p 強調表示プログラム
38p 警告プログラム
39p 制動制御プログラム
41 CPU
42 ROM(記憶部)
43 RAM(記憶部)
44 バスライン
45 入出力制御用のインターフェース
50 第3システム
51 第3データ制御部
100、200、300、400、500 運転支援システム

Claims (16)

  1. 第1移動体と、
    第2移動体と、
    前記第1及び第2移動体と通信できるサーバと、
    を含む運転支援システムであって、
    前記第1及び第2移動体それぞれは、
    前記移動体の運転状況に関する情報を取得できる取得部と、
    前記移動体の周囲を撮像できる撮像部と、
    前記サーバと通信できる第1通信部と、
    表示部と、
    前記取得部、前記撮像部、前記通信部、前記表示部を制御する第1制御部と、を含み、
    前記サーバは、
    前記移動体と通信できる第2通信部と、
    前記第2通信部と接続された第2制御部と、
    を含み、
    前記第1及び第2移動体それぞれの前記第1通信部は、第1時刻において前記取得部が
    取得した、前記第1及び第2移動体それぞれの運転状況に関する情報と、
    前記第1時刻において前記撮像部が取得した画像または動画から対象物に関する情報と
    、を前記第2通信部に送信したのち、
    前記サーバは、前記第2通信部にて受信した前記第1及び第2移動体の情報を、前記第
    1及び第2移動体が属するエリアの対象物に関する情報として、前記第2通信部から前記
    第1及び第2移動体それぞれの前記第1通信部に送信し、
    前記第1移動体の前記第1制御部は、前記第1移動体の前記第1通信部が受信した情報
    から、前記第1移動体周辺のマップを生成して、前記第1移動体の前記表示部に表示し、
    前記第2移動体の前記第1制御部は、前記第2移動体の前記第1通信部が受信した情報
    から、前記第2移動体周辺のマップを生成し、前記第2移動体の前記表示部に表示する運
    転支援システム。
  2. 第1移動体と、
    第2移動体と、
    を含む運転支援システムであって、
    前記第1及び第2移動体それぞれは、
    前記移動体の運転状況に関する情報を取得できる取得部と、
    前記移動体の周囲を撮像できる撮像部と、
    前記サーバと通信できる第1通信部と、
    表示部と、
    前記取得部、前記撮像部、前記通信部、前記表示部を制御する第1制御部と、を含み、
    前記第1及び第2移動体それぞれの前記第1通信部は、第1時刻において前記取得部が
    取得した、前記移動体の運転状況に関する情報と前記第1時刻において前記撮像部が取得
    した画像または動画から対象物に関する情報をそれぞれ異なる前記移動体に送信したのち

    前記第1移動体の前記第1通信部は、前記移動体が属するエリアにある対象物に関する
    情報を前記第2移動体に送信し、
    前記第2移動体の前記第1通信部は、前記移動体が属するエリアにある対象物に関する
    情報を前記第1移動体に送信し、
    前記第1移動体の前記第1制御部は、前記移動体周辺のマップを生成し、前記第1移動
    体の前記表示部に表示し、
    前記第2移動体の前記第1制御部は、前記第2移動体周辺のマップを生成し、前記第2
    移動体の前記表示部に表示する運転支援システム。
  3. 移動体と、
    道路上に設けられた通信機能を備える電子機器と、
    前記移動体と前記電子機器を通信できるサーバと、
    を含む運転支援システムであって、
    前記移動体は、
    前記移動体の運転状況に関する情報を取得できる取得部と、
    前記移動体の周囲を撮像できる第1撮像部と、
    前記サーバと通信できる第1通信部と、
    表示部と、
    前記取得部、前記第1撮像部、前記第1通信部、前記第1表示部を制御する第1制御部
    と、を含み、
    前記電子機器は、
    前記電子機器の周囲を撮像できる第2撮像部と、
    前記サーバと通信できる第2通信部と、
    前記第2撮像部、前記第2通信部を制御する第2制御部と、を含み、
    前記サーバは、
    前記移動体と前記電子機器と通信できる第3通信部と、
    前記第3通信部と接続された第3制御部と、
    を含み、
    前記第1通信部及び前記第2通信部は、第1時刻において前記取得部が取得した、前記
    移動体の運転状況に関する情報と、
    前記第1時刻において前記第1及び第2撮像部が取得した画像または動画から対象物に
    関する情報と、を前記サーバに送信したのち、
    前記第3通信部は、前記移動体が属するエリアにある対象物に関する情報を前記移動体
    に送信し、
    前記移動体の前記第1制御部は、前記第1移動体周辺のマップを生成し、前記第1移動
    体の前記表示部に表示する運転支援システム。
  4. 前記移動体は、
    通信機能を備える携帯可能なデバイスを含む請求項1から3のいずれか1つに記載の運転
    支援システム。
  5. 前記エリアは、複数存在し、前記対象物に関する情報を共有する区画であり、
    複数の前記エリアは、互いに重複部を有する請求項1から4のいずれか1つに記載の運転
    支援システム。
  6. 前記マップは、前記エリアよりも面積が小さい請求項1から5のいずれか1つに記載の運
    転支援システム。
  7. 前記表示部に表示されるアイコンは、前記アイコンを囲う図形にて強調して表示される請
    求項1から6のいずれか1つに記載の運転支援システム。
  8. 前記表示部に表示されるアイコンは、点滅して表示される請求項1から7のいずれか1つ
    に記載の運転支援システム。
  9. 前記表示部は、
    前記移動体のフロントガラスに設けられている請求項1から8のいずれか1つに記載の運
    転支援システム。
  10. 前記移動体の生成したマップを、異なるエリアにいる前記移動体の前記表示部に表示させ
    る請求項1から9のいずれか1つに記載の運転支援システム。
  11. 前記対象物に関する情報には、気象情報が含まれている請求項1から10のいずれか1つ
    に記載の運転支援システム。
  12. 前記対象物に関する情報には、交通情報が含まれている請求項1から11のいずれか1つ
    に記載の運転支援システム。
  13. 運転状況に関する情報を取得できる取得部と、
    周囲を撮像できる撮像部と、
    外部機器と通信できる第1通信部と、
    表示部と、
    前記取得部、前記撮像部、前記通信部、前記表示部を制御する第1制御部と、を含み、
    前記第1通信部は、第1時刻において前記取得部が取得した、運転状況に関する情報と
    前記第1時刻において前記撮像部が取得した画像または動画から対象物に関する情報を送
    信し、
    また、前記第1通信部は、他の移動体が取得した対象物に関する情報を受信し、
    前記第1制御部は、前記第1移動体周辺とした他の移動体が取得した対象物に関する情
    報を含むマップを生成し、前記マップを前記第1移動体の前記表示部に表示する移動体。
  14. 前記移動体は、車両である請求項13に記載の移動体。
  15. 前記移動体は、通信機能を備える携帯可能な電子機器を含む請求項12から13のいずれ
    か1つに記載の移動体。
  16. 前記電子機器は、道路上のカーブミラーに設けられている請求項3に記載の運転支援シス
    テム。
JP2017053462A 2017-03-17 2017-03-17 移動体及びそれを含む運転支援システム Pending JP2018156462A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017053462A JP2018156462A (ja) 2017-03-17 2017-03-17 移動体及びそれを含む運転支援システム
US15/906,378 US10262533B2 (en) 2017-03-17 2018-02-27 Moving object and driving support system for moving object
US16/371,315 US10636304B2 (en) 2017-03-17 2019-04-01 Moving object and driving support system for moving object
US16/838,164 US11315420B2 (en) 2017-03-17 2020-04-02 Moving object and driving support system for moving object
US17/705,766 US12131637B2 (en) 2017-03-17 2022-03-28 Moving object and driving support system for moving object
US18/897,414 US20250022371A1 (en) 2017-03-17 2024-09-26 Moving object and driving support system for moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017053462A JP2018156462A (ja) 2017-03-17 2017-03-17 移動体及びそれを含む運転支援システム

Publications (1)

Publication Number Publication Date
JP2018156462A true JP2018156462A (ja) 2018-10-04

Family

ID=63520161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017053462A Pending JP2018156462A (ja) 2017-03-17 2017-03-17 移動体及びそれを含む運転支援システム

Country Status (2)

Country Link
US (5) US10262533B2 (ja)
JP (1) JP2018156462A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020094959A (ja) * 2018-12-14 2020-06-18 ヤフー株式会社 経路探索装置、経路探索方法、及び経路探索プログラム
JP2021008258A (ja) * 2019-07-01 2021-01-28 富士通株式会社 スマートオブジェクトの知識の共有
JP2022532941A (ja) * 2019-05-23 2022-07-20 ストリートスコープ,インコーポレイテッド 車両信号を処理して挙動危険性の測度を計算するための装置及び方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156462A (ja) * 2017-03-17 2018-10-04 東芝メモリ株式会社 移動体及びそれを含む運転支援システム
CN107993485B (zh) * 2017-10-30 2019-11-26 惠州市德赛西威汽车电子股份有限公司 一种基于车联网的自适应预警方法以及装置
US11069234B1 (en) 2018-02-09 2021-07-20 Applied Information, Inc. Systems, methods, and devices for communication between traffic controller systems and mobile transmitters and receivers
US11205345B1 (en) * 2018-10-02 2021-12-21 Applied Information, Inc. Systems, methods, devices, and apparatuses for intelligent traffic signaling
CN111369817A (zh) * 2018-12-26 2020-07-03 北京嘀嘀无限科技发展有限公司 一种通行控制方法、装置及系统
CN111768642A (zh) * 2019-04-02 2020-10-13 上海图森未来人工智能科技有限公司 车辆的道路环境感知和车辆控制方法、系统、设备及车辆
US11001200B2 (en) * 2019-05-30 2021-05-11 Nissan North America, Inc. Vehicle occupant warning system
CN111243289A (zh) * 2020-01-21 2020-06-05 浙江大华技术股份有限公司 目标车辆的跟踪方法及装置、存储介质、电子装置
JP7554699B2 (ja) * 2021-03-31 2024-09-20 本田技研工業株式会社 画像処理装置および画像処理方法、車両用制御装置、プログラム
KR20230055722A (ko) * 2021-10-19 2023-04-26 현대모비스 주식회사 차량의 타겟 감지 시스템 및 방법
CN116168470B (zh) * 2023-02-22 2024-11-12 浙江云通数达科技有限公司 一种获取车辆运行状态的数据处理系统
TWI886634B (zh) * 2023-11-13 2025-06-11 財團法人工業技術研究院 車間通訊透視警告系統及車間通訊透視警告方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156756A (ja) * 2005-12-02 2007-06-21 Aisin Aw Co Ltd 車車間通信システム
JP2010272128A (ja) * 2010-07-12 2010-12-02 Toshiba Corp 道路走行支援システム
JP2016024778A (ja) * 2014-07-24 2016-02-08 株式会社デンソー 車両用報知システム、報知制御装置、及び報知装置
JP2016126538A (ja) * 2014-12-29 2016-07-11 西日本高速道路株式会社 道路情報提供システム
JP2016181239A (ja) * 2015-03-25 2016-10-13 株式会社日本総合研究所 地域監視サーバ、提供端末及びそのシステム
JP2017055177A (ja) * 2015-09-07 2017-03-16 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US7426437B2 (en) * 1997-10-22 2008-09-16 Intelligent Technologies International, Inc. Accident avoidance systems and methods
US6747687B1 (en) * 2000-01-11 2004-06-08 Pulnix America, Inc. System for recognizing the same vehicle at different times and places
US8150617B2 (en) * 2004-10-25 2012-04-03 A9.Com, Inc. System and method for displaying location-specific images on a mobile device
JP4525915B2 (ja) 2005-02-16 2010-08-18 株式会社デンソー 運転支援装置
JP2007015675A (ja) 2005-06-08 2007-01-25 Daicel Chem Ind Ltd エアバッグ用ガス発生器
JP2008250503A (ja) 2007-03-29 2008-10-16 Aisin Aw Co Ltd 運転支援装置
JP4930187B2 (ja) 2007-05-22 2012-05-16 株式会社デンソー 運転支援システム
US8868028B1 (en) * 2008-01-17 2014-10-21 Calvin L. Kaltsukis Network server emergency information accessing method
US8269797B2 (en) * 2009-08-03 2012-09-18 Ricoh Company, Ltd. Appropriately scaled map display with superposed information
EP2486516A4 (en) * 2009-10-07 2018-03-28 iOnRoad Technologies Ltd. Automatic content analysis method and system
KR101631497B1 (ko) * 2009-11-13 2016-06-27 삼성전자주식회사 디스플레이 장치, 사용자 단말 장치 및 그 방법들
US8774527B1 (en) * 2009-12-07 2014-07-08 Google Inc. Matching an approximately located query image against a reference image set using cellular base station and wireless access point information
KR101562589B1 (ko) * 2010-04-30 2015-10-23 엘지전자 주식회사 영상 표시 장치 및 그 방법
DE102012103134A1 (de) * 2011-04-12 2012-10-18 Conti Temic Microelectronic Gmbh Verfahren zur Warnung eines Fahrers eines Fahrzeugs vor rückwärtigem Verkehr
US8660735B2 (en) * 2011-12-14 2014-02-25 General Motors Llc Method of providing information to a vehicle
US8493198B1 (en) * 2012-07-11 2013-07-23 Google Inc. Vehicle and mobile device traffic hazard warning techniques
US9140782B2 (en) * 2012-07-23 2015-09-22 Google Technology Holdings LLC Inter-vehicle alert system with nagable video look ahead
US9558408B2 (en) * 2013-10-15 2017-01-31 Ford Global Technologies, Llc Traffic signal prediction
US9403482B2 (en) * 2013-11-22 2016-08-02 At&T Intellectual Property I, L.P. Enhanced view for connected cars
WO2016070193A1 (en) * 2014-10-31 2016-05-06 Nodal Inc. Systems, apparatus, and methods for improving safety related to movable/moving objects
US9836062B1 (en) * 2015-01-20 2017-12-05 State Farm Mutual Automobile Insurance Company Analyzing telematics data to determine travel events and corrective actions
US9928741B2 (en) * 2015-02-04 2018-03-27 Here Global B.V. Traffic adjustment for variable network state
US9574964B2 (en) * 2015-07-07 2017-02-21 Toyota Jidosha Kabushiki Kaisha Mobile computer atmospheric barometric pressure system
JP6733225B2 (ja) * 2016-03-08 2020-07-29 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US9891061B2 (en) * 2016-04-10 2018-02-13 Toyota Motor Engineering & Manufacturing North America, Inc. Determining areas to avoid for navigation guidance
WO2018117631A1 (en) * 2016-12-21 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and method of operating the same
US10026314B1 (en) * 2017-01-19 2018-07-17 GM Global Technology Operations LLC Multi-vehicle sensor sharing
JP2018156462A (ja) * 2017-03-17 2018-10-04 東芝メモリ株式会社 移動体及びそれを含む運転支援システム
US10101745B1 (en) * 2017-04-26 2018-10-16 The Charles Stark Draper Laboratory, Inc. Enhancing autonomous vehicle perception with off-vehicle collected data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156756A (ja) * 2005-12-02 2007-06-21 Aisin Aw Co Ltd 車車間通信システム
JP2010272128A (ja) * 2010-07-12 2010-12-02 Toshiba Corp 道路走行支援システム
JP2016024778A (ja) * 2014-07-24 2016-02-08 株式会社デンソー 車両用報知システム、報知制御装置、及び報知装置
JP2016126538A (ja) * 2014-12-29 2016-07-11 西日本高速道路株式会社 道路情報提供システム
JP2016181239A (ja) * 2015-03-25 2016-10-13 株式会社日本総合研究所 地域監視サーバ、提供端末及びそのシステム
JP2017055177A (ja) * 2015-09-07 2017-03-16 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020094959A (ja) * 2018-12-14 2020-06-18 ヤフー株式会社 経路探索装置、経路探索方法、及び経路探索プログラム
JP2022532941A (ja) * 2019-05-23 2022-07-20 ストリートスコープ,インコーポレイテッド 車両信号を処理して挙動危険性の測度を計算するための装置及び方法
JP7354295B2 (ja) 2019-05-23 2023-10-02 ストリートスコープ,インコーポレイテッド 車両信号を処理して挙動危険性の測度を計算するための装置及び方法
US12325415B2 (en) 2019-05-23 2025-06-10 Systomix, Inc. Apparatus and method for processing vehicle signals to compute a behavioral hazard measure
JP2021008258A (ja) * 2019-07-01 2021-01-28 富士通株式会社 スマートオブジェクトの知識の共有

Also Published As

Publication number Publication date
US12131637B2 (en) 2024-10-29
US20250022371A1 (en) 2025-01-16
US11315420B2 (en) 2022-04-26
US20190228653A1 (en) 2019-07-25
US20200234580A1 (en) 2020-07-23
US10262533B2 (en) 2019-04-16
US20220215751A1 (en) 2022-07-07
US10636304B2 (en) 2020-04-28
US20180268692A1 (en) 2018-09-20

Similar Documents

Publication Publication Date Title
US20250022371A1 (en) Moving object and driving support system for moving object
US11958504B2 (en) Method and apparatus for controlling a vehicle's driving operation using advance information
US12005904B2 (en) Autonomous driving system
CN110349405B (zh) 利用联网汽车的实时交通监视
JP6312831B2 (ja) 走行支援システム及び走行支援方法
US11531354B2 (en) Image processing apparatus and image processing method
KR101622028B1 (ko) 차량 통신을 이용한 차량 제어 장치 및 제어 방법
US11508161B2 (en) Driving support system and server device
JP6714513B2 (ja) 車両のナビゲーションモジュールに対象物の存在を知らせる車載装置
JP4345832B2 (ja) 道路状況検出システム
US12181566B2 (en) Information processing device, information processing method, computer program, and mobile device
US11551373B2 (en) System and method for determining distance to object on road
CN107077781A (zh) 用于建立道路交通参与者的运动模型的方法和设备
WO2016181618A1 (ja) 監視対象領域設定装置および監視対象領域設定方法
JP2013033324A (ja) 周辺車両情報通知装置
JP7310424B2 (ja) 車両走行システム
JP5924395B2 (ja) 周辺車両情報通知装置
JP7382782B2 (ja) 物体認識方法及び物体認識システム
KR102678602B1 (ko) 하이브리드 v2x기반의 항만협력자율주행 화물운송시스템의 차량에게 최적의 운행 경로를 안내하는 장치 및 방법
CN112567427B (zh) 图像处理装置、图像处理方法和程序
JPWO2020036043A1 (ja) 情報処理装置と情報処理方法とプログラム
KR102680954B1 (ko) 하이브리드 v2x기반의 항만협력자율주행 화물운송시스템에서 도로 위에서 발생하는 이벤트를 알려주는 장치 및 방법
WO2023187718A1 (en) Adaptive advanced driver-assistance system (adas)
KR102728602B1 (ko) 하이브리드 v2x기반의 항만협력자율주행 화물운송시스템에서 cctv기반의 돌발상황 경고 알림 서비스를 제공하는 장치 및 방법
JP2021179759A (ja) 電子制御装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170531

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20170821

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180907

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20180907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200731