JP2018156462A - 移動体及びそれを含む運転支援システム - Google Patents
移動体及びそれを含む運転支援システム Download PDFInfo
- Publication number
- JP2018156462A JP2018156462A JP2017053462A JP2017053462A JP2018156462A JP 2018156462 A JP2018156462 A JP 2018156462A JP 2017053462 A JP2017053462 A JP 2017053462A JP 2017053462 A JP2017053462 A JP 2017053462A JP 2018156462 A JP2018156462 A JP 2018156462A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- moving body
- information
- vehicle
- communication unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0112—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0141—Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096716—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096733—Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
- G08G1/096741—Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096766—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
- G08G1/096775—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/123—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
- G08G1/133—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
- G08G1/137—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops the indicator being in the form of a map
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Atmospheric Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
した場合に警告を発する車載装置が提案されている。
支援システムを提供する。
るサーバと、を含む運転支援システムであって、前記第1及び第2移動体それぞれは、前
記移動体の運転状況に関する情報を取得できる取得部と、前記移動体の周囲を撮像できる
撮像部と、前記サーバと通信できる第1通信部と、表示部と、前記取得部、前記撮像部、
前記通信部、前記表示部を制御する第1制御部と、を含み、前記サーバは、前記移動体と
通信できる第2通信部と、前記第2通信部と接続された第2制御部と、を含み、前記第1
及び第2移動体それぞれの前記第1通信部は、第1時刻において前記取得部が取得した、
前記第1及び第2移動体それぞれの運転状況に関する情報と、前記第1時刻において前記
撮像部が取得した画像または動画から対象物に関する情報と、を前記第2通信部に送信し
たのち、前記サーバは、前記第2通信部にて受信した前記第1及び第2移動体の情報を、
前記第1及び第2移動体が属するエリアの対象物に関する情報として、前記第2通信部か
ら前記第1及び第2移動体それぞれの前記第1通信部に送信し、前記第1移動体の前記第
1制御部は、前記第1移動体の前記第1通信部が受信した情報から、前記第1移動体周辺
のマップを生成して、前記第1移動体の前記表示部に表示し、前記第2移動体の前記第1
制御部は、前記第2移動体の前記第1通信部が受信した情報から、前記第2移動体周辺の
マップを生成し、前記第2移動体の前記表示部に表示する運転支援システム。
機器と通信できる第1通信部と、表示部と、前記取得部、前記撮像部、前記通信部、前記
表示部を制御する第1制御部と、を含み、前記第1通信部は、第1時刻において前記取得
部が取得した、運転状況に関する情報と前記第1時刻において前記撮像部が取得した画像
または動画から対象物に関する情報を送信し、また、前記第1通信部は、他の移動体が取
得した対象物に関する情報を受信し、前記第1制御部は、前記第1移動体周辺とした他の
移動体が取得した対象物に関する情報を含むマップを生成し、前記マップを前記第1移動
体の前記表示部に表示する移動体。
、共通する部分には共通する参照符号を付す。本実施形態は、種々の実施形態が述べられ
る添付図面を参照して後に十分に述べられる。同じ数字は同じエレメントで参照される。
限定されるわけではない。
車両の進行方向、車両の速度、車両の加速度といった情報である。
類、位置、進行方向、速度、加速度といった情報である。
リア内にある全車両は、サーバから共通の情報を受信する。
を表記した自車両周辺の地図である。リアルタイムマップは、入力された信号に対して即
時応答する処理を行うことで随時更新される。リアルタイムマップの範囲は、車両から数
10mとし、エリアと同範囲、またはエリアよりも狭い範囲であるとする。このマップは
、車両のフロントガラス等に設けられた表示部に表示される。
は、都市部の高速道路に該当する。
該当する道路区分情報と、を時刻ごとにまとめた情報である。
第1の実施形態について、図1から図16を用いて説明する。
[運転支援システムの全体構成例]
1に示すように、運転支援システム100は、大まかに、第1システム1、第2システム
2を備える。
、位置情報取得部6、速度センサ7、加速度センサ8、無線通信機器9、表示部10、ア
ラート部11、アクチュエータ制御部12を備える。
信部25を備える。
第1システム1は、例えば車両に搭載されるシステムである。第1システム1は、搭載
された車両に関する運転情報を取得し、車両が取得した対象物の情報(例えば、歩行者の
位置や歩行速度など)を運転情報と合わせて第2システム2に送信する。また、第2シス
テムから受けとった情報をもとに第1システム1は、リアルタイムマップを作成し、例え
ば表示部10に潜在的な危険を表示することで車両の安全運転を支援する。
センサ7、加速度センサ8、無線通信機器9、表示部10、アラート部11、アクチュエ
ータ制御部12を備える。
るためのものである。撮像部3は第1データ制御部4に接続される。撮像部3は、撮像し
た画像または動画を常に第1データ制御部4に送信する。
場合に限られず、例えば外部から時刻に関する情報を取得してもよい。
号を受信して、車両の位置を取得する。GPS衛星からの信号に限られず、車両の位置を
特定する信号であればいかなる信号であってもよい。
、ROM42(記憶部)、RAM43(記憶部)、及び入出力制御用のインターフェース
45、これらを接続するバスライン44を備える。また、図3(a)に示すようにROM
42には各種プログラム30p〜39pが記憶されている。CPU41は、これらのプロ
グラムをRAM43に読み出して実行する。
て、人、車両などを認識するためのプログラムである。第1制御部4は、画像認識プログ
ラム30pによって、画像または動画から対象物やその動きを検知する。具体的には、図
4に示すように、第1制御部4は、画像認識プログラム30pによって、“入力”、“前
処理”、“特徴量抽出”、“識別”の4つの工程を経て画像処理する。“入力”では、画
像や動画の入力、縮小、切り出し、明るさ補正、ゆがみ補正が行われる。“前処理”では
、ノイズの低減、ステレオ視差計算、探索候補領域の特定を行う。“特徴量抽出”では、
画像解析や画像のデータ化を行う。“識別”では、対象物の識別、追跡といった処理を行
う。また、画像認識プログラム30pは、例えば画像認識プロセッサLSIなど別構成で
設けてもよい。画像認識プロセッサLSIの構成については、例えば“画像処理装置及び
画像処理システム”という2011年3月21日に出願された米国特許出願2012/0
183207号、“画像処理装置、画像処理システム及び画像処理方法”という2011
年8月11日に出願された米国特許出願2012/0288205号、“画像識別装置及
び画像識別方法”という2011年9月9日に出願された米国特許出願2012/024
3778号、“マイクロプロセッサ及びデバッグシステム”という1995年12月28
日に出願された米国特許5978937号、“マルチプロセツサシステム”という200
8年3月24日に出願された米国特許出願2008/0244192号、“メモリコント
ロ−ラ”という2012年11月12日に出願された米国特許出願2010/00052
71号、“画像処理装置”という2008年10月28日に出願された米国特許出願20
10/0103282号、“画像処理プロセッサ”という2009年8月13日に出願さ
れた米国特許出願2010/0110289号、“特徴抽出装置、特徴抽出方法、画像処
理装置、及び、プログラム”という2009年8月6日に出願された米国特許出願201
0/0034459号、“特徴量算出装置及び識別装置”という2011年9月1日に出
願された米国特許出願2012/0057787号、“マルチプロセッサ”という201
2年8月27日に出願された米国特許出願2013/0326203号、“特徴量抽出装
置、特徴量抽出方法、画像処理装置、及び、プログラム”という2009年8月6日に出
願された米国特許出願2010/0034465号、“トレース装置”という2005年
6月9日に出願された米国特許7444553号、“コンパイル装置”という2010年
9月7日に出願された米国特許出願2011/0138371号に記載されている。これ
らの特許出願は、その全体が本願明細書において参照により援用されている。
報等)に基づいて車両の進行方向の方位を算出するプログラムである。第1制御部4は、
進行方向プログラム31pで、車両の進行方向を算出する。
ときに、時刻t1に北緯at1、東経bt1の座標へと移動した場合、その座標間の移動
から方位角を算出することができる。方位角の算出は、以下の式より求められる。
sin(bt0)cos(at1−at0))・・・(1)となる。これにより、車両が進む
進行方向が算出できる。ここで、方位角とは北を0度として時計回りに角度を振ったもの
である。座標に限らず、速度や加速度から算出してもよい。
報を一覧にするプログラムである。第1制御部4がリスト情報生成プログラム32pで生
成した一覧を、説明の便宜上、リスト情報と呼ぶ。このリスト情報とは、車両の車両ID
、データ取得時刻、GPS位置情報、進行方向、加速度と対象物の種目、相対位置情報、
進行方向、加速度といった情報を一覧にしたものであり、後に具体例を交えて説明する。
図10はその一例を示す。
車両と対象物との相対距離や相対速度を算出するプログラムである。
対象物の情報を取得し、車両の運転情報と対象物の情報をリアルタイムで合成し、車両周
辺の車両と各対象物との位置関係を示すマップを生成するプログラムである。
対速度の数値と、事前に設定された危険度を示す閾値との比較を行い、危険レベルを判定
するプログラムである。ここで、危険レベルとは、車両と対象物が将来的に衝突する可能
性を示唆するものである。例えば、車両が予定されている運転ルートを運転したときに、
対象物に衝突する確率が高くなると、より高い危険レベルが判定される。危険レベルは危
険レベル1から危険レベル3の3段階あり、対象物に衝突する確率が高いほど、危険レベ
ルの数値は大きい。つまり、危険レベル1よりも2が、2よりも3の方が対象物との衝突
可能性が高いことを表す。危険レベル1の状況は、運転手が対象物に対して注意して車両
を走行していればよい状況である。危険レベル2の状況は、危険レベル1よりも車両が対
象物に衝突する確率が高くなった場合に、運転手が衝突を自力で回避することが可能な状
況である。危険レベル3の状況は、車両が危険レベル2よりも更に対象物に衝突する確率
が高くなり、運転手が自力では衝突を回避できない状況である。
には、危険レベル1以上と判断される場合の車両と対象物間の距離テーブル及び速度差テ
ーブルの例を示している。各テーブルは、道路区分、自車両からの対象物、他車両からの
対象物で分類されており、閾値がそれぞれ設定されている。対象物によって、判定される
際の閾値は異なっている。閾値となる数値は、過去の事故情報や車両がブレーキをかけた
際に止まるまでの制動距離、衝突回避にかかる時間等の情報を加味し、適正値を設定する
のが望ましい。また、距離テーブル及び速度差テーブルで、どちらか1つでも危険レベル
1以上を判定した場合には、次の危険レベルの判定に進む。動作の説明の際に、この具体
的なステップについて説明する。また、道路区分や対象物の分類によって、距離テーブル
及び速度差テーブルの両方の閾値を満たした場合に危険レベルを判定したほうが適切であ
る場合には、そのように設定してもよい。
れる。
様である。車両と対象物間の距離テーブル及び速度差テーブルの閾値は、危険レベル1の
場合よりも、危険レベル2や危険レベル3の場合の方が、距離の閾値は小さい数値、速度
差の閾値は大きい数値となっている。危険レベル2、危険レベル3の距離テーブル、速度
差テーブルは、図5と同様であり、閾値の値が変わるだけなので、ここでは省略する。
との距離や速度差の数値を図5のテーブルに記載した閾値と照会することで、危険レベル
を決定する。
コンを強調して表示部に表示するプログラムである。
プログラムである。アラート部11は、運転者に車両の減速を促す警告音などを発する。
御するプログラムである。
20へ随時送信したり、逆にサーバ20からの着目リスト情報を随時受信したりする機器
である。
示部10は、例えば車両内部にディスプレイを設けてもよく、この場合に限らずフロント
ガラスなどでもよい。また、表示するものはリアルタイムマップではなく、リアルタイム
マップ上にある物体を例えばアイコンで表示してもよい。
ル2の場合に、第1データ制御部4が警告プログラム38pによって、アラート部に実行
コマンドを送る。
される。アクチュエータ制御部12は、車両の動きを制御する。
第2システム2は、複数の第1システム1からリスト情報を受信する。第2データ制御
部21は、受信したリスト情報の中から車両の位置情報を参照し、各車両が属するエリア
を決定する。その後、エリア内に属する複数の車両(第1システム1)から得たリスト情
報から着目リストを生成する。エリア内の全ての車両に着目リストを送信する。この着目
リストは、車両ID、サーバ内でエリアごとに集めた運転情報及びリスト情報と、現在の
エリアが種別や級別によって区分されている道路区分のどれに該当するかとの情報を時刻
毎にまとめたものである。着目リストの例は、動作の説明の際に、具体例と図10を用い
て説明する。
信部25を具備する。
受信部25は、第1システム1からリスト情報を受信する。また、送受信部25は、第1
システムに着目リストを随時送信する。
211、ROM212(記憶部)、RAM213(記憶部)、及び入出力制御用のインタ
ーフェース215、これらを接続するバスライン214を備える。また、図3(b)に示
すようにROM212には各種プログラム22p〜24pが記憶されている。CPU21
1はこれらのプログラムをRAM213に読み出して実行する。
るエリアを決定するプログラムである。
情報や対象物情報を時系列ごとにまとめて、着目リストを生成するプログラムである。
次に、図6のフローチャートを参照して、実施形態の動作について説明する。また、説
明の際に、図7から図15を用いて具体例を交えて説明する。
プS1)。取得した画像または動画は、撮像部3から接続された第1データ制御部4へと
送られる。第1データ制御部4は、画像認識プログラム30pによって、取得した対象物
の種目、位置情報、方向、速度、加速度を対象物情報として抽出する(ステップS2)。例
えば、画像認識により歩行者を認識した場合には、その歩行者の画像を連続して解析する
ことで、第1データ制御部4は、歩行者の位置、方向、速度、加速度を検出できる。
度センサ8にて、それぞれ時刻、その時刻での車両の位置、その時刻での車両の速度、そ
の時刻での車両の加速度といった運転情報を取得する(ステップS3)。時刻取得部5は
、撮像部3が画像や動画を取得したのに合わせて、常時時刻を取得する。
る(ステップS4)。
に限定されず、例えばステップS1からステップS2の処理を、ステップS3及びステッ
プS4と並列に行ってもよい。
形成する(ステップS5)。第1データ制御部4は、通信処理プログラム33pによって、
サーバ20との通信を接続する(ステップS6)。そして、無線通信機器9が、第2シス
テム2のサーバ20へリスト情報を送信する(ステップS7)。
アAの、車両a、車両b、車両cからの目視情報は、図8(a)から図8(c)にそれぞ
れ対応する。また、時刻T1における各車両の画像認識の図は、図9(a)から図9(c
)に対応する。
て、建物が障害となり、T字路に存在する歩行者e、fや自転車d、車両cを目視するこ
とはできない。また、車両bからは前方の車両aは目視することができるが、車両a同様
にT字路に存在する歩行者e、fや自転車d、車両cを目視することはできない。一方で
、車両cは、歩行者e、f及び自転車dが目視できているが、車両a及び車両bは、目視
できない。
辺の画像または動画を取得する。図7の場合、車両aが認識する物体は存在しないため、
ステップS2では対象物の情報なしとなる。次に、ステップS3に進み、車両aが画像取
得した際の時刻T1、位置、速度、加速度を車両aの第1データ制御部4が取得する。ス
テップS4に進み、車両aの進行方向を算出する。
よって、リスト情報を形成する。作成されたリスト情報の例を図10(a)に示す。
プ7で、車両aの通信機器9は、生成したリスト情報をサーバ20へ送信する。車両b、
車両cにおいてもステップS1からステップS7が実施されるが、同様なため説明は省略
している。車両b、車両cのリスト情報の例はそれぞれ図10(b)と図10(c)に示
す。
送られてきた複数のリスト情報を送受信部25で受信する(ステップS8)。受信したリス
ト情報は、第2データ制御部21に送られる。第2データ制御部21では、まず受信した
リスト情報から、エリア決定プログラム22pにて、車両がどのエリアに属しているかを
判別する(ステップS9)。すなわち、車両の位置情報がサーバ20内で予め設定されてい
たエリアAに属する場合には、第2データ制御部21は、車両がエリアAに位置すると判
断する。
御部21は、着目リスト生成プログラム23pを用いて着目リストを生成する(ステップ
S10)。第2データ制御部21は、通信処理プログラム24によって送受信部25と第
1システム1との通信を接続する。(ステップS11)。そして、送受信部25は、その
リスト情報をエリア内に存在する全ての第1システム1へ送信する(ステップS12)。
)〜(c)に示したリスト情報を各車両から受信する。ステップS9にて、第2データ制
御部21は、各リスト情報の中から位置情報を取得し、エリアを決定する。
報(Xa1,Ya1)、車両bの位置情報(Xb1,Yb1)、車両cの位置情報(Xc1
,Yc1)が、エリアAの内部に位置する座標であったとする。この時、第2データ制御
部21は車両aから車両cがエリアAに属していると判断する。
ここでエリアについて更に説明を加える。図11に示すように、エリアは、例えば1辺
が数10mの正方形とする。各エリアは隣接する他のエリアとの重複部Dを有している。
エリアは、重複部Dを持つことで、車両がエリア間をまたがる移動をした場合でもシーム
レスにエリアの切り替えが可能となる。また、エリアの一例を正方形としたが、半径数1
0mの円をエリアとし、円の外周部が隣接する円の中心を通過するようにとってもよい。
い。すなわち、図7に示すように、車両aの位置情報がエリアAに属する限りは、第2デ
ータ制御部21は、車両aはエリアAのあるものと判断する。一方、図11において、エ
リアAは、内部A1と外周部A2を含んでおり、エリアBも同様に内部B1、外周部B2
を含んでいるとする。ここで、ある時間の間に、車両aがエリアAからエリアBに移動し
たとする。エリア間の境界線を越えることで車両が所属するエリアは変更される。しかし
、第2データ制御部21は、各エリアが互いに重複部Dを持っているため、シームレスに
車両のエリアを切り替えることが出来る。重複部Dでは、より面積の大きい方のエリアに
属しているとしても、重複するエリア全てに属しているとしてもよい。その場合、車両は
、サーバ20から重複するエリア全ての着目リストを受信する。
ア毎に着目リストを生成する。生成される着目リストの例を図12に示す。図12の着目
リストは、図10で示した各車両のリスト情報を含んだ情報となっている。
の通信を接続する。そして、ステップS12で、送受信部25は、通信接続した全車両へ
図12に示した着目リストを送信する。
め、第2データ制御部21は、取得した運転情報とリスト情報をもとにエリアAの着目リ
ストを順次作成していく。作成した着目リストは、その都度ステップS12にて、エリア
内に存在する車両全てに送信される。つまり、同じエリア内に属する車両は、共通の着目
リストをサーバ20から常時受け取ることになる。
トを受信する(ステップS13)。第1データ制御部4は、この着目リスト情報から以下の
工程を行う。
上の対象物の情報をもとに相対距離や相対速度を算出する(ステップS14)。一度サーバ
20を経由することで、送信時と受信時でタイムラグが生じるが、車両の位置情報をもと
にリスト情報の修正を行う。つまり、タイムラグで生じたリスト情報のずれを、受信時の
車両の位置情報をもとに修正し、対象物を車両からの位置に基づいて相対位置を再度計算
する。
ラム35pを用いて、車両を中心としたリアルタイムマップを生成する(ステップS15)
。リアルタイムマップの生成は、後に具体例を示す。
終了したかを確認する(ステップS16)。全ての対象物の危険レベルを判断したあと(
ステップS16、YES)は、ステップS13に戻る。一方で、危険レベルの判定が終了
していない場合(ステップS16、NO)には、引き続き危険判断プログラム36pにて
、未処理の対象物の危険レベルの判定を行う(ステップS17)。
と対象物との相対距離や相対速度に応じて、危険レベル1の判定を行う(ステップS18)
。危険レベルが1の閾値を超えた場合(ステップS18、YES)には、より危険度の高い
危険レベル2の判定へと進む(ステップS19)。しかし、ステップS18にて、危険レ
ベルが1に満たない場合(ステップS18、NO)には、ステップS16へ戻る。ステップ
S19にて、危険レベルが2に満たなかった場合(ステップS19、NO)には、第1デー
タ制御部4は、危険レベルが1だと決定する(ステップS20)。この時、第1データ制
御部4は、強調表示プログラム37pによって、リアルタイムマッピング上の対象物のア
イコンを強調して表示器に表示する。また、その際に車両からは、視認できない死角に位
置する対象物も強調して表示してもよい。その場合、図5に示すように車両にとって死角
に位置するかしないか対象物の危険レベルを判定する閾値を参考に危険レベルの判定を行
う。
む(ステップS21)。ステップS21にて、危険レベルが3に満たない場合(ステップ
S21、NO)には、第1データ制御部4は、危険レベルを2と決定する(ステップS2
2)。第1データ制御部4は、警告プログラム38pによって、アラート部11に警告信
号を発する。アラート部11は、音声や光の出力による警告を発する。ステップS21に
て、危険レベルが3の場合(ステップS21、YES)には、第1データ制御部4は、危
険レベルを3と決定する(ステップS23)。この時、第1データ制御部4は、制動制御
プログラム39にて、アクチュエータ制御部12を始動させる。アクチュエータ制御部1
2は、車両を制動する。その後また、ステップ13に戻る。なお、ステップ1からステッ
プ7、ステップ13からステップ21の処理は、並行して処理を行ってもよい。
トを取得する。ステップS14では、各車両の第1データ制御部4は、着目リストの中の
対象物情報を、自車両から適切な位置へと相対変換する。着目リストの時点では、各車両
から取得した対象物の座標は、取得した車両からの相対座標であるため、着目リストを受
信した車両を中心とした座標へと変換する必要がある。第1データ制御部4は、変換した
座標等から、相対距離や相対速度を算出する。
両cがサーバ20から着目リストを受信するまでの時間をΔTとする。
向Dc1、速度Vc1、加速度αc1の運転情報を有しているとする。また、車両cは、
位置(Xc11、Yc11)、方向Dc11、速度Vc11、加速度αc11を持つ自転
車dの対象物情報、位置(Xc12、Yc12)、方向Dc12、速度Vc12、加速度
αc12を持つ歩行者eの対象物情報、位置(Xc13、Yc13)、方向Dc13、速
度Vc13、加速度αc13を持つ歩行者fの対象物情報を有しているとする。これらを
リスト情報として、車両cは、第2システム2のサーバ20へ送る。サーバ20は、第2
データ制御部21にて、他の車両からのリスト情報を足し合わせて図12に示す着目リス
トを生成する。この時、同一の対象物に対しては、位置情報を加味して足し合わせるよう
にし、着目リストに二重にカウントされないようにする。サーバ20は、着目リストを車
両cへ送信するが、車両cがサーバ20から、着目リストを受信した時刻は、T1+ΔT
である。このとき、本来時刻T1に関するリスト情報であるため、ΔTの分だけ着目リス
トの値にずれが生じる。しかし、T1+ΔTでの車両の位置(Xc1+ΔXc1、Yc1
+ΔYc1)や方向、速度、加速度の値と時刻T1のときの値とをそれぞれ比較すること
により、ΔT間にどの程度のずれが発生したかを計算できるため、着目リスト内の情報の
ずれを調整することが可能である。
適切な座標になっていない。そのため、例えば車両aの第1データ制御部4は、対象物を
取得した車両cの座標(Xc1、Yc1)と、着目リスト上の歩行者eの座標(Xc12
、Yc12)から車両aからみた歩行者eの座標(Xac12、Yac12)を算出する
。また、車両aの第1データ制御部4は、算出した座標から車両aから歩行者eまでの距
離をさらに算出する。
ステップS15では、第1データ制御部4は、車両を中心としたリアルタイムマップを
生成する。生成されたリアルタイムマップは、各車両の表示部10に表示される。または
、表示部10には、リアルタイムマップ上の対象物を例えばアイコンのみで表示してもよ
い。ここで、図13、図14を用いて、リアルタイムマップ生成について具体例を用いて
説明する。
図13には、車両b、車両c、自転車d、歩行者e、歩行者fは表示されていない。一方
で、図14(a)は、時刻T1+ΔTにおける車両aの表示部に表示されるリアルタイム
マップの例を示している。第1データ制御部4は、ステップS14で相対変換した対象物
をもとにマッピングする。これにより、建物等の障害物によって目視できなかった物体も
、サーバ20からの情報をもとにリアルタイムマップ上に表記することが可能となる。生
成されたリアルタイムマップは、各ステップが繰り返されることで、順次更新されていく
。
cの表示部に表示されるリアルタイムマップの例とをそれぞれ図14(b)、図14(c
)に示す。どちらも自車両からは目視できなかった物体まで、リアルタイムマップ上に表
記されている。
次にステップS16からステップS23について、具体例を交えて説明する。
各車両の第1データ制御部4は、リアルタイムマップ上に表示された各物体の危険レベル
を設定する。危険レベルは、例えば上述した危険レベル1に対応する図5のテーブルによ
って決定する。図示しないが、図5に相当する危険レベル2、危険レベル3のテーブルに
よって危険レベル2と3の判定を行う。ここで、第1データ制御部4は、危険レベル毎に
以下の対応を行う。危険レベル1では、第1データ制御部4は、リアルタイムマップ上の
アイコンを強調表示する。危険レベル2では、第1データ制御部4は、車両の運転手に警
告を出す。危険レベル3では、第1データ制御部4は、車両の運転制御を行う。ステップ
16にて、着目リストに載っている全対象物の危険レベルを判断した場合には、ステップ
S13へ戻り、再び各ステップを繰り返し行う。
図14に時刻T1+ΔTにおける車両aから車両cの表示部10に表示されたリアルタ
イムマップの例を表している。ΔTは通信時に起こるタイムラグを表している。
リアルタイムマップが表示される。このリアルタイムマップには、建物などの障害物によ
って認識できなかった歩行者や車両も表示されている。
強調表示プログラム37pによって第1データ制御部4は、表示アイコンを強調して表示
する。
b_a1以下となった場合を考える。ステップS18では、車両aの第1データ制御部4
は、図5のテーブルを照会して、歩行者eの危険レベルが1以上だと判断する。次に、ス
テップS19で車両aの第1データ制御部4は、歩行者eの危険レベルが2以上でないと
判断した場合には、車両aの第1データ制御部4は、歩行者eの危険レベルが1だと決定
する。
ムマップ上の歩行者eのアイコンを強調する。また、距離を例に説明したが、車両aと歩
行者eの速度差によって危険レベルを判断した場合や両方の条件を満たした際に危険レベ
ルを判断してもよい。その場合でも、危険レベル1と決定した場合は、車両aの表示部1
0に歩行者eのアイコンを強調して表示する。図14(a)に示すように、車両c、自転
車d、歩行者e、歩行者fも同様に、危険レベルが1となった場合には、車両aのリアル
タイムマップ上の各アイコンが強調して表示される。
てその半径や図形の大きさは変わるものとする。すなわち、人、自転車、バイク、車等で
注意喚起時の半径、図形の形状は異なるものとしてもよい。また、車両の速度、もしくは
、走っている道路の規格(高速道路、国道、市街地、等)に応じて、上記半径、図形の形状
は変化してもよい。表示する移動体が多数の場合には、表示数の設定、アイコンの大きさ
の調節等が可能とする。さらに、車両にとって死角となる位置にある対象物を点滅などで
強調して表示してもよい。図14から図17では、自動車を円形に、自転車や歩行者をそ
れとは異なる図形を用いてアイコンを強調している。
1の対象物のアイコンを強調して表示してもよい。
同様、建物などの障害物によって認識できなかった歩行者や車両も表示されている。車両
bの第1データ制御部4は、危険レベル1と判断した車両aのアイコンを強調して表示し
ている。しかし、危険レベル1に該当しない歩行者e等のアイコンは強調して表示してい
ない。
に、建物などの障害物によって認識できなかった歩行者や車両も表示されている。図14
(c)の例では、車両cの第1データ制御部4が車両a、自転車d、歩行者e、歩行者f
を危険レベル1と判断し、表示アイコンを強調している。図14(c)では、歩行者や自
転車と車両とを異なる図形を用いて強調している。
ータ制御部4は、警告プログラム37pによってアラート部11にコマンドを送る。アラ
ート部11は、運転手に危険を知らせる警告を出す。
けるエリアAの上面図を表している。また、図17は、時刻T2+ΔTの時間における車
両a〜車両cにおける表示部10の例を表している。ΔTは通信時に起こるタイムラグを
表しており、T2に対して非常に小さい値であるとする。
時刻T1において目視できなかった物体が目視できるようになっている。時刻T1と同様
に、リアルタイムマップには、引き続き建物などの障害物によって認識できなかった歩行
者や車両もアイコン表示されている。これらの対象物が危険レベル1と判断された場合に
は、強調表示プログラム37pによって表示アイコンが強調して表示される。図17(a
)では、自転車dと歩行者eが強調して表示されている。
図17(b)に示すように、同時刻における車両bの表示部10では、車両aと同様に
リアルタイムマップが表示される。例えば、図17(b)に示す状況下において、車両b
が車両aに接近し、危険判断プログラム36pによって車両bの第1データ制御部4が、
車両aを危険レベル2だと判断したとする。この場合、第1データ制御部4は警告プログ
ラム38pにより、アラート部11へコマンドを発振する。車両bのアラート部11は、
車両bの運転者へ車両aとの衝突を回避するよう音などを出して警告する。
また、図17(c)に示すように、同時刻における車両cの表示部10でも、同様にリ
アルタイムマップが表示される。車両cにとって、車両a及び車両bは、走行に伴って目
視できなくなるが、各車両が常にサーバ20に現在位置を送信しているため、車両cは属
するエリアが変更されるまで他車の情報を把握することが可能である。これにより、急に
車両を見失うことはない。
cの第1データ制御部4が危険判断プログラム36pによって自転車dを危険レベル3と
判断したとする。第1データ制御部4は、制動制御プログラム38pによってアクチュエ
ータ制御部12にコマンドを送る。車両cのアクチュエータ制御部12は、ハンドル、ブ
レーキ、エアバック等、車両に搭載されている機器の操作を自動で行う。これにより、車
両cが自転車dへ衝突することを防ぐことができる。
リアルタイムマップは異なる。リアルタイムマップはサーバ20から送られる着目リスト
によって常時更新される。
ることができない。しかし、車両の後方部に、撮像部3を設けることや道路に設置されて
いるカーブミラーやデバイスを搭載した機器を活用することで認識し、エリア間で共有す
ることは可能である。
次に、第1実施形態の作用、効果について説明する。
取得した画像から対象物を抽出し、同エリア内の複数の車両間でその対象物の情報を共有
している。共有した情報をもとに、各車両が対象物の危険度を考慮したリアルタイムマッ
プを生成できる。これにより、車両から目視できなかった物体もリアルタイムマップ上で
認識できるようになる。また、撮像した画像を単に合成して共有するのではなく、対象物
の情報や車両の運転情報を合わせて共有しているため、必要な情報のみを処理し、危険を
認識しやすくなる。
本発明に係る第2実施形態について、第1実施形態との差異を中心に説明する。第2実
施形態では、車両間で相互にリスト情報の送受信を行う。つまり、各車両が各々のリスト
情報を、サーバ2を介することなく共有する。その概念図を図18に示す。
説明する。運転支援システム200は、複数の第3システム50を備える。図19に示す
ように、第3システム50は、撮像部3、第3データ制御部51、時刻取得部5、位置情
報取得部6、速度センサ7、加速度センサ8、無線通信機器9、表示部10、アラート部
11、アクチュエータ制御部12を備える。
スト情報を送受信する。すなわち、第1実施形態のサーバ2が行っていた処理を各車両が
行う。第3データ制御部51にて、第2データ制御部21で実行していたプログラムの処
理が行われる。
単に説明する。
テップR21までの動作を実行する。図20(a)に示したステップR1からステップR
7と、図20(b)に示したステップR8からステップR21までの処理は、常時並列に
実行されてもよい。運転支援システム100において、サーバ2が実行していた処理は、
図20(b)に示す運転支援システム200のステップR8からステップR11に該当す
る。図21には、ROM512の記憶領域を図式的に示している。
に着目リストを生成する。この過程は、第1実施形態の第2システム2のサーバ20と同
様である。この時、同一の対象物に対しては、位置情報を加味して足し合わせるようにし
、着目リストに二重にカウントされないようにする。その後、生成した着目リストから対
象物を相対化し、リアルタイムマップを生成する。この過程は第2実施形態の第1システ
ム1と同様である。
できる。通信方法は、例えばスペクトラム拡散通信方式といった、周波数帯域が狭く、且
つノイズや電波干渉に強い通信方式などを採用してもよい。
第3実施形態に係る運転支援システム300は、第1実施形態、及び第2実施形態にお
いて、少なくとも一つ以上の第1及び第3システムが車両ではなく、人が所持するスマー
トフォン、またはコンピュータ、時計、メガネ等のデバイスであるとする。または、ロボ
ット、柱や塀、道路上に設けられたビーコン等が第1及び第3システムの役割を果たすと
する。その概念図を図22、図23に示す。図22では、第3実施形態は第1システム1
と第2システム2からなり、図23では、第3実施形態は、第3システム50からなって
いる。
用いて説明する。図24は、時刻T2におけるエリアAの上面図を示している。この例で
は、歩行者eは、第1システム1であるデバイス端末を有しており、またカーブミラーg
も第1システム1の1つである。
及び第2システムのフローチャートの一例に沿って動作する。
0と同様である。また、運転支援システム300においては、必ずしも全ての第3システ
ムがリスト情報及び着目リストを受信する必要はない。
カーブミラーgであった場合には、リスト情報及び着目リストを受信してリアルタイムマ
ップを生成する必要はない。この場合、カーブミラーgの第1データ制御部4は、図6(
b)で示したステップS13からステップS23、図20(b)で示したステップR8か
らステップR21の工程を実施しなくてもよい。また、図25に示すように、カーブミラ
ーgの第1データ制御部4は、リアルタイムマップの生成後に危険レベルの判定を行わず
、図6(b)で示したステップの代わりにステップR8からR15の処理によって、異な
る外部器の表示部にリアルタイムマップを表示してもよい。
するであった場合には、デバイス機器の第1データ制御部4は、対象物の情報が入力され
ていないリスト情報を第2システム2に送信される。しかし、デバイス機器が撮像部3を
有している場合には、運転支援システム100及び運転支援システム200の車両の場合
と同様に取り扱ってよい。アクチュエータ制御においては、ハンドル、ブレーキ、エアバ
ック等、車両に搭載されている機器の操作の代わりに、端末の振動などで衝突の回避を行
う。これにより、歩行者なども車両や対象物との衝突を防ぐことができる。
ことで、精度の高いリアルタイムマップを生成することが可能となる。つまり、車通りの
少ない道や、障害物によって道が走行できない場合でも、実施可能である。また、車両以
外であっても、運転支援システム300により、衝突などの危険を検知して回避を促すこ
とが可能となる。
第4実施形態に係る運転支援システム400は、第1及び第3システムで生成されたリ
アルタイムマップ、または第2及び第3システムで生成された着目リストを受信すること
で、異なるエリアに属する車両が道路交通情報を取得することを可能にする。第2及び第
3システムで生成した着目リスト情報を受信することで、異なるエリアに存在する車両か
らも交通情報を取得することができる。
運転支援システム400の全体構成を示す概念図である。図26(a)において、エリア
Aに属する車両の第1データ制御部4は、サーバ20にアクセスし、エリアBに該当する
複数または一部の着目リストを取得する。着目リストから車両や歩行者といった交通量の
把握が可能である。または、図26(b)に示すように、エリアAの車両が、エリアBに
属する車両が生成したリアルタイムマップまたは着目リストを直接受信してもよい。
探索を迅速且つ的確に行えるようになる。さらに、車両以外の歩行者などの情報も合わせ
て認識することが可能となるため、より潜在する危険が少ない道を選択して、走行するこ
とが可能となる。
第5実施形態に係る運転支援システム500は、他のエリアの第1及び第3システムで
生成されたリアルタイムマップ、または第2及び第3システムで生成された着目リストを
受信することで、他のエリアの気象情報を取得することを可能にする。
動画情報から、車両が属するエリアの気象情報を取得する。その気象情報をリスト情報に
付与しておくことで、サーバや異なるエリアに属する車両等は、気象情報を取得すること
が可能となる。
する。図27において、エリアAとエリアBは隣接しており、斜線部は共有部を表してい
る。図27において、エリアBでは雪が降っていたとする。このとき、エリアBに属する
車両hの第1データ取得部4または第3データ制御部51は、撮像部3から取得した画像
及び動画情報から、エリアBで雪が降っていることを判断する。第1データ取得部4また
は第3データ制御部51は、図28に示した例のように、車両hのリスト情報に気象情報
を追記し、サーバ2または、異なるエリアに属する他車両に送信する。図28のリスト情
報には、例として天候しか記載していないが、これは例えば運転支援システム500の第
1及び第3システムに温度計測部や湿度計測部を新たに搭載し、リスト情報に温度や湿度
といった情報を含ませてもよい。
エリアBに属している車両hと交信し、エリアBの気象情報をリアルタイムで取得するこ
とができる。これにより、目的地に向かう際や道路状態を把握することができ、より安全
で快適な運転を可能とする。
して提示したものであり、発明の範囲を限定することは意図していない。これら新規な実
施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない
範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形
は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等
の範囲に含まれる。
2 第2システム
3 撮像部
4 第1データ制御部
5 時刻取得部
6 位置情報取得部
7 速度センサ
8 加速度センサ
9 無線通信機器
10 表示部
11 アラート部
12 アクチェータ制御部
20 サーバ
21 第2データ制御部
22p エリア決定プログラム
23p 着目リスト生成プログラム
24p 通信処理プログラム
25 無線通信機器
30p 画像認識プログラム
31p 進行方向推定プログラム
32p リスト情報生成プログラム
33p 通信処理プログラム
34p 相対化プログラム
35p リアルタイムマップ生成プログラム
36p 危険判断プログラム
37p 強調表示プログラム
38p 警告プログラム
39p 制動制御プログラム
41 CPU
42 ROM(記憶部)
43 RAM(記憶部)
44 バスライン
45 入出力制御用のインターフェース
50 第3システム
51 第3データ制御部
100、200、300、400、500 運転支援システム
Claims (16)
- 第1移動体と、
第2移動体と、
前記第1及び第2移動体と通信できるサーバと、
を含む運転支援システムであって、
前記第1及び第2移動体それぞれは、
前記移動体の運転状況に関する情報を取得できる取得部と、
前記移動体の周囲を撮像できる撮像部と、
前記サーバと通信できる第1通信部と、
表示部と、
前記取得部、前記撮像部、前記通信部、前記表示部を制御する第1制御部と、を含み、
前記サーバは、
前記移動体と通信できる第2通信部と、
前記第2通信部と接続された第2制御部と、
を含み、
前記第1及び第2移動体それぞれの前記第1通信部は、第1時刻において前記取得部が
取得した、前記第1及び第2移動体それぞれの運転状況に関する情報と、
前記第1時刻において前記撮像部が取得した画像または動画から対象物に関する情報と
、を前記第2通信部に送信したのち、
前記サーバは、前記第2通信部にて受信した前記第1及び第2移動体の情報を、前記第
1及び第2移動体が属するエリアの対象物に関する情報として、前記第2通信部から前記
第1及び第2移動体それぞれの前記第1通信部に送信し、
前記第1移動体の前記第1制御部は、前記第1移動体の前記第1通信部が受信した情報
から、前記第1移動体周辺のマップを生成して、前記第1移動体の前記表示部に表示し、
前記第2移動体の前記第1制御部は、前記第2移動体の前記第1通信部が受信した情報
から、前記第2移動体周辺のマップを生成し、前記第2移動体の前記表示部に表示する運
転支援システム。 - 第1移動体と、
第2移動体と、
を含む運転支援システムであって、
前記第1及び第2移動体それぞれは、
前記移動体の運転状況に関する情報を取得できる取得部と、
前記移動体の周囲を撮像できる撮像部と、
前記サーバと通信できる第1通信部と、
表示部と、
前記取得部、前記撮像部、前記通信部、前記表示部を制御する第1制御部と、を含み、
前記第1及び第2移動体それぞれの前記第1通信部は、第1時刻において前記取得部が
取得した、前記移動体の運転状況に関する情報と前記第1時刻において前記撮像部が取得
した画像または動画から対象物に関する情報をそれぞれ異なる前記移動体に送信したのち
、
前記第1移動体の前記第1通信部は、前記移動体が属するエリアにある対象物に関する
情報を前記第2移動体に送信し、
前記第2移動体の前記第1通信部は、前記移動体が属するエリアにある対象物に関する
情報を前記第1移動体に送信し、
前記第1移動体の前記第1制御部は、前記移動体周辺のマップを生成し、前記第1移動
体の前記表示部に表示し、
前記第2移動体の前記第1制御部は、前記第2移動体周辺のマップを生成し、前記第2
移動体の前記表示部に表示する運転支援システム。 - 移動体と、
道路上に設けられた通信機能を備える電子機器と、
前記移動体と前記電子機器を通信できるサーバと、
を含む運転支援システムであって、
前記移動体は、
前記移動体の運転状況に関する情報を取得できる取得部と、
前記移動体の周囲を撮像できる第1撮像部と、
前記サーバと通信できる第1通信部と、
表示部と、
前記取得部、前記第1撮像部、前記第1通信部、前記第1表示部を制御する第1制御部
と、を含み、
前記電子機器は、
前記電子機器の周囲を撮像できる第2撮像部と、
前記サーバと通信できる第2通信部と、
前記第2撮像部、前記第2通信部を制御する第2制御部と、を含み、
前記サーバは、
前記移動体と前記電子機器と通信できる第3通信部と、
前記第3通信部と接続された第3制御部と、
を含み、
前記第1通信部及び前記第2通信部は、第1時刻において前記取得部が取得した、前記
移動体の運転状況に関する情報と、
前記第1時刻において前記第1及び第2撮像部が取得した画像または動画から対象物に
関する情報と、を前記サーバに送信したのち、
前記第3通信部は、前記移動体が属するエリアにある対象物に関する情報を前記移動体
に送信し、
前記移動体の前記第1制御部は、前記第1移動体周辺のマップを生成し、前記第1移動
体の前記表示部に表示する運転支援システム。 - 前記移動体は、
通信機能を備える携帯可能なデバイスを含む請求項1から3のいずれか1つに記載の運転
支援システム。 - 前記エリアは、複数存在し、前記対象物に関する情報を共有する区画であり、
複数の前記エリアは、互いに重複部を有する請求項1から4のいずれか1つに記載の運転
支援システム。 - 前記マップは、前記エリアよりも面積が小さい請求項1から5のいずれか1つに記載の運
転支援システム。 - 前記表示部に表示されるアイコンは、前記アイコンを囲う図形にて強調して表示される請
求項1から6のいずれか1つに記載の運転支援システム。 - 前記表示部に表示されるアイコンは、点滅して表示される請求項1から7のいずれか1つ
に記載の運転支援システム。 - 前記表示部は、
前記移動体のフロントガラスに設けられている請求項1から8のいずれか1つに記載の運
転支援システム。 - 前記移動体の生成したマップを、異なるエリアにいる前記移動体の前記表示部に表示させ
る請求項1から9のいずれか1つに記載の運転支援システム。 - 前記対象物に関する情報には、気象情報が含まれている請求項1から10のいずれか1つ
に記載の運転支援システム。 - 前記対象物に関する情報には、交通情報が含まれている請求項1から11のいずれか1つ
に記載の運転支援システム。 - 運転状況に関する情報を取得できる取得部と、
周囲を撮像できる撮像部と、
外部機器と通信できる第1通信部と、
表示部と、
前記取得部、前記撮像部、前記通信部、前記表示部を制御する第1制御部と、を含み、
前記第1通信部は、第1時刻において前記取得部が取得した、運転状況に関する情報と
前記第1時刻において前記撮像部が取得した画像または動画から対象物に関する情報を送
信し、
また、前記第1通信部は、他の移動体が取得した対象物に関する情報を受信し、
前記第1制御部は、前記第1移動体周辺とした他の移動体が取得した対象物に関する情
報を含むマップを生成し、前記マップを前記第1移動体の前記表示部に表示する移動体。 - 前記移動体は、車両である請求項13に記載の移動体。
- 前記移動体は、通信機能を備える携帯可能な電子機器を含む請求項12から13のいずれ
か1つに記載の移動体。 - 前記電子機器は、道路上のカーブミラーに設けられている請求項3に記載の運転支援シス
テム。
Priority Applications (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017053462A JP2018156462A (ja) | 2017-03-17 | 2017-03-17 | 移動体及びそれを含む運転支援システム |
| US15/906,378 US10262533B2 (en) | 2017-03-17 | 2018-02-27 | Moving object and driving support system for moving object |
| US16/371,315 US10636304B2 (en) | 2017-03-17 | 2019-04-01 | Moving object and driving support system for moving object |
| US16/838,164 US11315420B2 (en) | 2017-03-17 | 2020-04-02 | Moving object and driving support system for moving object |
| US17/705,766 US12131637B2 (en) | 2017-03-17 | 2022-03-28 | Moving object and driving support system for moving object |
| US18/897,414 US20250022371A1 (en) | 2017-03-17 | 2024-09-26 | Moving object and driving support system for moving object |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017053462A JP2018156462A (ja) | 2017-03-17 | 2017-03-17 | 移動体及びそれを含む運転支援システム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018156462A true JP2018156462A (ja) | 2018-10-04 |
Family
ID=63520161
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017053462A Pending JP2018156462A (ja) | 2017-03-17 | 2017-03-17 | 移動体及びそれを含む運転支援システム |
Country Status (2)
| Country | Link |
|---|---|
| US (5) | US10262533B2 (ja) |
| JP (1) | JP2018156462A (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020094959A (ja) * | 2018-12-14 | 2020-06-18 | ヤフー株式会社 | 経路探索装置、経路探索方法、及び経路探索プログラム |
| JP2021008258A (ja) * | 2019-07-01 | 2021-01-28 | 富士通株式会社 | スマートオブジェクトの知識の共有 |
| JP2022532941A (ja) * | 2019-05-23 | 2022-07-20 | ストリートスコープ,インコーポレイテッド | 車両信号を処理して挙動危険性の測度を計算するための装置及び方法 |
Families Citing this family (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018156462A (ja) * | 2017-03-17 | 2018-10-04 | 東芝メモリ株式会社 | 移動体及びそれを含む運転支援システム |
| CN107993485B (zh) * | 2017-10-30 | 2019-11-26 | 惠州市德赛西威汽车电子股份有限公司 | 一种基于车联网的自适应预警方法以及装置 |
| US11069234B1 (en) | 2018-02-09 | 2021-07-20 | Applied Information, Inc. | Systems, methods, and devices for communication between traffic controller systems and mobile transmitters and receivers |
| US11205345B1 (en) * | 2018-10-02 | 2021-12-21 | Applied Information, Inc. | Systems, methods, devices, and apparatuses for intelligent traffic signaling |
| CN111369817A (zh) * | 2018-12-26 | 2020-07-03 | 北京嘀嘀无限科技发展有限公司 | 一种通行控制方法、装置及系统 |
| CN111768642A (zh) * | 2019-04-02 | 2020-10-13 | 上海图森未来人工智能科技有限公司 | 车辆的道路环境感知和车辆控制方法、系统、设备及车辆 |
| US11001200B2 (en) * | 2019-05-30 | 2021-05-11 | Nissan North America, Inc. | Vehicle occupant warning system |
| CN111243289A (zh) * | 2020-01-21 | 2020-06-05 | 浙江大华技术股份有限公司 | 目标车辆的跟踪方法及装置、存储介质、电子装置 |
| JP7554699B2 (ja) * | 2021-03-31 | 2024-09-20 | 本田技研工業株式会社 | 画像処理装置および画像処理方法、車両用制御装置、プログラム |
| KR20230055722A (ko) * | 2021-10-19 | 2023-04-26 | 현대모비스 주식회사 | 차량의 타겟 감지 시스템 및 방법 |
| CN116168470B (zh) * | 2023-02-22 | 2024-11-12 | 浙江云通数达科技有限公司 | 一种获取车辆运行状态的数据处理系统 |
| TWI886634B (zh) * | 2023-11-13 | 2025-06-11 | 財團法人工業技術研究院 | 車間通訊透視警告系統及車間通訊透視警告方法 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007156756A (ja) * | 2005-12-02 | 2007-06-21 | Aisin Aw Co Ltd | 車車間通信システム |
| JP2010272128A (ja) * | 2010-07-12 | 2010-12-02 | Toshiba Corp | 道路走行支援システム |
| JP2016024778A (ja) * | 2014-07-24 | 2016-02-08 | 株式会社デンソー | 車両用報知システム、報知制御装置、及び報知装置 |
| JP2016126538A (ja) * | 2014-12-29 | 2016-07-11 | 西日本高速道路株式会社 | 道路情報提供システム |
| JP2016181239A (ja) * | 2015-03-25 | 2016-10-13 | 株式会社日本総合研究所 | 地域監視サーバ、提供端末及びそのシステム |
| JP2017055177A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | 画像処理装置、画像処理プログラムおよび画像処理システム |
Family Cites Families (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5983161A (en) * | 1993-08-11 | 1999-11-09 | Lemelson; Jerome H. | GPS vehicle collision avoidance warning and control system and method |
| US7426437B2 (en) * | 1997-10-22 | 2008-09-16 | Intelligent Technologies International, Inc. | Accident avoidance systems and methods |
| US6747687B1 (en) * | 2000-01-11 | 2004-06-08 | Pulnix America, Inc. | System for recognizing the same vehicle at different times and places |
| US8150617B2 (en) * | 2004-10-25 | 2012-04-03 | A9.Com, Inc. | System and method for displaying location-specific images on a mobile device |
| JP4525915B2 (ja) | 2005-02-16 | 2010-08-18 | 株式会社デンソー | 運転支援装置 |
| JP2007015675A (ja) | 2005-06-08 | 2007-01-25 | Daicel Chem Ind Ltd | エアバッグ用ガス発生器 |
| JP2008250503A (ja) | 2007-03-29 | 2008-10-16 | Aisin Aw Co Ltd | 運転支援装置 |
| JP4930187B2 (ja) | 2007-05-22 | 2012-05-16 | 株式会社デンソー | 運転支援システム |
| US8868028B1 (en) * | 2008-01-17 | 2014-10-21 | Calvin L. Kaltsukis | Network server emergency information accessing method |
| US8269797B2 (en) * | 2009-08-03 | 2012-09-18 | Ricoh Company, Ltd. | Appropriately scaled map display with superposed information |
| EP2486516A4 (en) * | 2009-10-07 | 2018-03-28 | iOnRoad Technologies Ltd. | Automatic content analysis method and system |
| KR101631497B1 (ko) * | 2009-11-13 | 2016-06-27 | 삼성전자주식회사 | 디스플레이 장치, 사용자 단말 장치 및 그 방법들 |
| US8774527B1 (en) * | 2009-12-07 | 2014-07-08 | Google Inc. | Matching an approximately located query image against a reference image set using cellular base station and wireless access point information |
| KR101562589B1 (ko) * | 2010-04-30 | 2015-10-23 | 엘지전자 주식회사 | 영상 표시 장치 및 그 방법 |
| DE102012103134A1 (de) * | 2011-04-12 | 2012-10-18 | Conti Temic Microelectronic Gmbh | Verfahren zur Warnung eines Fahrers eines Fahrzeugs vor rückwärtigem Verkehr |
| US8660735B2 (en) * | 2011-12-14 | 2014-02-25 | General Motors Llc | Method of providing information to a vehicle |
| US8493198B1 (en) * | 2012-07-11 | 2013-07-23 | Google Inc. | Vehicle and mobile device traffic hazard warning techniques |
| US9140782B2 (en) * | 2012-07-23 | 2015-09-22 | Google Technology Holdings LLC | Inter-vehicle alert system with nagable video look ahead |
| US9558408B2 (en) * | 2013-10-15 | 2017-01-31 | Ford Global Technologies, Llc | Traffic signal prediction |
| US9403482B2 (en) * | 2013-11-22 | 2016-08-02 | At&T Intellectual Property I, L.P. | Enhanced view for connected cars |
| WO2016070193A1 (en) * | 2014-10-31 | 2016-05-06 | Nodal Inc. | Systems, apparatus, and methods for improving safety related to movable/moving objects |
| US9836062B1 (en) * | 2015-01-20 | 2017-12-05 | State Farm Mutual Automobile Insurance Company | Analyzing telematics data to determine travel events and corrective actions |
| US9928741B2 (en) * | 2015-02-04 | 2018-03-27 | Here Global B.V. | Traffic adjustment for variable network state |
| US9574964B2 (en) * | 2015-07-07 | 2017-02-21 | Toyota Jidosha Kabushiki Kaisha | Mobile computer atmospheric barometric pressure system |
| JP6733225B2 (ja) * | 2016-03-08 | 2020-07-29 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
| US9891061B2 (en) * | 2016-04-10 | 2018-02-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Determining areas to avoid for navigation guidance |
| WO2018117631A1 (en) * | 2016-12-21 | 2018-06-28 | Samsung Electronics Co., Ltd. | Electronic apparatus and method of operating the same |
| US10026314B1 (en) * | 2017-01-19 | 2018-07-17 | GM Global Technology Operations LLC | Multi-vehicle sensor sharing |
| JP2018156462A (ja) * | 2017-03-17 | 2018-10-04 | 東芝メモリ株式会社 | 移動体及びそれを含む運転支援システム |
| US10101745B1 (en) * | 2017-04-26 | 2018-10-16 | The Charles Stark Draper Laboratory, Inc. | Enhancing autonomous vehicle perception with off-vehicle collected data |
-
2017
- 2017-03-17 JP JP2017053462A patent/JP2018156462A/ja active Pending
-
2018
- 2018-02-27 US US15/906,378 patent/US10262533B2/en active Active
-
2019
- 2019-04-01 US US16/371,315 patent/US10636304B2/en active Active
-
2020
- 2020-04-02 US US16/838,164 patent/US11315420B2/en active Active
-
2022
- 2022-03-28 US US17/705,766 patent/US12131637B2/en active Active
-
2024
- 2024-09-26 US US18/897,414 patent/US20250022371A1/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007156756A (ja) * | 2005-12-02 | 2007-06-21 | Aisin Aw Co Ltd | 車車間通信システム |
| JP2010272128A (ja) * | 2010-07-12 | 2010-12-02 | Toshiba Corp | 道路走行支援システム |
| JP2016024778A (ja) * | 2014-07-24 | 2016-02-08 | 株式会社デンソー | 車両用報知システム、報知制御装置、及び報知装置 |
| JP2016126538A (ja) * | 2014-12-29 | 2016-07-11 | 西日本高速道路株式会社 | 道路情報提供システム |
| JP2016181239A (ja) * | 2015-03-25 | 2016-10-13 | 株式会社日本総合研究所 | 地域監視サーバ、提供端末及びそのシステム |
| JP2017055177A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | 画像処理装置、画像処理プログラムおよび画像処理システム |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020094959A (ja) * | 2018-12-14 | 2020-06-18 | ヤフー株式会社 | 経路探索装置、経路探索方法、及び経路探索プログラム |
| JP2022532941A (ja) * | 2019-05-23 | 2022-07-20 | ストリートスコープ,インコーポレイテッド | 車両信号を処理して挙動危険性の測度を計算するための装置及び方法 |
| JP7354295B2 (ja) | 2019-05-23 | 2023-10-02 | ストリートスコープ,インコーポレイテッド | 車両信号を処理して挙動危険性の測度を計算するための装置及び方法 |
| US12325415B2 (en) | 2019-05-23 | 2025-06-10 | Systomix, Inc. | Apparatus and method for processing vehicle signals to compute a behavioral hazard measure |
| JP2021008258A (ja) * | 2019-07-01 | 2021-01-28 | 富士通株式会社 | スマートオブジェクトの知識の共有 |
Also Published As
| Publication number | Publication date |
|---|---|
| US12131637B2 (en) | 2024-10-29 |
| US20250022371A1 (en) | 2025-01-16 |
| US11315420B2 (en) | 2022-04-26 |
| US20190228653A1 (en) | 2019-07-25 |
| US20200234580A1 (en) | 2020-07-23 |
| US10262533B2 (en) | 2019-04-16 |
| US20220215751A1 (en) | 2022-07-07 |
| US10636304B2 (en) | 2020-04-28 |
| US20180268692A1 (en) | 2018-09-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20250022371A1 (en) | Moving object and driving support system for moving object | |
| US11958504B2 (en) | Method and apparatus for controlling a vehicle's driving operation using advance information | |
| US12005904B2 (en) | Autonomous driving system | |
| CN110349405B (zh) | 利用联网汽车的实时交通监视 | |
| JP6312831B2 (ja) | 走行支援システム及び走行支援方法 | |
| US11531354B2 (en) | Image processing apparatus and image processing method | |
| KR101622028B1 (ko) | 차량 통신을 이용한 차량 제어 장치 및 제어 방법 | |
| US11508161B2 (en) | Driving support system and server device | |
| JP6714513B2 (ja) | 車両のナビゲーションモジュールに対象物の存在を知らせる車載装置 | |
| JP4345832B2 (ja) | 道路状況検出システム | |
| US12181566B2 (en) | Information processing device, information processing method, computer program, and mobile device | |
| US11551373B2 (en) | System and method for determining distance to object on road | |
| CN107077781A (zh) | 用于建立道路交通参与者的运动模型的方法和设备 | |
| WO2016181618A1 (ja) | 監視対象領域設定装置および監視対象領域設定方法 | |
| JP2013033324A (ja) | 周辺車両情報通知装置 | |
| JP7310424B2 (ja) | 車両走行システム | |
| JP5924395B2 (ja) | 周辺車両情報通知装置 | |
| JP7382782B2 (ja) | 物体認識方法及び物体認識システム | |
| KR102678602B1 (ko) | 하이브리드 v2x기반의 항만협력자율주행 화물운송시스템의 차량에게 최적의 운행 경로를 안내하는 장치 및 방법 | |
| CN112567427B (zh) | 图像处理装置、图像处理方法和程序 | |
| JPWO2020036043A1 (ja) | 情報処理装置と情報処理方法とプログラム | |
| KR102680954B1 (ko) | 하이브리드 v2x기반의 항만협력자율주행 화물운송시스템에서 도로 위에서 발생하는 이벤트를 알려주는 장치 및 방법 | |
| WO2023187718A1 (en) | Adaptive advanced driver-assistance system (adas) | |
| KR102728602B1 (ko) | 하이브리드 v2x기반의 항만협력자율주행 화물운송시스템에서 cctv기반의 돌발상황 경고 알림 서비스를 제공하는 장치 및 방법 | |
| JP2021179759A (ja) | 電子制御装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20170531 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20170821 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20180907 |
|
| RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20180907 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190307 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200117 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200115 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200731 |