[go: up one dir, main page]

JP2022034571A - 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム - Google Patents

交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP2022034571A
JP2022034571A JP2018219912A JP2018219912A JP2022034571A JP 2022034571 A JP2022034571 A JP 2022034571A JP 2018219912 A JP2018219912 A JP 2018219912A JP 2018219912 A JP2018219912 A JP 2018219912A JP 2022034571 A JP2022034571 A JP 2022034571A
Authority
JP
Japan
Prior art keywords
analysis
unit
image
vehicle
inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018219912A
Other languages
English (en)
Inventor
崇弘 黒瀬
Takahiro Kurose
明紘 小川
Akihiro Ogawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2018219912A priority Critical patent/JP2022034571A/ja
Priority to PCT/JP2019/045414 priority patent/WO2020110857A1/ja
Publication of JP2022034571A publication Critical patent/JP2022034571A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Figure 2022034571000001
【課題】カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給する。
【解決手段】交通情報処理サーバは、インフラカメラからリアルタイムの画像の時系列を受信する画像受信部と、車両からその位置、移動の方向及び移動の速さを含む車両情報を受信する車両情報受信部と、各々が画像に対して互いに処理時間の異なる解析を行う複数の解析部を含む画像解析部と、画像解析部の解析結果をその処理時間により互いに区別して記憶する動的情報記憶部と、を含み、画像解析部は解析により画像の中に存在する物体の少なくとも地理的位置を検出し、繰返し指定されるタイミングの各々において、車両情報と物体の地理的位置とに基づき、各車両について動的情報記憶部に記憶された解析結果のいずれかを選択し、当該車両に配信する配信部とを含む。
【選択図】図1

Description

この発明は、交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラムに関する。
街頭監視カメラ(以下単に「カメラ」という。)等の固定設置されたセンサ(以下、インフラセンサという。)によるセンサ情報をサーバコンピュータ(以下、単にサーバという)にアップロードし、解析してセンサ情報として使用するシステムが提案されている。また、自動車及び自動二輪車等(以下、車両という)に自己位置、速さ、移動方向等を検出するためのセンサを搭載し、これらからのセンサ情報をサーバにアップロードして、インフラセンサによるセンサ情報とあわせて運転支援のための交通情報として使用することが提案されている。
インフラセンサを充実させることにより、こうしたシステムを適用可能な領域を広げることができ、交通の安全に資することが期待できる。しかし、インフラセンサとして利用できるセンサには複数の種類があり、それらの機能にも相違があるため、インフラセンサをどのように用いれば効果的かという問題がある。例えば、レーザレーダのように高速で処理が可能なセンサは、効果的だが高価であり、インフラセンサとして大量に設置することが難しい。一方、カメラは比較的安価であるが、カメラから得られた情報を処理して精度の高い情報を得るためには比較的長い時間が必要であり、逆に短い時間では相応の精度を持つ情報を得ることができない。
後掲の特許文献1は、複数のカメラから得られた画像とカメラパラメータとをサーバから車両に送信するシステムを開示している。車両に搭載されたカーナビゲーションシステムが、この画像とカメラパラメータと自車の進行方向とから画像内で自車の進行方向を示す矢印の画像を生成し、画像に合成して表示する。運転者は、離れた位置の画像を見るときも自車の進行方向を判断できるため、渋滞車両と自車両との位置関係、及び混雑の程度等を容易に把握できるとされている。
特開2004-021514号公報(段落41-45、図1―図45)
しかし上記した特許文献1のシステムは、運転者がモニタに表示された画像を見て画像の意味を解釈する必要があるという問題がある。特に動的情報をモニタに表示したりするときには画面をある時間注視する必要があり、運転に集中できないという問題がある。
こうした問題を解決するために、上記したカメラ以外の様々なインフラセンサを利用して収集したセンサ情報を用いて運転支援のための交通情報を生成し、運転者に提示することが考えられる。しかしそうしたシステムは必然的に高価となり、システムの普及が遅くなるという問題がある。
一方、カメラは比較的安価であるため、情報の抽出方法及び配信方法を工夫すれば、比較的小さなコストで有効なシステムを構築できる可能性がある。そのためには、どのようにすれば各車両に適切な情報を配信できるかという課題を解決する必要がある。特に動的情報を用いながら、運転者が画像を注視する必要がない態様で交通情報を受け入れることができるようなシステムが望ましい。
それ故にこの発明の目的は、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラムを提供することである。
この発明の第1の局面に係る交通情報処理サーバは、カメラからリアルタイムの画像の時系列を受信する画像受信部と、車両からその位置、移動の方向及び移動の速さを含む車両情報を受信する車両情報受信部と、各々が画像に対して互いに処理時間の異なる解析を行う複数の解析部を含む画像解析部と、画像解析部の解析結果をその処理時間により互いに区別して記憶する動的情報記憶部と、を含み、画像解析部は解析により画像の中に存在する物体の少なくとも地理的位置を検出し、繰返し指定されるタイミングの各々において、車両情報と物体の地理的位置及びその解析に要する時間とに基づき、各車両について動的情報記憶部に記憶された解析結果のいずれかを選択し、当該車両に配信する配信部とを含む。
この発明の第2の局面に係る交通情報の処理方法は、コンピュータが、カメラからリアルタイムの画像の時系列を受信するステップと、コンピュータが、車両からその位置、移動の方向及び移動の速さを含む車両情報を受信するステップと、コンピュータが、各々が画像に対して互いに処理時間の異なる解析を行う複数の解析処理を実行するステップと、コンピュータが、複数の解析処理の解析結果をその処理時間により互いに区別して記憶装置に記憶するステップと、画像解析により画像の中に存在する物体の少なくとも地理的位置が検出され、コンピュータが、繰返し指定されるタイミングの各々において、車両情報と物体の地理的位置とその解析に要する時間とに基づき、各車両について動的情報記憶部に記憶された解析結果のいずれかを選択し、当該解析結果を当該車両に配信するステップとを含む。
この発明の第3の局面に係るコンピュータプログラムは、無線通信装置を介して外部と無線通信可能なコンピュータを、カメラからリアルタイムの画像の時系列を受信する画像受信部と、無線通信装置を介して車両からその位置、移動の方向及び移動の速さを含む車両情報を受信する車両情報受信部と、各々が画像に対して互いに処理時間の異なる解析を行う複数の解析部を含む画像解析部と、画像解析部の解析結果をその処理時間により互いに区別して記憶する動的情報記憶部と、して機能させ、画像解析部は解析により画像の中に存在する物体の少なくとも地理的位置を検出し、さらに、繰返し指定されるタイミングの各々において、車両情報と画像から検出された物体の地理的位置とその解析に要する時間とに基づき、各車両について動的情報記憶部に記憶された解析結果のいずれかを選択し、当該解析結果を当該車両に配信する配信部として機能させる。
以上のようにこの発明によれば、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラムを提供できる。
この発明の構成及び効果は、図面及び詳細な説明から一層明確に理解できるであろう。
図1は、この発明の第1の実施の形態に係る交通インフラシステムの概略構成図である。 図2は、図1に示す簡易分類推論部の機能を説明するための模式図である。 図3は、簡易分類推論部の構成を示すブロック図である。 図4は、図1に示す属性推論部の機能を説明するための模式図である。 図5は、属性推論部の構成を示すブロック図である。 図6は、図1に示す詳細属性推論部の機能を説明するための模式図である。 図7は、詳細属性推論部の構成を示すブロック図である。 図8は、図1に示す行動予測推論部の機能を説明するための模式図である。 図9は、行動予測推論部の構成を示すブロック図である。 図10は、図1に示す交通情報処理サーバのハードウェア構成を示すブロック図である。 図11は、図1に示す交通情報処理サーバが交通情報配信のために実行するプログラムの制御構造を示すフローチャートである。 図12は、簡易分類推論部の機能を実現するプログラムの制御構造を示すフローチャートである。 図13は、属性推論部の機能を実現するプログラムの制御構造を示すフローチャートである。 図14は、詳細属性推論部の機能を実現するプログラムの制御構造を示すフローチャートである。 図15は、行動予測推論部の機能を実現するプログラムの制御構造を示すフローチャートである。 図16は、配信処理部の機能を実現するプログラムの制御構造を示すフローチャートである。 図17は、図16に示す配信処理を実行するプログラムの制御構造を示すフローチャートである。 図18は、この発明の第2の実施の形態に係る交通インフラシステムの交通情報処理サーバの概略構成図である。 図19は、縮小画像による簡易分類推論部の構成を示すブロック図である。 図20は、第2の実施の形態において縮小画像による簡易分類推論部を実現するプログラムの制御構造を示すフローチャートである。 図21は、第2の実施の形態において簡易分類推論部を実現するプログラムの制御構造を示すフローチャートである。 図22は、第2の実施の形態において配信処理部を実現するプログラムの制御構造を示すフローチャートである。 図23は、第2の実施の形態において配信処理スレッドを生成する処理を実現するプログラムの制御構造を示すフローチャートである。 図24は、この発明の第3の実施の形態に係る交通インフラシステムの概略構成図である。 図25は、第3の実施の形態に係る交通情報処理サーバの配信処理部を実現するプログラムの制御構造を示すフローチャートである。
図26は、この発明の第4の実施の形態に係る交通インフラシステムの交通情報処理サーバの概略構成図である。
[この発明の実施形態の説明]
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。また、以下の各実施の形態の一部を互いに組合せても良い。
この発明の第1の局面に係る交通情報処理サーバは、カメラからリアルタイムの画像の時系列を受信する画像受信部と、車両からその位置、移動の方向及び移動の速さを含む車両情報を受信する車両情報受信部と、各々が画像に対して互いに処理時間の異なる解析を行う複数の解析部を含む画像解析部と、画像解析部の解析結果をその処理時間により互いに区別して記憶する動的情報記憶部と、を含み、画像解析部は解析により画像の中に存在する物体の少なくとも地理的位置を検出し、繰返し指定されるタイミングの各々において、車両情報と物体の地理的位置及びその解析に要する時間とに基づき、各車両について動的情報記憶部に記憶された解析結果のいずれかを選択し、当該車両に配信する配信部とを含む。
画像が入力されると、その画像に対して互いに処理時間の異なる複数の解析部が解析を行う。その結果は、処理時間により互いに区別して動的情報記憶部に記憶される。配信部は、車両情報と画像の中に存在する物体の地理的位置とその解析に要する時間とに基づき、動的情報記憶部に記憶された解析結果のいずれかを選択して車両に配信する。車両と物体の地理的位置とに基づいて解析部の出力を選択するため、車両と物体の地理的位置に関連して定まる処理時間で得られる解析結果が車両に配信される。したがって、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
好ましくは、配信部は、タイミングの各々において、車両情報と物体の地理的位置とに基づき、各車両について動的情報記憶部に記憶された解析結果のうち、車両情報と物体の地理的位置とにより定まるしきい値より短い処理時間で得られる解析結果を累積的に選択して当該車両に配信する累積的配信部を含む。
車両情報と物体の地理的位置とに基づいて選択された解析結果に加え、その解析結果よりも処理時間が短い解析結果も車両に配信される。ある処理時間を要する解析結果を有効に利用できる車両の場合、それよりも処理時間の短い解析結果も同様に、又はそれ以上に有効に利用できる。その結果、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
より好ましくは、複数の解析部の解析結果は、処理時間の最も短い解析部の処理結果からより長い解析部の処理結果となるにしたがって階層が上となるように階層構造をなし、動的情報記憶部は、複数の解析部の解析結果を階層構造として記憶し、累積的配信部は、タイミングの各々において、階層構造のうち、しきい値より短い処理時間で得られる解析結果を含む1又は複数の階層を各車両について選択し、当該選択された階層の解析結果を当該車両に配信する階層的配信部を含む。
階層構造中において、ある階層以下の階層の解析結果は、その階層の解析結果を出力した解析部が要した解析時間より短い解析時間で得られたものであり、より現在に近い画像から得られたものである。選択された解析部の解析結果に加え、その解析部よりも処理時間が短い解析部の解析結果も車両に配信されることになる。ある処理時間を要する解析結果を有効に利用できる車両の場合、それよりも処理時間の短い解析結果、すなわちより現在に近い画像から得られた解析結果も同様に、又はそれ以上に有効に利用できる。その結果、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
さらに好ましくは、配信部は、タイミングの各々において、車両情報により特定される車両の中で、カメラの画像から検出された物体に向かって移動する車両を解析結果の配信の対象車両として選択し、それ以外の車両を対象車両から除外する対象車両選択部と、対象車両選択部により対象車両が選択されたことに応答して、車両情報と検出された物体の地理的位置及びその解析に要する時間とに基づき、対象車両の各車両について動的情報記憶部に記憶された解析結果のいずれかを選択して当該車両に配信する第2の配信部とを含む。
カメラからの画像から検出された物体に向かって移動する車両以外に解析結果を配信しても有効に利用できない。当該物体に向かって移動する車両のみに解析結果を配信することで、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給でき、通信量を削減できる。
好ましくは、第2の配信部は、対象車両選択部により対象車両が選択されたことに応答して、タイミングの各々において、車両情報と検出された物体の地理的位置及びその解析に要した時間とに基づき、各車両について動的情報記憶部に記憶された解析結果のうち、当該解析結果を得るための処理時間が所定のしきい値より短い解析結果を累積的に選択して当該車両に配信する第3の配信部を含む。
車両情報とカメラの画像から検出された物体の地理的位置及びその解析に要した時間とに基づいて選択された解析結果に加え、その解析結果よりも短い処理時間で得られる解析結果も車両に配信される。ある処理時間を要する解析結果を有効に利用できる車両の場合、それよりも処理時間の短い解析結果も同様に、又はそれ以上に有効に利用できる。その結果、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
より好ましくは、複数の解析部は、処理時間が複数の解析部の内で最も短い第1の解析部と、処理時間が第1の解析部より長い第2の解析部とを少なくとも含み、配信部は、車両情報により特定される車両の各々に対して、当該車両のカメラから検出された物体との距離と第1のしきい値とを比較する第1の比較部と、第1の比較部による比較結果に応じて、第1の解析部の解析結果を動的情報記憶部から読出して当該車両に配信する処理と、第1の解析部及び第2の解析部の解析結果を動的情報記憶部から読出して当該車両に配信する処理と、を選択的に実行する、配信実行部とを含む。
カメラの画像から検出された物体と車両との距離が第1のしきい値以下、又はそれより小さいときには、車両がその物体の位置まで到達する時間は相対的に短い。そうした車両には、処理時間が短い第1の解析部の解析結果を配信することで、検出された物体の位置での現在の状態に近い情報を車両に配信できる。また、古い画像から得られた解析結果を車両に配信しても役に立たない。そのため、通信帯域を無駄にせず、車両は配信された情報を用いて有効に運転者を支援できる。一方、車両と物体との距離が第1のしきい値より大きいときには車両がその物体の位置まで移動する時間は相対的に長い。そのため、現在の状態だけではなく、それより前の情報を配信しても有効に利用できる。その結果、選択された解析結果に加え、その解析結果よりも短い処理時間で得られる解析結果も車両に配信される。ある処理時間を要する解析結果を有効に利用できる車両の場合、それよりも処理時間の短い解析結果も同様に、又はそれ以上に有効に利用できる。その結果、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
さらに好ましくは、第1の解析部は、画像受信部が受信する画像を入力として受け、当該画像中に存在する物体と、当該物体の属するクラスと、当該物体の地理的位置とを解析する分類解析部を含み、第2の解析部は、第1の解析部の出力に基づいて、第1の解析部が解析した物体の属性を解析する属性解析部を含む。
第2の解析部は、第1の解析部の処理結果に基づいて物体の属性を解析する。したがって第2の解析部の解析結果が得られるのは第1の解析部の処理結果より後になる。第1の解析部の解析結果と、第1及び第2の解析部の解析結果を累積したものとを、車両とカメラの位置との間の距離に応じて車両に配信する。第2の解析部の解析結果を送っても有効に利用できない車両に対しては第2の解析部の解析結果を送信しないことで通信帯域を有効に利用できる。一方、それよりも相対的にカメラから遠い車両では、第1の解析部の解析結果も、第2の解析部の解析結果もともに有効に利用できる。その結果、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
好ましくは、第2の解析部は、第1の解析部の出力を利用して画像に対する解析を行う。
第2の解析部は、第1の解析部の処理結果を利用する。したがって、第2の解析部の解析結果が得られるのは第1の解析部の処理結果より後になる。第1の解析部の解析結果と、第1及び第2の解析部の解析結果を累積したものとを、車両と物体の位置との間の距離に応じて車両に配信する。第2の解析部の解析結果を送っても有効に利用できない車両に対しては第2の解析部の解析結果を送信しないことで通信帯域を有効に利用できる。一方、それよりも相対的に物体から遠い車両では、第1の解析部の解析結果も、第2の解析部の解析結果もともに有効に利用できる。その結果、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
より好ましくは、第2の解析部は、一時に1枚の画像に対する解析を実行する単一画像解析部を含み、第1の解析部は、ある画像に対する解析が終了したときに単一画像解析部が他の画像に対する解析中か否かを判定する判定部と、当該判定部の判定結果に応じて、単一画像解析部のある画像に対する解析の実行をスキップする処理と、単一画像解析部のある画像に対する解析の実行を開始させる処理とを選択的に実行する。
第2の解析部が第1の解析部の出力を利用する場合、新たな画像についての第1の解析部の処理終了時にまだ第2の解析部が処理中であれば、第2の解析部はこの新たな画像を処理しないことになる。計算資源が潤沢でないときにはこのように第2の解析部の処理を間引きすることで全体の動作を維持できる。第2の解析部の出力を利用する解析部がある場合、それらの解析部がこの新たな画像を処理することもない。したがってさらに計算資源を節約できる。
さらに好ましくは、複数の解析部の各々は、1つの画像が入力されると同時に当該画像を入力として画像解析を開始し、複数の解析部の他のどの解析部からの出力も入力として受けないで動作する。
各解析部がそれぞれ独立に動作する場合、各解析部の処理が他の解析部による処理結果に影響されることはない。その結果、効率的に各画像に対する解析を行える。
好ましくは、複数の解析部の各々は、1つの画像が入力されるごとに、その画像を処理するための解析処理を開始して並列で実行し、画像ごとに解析結果を出力する。
各解析部が、1つの画像が入力されるごとにその画像を処理するための解析処理を開始する。全ての画像に対して、全ての解析処理が行われるので、どの処理についても、得られる解析結果の間の時間間隔が元の画像を受信した間隔と同じになる。したがって、どのようなタイミングで解析結果を車両に配信しても、各解析部からの出力でそのときに利用可能な最新の解析結果を車両に配信できる。
この発明の第2の局面に係る交通情報の処理方法は、コンピュータが、カメラからリアルタイムの画像の時系列を受信するステップと、コンピュータが、車両からその位置、移動の方向及び移動の速さを含む車両情報を受信するステップと、コンピュータが、各々が画像に対して互いに処理時間の異なる解析を行う複数の解析処理を実行するステップと、コンピュータが、複数の解析処理の解析結果をその処理時間により互いに区別して記憶装置に記憶するステップと、画像解析により画像の中に存在する物体の少なくとも地理的位置が検出され、コンピュータが、繰返し指定されるタイミングの各々において、車両情報と物体の地理的位置とその解析に要する時間とに基づき、各車両について動的情報記憶部に記憶された解析結果のいずれかを選択し、当該解析結果を当該車両に配信するステップとを含む。
画像が入力されると、その画像に対して互いに処理時間の異なる複数の解析が行なわれる。その結果は、処理時間により互いに区別して記憶装置に記憶される。配信するステップでは、車両情報とカメラの画像から検出された物体の地理的位置とに基づき、動的情報記憶部に記憶された解析結果のいずれかを選択して車両に配信する。車両と物体の地理的位置とに基づいて解析処理の出力を選択するため、車両と物体の位置に関連して定まる処理時間の解析処理の出力が車両に配信される。したがって、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
この発明の第3の局面に係るコンピュータプログラムは、無線通信装置を介して外部と無線通信可能なコンピュータを、カメラからリアルタイムの画像の時系列を受信する画像受信部と、無線通信装置を介して車両からその位置、移動の方向及び移動の速さを含む車両情報を受信する車両情報受信部と、各々が画像に対して互いに処理時間の異なる解析を行う複数の解析部を含む画像解析部と、画像解析部の解析結果をその処理時間により互いに区別して記憶する動的情報記憶部と、して機能させ、画像解析部は解析により画像の中に存在する物体の少なくとも地理的位置を検出し、さらに、繰返し指定されるタイミングの各々において、車両情報と画像から検出された物体の地理的位置とその解析に要する時間とに基づき、各車両について動的情報記憶部に記憶された解析結果のいずれかを選択し、当該解析結果を当該車両に配信する配信部として機能させる。
画像が入力されると、その画像に対して互いに処理時間の異なる複数の解析が行われる。その結果は、処理時間により互いに区別して動的情報記憶部に記憶される。配信部は、車両情報とカメラの画像から検出された物体の地理的位置とに基づき、解析結果のいずれかを選択して車両に配信する。車両と検出された物体の地理的位置とに基づいて解析結果を選択するため、車両と物体の位置に関連して定まる処理時間の解析結果が車両に配信される。したがって、カメラから得られた動的な画像を用いて、運転支援のための適切な情報を、適切なタイミングで運転者に供給できる。
[この発明の実施形態の詳細]
この発明の実施形態に係る交通インフラシステム、交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラムの具体例を、以下に図面を参照しつつ説明する。なお、この発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
<第1の実施の形態>
〈構成〉
図1を参照して、第1の実施の形態に係る交通インフラシステム100は、交差点等の信号110等に設けられ、その交差点を含む一定領域の画像を連続して撮像し出力するインフラカメラ114と、インフラカメラ114から出力される画像の時系列を受信し解析して、交差点付近にいる歩行者112等、路上の車両118、120、122、及び124等の運転者が注意すべき対象物に関する情報を各車両に配信する交通情報処理サーバ116とを含む。
交通情報処理サーバ116は、インフラカメラ114からの画像の時系列をリアルタイムで受信するカメラ画像受信部150と、カメラ画像受信部150が受信した画像の時系列に対して所定の画像解析を行い、解析結果を出力する画像解析部152と、画像解析部152の出力する画像解析結果を記憶し蓄積する動的情報記憶部154とを含む。この実施の形態では、画像解析部152が画像に対して処理時間の異なる複数の推論処理を行って歩行者112等の対象物の位置、属性等を解析結果として出力する。これら複数の推論処理に要する時間はその複雑さに応じて異なる。
動的情報記憶部154は、処理時間の異なる複数の推論処理の結果を互いに区別して、処理時間の短いものが下位階層を、処理時間の長いものがその上位階層を、それぞれ形成するように階層的に記憶する。
交通情報処理サーバ116はさらに、車両118、120、122、124等の車両から、各車両の位置、移動方向、及び移動の速さ等を含む車両情報を無線通信により受信する車両情報受信部156と、この車両情報を記憶する車両情報記憶部158と、一定時間ごとに、車両情報記憶部158に記憶された車両情報により特定される車両の中で解析結果を送信すべき対象車両を選択し、当該対象車両の車両情報と、インフラカメラ114が撮像した画像から得られた検出物体の位置と、画像解析部152の中で解析結果を出力した推論処理に要する処理時間の長さとに基づいて、動的情報記憶部154に記憶された解析結果を選択して配信する配信処理部160とを含む。
この実施の形態では、画像解析部152は、カメラ画像受信部150が受信した各画像について、その画像中の対象物の画像中の概略位置、その分類、及びその地理的位置を示す位置座標を推論する簡易分類推論部180と、簡易分類推論部180により推論された対象物の画像中の概略位置に基づいて画像から対象物の画像を抽出し、その属性を推論する属性推論部182と、属性推論部182が元の画像から抽出した画像の解像度を高める処理を行い、得られた高解像度の画像から対象物の詳細な属性を推論する詳細属性推論部184と、簡易分類推論部180、属性推論部182、詳細属性推論部184の推論結果、及びこれらの過去の推論結果に基づいて、簡易分類推論部180により検出された対象物の今後の行動を予測する行動予測推論部186とを含む。
一方、配信処理部160は、車両情報記憶部158に記憶された車両情報と、インフラカメラ114が撮像した画像から検出された検出物体と車両118、120、122、124との距離とに基づいて、動的情報記憶部154に記憶されている情報を各車両に対して選択し、送信する機能を持つ。この実施の形態では、各車両に対して送信する情報は、各車両と検出物体との距離を第1~第3のしきい値D1~D3と比較し、その結果と各車両の移動の速さとに応じて選択する。配信処理部160による情報の選択方法については図16及び図17を参照して後述する。
《簡易分類推論部180》
図2を参照して、図1に示した簡易分類推論部180は、入力された画像200の中で運転者が注意すべき対象物の概略位置と、その概略の分類とを推論する。例えば簡易分類推論部180は、画像200の中の歩行者の画像を囲む四角形であるバウンディングボックス(枠210)と、それが歩行者であるという推論結果とを出力する。こうした処理については、予め教師データにより訓練を行った畳込みニューラルネットワークにより高速に行うことができる。このためのプログラムとして高速に動作するものに、例えばtinyYOLO (https://pjreddie.com/darknet/yolo/)がある。tinyYOLOによれば、動画像中のオブジェクトのバウンディングボックスと、そのオブジェクトが属するクラスとを推論結果として出力する。tinyYOLOによれば、推論結果には信頼度も付随して出力される。したがって、予め運転者が注意すべき対象物のクラスを含む画像と、それ以外の対象物を含む画像とを教師データとしてこの畳込みニューラルネットワークを訓練しておき、注意すべき対象物のクラスに属するオブジェクトであってその信頼度が所定値以上のものを選択する、等により対象物の位置とその分類との推論結果を得ることができる。
なお、このtinyYOLOでは、精度を調整することもできる。またtinyYOLOより高精度のツールも発表されている。ただし精度が上がればニューラルネットワークへの入力、隠れ層の数、及び隠れ層内のニューロン数が増加するので、処理時間が長くなることはいうまでもない。
簡易分類推論部180は、上記したような処理により画像200の各々に対し、その中で運転者が注意すべきクラスに属する対象物、すなわち歩行者等の対象物の画像の枠210を検出して画像202を出力し、その対象物のクラス(歩行者、自転車、自動車、動物、…)を簡易分類推論の結果として出力する。簡易分類推論部180はまた、対象物の画像中の位置及びそのクラスに基づいて、その対象物の地理的な位置座標を推定し出力する。これら簡易分類推論の結果は画像が撮像されたときのタイムスタンプとともに動的情報記憶部154に記憶される。
図3を参照して、簡易分類推論部180は、画像200を所定の大きさの画像に正規化する画像正規化処理部230と、画像正規化処理部230により正規化された画像を受け、対象物の位置とそのクラスとを検出し、各対象物について、対象物を囲む枠の座標と、対象物が属するクラス識別子と、クラス分類の信頼度と、対象物の地理的な位置座標とからなる簡易分類推論結果234、236、238等を出力する、予め学習済の畳込みニューラルネットワーク232とを含む。畳込みニューラルネットワーク232の実体は、この実施の形態では上記したtinyYOLO等のプログラムである。なお、ここで言う正規化とは、画像を縦横それぞれ所定の数に分割することで所定個数のブロックに区分することをいう。なおこのように画像を正規化するのは、畳込みニューラルネットワーク232の入力数が所定数でなければならないという制約による。なお、畳込みニューラルネットワーク232の学習は、カメラの仕様、その設置位置及び姿勢と、撮像対象領域に関する情報に基づいて、学習用の画像を大量に人工的に合成して行うことができる。
《属性推論部182》
図4を参照して、属性推論部182が行う歩行者等の対象物の属性を推論する処理は、画像202の中の枠210のような各枠から対象物の各々の画像を切出し、切出された画像中の対象物の画像250から、その対象物の体の向き、人であれば大人又は子供等の区別等の属性を推論し、属性推論結果274として動的情報記憶部154に元の画像のタイムスタンプとともに出力する機能を持つ。
図5を参照して、このために属性推論部182は、基本的には属性推論部182と同様の処理をより時間をかけて行うものであって、画像202から切出された画像250を、簡易分類推論部180による正規化よりも細かいブロック(より多くのブロック数)で正規化する処理を行う画像正規化処理部270と、画像正規化処理部270により正規化された画像を入力として、対象物の体が向いている方向と、対象物が人間であるとして老人、大人、子供のいずれであるかを推論し、属性推論結果274として出力する畳込みニューラルネットワーク272とを含む。
畳込みニューラルネットワーク272の構成も、図3に示す畳込みニューラルネットワーク232と同様である。ただし図5に示す画像正規化処理部270は、画像を画像正規化処理部230よりも細かいブロックに分け、全体としてより多数のブロックからなる画像に正規化する。したがって畳込みニューラルネットワーク272への入力数は、図3の畳込みニューラルネットワーク232への入力数よりも多くなる。その結果、画像正規化処理部270による推論では畳込みニューラルネットワーク232による推論よりさらに細かい属性に関する推論を行える。しかし同時にその処理に要する時間も長くなる。
この実施の形態では、属性推論結果274は、対象物のクラスが人間であるとして、その体の向きが周囲の8方向をそれぞれ向いている確率を含む。この方向は、人間がカメラの方向を向いている姿勢を基準とし、その人間の軸を中心に時計回りに45度ずつ回転した8つの方向である。すなわちこの情報は8個の確率値を含み、それらの和は1となる。属性推論結果274はさらに、対象物である人間が老人、大人、及び子供という年齢層のいずれに属するかを示す確率をそれぞれ出力する。これらは全部で3個の確率値を含み、その和は1となる。
最終的には、たとえば姿勢と年齢層との組合せが最も確率の高いものを体の向き及び年齢層の区別として選択する。
《詳細属性推論部184》
図6を参照して、詳細属性推論部184は、属性推論部182よりもさらに詳細な属性を推論する機能を持つ。すなわち、詳細属性推論部184は、切出された画像250に対して超解像処理と呼ばれる処理を行って高解像度画像290を生成し、この高解像度画像290に対して詳細属性の推論を行い、動的情報記憶部154に出力する。ここでの詳細属性は、顔の向き及び姿勢である。
顔の向きは、周囲8方向の各々について、顔がその方向を向いている確率と、上下5方向の各々について、顔がその方向を向いている確率とを含む。姿勢は、対象物が人であれば、人体骨格の特徴的な点の集合からなる3次元骨格座標として表される。ここでは、各特徴点に対して顔の位置を基準とした座標の候補を確率付きで推定し、それらの組合せの中で最も確率の高いものを3次元骨格座標とする。
図7を参照して、このために詳細属性推論部184は、切出された画像250を所定の個数のブロックに分割する正規化処理を行って正規化画像を出力する画像正規化処理部300と、この正規化画像に対して超解像処理を行って高解像度画像290を生成し出力するための超解像処理部302と、高解像度画像290を入力として、詳細属性306を出力する、予め訓練済の畳込みニューラルネットワーク304とを含む。
画像正規化処理部300による正規化処理は、画像正規化処理部270による正規化処理よりもさらに多数のブロックに画像250を分割する。超解像処理部302は、これら各ブロックに対して予め準備した超解像復元モデル(図示せず)を適用して低解像度である部分の解像度を高める処理を行う。
超解像処理として、ここでは、予め訓練済の超解像復元モデルを用い、低い解像度の画像の各部を、その元になったであろう高解像度の画像で置換することで、全体として解像度が高くなった画像を得る、という技術である。超解像度復元モデルとは、高解像度の画像と、その画像の解像度を下げた画像とのペアを多数記憶したデータベースと考えれば良い。低解像度の画像の各部について、データベース中で最も類似した低解像度画像を見つけ、その低解像度画像とペアになっている高解像度画像で置換することで画像のその部分が高解像度化される。
高解像度画像290を構成する画素数が超解像処理部302による処理で増加するため、畳込みニューラルネットワーク304への入力数も増加し、畳込みニューラルネットワーク304による推論処理に要する時間は長くなる。しかし、高解像度画像290が元の画像に近い画像であれば、対象物(例えば人)の詳細な属性(顔の向き及び姿勢)を推定できる。
《行動予測推論部186》
図8を参照して、行動予測推論部186は、動的情報記憶部154に記憶された、過去に取得された動的情報を用いて対象物の行動を予測し、行動予測結果310を動的情報記憶部154に出力する。最新の情報に加えて過去の情報を用いる必要があるため、行動予測推論部186による行動予測は他のどの処理と比較しても長い時間が必要となる。
図9を参照して、こうした行動予測を行うために、行動予測推論部186は、動的情報記憶部154に記憶された、ある対象物の最新の簡易分類推論結果、属性推論結果、詳細属性結果、及び行動予測結果をそれらのタイムスタンプとともに入力として受け、一定時間後のその対象物の行動予測(行動種別及び予測位置)を表す情報を出力するための、学習済のリカレント型ニューラルネットワーク320を含む。なお、ここでのタイムスタンプとしては、最新の簡易分類予測に付されたタイムスタンプと、各解析結果に付されたタイムスタンプとの差分を用いる。タイムスタンプとして差分を用いることで、訓練データが疎になることが防止できる。なお、タイムスタンプとして、簡易分類予測のタイムスタンプとの差分に加え、時間のみのタイムスタンプ、又は1時間よりも短いサイクル(例えば2分ごと)でリセットされるタイムスタンプを利用しても良い。時刻により歩行者の行動に相違が生じる可能性がある一方、あまり長い単位でタイムスタンプを利用すると学習データが不足するおそれがあるためである。タイムスタンプの利用については、他の実施の形態でも同様である。
なお、リカレント型ニューラルネットワーク320を用いるため、リカレント型ニューラルネットワーク320には最新の情報のみを入力として与えればよい。以前の入力に基づいた情報がリカレント型ニューラルネットワーク320内に記憶されており、その情報が後の処理に反映される。すなわち、ニューラルネットワークの出力には過去の入力情報が反映されるためである。リカレント型ニューラルネットワークのこうした性質は、この実施の形態のような行動予測に最適である。LSTM(Long Short-Term Memory)ネットワーク等でも同様である。なお、この実施の形態では、行動種別については予め定めた何種類かの行動種別(止まる、歩き出す、走り出す、反転する、等)に分類し、その各々についての確率の形でリカレント型ニューラルネットワーク320から出力を得る。また予測位置としては、現在の対象物の位置を中心として周囲を一定数の区画にわけ、一定時間後にそれら区画にその対象物が移動する確率の形でリカレント型ニューラルネットワーク320から出力を得る。最終的には行動種別と予測位置との組合せのうち、確率が最も高いものを行動種別と予測位置として採用する。
《コンピュータによる実現》
―ハードウェア構成―
図1に示す交通情報処理サーバ116はコンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムとにより実現可能である。図10を参照して、交通情報処理サーバ116を実現するコンピュータシステム330は、インターネット等のネットワーク342に接続可能で、アンテナ346を用いた無線通信により車両等と通信可能なコンピュータ340を含む。
コンピュータ340は中央演算処理装置(CPU:Central Processing Unit)350と、CPU350に接続され、CPU350と他の各機能部との通信路及び各機能部間の通信路を提供するバス352と、バス352に接続されたGPU(Grphpic Processing unit)354と、バス352に接続されたROM(Read-Only Memory)356と、バス352に接続され、CPU350に対する主記憶として機能するRAM(Ramdom Access Memory)358と、バス352に接続され、CPU350が実行する制御プログラム、制御プログラム実行に必要な情報、画像の時系列、車両情報、各ニューラルネットワークのパラメータ及び本願発明を実施するためのプログラム、及び動的情報等を記憶するためのハードディスクドライブ360とを含む。GPU354が存在しているため、ニューラルネットワークに関する演算、特に大量のデータに対する演算を行う必要がある学習に係る時間を短縮できる。
コンピュータ340はさらに、バス352に接続され、CPU350に対して、車両等との無線通信を提供するための、アンテナ346を持つ無線通信装置362と、バス352に接続され、CPU350に対してネットワーク342への接続を提供するネットワークインターフェイス(I/F)364と、外部機器からの信号344の入出力のために設けられた、バス352に接続された入出力I/F366とを含む。なお、ハードディスクドライブ360に代えて、SSD(Solid State Drive)を用いても良い。
―画像解析部のプログラム構成―
図1に示す画像解析部152は、いくつかのプログラムをコンピュータ340で実行することにより実現できる。この実施の形態では、簡易分類推論部180、属性推論部182、詳細属性推論部184、及び行動予測推論部186はいずれも別々のプログラムで実現される。図11に示すプログラムは、これらの内、簡易分類推論部180を実現するプログラムを起動するためのプログラムの制御構造を示すフローチャートである。
このプログラムは、カメラ画像受信部150が新たな画像を受信したことに応答して起動され、簡易分類推論実行中フラグがセットされているか否かを判定し、判定結果に応じて制御の流れを分岐させるステップ390を含む。簡易分類推論実行中フラグとは、簡易分類推論部180を実現するプログラム(以下「簡易分類推論ルーチン」と呼ぶ。)がある画像に対する簡易分類推論処理を開始したときにセットし、終了したときにリセットするフラグである。この実施の形態では、簡易分類推論部180は一時には1つの画像しか処理できない形態であるため、簡易分類推論部180が実行中か否かを判定する必要がある。この実施の形態では、簡易分類推論部180が実行中であれば、簡易分類推論部180は次の画像を処理できない。こうした状態をビジー状態と呼ぶ。簡易分類推論部180が何ら処理を実行していないときをアイドル状態と呼ぶ。
このプログラムはさらに、ステップ390の判定が否定のときに、簡易分類推論処理ルーチンに開始を指示して処理を終了するステップ392を含む。ステップ390の判定が肯定のときにはこの処理はそれ以上何もせずに終了する。すなわち、このプログラムによれば、画像を受信したときに簡易分類推論処理ルーチンがビジーであればその画像については何も処理しない。簡易分類推論処理ルーチンがアイドルのときだけ当該プログラムを起動し、入力に対する簡易分類推論処理を実行する。
このような処理をすると、画像によっては処理されないものが出てくる可能性があるが、通常は簡易分類推論処理の実行時間は短く、全ての画像に対する処理が実行されると考えて良い。
図12を参照して、図11のステップ392において起動される簡易分類推論ルーチンは、簡易分類推論実行中フラグをセットするステップ410と、ステップ410に続いて簡易分類推論を開始するステップ412とを含む。この処理では、実際には、図3に示す様に、入力された画像に対して正規化処理を行った後、正規化後の画像を畳込みニューラルネットワーク232に入力し、簡易分類推論結果234、236及び238等を畳込みニューラルネットワーク232から受取る。簡易分類推論結果は、畳込みニューラルネットワーク232が検出した特定のクラス(人等)のオブジェクトの数だけ出力される。
このプログラムはさらに、ステップ412の処理の結果得られた推論結果を元の画像のタイムスタンプとともに動的情報記憶部154に格納するステップ414と、属性推論実行中フラグがセットされているか否かを判定し、その判定に応じて制御の流れを分岐させるステップ416とを含む。属性推論実行中フラグは、後述するように簡易分類推論実行中フラグと同様、属性推論ルーチンがある画像に対して属性推論処理の実行を開始したときにセットされ、終了したときにリセットされる。このフラグがセットされていると属性推論ルーチンはビジーであり新たな画像に対する処理を開始できない。
このプログラムはさらに、ステップ416の判定が否定のときに、簡易分類推論が完了した画像を属性推論処理ルーチンに渡し、その開始を指示するステップ418と、ステップ418の終了後、簡易分類推論実行中フラグをリセットして処理を終了するステップ420とを含む。ステップ416の判定が肯定のときにはステップ418の処理を実行することなく制御はステップ420に進む。
このような構造を持つ簡易分類推論処理ルーチンを採用すると、属性推論処理ルーチンに時間がかかって前の画像に対する推論処理が完了していない場合には、新たに入力された画像に対しては簡易分類推論処理のみを実行し、属性推論処理は実行しないことになる。
図13を参照して、図12のステップ418で起動される属性推論処理ルーチンは、属性推論実行中フラグをセットするステップ440と、簡易分類推論部180による処理で特定されたオブジェクトの枠の各々について、その枠内のオブジェクトの画像に対する属性推論を開始するステップ442と、推論結果を動的情報記憶部154に元の画像のタイムスタンプとともに格納するステップ444と、図1の詳細属性推論部184を実現する詳細属性推論ルーチンがビジーか否かを示す詳細属性推論実行中フラグがセットされているか否かを判定し、結果にしたがって制御の流れを分岐させるステップ446とを含む。
このプログラムはさらに、ステップ446の判定が否定のときに、対象となるオブジェクトの画像を詳細属性推論処理ルーチンに渡して詳細属性推論処理の開始を指示するステップ448と、属性推論実行中フラグをリセットして処理を終了するステップ450とを含む。ステップ446の判定が肯定のときにはステップ448は実行されず、制御は直接にステップ450に進む。
図14を参照して、図13のステップ448で起動される詳細属性推論処理ルーチンは、詳細属性推論実行中フラグをセットするステップ470と、詳細属性推論を開始するステップ472と、推論結果を元画像が撮像されたときのタイムスタンプとともに動的情報記憶部154に格納するステップ474とを含む。ステップ472の処理は、図7に示すとおりであって、切出された画像250に対して画像正規化を行い、超解像処理を行って高解像度画像290を得る。この高解像度画像290を入力として畳込みニューラルネットワーク304に与えることで、畳込みニューラルネットワーク304の出力に詳細属性306が得られる。
このプログラムはさらに、行動予測実行中フラグがセットされているか否かを判定し、結果にしたがって制御の流れを分岐させるステップ476と、ステップ476の判定が否定のときに、行動予測推論処理ルーチンを起動するステップ478と、詳細属性推論実行中フラグをリセットして処理を終了するステップ480とを含む。ステップ476の判定が肯定のときにはステップ478の処理は実行せず、制御は直接ステップ480に進む。
ここで、行動予測推論処理実行中フラグとは、行動予測推論部186に相当するプログラムの実行開始時にセットされ、実行終了時にリセットされるフラグである。図14に示すプログラムによれば、このフラグがセットされているときには行動予測推論処理は実行されない。
図15を参照して、図14のステップ478で起動される行動予測推論処理ルーチンは、行動予測推論実行中フラグをセットするステップ500と、簡易分類推論の結果、属性推論の結果、及び詳細属性推論の結果の内、最新のものを動的情報記憶部154から読出し、それらを図9に示すリカレント型ニューラルネットワーク320に入力して行動予測結果310を得るステップ502と、行動予測の推論結果を動的情報記憶部154に格納するステップ504と、行動予測推論実行中フラグをリセットして処理を終了するステップ506とを含む。
この図15に示す処理は、予測にリカレント型ニューラルネットワークを使用しているため、過去の情報までさかのぼってニューラルネットワークに入力する必要はない。そのため、処理自体は比較的短時間で終わるが、そのためには簡易分類推論、属性推論及び詳細属性推論の全てが終了している必要があるため、ある画像が入力されてから最終的な結果が得られるまでの時間は他の処理と比較して長くなる。
―配信処理部のプログラム構成―
図16を参照して、図1に示す配信処理部160を実現するプログラムは、車両情報記憶部158に記憶されている車両情報と図1に示す簡易分類推論部180により検出された検出物体との全ての組合せに対して、以下の処理532を実行するステップ530を含む。
処理532は、処理対象の車両の中から、車両の進行方向が処理対象の検出物体に近づく方向か否かを判定し、判定が否定であればこの車両と検出物体との組合せに対する処理を終了するステップ540と、ステップ540の判定結果が肯定であるときに、対象車両に対して処理対象の検出物体に関する情報を配信する処理を実行して処理を終了するステップ542とを含む。
図17を参照して、図16に示すステップ542は、処理対象の検出物体から処理対象の車両までの距離Dを算出するステップ560と、算出された距離Dと、予め準備された、距離に関する3つのしきい値D1、D2及びD3(ただしD1<D2<D3)とを比較してその結果にしたがって制御の流れを分岐させるステップ562とを含む。なお、以下の処理では対象車両の速さと比較される、速さに関する3つのしきい値V1、V2及びV3(ただしV3<V2<V1)が使用される。
すなわち、距離D<しきい値D1のときにはステップ564を実行して処理を終了する。ステップ564では、動的情報記憶部154に記憶されていた処理対象の検出物体に関する最新の簡易分類推論結果、すなわち階層構造の最も下層の情報を対象車両に配信する。しきい値D1≦距離D<しきい値D2のときには、制御はステップ566に進む。ステップ566では対象車両の速さがしきい値V1より大きいか否かが判定される。判定が肯定なら制御はステップ564に進み、否定なら制御はステップ568に進む。ステップ568では動的情報記憶部154から読出された処理対象の検出物体に関する最新の簡易分類推論結果及び属性推論結果が対象車両に配信される。すなわちこの場合、階層構造の最も下層の情報と、その次の層の情報とが対象車両に配信される。
しきい値D2≦距離D<しきい値D3のときには制御はステップ570に進む。ステップ570では、対象車両の速さがしきい値V2より大きいか否かが判定され、判定が肯定なら制御はステップ568に進み、判定が否定なら制御はステップ572に進む。ステップ572では、対象車両に対し、動的情報記憶部154から読出された処理対象の検出物体に関する最新の簡易分類推論結果、属性推論結果、及び詳細属性推論結果が配信される。すなわちこの場合、階層構造のうち下位から3階層の情報が対象車両に配信される。
しきい値D3<距離Dのときには、制御はステップ574に進む。ステップ574では、対象車両の速さがしきい値V3より大きいか否かが判定され、判定が肯定のときには制御はステップ572に進み、判定が否定のときには制御はステップ576に進む。ステップ576では、対象車両に対し、動的情報記憶部154から読出された処理対象の検出物体に関する最新の簡易分類推論結果、属性推論結果、詳細属性推論結果、及び行動予測推論結果が配信される。すなわちこの場合には、階層構造の全階層の情報が対象車両に配信される。
このような処理を行うことにより、車両が処理対象の検出物体の位置に到達するまでの時間が短いほど、処理対象の検出物体に関する情報のうち階層構造の下位の階層の情報のみが車両に送信され、長いほど、処理対象の検出物体に関する情報のうち、階層構造の上位の階層のデータも追加して車両に送信されるようになる。車両の移動の速さが同じであると仮定すれば、車両が処理対象の検出物体に近いほど、階層構造の下位の階層の情報のみが車両に送信され、遠くなるほど、上位の階層の情報が順に追加して送信される。また車両から処理対象の検出物体までの距離が同一である場合には、車両の移動の速さが大きいほど階層構造の下位の階層の情報のみが車両に送信され、遅くなるほど上位の階層の情報が追加されて送信される。
〈動作〉
図1~図17を参照して、以上に構成を説明した交通インフラシステム100は以下のように動作する。図1を参照して、インフラカメラ114は、所定のフレームレートで撮像対象の領域(信号110の近傍)を撮像し、撮像の都度画像をカメラ画像受信部150に送信する。カメラ画像受信部150は、新たな画像を受信するとそれを記憶装置に格納し、簡易分類推論部180がビジーか否かを判定する(図11のステップ390)。もしも簡易分類推論部180がビジーならこの画像については何も処理しない。簡易分類推論部180がビジーでなければ(アイドル状態であれば)簡易分類推論部180を起動し(図11のステップ392)、処理を終了する。
簡易分類推論部180はカメラ画像受信部150により起動されると、図12を参照して、ステップ410で簡易分類推論実行中フラグをセットする。続いてステップ412で簡易分類推論を開始する。この処理では、実際には、図3に示すように、入力された画像に対して正規化処理を行った後、正規化後の画像を畳込みニューラルネットワーク232に入力し、簡易分類推論結果234、236及び238等を畳込みニューラルネットワーク232から受取る。簡易分類推論結果は、画像正規化処理部230内で畳込みニューラルネットワーク232が検出した特定のクラス(人等)のオブジェクトの数だけ出力される。例えば、図2の画像200の中で、人等の画像の枠210、枠210内のオブジェクトのクラス情報、その信頼度、及びそのオブジェクトの地理的位置座標が検出される。
さらに、図12のステップ414では、ステップ412の処理の結果得られた推論結果を、元の画像のタイムスタンプとともに動的情報記憶部154に格納する。さらにステップ416では、属性推論実行中フラグがセットされているか否かを判定する。判定が否定なら、ステップ418で簡易分類推論が完了した画像を属性推論処理ルーチンに渡し、その開始を指示する。ステップ418の終了後、ステップ420で簡易分類推論実行中フラグをリセットして処理を終了する。通常はこうした処理が実行される。ステップ416の判定が肯定のときには、ステップ418の処理を実行することなく制御はステップ420に進み、簡易分類推論実行中フラグをリセットして処理を終了する。
このような構造を持つ簡易分類推論処理ルーチンを採用すると、属性推論処理ルーチンに時間がかかって前の画像に対する推論処理が完了していない場合には、新たに入力された画像に対しては簡易分類推論処理のみを実行し、属性推論処理は実行しないことになる。計算資源が豊かでないときでも、このように一部の画像に対する処理をスキップすることにより全体として処理を中断させたり大きく遅延させたりすることなく実行できる。
図13を参照して、図12のステップ418で属性推論処理ルーチンが起動されると、ステップ440で属性推論実行中フラグがセットされる。ステップ442では、簡易分類推論部180による処理で特定されたオブジェクトの枠の各々について、その枠内のオブジェクトの画像に対する属性推論を開始する。この結果得られた推論結果は、ステップ444において元の画像のタイムスタンプとともに動的情報記憶部154に格納される。ステップ446において、詳細属性推論実行中フラグがセットされているか否かを判定する。ステップ446の判定が否定のときには、ステップ448で対象となるオブジェクトの画像を詳細属性推論処理ルーチンに渡して詳細属性推論処理の開始を指示する。詳細属性推論処理ルーチンが実行を開始すると、ステップ450で属性推論実行中フラグをリセットして処理を終了する。ステップ446の判定が肯定のときにはステップ448は実行されず、制御は直接にステップ450に進み、属性推論実行中フラグをリセットして処理を終了する。
すなわちこの処理でも、詳細属性推論処理がビジーのときには詳細属性推論処理は開始されず、この画像に対するこの後の処理は実行されない。これは詳細属性推論処理に要する時間が属性推論処理に要する時間より長いためである。
図14を参照して、図13のステップ448で詳細属性推論処理ルーチンが起動されると、ステップ470で詳細属性推論実行中フラグをセットする。ステップ472で詳細属性推論を開始する。ステップ474では、得られた推論結果を動的情報記憶部154に元画像が撮像されたときのタイムスタンプとともに格納する。さらに、ステップ476で、行動予測実行中フラグがセットされているか否かを判定する。ステップ476の判定が否定のとき、すなわち行動予測処理がアイドルであるときには、ステップ478で行動予測推論処理ルーチンを起動する。この後、ステップ480で詳細属性推論実行中フラグをリセットして処理を終了する。ステップ476の判定が肯定のとき、すなわち行動予測処理がビジーであるときにはステップ478の処理は実行せず、制御は直接ステップ480に進み、詳細属性推論実行中フラグがリセットされ、属性推論処理は終了する。
図15を参照して、図14のステップ478で行動予測推論処理ルーチンが起動されると、ステップ500で行動予測推論実行中フラグをセットする。ステップ502で簡易分類推論の結果、属性推論の結果、及び詳細属性推論の結果の内、最新のものを動的情報記憶部154から読出し、それらを図9に示すリカレント型ニューラルネットワーク320に入力して行動予測結果310を得る。続くステップ504で、行動予測の推論結果を動的情報記憶部154に格納する。最後にステップ506で行動予測推論実行中フラグをリセットして処理を終了する。
この図15に示す処理は、予測にリカレント型ニューラルネットワークを使用しているため、過去の情報が必要であるにもかかわらず、過去の情報までさかのぼってニューラルネットワークに入力する必要はない。そのため、処理自体は比較的短時間で終わるが、この処理のために、簡易分類推論、属性推論及び詳細属性推論の全てが終了している必要がある。そのため、最終的な結果が得られるまでの時間は他の処理と比較して最も長い。
以上のようにして、図1に示す動的情報記憶部154には、インフラカメラ114からの画像に対して簡易分類推論部180、属性推論部182、詳細属性推論部184及び行動予測推論部186により得られた解析結果が、それらの処理時間により区別されて元の画像のタイムスタンプとともに格納される。ここで注意すべきは、属性推論部182の処理に要する時間は簡易分類推論部180の処理に要する時間より長く、詳細属性推論部184の処理に要する時間は属性推論部182の処理に要する時間よりさらに長く、行動予測推論部186の処理に要する時間は他のどの処理よりも長い、ということである。すなわち、ある画像に対する推論結果の内、簡易分類推論部180による推論結果が最も早く動的情報記憶部154に格納され、その後に属性推論部182による推論結果、さらにその後に詳細属性推論部184による推論結果、最後に行動予測推論部186による推論結果という順番で動的情報記憶部154に記憶される。場合によっては、簡易分類推論部180で処理された画像であっても、属性推論部182以降では処理されなかったものもあるし、簡易分類推論部180及び属性推論部182で処理された画像であっても、詳細属性推論部184以降では処理されなかったものもある。さらに、簡易分類推論部180、属性推論部182及び詳細属性推論部184では処理されたにもかかわらず、行動予測推論部186では処理されなかった画像もあり得る。
配信処理部160は、以下のようにして、動的情報記憶部154に記憶された動的情報を車両に配信する。なお、この実施の形態では、配信処理部160による配信処理は、一定時間ごとに行われる。
図16を参照して、配信処理部160は、ステップ530において、車両情報記憶部158に記憶されている車両情報と、動的情報記憶部154に記憶されている検出物体との全ての組合せに対して、以下の処理を実行する。すなわち、処理対象の組合せの車両の進行方向が、処理対象の組合せの検出物体の方向か否かをステップ540で判定し、判定が否定ならこの組合せに対する処理を終了し、次の組合せに対する処理に移る。ステップ540の判定が肯定なら、この車両に対してステップ542で配信処理を実行してこの組合せに対する処理を終了し、次の組合せに対する処理に移る。このように、検出物体の方向に進行している車両についてのみ検出物体に関する情報を配信するのは、その検出物体から遠ざかる方向に移動しているような車両に検出物体の状態に関する情報を配信しても利用価値がほとんどないためである。
図17を参照して、図16に示すステップ542のステップ560では、対象車両について、処理対象の検出物体からその対象車両までの距離Dを算出する。ステップ562において、ステップ560で算出された距離Dと、距離に関する3つのしきい値D1、D2及びD3とを比較する。
すなわち、距離D<しきい値D1のときには、ステップ564で、動的情報記憶部154に記憶されていたその検出物体に関する最新の簡易分類推論結果を対象車両に配信する。すなわち階層構造の最も下位の階層の情報が対象車両に配信される。
しきい値D1≦距離D<しきい値D2のときには、ステップ566で対象車両の速さがしきい値V1より大きいか否かを判定する。判定が肯定ならステップ564に進み対象車両に処理対象の検出物体の情報のうち最新の簡易分類推論結果を配信する。判定が否定ならステップ568で動的情報記憶部154から読出された処理対象の検出物体の情報のうち最新の簡易分類推論結果及び属性推論結果を対象車両に配信する。すなわち、階層構造の下位の2階層の情報が対象車両に配信される。
しきい値D2≦距離D<しきい値D3のときには、ステップ570で対象車両の速さがしきい値V2より大きいか否かを判定する。判定が肯定なら制御はステップ568に進み処理対象の検出物体の情報のうち簡易分類推論結果及び属性推論結果を対象車両に配信する。判定が否定ならステップ572で、対象車両に対し、動的情報記憶部154から読出された処理対象の検出物体の情報のうち最新の簡易分類推論結果、属性推論結果、及び詳細属性推論結果を配信する。すなわち、階層構造の下位3階層の情報が対象車両に配信される。
しきい値D3<距離Dのときには、ステップ574で対象車両の速さがしきい値V3より大きいか否かを判定する。判定が肯定のときには制御はステップ572では、処理対象の検出物体の情報のうち最新の簡易分類推論結果、属性推論結果、及び詳細属性推論結果を動的情報記憶部154から読出し、対象車両に配信する。判定が否定のときにはステップ576で対象車両に対し、処理対象の検出物体の情報のうち動的情報記憶部154から読出された最新の簡易分類推論結果、属性推論結果、詳細属性推論結果、及び行動予測推論結果を配信する。すなわち、処理対象の検出物体の情報に関する階層構造の全階層の情報が対象車両に配信される。
このような処理を行うことにより、車両がカメラの画像から検出された検出物体に到達するまでの時間が短いほど、その検出物体の情報のうち階層構造の下位の階層の情報のみが車両に送信され、長いほど、当該車両に配信される階層構造の上位の階層のデータも追加して(累積的に)車両に送信されるようになる。車両の移動の速さが同じであれば、車両が検出物体に近いほど、処理対象の検出物体の情報のうち階層構造の下位の階層の情報のみが車両に送信され、遠くなるほど、上位の階層の情報が順に追加して送信される。また車両から検出物体までの距離が同一である場合には、車両の移動の速さが大きいほど階層構造の下位の階層の情報のみが車両に送信され、遅くなるほど上位の階層の情報が追加されて送信される。
こうした構成及び動作により、以下のような効果を得ることができる。図1を参照して、例えば車両からインフラカメラ114の画像から検出された検出物体(例えば歩行者112)までの距離Dがしきい値D1より小さい場合(例えば車両118)、この車両が歩行者112の位置まで到達する時間は他の車両120等よりも短い。そのため、例えば行動予測推論部186による歩行者112に関する推論結果を車両118に送信しても、車両118にとっては役に立たない。行動予測推論部186の推論処理には時間がかかるため、行動予測結果として車両118に届く情報は、古い画像から得られた情報であって、その間に歩行者112の状態はかなり変化しており、歩行者112のすぐ近くにいる車両118の運転者にとっては参考にならないためである。それどころか、そのような情報は車両118の運転者にとって不要であって、通信帯域を無駄使いすることになり好ましくない。したがって上記実施の形態では車両118のように歩行者112の撮像領域までの距離が近い車両には、歩行者112に関する最新の情報(すなわち簡易分類推論部180による推論結果)のみを配信する。
同様の考え方で、車両120のように歩行者112までの距離がしきい値D1以上でしきい値D2より短い場合には、歩行者112に関する推論結果のうち、処理時間が比較的短い情報である簡易分類推論部180及び属性推論部182による推論結果を配信する。車両122のように歩行者112までの距離がしきい値D2以上でしきい値D3より短い車両に対しては、処理時間がより長い情報である詳細属性推論部184による推論結果まで含めて配信する。そして、歩行者112までの距離がしきい値D3以上である位置にいる車両124に対しては、行動予測推論部186の推論結果を含め、歩行者112に関する全ての最新の推論結果を配信する。すなわち、歩行者112までの到達時間が短い車両から長い車両になるにしたがい、動的情報記憶部154に記憶された階層構造の下位の層の情報から始めて、順番に上位の層を累積して配信する。
こうした構成により、インフラカメラ114という比較的安価なインフラセンサから得た画像のみを用いて、通信帯域を有効に利用しながら、各車両にとって有益な情報を配信できるという効果がある。
なお、配信処理部160による配信処理は、上記したように所定時間ごとに行うようにしてもよいし、カメラ画像受信部150が所定枚数の画像を受信するごとに行ってもよい。又は、これらに加えて、車両情報受信部156が新たな車両から車両情報を受信したときに行ってもよく、何らかの車両から情報送信のリクエストを受信したときに行っても良い。配信の間隔を車両情報記憶部158に記憶された車両情報の数によって調整したり、カメラ画像受信部150が受信する画像に何らかの動きがあるときには間隔を短くし、そうでないときには長くしたりしてもよい。要するに、何らかのアルゴリズムで定められたタイミングで繰返し配信処理を行うようにすればよい。
<第2の実施の形態>
上記した第1の実施の形態に係る交通情報処理サーバ116では、属性推論部182は簡易分類推論部180による処理結果を利用している。これは、交通情報処理サーバ116の計算資源が十分でない場合でも上記機能を実現できるという意味で有効である。しかし、上記構成をとったため、属性推論部182の推論結果が得られるまでの時間は、簡易分類推論部180による処理時間に属性推論部182自体の処理に要する時間を加算したものとなる。第1の実施の形態では、詳細属性推論部184は属性推論部182の処理結果を利用し、行動予測推論部186は詳細属性推論部184の処理結果を利用しているため、処理時間が累積して行動予測推論部186による最終的な推論結果が長くなるという問題がある。第2の実施の形態はこの時間を多少とも短くするためのものである。
〈構成〉
図18を参照して、第2の実施の形態に係る交通情報処理サーバ600は、図1に示す交通情報処理サーバ116と比較して、図1の簡易分類推論部180の前段に、カメラ画像受信部150から画像を受信して縮小し、縮小された画像に対して簡易分類推論部620と同様の処理を並列に実行することでより短い時間で画像中のオブジェクトの位置検出(切出)と分類推論とを行い、その結果を動的情報記憶部154に格納する、縮小画像による簡易分類推論部620を含む点である。
縮小画像による簡易分類推論部620と簡易分類推論部180とが同時に同じ画像に対する処理を開始した場合、縮小画像による簡易分類推論部620の方が推論結果を出すまでに要する時間の方が短い。そのため、簡易分類推論部180による処理では間に合わないほど検出物体に近い位置にいる車両に対しても有効な情報を提供できる。なお、この実施の形態では、縮小画像による簡易分類推論部620、簡易分類推論部180、属性推論部182、詳細属性推論部184及び行動予測推論部186については、1プログラム中で並列に実行されるスレッドにより実現される。
またこの交通情報処理サーバ600は、図1の配信処理部160に代えて、複数の対象車両に並列処理でそれぞれ必要な情報を配信する配信処理部624を含む点でも図1の交通情報処理サーバ116と異なる。第1の実施の形態の場合には、対象車両と検出物体との組合せに対して一度に一つの組合せずつ、順番に情報を配信している。この配信処理に要する時間は、対象車両と検出物体との組合せの数が多くなると無視できなくなる可能性がある。検出物体までの距離が短い車両に優先して情報を配信することも考えられるが、できれば全ての車両に同時に情報を配信できれば望ましい。この第2の実施の形態に係る交通情報処理サーバ600の配信処理部624は、対象車両への配信処理を並列処理により実行する。
図19を参照して、縮小画像による簡易分類推論部620は、画像200をカメラ画像受信部150から受信して画像を縮小し、かつ画像を予め定められた個数のブロックに分割することで正規化する画像縮小正規化処理部640と、画像縮小正規化処理部640により縮小された画像に対して、図3に示す畳込みニューラルネットワーク232と同様の処理を行い、簡易分類推論結果644、646、及び648を、検出されたオブジェクトの数だけ出力する畳込みニューラルネットワーク642とを含む。
畳込みニューラルネットワーク642は畳込みニューラルネットワーク232と同様の処理を行うような構成を持ち、かつ同様の教師データで訓練されている。ただし畳込みニューラルネットワーク642の入力画像は縮小画像であり、そのために畳込みニューラルネットワーク642への入力数は少なく、隠れ層の数も畳込みニューラルネットワーク232より少なくて良い。画像が2次元であるため、画像を正規化する際のブロックの大きさが一定であるとすれば、画像を1/2に縮小するとブロック数は1/4と、縮小比の2乗に反比例する形で少なくなる。その結果、画像の縮小率を大きく(画像がより小さくなるように)縮小すると、畳込みニューラルネットワーク642の推論に要する時間は加速度的に短くなる。
カメラ画像受信部150は、画像を受けると縮小画像による簡易分類推論部620及び簡易分類推論部180を起動する。すなわち、カメラ画像受信部150は、縮小画像による簡易分類推論部620に対して画像を渡すことで縮小画像による画像簡易分類処理スレッドを生成し、簡易分類推論部180に対して画像を渡して簡易分類推論処理スレッドを生成する。
このように、この実施の形態では、縮小画像による簡易分類推論処理スレッドと簡易分類推論処理スレッドとを生成し、両者を並列に動作させる。また縮小画像による簡易分類推論処理スレッドを簡易分類推論処理スレッドより先に生成している。こうした形でこの2つの処理を並列に動作させることで、縮小画像による簡易分類推論部620が簡易分類推論処理スレッドより早く推論結果を出すことが確実になり、第1の実施の形態よりさらに短時間で簡易的な推論結果を得ることができる。
図20を参照して、図19に示す縮小画像による簡易分類推論部620のスレッドで実行されるプログラムは、受けた画像を縮小するステップ690と、縮小した画像に対して属性分類推論を実行するステップ692と、ステップ692の結果得られた推論結果を動的情報記憶部154に格納するステップ694とを含む。
図21を参照して、簡易分類推論部620のスレッドで実行されるプログラムは、簡易分類推論を実行するステップ412と、ステップ412の推論結果を、画像のタイムスタンプとともに動的情報記憶部154に格納して処理を終了するステップ414とを含む。これらの処理はいずれも図12に示したものと同じである。
詳細属性推論部184を実現するスレッドで実行される処理は、ステップ690の処理が存在しないこと、及びステップ694の次の処理として詳細属性推論のスレッドを生成することを除き図210に示すものと同様の構成を持つ。また行動予測推論部186を実現するスレッドで実行される処理は、ステップ690の処理が存在しないこと、及びステップ694の次の処理において行動予測推論のスレッドを開始することを除き図21と同様の構成を持つ。
図22を参照して、図18に示す配信処理部624が実行するプログラムは、動的情報記憶部154に記憶された車両情報により特定される車両と、インフラカメラ114の画像から検出された検出物体との全ての組合せに対して、以下の処理702を実行するステップ530を含む。
処理702は、処理対象の車両の進行方向が処理対象の検出物体に向かう方向か否かを判定し、判定が否定であれば処理対象の車両に対する処理を終了するステップ540と、ステップ540の判定が肯定であるときに、その車両に対して処理対象の検出物体に関する情報を配信する配信処理のスレッドを生成するステップ712とを含む。
図23を参照して、ステップ712は、処理対象の検出物体から処理対象の車両までの距離Dを算出するステップ560と、算出された距離Dと、距離に関する3つのしきい値D1、D2、D3及びD4(ただしD4<D1<D2<D3)とを比較してその結果にしたがって制御の流れを分岐させるステップ722とを含む。なお、以下の処理では対象車両の速さと比較される、速さに関する3つのしきい値V1、V2、V3及びV4(ただしV3<V2<V1<V4)が使用される。
すなわち、距離D<しきい値D4のときにはステップ726を実行して処理を終了する。ステップ726では、縮小画像による簡易分類推論部620により得られた簡易分類推論結果、すなわち階層構造のうち最も下層の情報を対象車両に送信する。
しきい値D4≦距離D<しきい値D1のときには制御はステップ724に進む。ステップ724では、対象車両の速さがしきい値V4より速いか否かが判定される。判定が肯定なら制御はステップ726に進み、否定なら制御はステップ564に進む。ステップ564では、動的情報記憶部154に記憶されていた処理対象の検出物体に関する、縮小画像により得られた簡易分類推論結果と、通常の画像から得られた最新の簡易分類推論結果、すなわち階層構造の最下層と下から2段めの階層との情報を対象車両に配信する。
しきい値D1≦距離D<しきい値D2のときには、制御はステップ566に進む。ステップ566では対象車両の速さがしきい値V1より大きいか否かが判定される。判定が肯定なら制御はステップ564に進み、否定なら制御はステップ568に進む。ステップ568では動的情報記憶部154から読出された処理対象の検出物体に関する縮小画像から得られた最新の簡易分類推論結果、通常の画像から得られた最新の簡易分類推論結果、及び属性推論結果が対象車両に配信される。すなわちこの場合、階層構造の最も下層の情報から3階層の情報が対象車両に配信される。
しきい値D2≦距離D<しきい値D3のときには制御はステップ570に進む。ステップ570では、対象車両の速さがしきい値V2より大きいか否かが判定され、判定が肯定なら制御はステップ568に進み、判定が否定なら制御はステップ572に進む。ステップ572では、対象車両に対し、動的情報記憶部154から読出された処理対象の検出物体に関する縮小画像から得られた最新の簡易分類推論結果、通常の画像から得られた最新の簡易分類推論結果、属性推論結果、及び詳細属性推論結果が配信される。すなわちこの場合、階層構造のうち下位から4階層の情報が対象車両に配信される。
しきい値D3<距離Dのときには、制御はステップ574に進む。ステップ574では、対象車両の速さがしきい値V3より大きいか否かが判定され、判定が肯定のときには制御はステップ572に進み、判定が否定のときには制御はステップ576に進む。ステップ576では、対象車両に対し、動的情報記憶部154から読出された処理対象の検出物体に関する縮小画像から得られた最新の簡易分類推論結果、通常の画像から得られた最新の簡易分類推論結果、属性推論結果、詳細属性推論結果、及び行動予測推論結果が配信される。すなわちこの場合には、階層構造の全階層の情報が対象車両に配信される。
このような処理を行うことにより、車両が処理対象の検出物体の位置に到達するまでの時間が短いほど、処理対象の検出物体に関する情報のうち階層構造の下位の階層の情報のみが車両に送信され、長いほど、処理対象の検出物体に関する情報のうち、階層構造の上位の階層のデータも追加して車両に送信されるようになる。車両の移動の速さが同じであると仮定すれば、車両が処理対象の検出物体に近いほど、階層構造の下位の階層の情報のみが車両に送信され、遠くなるほど、上位の階層の情報が順に追加して送信される。また車両から処理対象の検出物体までの距離が同一である場合には、車両の移動の速さが大きいほど階層構造の下位の階層の情報のみが車両に送信され、遅くなるほど上位の階層の情報が追加されて送信される。またこの実施の形態では、第1の実施の形態と比較して、対象となる検出物体までの距離が短い車両にも縮小画像による簡易分類推論結果を送ることができ、検出物体までの距離が非常に短い場合でも有効な情報を車両に配信できる。
このように各車両への配信を車両ごとのスレッドで行うことで各車両に情報が並列で送信されるため、車両の数が多少増加しても送信時間が問題となるおそれは小さい。また、簡易分類推論処理として縮小画像による簡易分類推論処理を追加したので、検出物体までの距離が短い場合に、第1の実施の形態よりも有効な情報を車両に送信できる。
なお、上記実施の形態は、計算資源が豊富にあることが前提である。計算資源が豊富にある場合には縮小画像による簡易分類推論部620、簡易分類推論部180、属性推論部182、詳細属性推論部184及び行動予測推論部186を全てスレッド化可能である。これらを全てスレッド化すると、カメラ画像受信部150が画像を受信するたびに、縮小画像による簡易分類推論部620、簡易分類推論部180、属性推論部182、詳細属性推論部184、及び行動予測推論部186の全てについて新たにスレッドが生成され、並列に実行される。第1の実施の形態では、後続する処理がビジーなときには後続する処理の実行開始を行わないため、一部の画像については解析結果が得られないことがある。それに対してこの第2の実施の形態で各処理をスレッド化した場合には、各画像に対して全ての解析結果が得られ、一部の情報に空白期間が生ずることを避けることができる。
なお、配信処理部624による配信処理は、第1の実施の形態と同様、例えば所定時間ごとに行うようにしてもよいし、カメラ画像受信部150が所定枚数の画像を受信するごとに行ってもよい。又は、これらに加えて。車両情報受信部156が新たな車両から車両情報を受信したときに行ってもよく、何らかの車両から情報送信のリクエストを受信したときに行っても良い。配信の間隔を車両情報記憶部158に記憶された車両情報の数によって調整したり、カメラ画像受信部150が受信する画像に何らかの動きがあるときには間隔を短くし、そうでないときには長くしたりしてもよい。要するに、何らかのアルゴリズムで定められたタイミングで繰返し配信処理を行うようにすればよい。
《動作》
第1の実施の形態と異なる部分のみ説明する。図18を参照して、カメラ画像受信部150が画像を受信すると、カメラ画像受信部150は縮小画像による簡易分類推論部620のスレッド、及び簡易分類推論部180のスレッドを生成する。縮小画像による簡易分類推論部620のスレッドが簡易分類推論部180のスレッドより早く処理を終了し、その簡易分類推論結果を動的情報記憶部154に格納する。一方、この後に簡易分類推論部180が処理を終了し、通常の画像による簡易分類推論結果を動的情報記憶部154に格納する。簡易分類推論部180が処理を終了すると属性推論部182のスレッドが生成され、属性推論を開始する。属性推論部182の処理が終了すると属性推論部182は推論結果を動的情報記憶部154に格納し、詳細属性推論部184のスレッドを生成する。詳細属性推論部184のスレッドの処理が終了すると詳細属性推論部184は推論結果を動的情報記憶部154に格納し、行動予測推論部186のスレッドを生成する。行動予測推論部186のスレッドは動的情報記憶部154に記憶された最新の情報に基づき行動予測推論を行い、推論結果を動的情報記憶部154に格納する。
これらの処理の間の任意の時点でカメラ画像受信部150が次の画像を受信すると、カメラ画像受信部150は縮小画像による簡易分類推論部620と通常の画像による簡易分類推論部180との双方について新たなスレッドを生成する。この結果、これらから属性推論部182、詳細属性推論部184、及び行動予測推論部186のスレッドが派生する。
画像が到着するたびに上記した処理が繰返されるため、縮小画像による簡易分類推論部620、通常の画像による簡易分類推論部180、属性推論部182、詳細属性推論部184及び行動予測推論部186の各々について複数のスレッドが並列に動作し、それぞれ処理が終了するごとに動的情報記憶部154にその結果を格納する。したがって動的情報記憶部154には、到着した各画像について、縮小画像による簡易分類推論部620、通常の画像による簡易分類推論部180、属性推論部182、詳細属性推論部184、及び行動予測推論部186の推論結果が全て保存・蓄積される。
図18に示す配信処理部624は、一定時間ごとに以下の処理を実行する。図22及び図23を参照して、図22のステップ530で、動的情報記憶部154に車両情報が記憶されている車両と動的情報記憶部154に記憶されている検出物体との全ての組合せに対し、処理702が実行される。処理702では、処理対象の車両の進行方向が処理対象の検出物体に向かう方向か否かが判定され、判定が否定ならこの組合せに対する処理は終了する。すなわち、車両の進行方向が検出物体の方向でない場合には検出物体に関する情報はその車両に送信されない。
一方、ステップ540の判定が肯定であれば、図22のステップ712が実行される。すなわち、図23のステップ560で処理対象の車両と処理対象の検出物体との間の距離Dが算出される。続くステップ722で、この距離Dを4つのしきい値D1、D2、D3及びD4(ただしD4<D1<D2<D3)と比較する。
距離D<しきい値D4のときにはステップ726を実行して処理を終了する。ステップ726では、縮小画像による簡易分類推論部620により得られた簡易分類推論結果、すなわち階層構造のうち最も下層の情報を対象車両に送信するスレッドが生成される。
しきい値D4≦距離D<しきい値D1のときには、ステップ724で対象車両の速さがしきい値V4より速いか否かが判定される。判定が肯定なら制御はステップ726に進む。ステップ724の判定が否定なら、ステップ728で動的情報記憶部154に記憶されていた処理対象の検出物体に関する、縮小画像により得られた簡易分類推論結果と、通常の画像から得られた最新の簡易分類推論結果、すなわち階層構造の最下層と下から2段めの階層との情報を対象車両に配信するスレッドが生成される。
しきい値D1≦距離D<しきい値D2のときには、ステップ566で対象車両の速さがしきい値V1より大きいか否かが判定される。判定が肯定ならステップ728に進む。ステップ566の判定が否定なら、ステップ730で動的情報記憶部154から読出された処理対象の検出物体に関する縮小画像から得られた最新の簡易分類推論結果、通常の画像から得られた最新の簡易分類推論結果、及び属性推論結果が対象車両に配信するスレッドが生成される。すなわちこの場合、階層構造の最も下層の情報から3階層の情報が対象車両に配信される。
しきい値D2≦距離D<しきい値D3のときには、ステップ570で対象車両の速さがしきい値V2より大きいか否かが判定される。判定が肯定なら制御はステップ730に進む。ステップ570の判定が否定なら、ステップ732で対象車両に対し、動的情報記憶部154から読出された処理対象の検出物体に関する縮小画像から得られた最新の簡易分類推論結果、通常の画像から得られた最新の簡易分類推論結果、属性推論結果、及び詳細属性推論結果が配信するスレッドが生成される。すなわちこの場合、階層構造のうち下位から4階層の情報が対象車両に配信される。
しきい値D3≦距離Dのときには、制御はステップ574に進む。ステップ574では、対象車両の速さがしきい値V3より大きいか否かが判定され、判定が肯定のときには制御はステップ732に進み、判定が否定のときには制御はステップ734に進む。ステップ734では、対象車両に対し、動的情報記憶部154から読出された処理対象の検出物体に関する縮小画像から得られた最新の簡易分類推論結果、通常の画像から得られた最新の簡易分類推論結果、属性推論結果、詳細属性推論結果、及び行動予測推論結果が配信するスレッドが生成される。すなわちこの場合には、階層構造の全階層の情報が対象車両に配信される。
このような処理を行うことにより、車両が処理対象の検出物体の位置に到達するまでの時間が短いほど、処理対象の検出物体に関する情報のうち階層構造の下位の階層の情報のみが車両に送信され、長いほど、処理対象の検出物体に関する情報のうち、階層構造の上位の階層のデータも追加して車両に送信されるようになる。車両の移動の速さが同じであると仮定すれば、車両が処理対象の検出物体に近いほど、階層構造の下位の階層の情報のみが車両に送信され、遠くなるほど、上位の階層の情報が順に追加して送信される。また車両から処理対象の検出物体までの距離が同一である場合には、車両の移動の速さが大きいほど階層構造の下位の階層の情報のみが車両に送信され、遅くなるほど上位の階層の情報が追加されて送信される。またこの実施の形態では、第1の実施の形態と比較して、対象となる検出物体までの距離が短い車両にも縮小画像による簡易分類推論結果を送ることができ、検出物体までの距離が非常に短い場合、及び車両の移動速度が非常に速い場合でも有効な情報を車両に配信できる。
この実施の形態では、カメラから画像を1枚受信するたびに、縮小画像による簡易分類推論部620、簡易分類推論部180、属性推論部182、詳細属性推論部184及び行動予測推論部186のスレッドが1つずつ生成される。画像ごとにこれらスレッドが1つずつ生成されるので、処理によっては複数のスレッドが同時に実行される状態となることがある。そして、各画像に対して、縮小画像による簡易分類推論部620、簡易分類推論部180、属性推論部182、詳細属性推論部184及び行動予測推論部186の推論結果が全て得られる。ただし、各処理に要する時間が異なるため、これらの推論結果が最新の場合でも、その元になった画像の時間はそれぞれ異なる。すなわち、処理時間が短い処理部の場合には新しい画像に対する推論結果であるのに対し、処理時間が長い場合には比較的古い(少なくともその処理に要する時間だけ前の)画像に対する推論結果である。それでも、各処理部から得られる推論結果は画像の入力ごとに追加されることになり、一部の画像に関する処理結果が推論結果に反映されないという状況を避けることができる。
また、各車両への動的情報の配信は並列に実行される。配信に要する時間のために、一部の車両への情報の配信が遅れてしまうという問題を避けることができる。
なお、この実施の形態でも一部の解析部が他の解析部の出力を利用する場合がある。しかしこの発明はその様な実施の形態には限定されない。容易に理解できるように、各解析部が自己の実現する機能に必要な処理部を全て含むようにすれば、各解析部は他の解析部の処理を用いず、独立に解析を行って結果を出力できる。
<第3の実施の形態>
上記第1の実施の形態及び第2の実施の形態では、交通情報処理サーバ116及び交通情報処理サーバ600はいずれも1つのカメラからの情報のみを処理している。しかしこの発明はそのような実施の形態には限定されず、1台のサーバで複数のカメラからの画像を処理することもできる。第3の実施の形態はそのような交通情報処理サーバを含む交通インフラシステムに関する。
〈構成〉
図24を参照して、この第3の実施の形態に係る交通インフラシステム750は、図1に示す交通インフラシステム100において、交通情報処理サーバ116に代えてインフラカメラ114等の複数のカメラからの画像を受信して画像解析をし、各車両に解析結果を配信する交通情報処理サーバ760を含むものである。
交通情報処理サーバ760は、インフラカメラ114を含む複数のカメラからリアルタイムで画像を受信するカメラ画像受信部780と、各カメラの位置、撮像範囲等のカメラ情報を記憶するカメラ情報記憶部782と、これら複数のカメラに対して図18に示す交通情報処理サーバ600の画像解析部610と同じ処理を実行する複数の画像解析部784,…,画像解析部786と、カメラ画像受信部780が画像データを受信するたびに、その画像データを送信して来たカメラに関する情報をカメラ情報記憶部782から読出し、画像解析部784,…,786の内でそのカメラに対応するものにその画像に関する画像解析処理を振分けるカメラ画像振分部788とを含む。この実施の形態では、画像解析部784,…,786の各々はそれぞれ並列に実行される別々のプロセスであり、各プロセスの中で図18に示す縮小画像による簡易分類推論部620、簡易分類推論部180、属性推論部182、詳細属性推論部184、及び行動予測推論部186等を実現するスレッドを生成して並列に実行して画像解析を行う。この実施の形態では、画像解析部784,…,786の解析結果には、その元になった画像のタイムスタンプに加え、元になった画像を送信して来たカメラの識別子も付されている。
交通情報処理サーバ760はさらに、画像解析部784,…,786がそれぞれ出力する画像解析の結果である推論結果を記憶する動的情報記憶部790と、車両から車両情報を受信する車両情報受信部792と、車両情報受信部792が受信した車両情報を記憶する車両情報記憶部794と、カメラ情報記憶部782に記憶されたカメラ情報と車両情報記憶部794に記憶された車両情報とに基づき、各カメラに向かって移動中の車両に、各カメラの画像から検出された検出物体に関して動的情報記憶部790に記憶された動的情報を配信する配信処理部796とを含む。
配信処理部796は、カメラの各々に対し、そのカメラから所定距離内でかつそのカメラの画像から検出された検出物体に向かって移動中の車両の各々に対し、その車両とその検出物体との間の距離、その車両の移動の速さに応じ、そのカメラの画像から得られた動的情報の階層構造中で適切な階層の情報を選択して配信する。カメラが複数個あるため、すべてのカメラからの情報を全ての車両に送信すると、各車両の運転者が混乱する可能性がある。また通信量も過大になる。したがってこの実施の形態では、各車両に送信する情報を限定する。
図25を参照して、配信処理部796を実現するプログラムは、カメラ情報記憶部782に記憶された全てのカメラのカメラ情報をカメラ情報記憶部782から読出すステップ800と、ステップ800で読出された情報に基づき、各カメラに対して以下の処理804を実行するステップ802とを含む。
処理804は、処理対象のカメラの画像から得られた検出物体の各々に関する情報を動的情報記憶部790から読出すステップ810と、ステップ810で読出された検出物体の各々について、処理814を実行するステップ812とを含む。
処理814は、処理対象の検出物体からの所定距離内に存在し、かつ移動方向が処理対象の検出物体の方向である車両に関する車両情報を動的情報記憶部790から読出すステップ816と、ステップ816で読出された車両の各々に対して、図23に示す配信処理スレッドを生成する処理を実行するステップ712とを含む。
この実施の形態でも、ステップ712は特定の車両に特定のカメラの画像から得られた動的情報を配信するための新たなスレッドを生成する処理を含む。各スレッドは、対象の車両に特定のカメラの画像から得られた動的情報の配信が終了すると実行を終了する。
〈動作〉
図24及び図25を参照して、この実施の形態では、カメラ画像受信部780が複数のカメラのいずれかから最初に画像を受信すると、その画像を送信してきたカメラに対応する画像解析の各プロセスが立ち上げられる。以後、そのプロセスは例えばそのカメラから所定時間以上画像を受信しないという終了条件が充足されるまで動作し続ける。各画像について各プロセス内で図18に示すものと同様の縮小画像による簡易分類推論部620、通常画像による簡易分類推論部180、属性推論部182、詳細属性推論部184及び行動予測推論部186を実現するものと同様のスレッドが生成され、それらスレッドの出力は動的情報記憶部790にカメラの識別子及び画像のタイムスタンプとともに蓄積される。
配信処理部796は、一定時間ごとにカメラ情報記憶部782に格納された全てのカメラ情報を読出し(図25のステップ800)、各カメラに対し、そのカメラの画像から検出された検出物体を読出す(ステップ810)。読出された検出物体の各々から所定範囲内に存在しかつそのカメラに向かって移動している車両を対象車両として抽出する(ステップ816)。配信処理部796は、抽出された各車両に対し、動的情報記憶部790からそのカメラの識別子が付された最新の動的情報を読出し、車両とカメラとの間の距離、及び車両のカメラ方向への移動の速さに応じた動的情報のみを各車両に配信する配信処理スレッドを生成する(ステップ818及び712)。
この際の配信も、第1の実施の形態及び第2の実施の形態と同様、図17又は図23に示すようなアルゴリズムにより各車両に配信する情報を選択する。
このような処理を行うことにより、実施の形態1及び2よりも広い範囲について、車両がカメラの撮像対象領域に到達するまでの時間が短いほど、階層構造の下位の階層の情報のみが車両に送信され、長いほど、当該車両に配信される階層構造の上位の階層のデータも追加して車両に送信されるようになる。
この結果、カメラにより撮像される領域に到達する時間が短い車両に対しては直近の画像による情報のみが配信され、それ以外の情報は配信されない。また、カメラにより撮像される領域に到達するまでの時間が長い車両に対しては、直近の画像による情報のみでなく、少し前の画像に基づく、より詳細な情報が配信される。したがって、上記実施の形態によって、運転者を支援するために有効な情報を効率的により広い範囲の各車両に配信できる。その結果、画像から得た情報をより多くの運転者の支援に有効に利用できるという効果がある。
<第4の実施の形態>
第3の実施の形態では、複数のカメラからの画像を複数の車両に配信している。この場合、例えば互いに重なる撮像領域を撮像しているカメラの画像からは、重複した情報が検出されることになる。それらを別々のものとして各車両に配信すると、運転者が混乱する危険性がある。そこで、解析の結果検出された検出物体(たとえば通行人)等が同じものであるときには、それらを統一すると運転者の支援がより有効になる。この第4の実施の形態では、撮像領域が重なる2つのカメラの画像からそれぞれ簡易分類推論で検出された検出物体の全ての組合せについて、それらが同一の物体か否かがニューラルネットワークを利用して判定される。なお、2つのカメラの撮像領域が重なるか否かはカメラ情報から自動的に判定してもよいし、予め初期設定としてマニュアルで設定するようにしてもよい。
図26を参照して、この実施の形態に係る交通インフラシステム820の交通情報処理サーバ830は、図24に示す交通情報処理サーバ760に加え、動的情報記憶部790に記憶された、撮像領域が重複する2つのカメラの最新の画像から得られた簡易分類推論結果に基づき、一方のカメラの画像で検出された検出物体が他方のカメラの画像で検出された検出物体と同一か否かを判定し、同一であると判定された検出物体を動的情報記憶部790内で1つの物体に統合する機能を持つ同一物体統一部840を含む。同一物体統一部840により同一の物体と判定された検出物体については、動的情報記憶部790内の属性推論結果、詳細属性推論結果、及び行動予測推論結果等も統合される。この際、その物体を撮像したカメラの識別子は双方とも維持される。縮小画像による簡易分類推論部620を採用する場合にはその推論結果も同様に統合される。
同一物体統一部840は、この実施の形態では、リカレント型ニューラルネットワークで実現される。このニューラルネットワークには、比較対象となる2つの検出物体に関する最新の簡易分類推論結果と、それぞれの画像内でそれら検出物体の近傍に存在する所定個数の最新の簡易分類推論結果とを連結したベクトルが入力され、この2つの検出物体が同一である確率と、異なる検出物体である確率とが出力される。リカレント型ニューラルネットワークを用いるので、判定結果には過去の情報も反映される。両者が同一である確率が高いと判定された場合には、両者の簡易分類推論結果について所定の演算を行って(例えば位置の場合には両者の平均を算出する)両者を統合する。他の推論結果を統合するか否かもこの簡易分類推論に対する判定の結果に依存する。仮に両者が同一であると判定された場合には、他の推論結果の属性等についても、それぞれ所定の演算で得られた結果を用いて統合する。
こうした処理を、撮像領域が重複する全てのカメラの組合せに対し、それぞれの画像に対する簡易分類推論で得られた2つの検出物体の組合せの全てについて行うことで、検出された全ての検出物体に対し統合するか否かを決定し、必要なら統合できる。
この実施の形態でも、第1の実施の形態から第3の実施の形態と同様の効果を得ることができる。さらに、第3の実施の形態と異なり、同一と判定された検出物体については統合された1つの物体の情報が各車両に配信される。同一の物体の情報が重ねて配信されることはなく、運転者の支援が確実になり、さらに通信帯域も有効に利用できるという効果がある。
なお、上記実施の形態では、画像解析を主としてニューラルネットワークで行っている。しかしこの発明はそのような実施の形態には限定されず、どのような手段で画像解析を行っても良い。
上記実施の形態では、画像から検出された物体の地理的位置と車両との間の距離及び速さによりどの解析結果を配信するかを決定している。しかしこの発明はそうした実施の形態には限定されない。例えば最も早期の処理で物体の移動速度が推定できるような構成を採るようにし、検出物体の地理的位置と、車両及び検出物体の間の相対的な速さ(車両の進行方向における相対速度成分)とに基づいてどの解析結果を配信するかを決定してもよい。また、画像から検出された物体の地理的位置がカメラの近くであり、かつ車両がカメラから遠い場合(例えば、カメラの位置と検出された物体の地理的位置との距離がD1/2より小さく、かつカメラの位置と車両との距離がD1より大きい場合や、図1のようにインフラカメラ114の位置を挟んで検出された物体112の地理的位置と車両118の位置が道路に沿って反対の場合)、カメラの位置と車両との間の距離及び車両の速さに基づいて、どの解析結果を配信するかを決定してもよい。
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。この発明の範囲は、発明の詳細な説明の記載により示されるわけではなく、特許請求の範囲の各請求項によって示され、特許請求の範囲の文言と均等の意味及び範囲内での全ての変更が含まれることが意図される。
100、750、820 交通インフラシステム
112 歩行者
114 インフラカメラ
116、600、760、830 交通情報処理サーバ
118、120、122、124 車両
150、780 カメラ画像受信部
152、610、784、786 画像解析部
154、790 動的情報記憶部
156、792 車両情報受信部
158、794 車両情報記憶部
160、624、796 配信処理部
180 簡易分類推論部
182 属性推論部
184 詳細属性推論部
186 行動予測推論部
200、202、250 画像
210 枠
230、270、300 画像正規化処理部
232、272、304、642 畳込みニューラルネットワーク
234、236、238、644、646、648 簡易分類推論結果
274 属性推論結果
290 高解像度画像
302 超解像処理部
306 詳細属性
310 行動予測結果
320 リカレント型ニューラルネットワーク
330 コンピュータシステム
340 コンピュータ
342 ネットワーク
344 信号
346 アンテナ
350 CPU
352 バス
354 GPU
356 ROM
358 RAM
360 ハードディスクドライブ
362 無線通信装置
364 ネットワークI/F
366 入出力I/F
390、392、410、412、414、416、418、420、440、442、444、446、448、450、470、472、474、476、478、480、500、502、504、506、530、540、542、560、562、564、566、568、570、572、574、576、690、692、694、710、712、722、724、726、728、730、732、734、800、802、810、812、816、818 ステップ
532、702、804、814 処理
620 縮小画像による簡易分類推論部
640 画像縮小正規化処理部
782 カメラ情報記憶部
788 カメラ画像振分部
840 同一物体統一部

Claims (13)

  1. カメラからリアルタイムの画像の時系列を受信する画像受信部と、
    車両からその位置、移動の方向及び移動の速さを含む車両情報を受信する車両情報受信部と、
    各々が前記画像に対して互いに処理時間の異なる解析を行う複数の解析部を含む画像解析部と、
    前記画像解析部の解析結果をその処理時間により互いに区別して記憶する動的情報記憶部と、を含み、
    前記画像解析部は前記解析により前記画像の中に存在する物体の少なくとも地理的位置を検出し、
    繰返し指定されるタイミングの各々において、前記車両情報と前記物体の地理的位置及びその解析に要する時間とに基づき、各車両について前記動的情報記憶部に記憶された解析結果のいずれかを選択し、当該車両に配信する配信部とを含む、交通情報処理サーバ。
  2. 前記配信部は、前記タイミングの各々において、前記車両情報と前記物体の地理的位置とに基づき、各車両について前記動的情報記憶部に記憶された解析結果のうち、前記車両情報と前記物体の地理的位置とにより定まるしきい値より短い処理時間で得られる解析結果を累積的に選択して当該車両に配信する累積的配信部を含む、請求項1に記載の交通情報処理サーバ。
  3. 前記複数の解析部の解析結果は、処理時間の最も短い解析部の処理結果からより長い解析部の処理結果となるにしたがって階層が上となるように階層構造をなし、
    前記動的情報記憶部は、前記複数の解析部の解析結果を前記階層構造として記憶し、
    前記累積的配信部は、前記タイミングの各々において、前記階層構造のうち、前記しきい値より短い処理時間で得られる解析結果を含む1又は複数の階層を各車両について選択し、当該選択された階層の解析結果を当該車両に配信する階層的配信部を含む、請求項2に記載の交通情報処理サーバ。
  4. 前記配信部は、
    前記タイミングの各々において、前記車両情報により特定される車両の中で、前記カメラの画像から検出された物体に向かって移動する車両を解析結果の配信の対象車両として選択し、それ以外の車両を前記対象車両から除外する対象車両選択部と、
    前記対象車両選択部により対象車両が選択されたことに応答して、前記車両情報と前記検出された物体の地理的位置及びその解析に要する時間とに基づき、前記対象車両の各車両について前記動的情報記憶部に記憶された解析結果のいずれかを選択して当該車両に配信する第2の配信部とを含む、請求項1に記載の交通情報処理サーバ。
  5. 前記第2の配信部は、前記対象車両選択部により対象車両が選択されたことに応答して、前記タイミングの各々において、前記車両情報と前記検出された物体の地理的位置及びその解析に要した時間とに基づき、各車両について前記動的情報記憶部に記憶された解析結果のうち、当該解析結果を得るための処理時間が所定のしきい値より短い解析結果を累積的に選択して当該車両に配信する第3の配信部を含む、請求項4に記載の交通情報処理サーバ。
  6. 前記複数の解析部は、
    処理時間が前記複数の解析部の内で最も短い第1の解析部と、
    処理時間が前記第1の解析部より長い第2の解析部とを少なくとも含み、
    前記配信部は、
    前記車両情報により特定される前記車両の各々に対して、当該車両の前記カメラから検出された物体との距離と第1のしきい値とを比較する第1の比較部と、
    前記第1の比較部による比較結果に応じて、
    前記第1の解析部の解析結果を前記動的情報記憶部から読出して当該車両に配信する処理と、
    前記第1の解析部及び前記第2の解析部の解析結果を前記動的情報記憶部から読出して当該車両に配信する処理と、
    を選択的に実行する、配信実行部とを含む、請求項1に記載の交通情報処理サーバ。
  7. 前記第1の解析部は、前記画像受信部が受信する画像を入力として受け、当該画像中に存在する物体と、当該物体の属するクラスと、当該物体の地理的位置とを解析する分類解析部を含み、
    前記第2の解析部は、前記第1の解析部の出力に基づいて、前記第1の解析部が解析した前記物体の属性を解析する属性解析部を含む、請求項6に記載の交通情報処理サーバ。
  8. 前記第2の解析部は、前記第1の解析部の出力を利用して前記画像に対する解析を行う、請求項6に記載の交通情報処理サーバ。
  9. 前記第2の解析部は、一時に1枚の画像に対する解析を実行する単一画像解析部を含み、
    前記第1の解析部は、
    ある画像に対する解析が終了したときに前記単一画像解析部が他の画像に対する解析中か否かを判定する判定部と、
    当該判定部の判定結果に応じて、前記単一画像解析部の前記ある画像に対する解析の実行をスキップする処理と、前記単一画像解析部の前記ある画像に対する解析の実行を開始させる処理とを選択的に実行する、請求項6~請求項8のいずれか1項に記載の交通情報処理サーバ。
  10. 前記複数の解析部の各々は、1つの画像が入力されると同時に当該画像を入力として画像解析を開始し、前記複数の解析部の他のどの解析部からの出力も入力として受けないで動作する、請求項1~請求項6のいずれか1項に記載の交通情報処理サーバ。
  11. 前記複数の解析部の各々は、1つの画像が入力されるごとに、その画像を処理するための解析処理を開始して並列で実行し、画像ごとに解析結果を出力する、請求項10に記載の交通情報処理サーバ。
  12. コンピュータが、カメラからリアルタイムの画像の時系列を受信するステップと、
    コンピュータが、車両からその位置、移動の方向及び移動の速さを含む車両情報を受信するステップと、
    コンピュータが、各々が前記画像に対して互いに処理時間の異なる解析を行う複数の解析処理を実行するステップと、
    コンピュータが、前記複数の解析処理の解析結果をその処理時間により互いに区別して記憶装置に記憶するステップと、
    前記画像解析により前記画像の中に存在する物体の少なくとも地理的位置が検出され、
    コンピュータが、繰返し指定されるタイミングの各々において、前記車両情報と前記物体の地理的位置とその解析に要する時間とに基づき、各車両について前記動的情報記憶部に記憶された前記解析結果のいずれかを選択し、当該解析結果を当該車両に配信するステップとを含む、交通情報の処理方法。
  13. 無線通信装置を介して外部と無線通信可能なコンピュータを、
    カメラからリアルタイムの画像の時系列を受信する画像受信部と、
    前記無線通信装置を介して車両からその位置、移動の方向及び移動の速さを含む車両情報を受信する車両情報受信部と、
    各々が前記画像に対して互いに処理時間の異なる解析を行う複数の解析部を含む画像解析部と、
    前記画像解析部の解析結果をその処理時間により互いに区別して記憶する動的情報記憶部と、して機能させ、
    画像解析部は解析により画像の中に存在する物体の少なくとも地理的位置を検出し、
    さらに、繰返し指定されるタイミングの各々において、前記車両情報と前記画像から検出された物体の地理的位置とその解析に要する時間とに基づき、各車両について前記動的情報記憶部に記憶された前記解析結果のいずれかを選択し、当該解析結果を当該車両に配信する配信部として機能させる、コンピュータプログラム。

JP2018219912A 2018-11-26 2018-11-26 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム Pending JP2022034571A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018219912A JP2022034571A (ja) 2018-11-26 2018-11-26 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム
PCT/JP2019/045414 WO2020110857A1 (ja) 2018-11-26 2019-11-20 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219912A JP2022034571A (ja) 2018-11-26 2018-11-26 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2022034571A true JP2022034571A (ja) 2022-03-04

Family

ID=70852099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219912A Pending JP2022034571A (ja) 2018-11-26 2018-11-26 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP2022034571A (ja)
WO (1) WO2020110857A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023228364A1 (ja) * 2022-05-26 2023-11-30
WO2024215101A3 (ko) * 2023-04-10 2025-06-26 엘지전자 주식회사 위치 정보를 획득하는 방법 및 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7540497B2 (ja) * 2020-10-02 2024-08-27 日本電気株式会社 情報処理装置、画像送信システム、情報処理方法及びプログラム
TWI768852B (zh) * 2021-04-28 2022-06-21 緯創資通股份有限公司 人體方向之偵測裝置及人體方向之偵測方法
JP7671623B2 (ja) * 2021-05-18 2025-05-02 株式会社日立製作所 制御システム
CN114549613B (zh) * 2022-01-30 2024-10-29 清华大学 基于深度超分辨率网络的结构位移测量方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1139589A (ja) * 1997-07-18 1999-02-12 Fuji Electric Co Ltd 交通監視装置および交通監視方法
JP4387015B2 (ja) * 1999-12-08 2009-12-16 名古屋電機工業株式会社 マルチタスクスケジューリングによる画像処理の統合方法
JP5184217B2 (ja) * 2007-05-31 2013-04-17 パナソニック株式会社 画像撮影装置、付加情報提供サーバ及び付加情報フィルタリングシステム
JP5951188B2 (ja) * 2011-04-08 2016-07-13 株式会社東芝 情報提供方法、情報提供プログラム、情報提供サーバ、記憶媒体
JP2017161998A (ja) * 2016-03-07 2017-09-14 トヨタ自動車株式会社 車両用画像生成装置
WO2019188429A1 (ja) * 2018-03-29 2019-10-03 住友電気工業株式会社 動体管理装置、動体管理システム、動体管理方法、及びコンピュータプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023228364A1 (ja) * 2022-05-26 2023-11-30
JP7794311B2 (ja) 2022-05-26 2026-01-06 Ntt株式会社 物体検出装置、物体検出方法、及び物体検出プログラム
WO2024215101A3 (ko) * 2023-04-10 2025-06-26 엘지전자 주식회사 위치 정보를 획득하는 방법 및 장치

Also Published As

Publication number Publication date
WO2020110857A1 (ja) 2020-06-04

Similar Documents

Publication Publication Date Title
JP2022034571A (ja) 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム
US20250335796A1 (en) Machine learning models operating at different frequencies for autonomous vehicles
US11392131B2 (en) Method for determining driving policy
US10740658B2 (en) Object recognition and classification using multiple sensor modalities
US11354913B1 (en) Systems and methods for improving vehicle predictions using point representations of scene
JP6796798B2 (ja) イベント予測システム、イベント予測方法、プログラム、及び移動体
US10849543B2 (en) Focus-based tagging of sensor data
JP5278419B2 (ja) 運転シーンの遷移予測装置及び車両用推奨運転操作提示装置
US10994749B2 (en) Vehicle control method, related device, and computer storage medium
JP2019175451A (ja) 交通状況のリアルタイム検出
US20140354684A1 (en) Symbology system and augmented reality heads up display (hud) for communicating safety information
US11624831B2 (en) Obstacle detection method and apparatus and storage medium
KR20180113447A (ko) 전자 장치, 그의 경고 메시지 제공 방법 및 비일시적 컴퓨터 판독가능 기록매체
US11397610B2 (en) Architecture for simulation clock-based simulation of distributed systems
US20240378896A1 (en) Detected object path prediction for vision-based systems
KR20180074568A (ko) 차선 정보를 추정하는 방법 및 전자 장치
CN116859724B (zh) 时序自回归同时决策和预测的自动驾驶模型及其训练方法
CN114080629A (zh) 点云中的对象检测
US11615266B2 (en) Adaptive sampling of stimuli for training of machine learning based models for predicting hidden context of traffic entities for navigating autonomous vehicles
US20210405641A1 (en) Detecting positioning of a sensor system associated with a vehicle
US11189162B2 (en) Information processing system, program, and information processing method
JP7754106B2 (ja) 画像データ伝送装置、画像データ伝送方法、コンピュータプログラム、及び記憶媒体
JP7069972B2 (ja) 車載装置、車載装置における周辺情報の送信方法、及びコンピュータプログラム
US20240425042A1 (en) Equidistant-temporal aggregation for moving object segmentation
CN116434041B (zh) 错误感知数据的挖掘方法、装置、设备及自动驾驶车辆

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181206