[go: up one dir, main page]

JP2020004015A - Image data transmitting device, image data providing server, and image data transmitting program - Google Patents

Image data transmitting device, image data providing server, and image data transmitting program Download PDF

Info

Publication number
JP2020004015A
JP2020004015A JP2018122002A JP2018122002A JP2020004015A JP 2020004015 A JP2020004015 A JP 2020004015A JP 2018122002 A JP2018122002 A JP 2018122002A JP 2018122002 A JP2018122002 A JP 2018122002A JP 2020004015 A JP2020004015 A JP 2020004015A
Authority
JP
Japan
Prior art keywords
image data
image
point
vehicle
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018122002A
Other languages
Japanese (ja)
Inventor
俊幸 平野
Toshiyuki Hirano
俊幸 平野
康之 楠元
Yasuyuki Kusumoto
康之 楠元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Toyota Motor Corp
Original Assignee
Aisin AW Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Toyota Motor Corp filed Critical Aisin AW Co Ltd
Priority to JP2018122002A priority Critical patent/JP2020004015A/en
Publication of JP2020004015A publication Critical patent/JP2020004015A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両前方に存在する交通事象をより良好な状態で撮像した画像を取得する。【解決手段】車両装置5aは、交通情報配信サーバ4が配信する交通情報により、前方に障害物区間51が存在する旨の通知を受信すると、障害物区間51の開始地点から距離L1だけ手前の地点と、当該開始地点、及び、障害物区間51の終了地点から距離L2だけ手前の地点と、当該終了地点でカメラ12が前方を撮影した画像を取得して画像配信サーバ2に送信する。画像配信サーバ2は、これを後続の車両装置5b、5cに送信する。車両装置5aは、撮影地点の異なる複数枚の画像データを取得するため、障害物50が障害物区間51のどこにあろうとも、障害物50を良好に画像内に収めることができる。また、車両装置5b、5cは、障害物50の画像を表示して、ドライバの注意を喚起することができる。【選択図】図1PROBLEM TO BE SOLVED: To obtain an image of a traffic event existing in front of a vehicle in a better condition. When a vehicle device (5a) receives a notification indicating that an obstacle section (51) is present in front by traffic information distributed by a traffic information distribution server (4), the vehicle device (5a) is located a distance L1 before the starting point of the obstacle section (51). An image obtained by capturing the front of the camera 12 at the point, the start point, and the end point of the obstacle section 51 by a distance L2, and the end point is acquired and transmitted to the image distribution server 2. The image distribution server 2 transmits this to the following vehicle devices 5b and 5c. Since the vehicle device 5a acquires a plurality of pieces of image data at different shooting points, the obstacle 50 can be properly contained in the image regardless of where the obstacle 50 is located in the obstacle section 51. In addition, the vehicle devices 5b and 5c can display an image of the obstacle 50 to call the driver's attention. [Selection diagram] Figure 1

Description

本発明は、画像データ送信装置、画像データ提供サーバに、及び画像データ送信プログラム関し、例えば、道路上にある障害物等の状況を収集するものに関する。   The present invention relates to an image data transmitting apparatus, an image data providing server, and an image data transmitting program, for example, to a device for collecting a situation of an obstacle on a road.

車両で走行している場合、前方での交通状態を把握したいとの要望がある。そこで、先行して走行している車両から交通状況をサーバに送信してもらい、これを後続の車両に配信する技術の開発が進められている。
このような技術に、例えば、特許文献1の「渋滞情報提供装置及び渋滞情報提供方法」がある。
When traveling by vehicle, there is a demand to grasp the traffic condition ahead. In view of this, technology for transmitting a traffic condition from a vehicle traveling ahead to a server and distributing the traffic condition to a subsequent vehicle is being developed.
As such a technique, for example, there is “Congestion Information Providing Apparatus and Congestion Information Providing Method” of Patent Document 1.

この技術は、道路を走行している車両から走行情報をサーバに送信してもらい、これを解析したり(渋滞回避行動の抽出など)、あるいは交通情報を用いたりして渋滞発生エリアを特定する。そして、渋滞発生エリアを走行している車両が撮影した映像などを他の車両に配信して、情報を提供する。   According to this technology, a vehicle traveling on a road has travel information transmitted to a server, and the server analyzes the information (extraction of traffic congestion avoiding action, etc.) or uses traffic information to specify a traffic congestion area. . Then, an image or the like taken by a vehicle traveling in the traffic congestion area is distributed to other vehicles to provide information.

しかし、特許文献1記載の技術は、渋滞の原因となっている事象(例えば、障害物の存在)を必ずしも撮影できるわけではなく、事象から離れた位置から撮影したために事象が良好に写っていない場合などがある。   However, the technology described in Patent Literature 1 cannot always capture an event that causes traffic congestion (for example, the presence of an obstacle), and the event is not well captured because it is captured from a position away from the event. There are cases.

例えば、交通情報により提供される障害物区間を取得した場合、障害物の開始地点を通過する前に撮影をするために、例えば100m手前で撮像することが好ましい。
しかし、交通情報による障害物区間の提供は、注意喚起が目的であるため、安全のために実際の障害物よりも車両進行方向の先方に設定されることはない。
このため、障害物区間の開始地点と、実際の障害物の開始地点とが一致している場合には100m手前の地点において障害物を撮影可能である。
しかし、障害物区間の開始地点と実際の障害物の開始地点とが離れている場合には、障害物から離れすぎた地点での撮影が行われるため、障害物が写らなかったり、小さすぎて認識できない場合があった。
For example, when an obstacle section provided by traffic information is acquired, it is preferable to take an image before, for example, 100 m before passing through the start point of the obstacle.
However, the provision of the obstacle section based on the traffic information is for the purpose of alerting, and therefore is not set ahead of the actual obstacle in the vehicle traveling direction for safety.
Therefore, when the start point of the obstacle section and the start point of the actual obstacle coincide with each other, the obstacle can be photographed at a point 100 m before the obstacle.
However, if the start point of the obstacle section is far from the start point of the actual obstacle, shooting is performed at a point that is too far from the obstacle. There were cases where it could not be recognized.

特開2013−20523号公報JP 2013-20523 A

本発明は、車両前方に存在する所定の交通事象をより良好な状態で撮像した画像を取得することを目的とする。   An object of the present invention is to acquire an image of a predetermined traffic event existing in front of a vehicle in a better state.

(1)請求項1に記載の発明では、自車両の前方の画像を撮影する撮影手段と、前記自車両の前方に存在する交通事象の事象位置情報を取得する事象位置情報取得手段と、前記取得した事象位置情報に基づいて基準地点を設定する基準地点設定手段と、前記設定した基準地点よりも所定距離だけ手前の手前地点と、前記設定した基準地点に対応して前記撮影した画像の画像データを取得する画像データ取得手段と、前記取得した画像データを所定のサーバに送信する送信手段と、を具備したことを特徴とする画像データ送信装置を提供する。
(2)請求項2に記載の発明では、前記事象位置情報取得手段は、前記交通事象に対応する事象区間の事象開始地点と事象終了地点によって提供される前記事象位置情報を取得し、前記基準地点設定手段は、前記事象開始地点と前記事象終了地点を前記基準地点に設定する、ことを特徴とする請求項1に記載の画像データ送信装置を提供する。
(3)請求項3に記載の発明では、前記撮影手段は、前記自車両の前方を動画撮影し、前記画像データ取得手段は、前記動画を構成するフレーム画像を画像データとして取得することを特徴とする請求項1、又は請求項2に記載の画像データ送信装置を提供する。
(4)請求項4に記載の発明では、所定時間ごとにカメラ位置情報を取得し、当該カメラ位置情報を取得した際に撮影されたフレーム画像に紐付ける位置紐付け手段と、各フレーム画像に対して撮影時刻を紐付ける時刻紐付け手段と、前記手前地点と、前記基準地点に対応する前記自車両の位置を取得する車両位置情報取得手段と、を備え、前記画像データ取得手段は、前記取得した自車両の位置の直前の前記カメラ位置情報と直後の前記カメラ位置情報との間のフレーム画像群の中からフレーム画像を画像データとして取得する、ことを特徴とする請求項3に記載の画像データ送信装置を提供する。
(5)請求項5に記載の発明では、前記画像データ取得手段は、前記フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する、ことを特徴とする請求項4に記載の画像データ送信装置を提供する。
(6)請求項6に記載の発明では、前記画像データ取得手段は、前記基準地点に設定した前記事象開始地点に対しては、前記フレーム画像群のうち、最も新しい時刻に撮影されたフレーム画像を画像データとして取得し、前記基準地点に設定した前記事象終了地点に対しては、前記フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する、ことを特徴とする請求項4に記載の画像データ送信装置を提供する。
(7)請求項7に記載の発明では、前記設定した基準地点に基づいて前記手前地点より更に手前に動作開始地点を設定する動作開始地点設定手段を具備し、前記画像データ取得手段は、前記自車両が前記設定した動作開始地点に到達した場合に画像データの取得動作を開始することを特徴とする請求項1から請求項6までのうちの何れか1の請求項に記載の画像データ送信装置を提供する。
(8)請求項8に記載の発明では、前記画像データ取得手段は、更に、前記設定した基準地点よりも所定距離だけ先方の先方地点で前記撮影した画像データを取得することを特徴とする請求項4に記載の画像データ送信装置を提供する。
(9)請求項9に記載の発明では、前記画像データ取得手段は、前記フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する、ことを特徴とする請求項8に記載の画像データ送信装置を提供する。
(10)請求項10に記載の発明では、前記画像データ取得手段は、前記基準地点に設定した前記事象開始地点に対しては、前記フレーム画像群のうち、最も新しい時刻に撮影されたフレーム画像を画像データとして取得し、前記基準地点に設定した前記事象終了地点に対しては、前記フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する、ことを特徴とする請求項8に記載の画像データ送信装置を提供する。
(11)請求項11に記載の発明では、前記事象位置情報取得手段は、前記自車両の前方に存在する工事情報又は事故情報を前記交通事象として取得する、ことを特徴とする請求項1から請求項10までのうちの何れか1の請求項に記載の画像データ送信装置を提供する。
(12)請求項12に記載の発明では、請求項1から請求項11に記載の画像データ送信装置から画像データを受信して記憶する画像データ記憶手段と、前記受信した画像データを、前記画像データを撮影した車両の後続の車両に配信する配信手段と、を具備したことを特徴とする画像データ提供サーバを提供する。
(13)請求項13に記載の発明では、自車両の前方に存在する交通事象の事象位置情報を取得する事象位置情報取得機能と、前記取得した事象位置情報に基づいて基準地点を設定する基準地点設定機能と、前記設定した基準地点よりも所定距離だけ手前の手前地点と、前記設定した基準地点に対応して撮像手段で撮影した画像の画像データを取得する画像データ取得機能と、前記取得した画像データを所定のサーバに送信する送信機能と、をコンピュータに実現させることを特徴とする画像データ送信プログラムを提供する。
(1) In the invention according to claim 1, a photographing means for photographing an image in front of the own vehicle, an event position information obtaining means for obtaining event position information of a traffic event existing in front of the own vehicle, Reference point setting means for setting a reference point based on the acquired event position information, a point in front of the set reference point by a predetermined distance, and an image of the captured image corresponding to the set reference point An image data transmitting apparatus comprising: image data obtaining means for obtaining data; and transmitting means for transmitting the obtained image data to a predetermined server.
(2) In the invention according to claim 2, the event location information acquiring means acquires the event location information provided by an event start point and an event end point of an event section corresponding to the traffic event, 2. The image data transmitting apparatus according to claim 1, wherein the reference point setting unit sets the event start point and the event end point as the reference points.
(3) The invention according to claim 3, wherein the photographing means photographs a moving image of the front of the host vehicle, and the image data acquiring means acquires a frame image constituting the moving image as image data. An image data transmitting apparatus according to claim 1 or claim 2 is provided.
(4) In the invention described in claim 4, camera position information is acquired at predetermined time intervals, and position associating means for associating with frame images taken at the time of acquiring the camera position information, A time associating means for associating a photographing time, the near point, and vehicle position information acquiring means for acquiring a position of the own vehicle corresponding to the reference point, wherein the image data acquiring means comprises: 4. The image processing apparatus according to claim 3, wherein a frame image is obtained as image data from a frame image group between the camera position information immediately before the obtained vehicle position and the camera position information immediately after the obtained vehicle position. An image data transmission device is provided.
(5) In the invention described in (5), the image data obtaining means obtains, as image data, a frame image taken at the oldest time in the frame image group. An image data transmitting device according to (1) is provided.
(6) In the invention as set forth in claim 6, the image data obtaining means is configured to determine, for the event start point set as the reference point, a frame captured at the latest time in the frame image group. An image is acquired as image data, and for the event end point set as the reference point, a frame image taken at the oldest time in the frame image group is acquired as image data. An image data transmitting apparatus according to claim 4 is provided.
(7) The invention according to claim 7, further comprising operation start point setting means for setting an operation start point further before the near point based on the set reference point, wherein the image data obtaining means includes: The image data transmission operation according to any one of claims 1 to 6, wherein the operation of acquiring image data is started when the own vehicle reaches the set operation start point. Provide equipment.
(8) In the invention according to claim 8, the image data acquiring means further acquires the photographed image data at a point ahead by a predetermined distance from the set reference point. Item 4. An image data transmitting device according to item 4.
(9) In the invention described in (9), the image data obtaining means obtains, as image data, a frame image taken at the oldest time in the frame image group. An image data transmitting device according to (1) is provided.
(10) In the invention according to (10), the image data acquisition unit may determine, for the event start point set as the reference point, a frame captured at the latest time in the frame image group. An image is acquired as image data, and for the event end point set as the reference point, a frame image taken at the oldest time in the frame image group is acquired as image data. An image data transmitting apparatus according to claim 8 is provided.
(11) In the invention according to claim 11, the event position information acquisition means acquires construction information or accident information existing in front of the host vehicle as the traffic event. An image data transmitting apparatus according to any one of claims 1 to 10 is provided.
(12) In the invention according to claim 12, image data storage means for receiving and storing image data from the image data transmitting apparatus according to any one of claims 1 to 11, and storing the received image data in the image data. And a distribution unit for distributing data to a vehicle following the vehicle that has captured the image.
(13) In the invention according to claim 13, an event location information acquisition function for acquiring event location information of a traffic event existing in front of the host vehicle, and a reference for setting a reference point based on the acquired event location information. A point setting function, an image data acquisition function for acquiring image data of an image taken by an imaging unit corresponding to the near point a predetermined distance before the set reference point, and the set reference point, And a transmission function of transmitting the image data to a predetermined server by a computer.

本発明によれば、交通事象の手前から撮影するため、これが写るように車両から画像を撮影することができる。   According to the present invention, an image can be taken from a vehicle so that the image is taken before the traffic event.

画像配信システムの構成を示した図である。FIG. 2 is a diagram illustrating a configuration of an image distribution system. 車両装置のハードウェア的な構成の一例を示した図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of the vehicle device. 車両装置が画像データを取得する地点を説明するための図である。FIG. 4 is a diagram for explaining a point at which the vehicle device acquires image data. 車両装置が画像データを取得する地点を説明するための続きの図である。It is a following figure for demonstrating the point from which a vehicle apparatus acquires image data. 車両装置が動画データから画像データを取得する処理を説明するための図である。FIG. 5 is a diagram for describing a process in which the vehicle device acquires image data from moving image data. 画像データ送信処理の手順を説明するためのフローチャートである。9 is a flowchart illustrating a procedure of image data transmission processing. 画像取得処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of an image acquisition process. 画像選定処理の手順を説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of an image selection process.

(1)実施形態の概要
車両3aに搭載された車両装置5aは、交通情報配信サーバ4が配信する交通情報により、前方に障害物区間51が存在する旨の通知を受信する。すると、車両装置5aは、障害物区間51の開始地点から距離L1だけ手前の地点と、当該開始地点、及び、障害物区間51の終了地点から距離L2だけ手前の地点と、当該終了地点でカメラ12が前方を撮影した画像を取得して画像配信サーバ2に送信する。画像配信サーバ2は、車両装置5aから画像データを受信すると、これを後続の車両3b、3cが搭載する車両装置5b、5cに送信する。車両装置5aは、撮影地点の異なる複数枚の画像データを取得するため、障害物50が障害物区間51のどこにあろうとも、障害物50を良好に画像内に収めることができる。また、車両装置5b、5cは、障害物50の画像を表示して、ドライバの注意を喚起することができる。
(1) Overview of Embodiment The vehicle device 5a mounted on the vehicle 3a receives a notification that the obstacle section 51 is present ahead by the traffic information distributed by the traffic information distribution server 4. Then, the vehicle device 5a performs a camera operation at a point that is a distance L1 from the start point of the obstacle section 51, a point that is a distance L2 from the start point and an end point of the obstacle section 51, and a camera that is at the end point. 12 acquires an image photographed in front and transmits it to the image distribution server 2. When receiving the image data from the vehicle device 5a, the image distribution server 2 transmits the image data to the vehicle devices 5b and 5c mounted on the following vehicles 3b and 3c. Since the vehicle device 5a acquires a plurality of pieces of image data at different photographing points, the obstacle 50 can be properly included in the image regardless of where the obstacle 50 is located in the obstacle section 51. In addition, the vehicle devices 5b and 5c can display an image of the obstacle 50 to call the driver's attention.

(2)実施形態の詳細
図1は、本実施形態の画像配信システム1の構成を示した図である。
画像配信システム1は、交通情報配信サーバ4、画像配信サーバ2、車両3a、3b、3c、…などから構成されている。
以下では、車両3a、3b、3c、…を特に区別しない場合は、単に車両3と記すことにする。他の構成要素についても同様とする。
(2) Details of Embodiment FIG. 1 is a diagram illustrating a configuration of an image distribution system 1 according to the present embodiment.
The image distribution system 1 includes a traffic information distribution server 4, an image distribution server 2, vehicles 3a, 3b, 3c,.
Hereinafter, when the vehicles 3a, 3b, 3c,... Are not particularly distinguished, they are simply referred to as the vehicle 3. The same applies to other components.

交通情報配信サーバ4は、車両3に交通情報を配信するサーバ装置であり、交通システムで発生している様々な交通事象(渋滞、道路工事、交通事故、火災などによる交通規制、…など)に関する情報を提供している。このような交通情報を提供するサービスには、例えば、VICS(登録商標)がある。
本実施形態では、実際の交通事象の開始点と終了点を障害物50Sと障害物50Eで表している。これに対し、交通情報配信サーバ4から車両3に送信される交通事象の情報は、実際の障害物が存在する区間よりも手前を開始点、終了点とする障害物区間51が提供される。障害物区間51の情報提供は、注意喚起が目的であるため、安全のために実際の障害物50よりも手前側に設定されている。
The traffic information distribution server 4 is a server device that distributes traffic information to the vehicle 3 and relates to various traffic events (traffic congestion, road works, traffic accidents, traffic regulations due to fire, etc.) occurring in the traffic system. Provides information. A service that provides such traffic information is, for example, VICS (registered trademark).
In the present embodiment, the start point and the end point of the actual traffic event are represented by obstacles 50S and 50E. On the other hand, in the traffic event information transmitted from the traffic information distribution server 4 to the vehicle 3, an obstacle section 51 having a start point and an end point before a section where an actual obstacle exists is provided. Since the information provision of the obstacle section 51 is for the purpose of alerting, the provision of the information is set closer to the actual obstacle 50 for safety.

車両3は、ドライバを誘導したり、交通情報配信サーバ4が配信する交通情報を受信してドライバに通知するナビゲーション機能を提供する車両装置5を搭載している。
車両装置5は、ナビゲーション機能の一部として後述の画像データ送信機能を有し、本実施形態では、画像データ送信装置として機能する。
The vehicle 3 is equipped with a vehicle device 5 that provides a navigation function for guiding a driver or receiving traffic information distributed by a traffic information distribution server 4 and notifying the driver.
The vehicle device 5 has an image data transmission function described later as a part of the navigation function, and in the present embodiment, functions as an image data transmission device.

交通情報に関しては、車両装置5は、交通情報配信サーバ4が配信する交通情報によって障害物区間51の位置情報(開始地点と終了地点の位置)を受信し、前方に存在する障害物区間51を認識する。
このように、車両装置5は、自車両の前方に存在する交通事象の事象位置情報を取得する事象位置情報取得手段を備えており、当該事象位置情報取得手段は、自車両の前方に存在する工事情報又は事故情報を交通事象として取得している。
Regarding the traffic information, the vehicle device 5 receives the position information (the position of the start point and the end point) of the obstacle section 51 based on the traffic information distributed by the traffic information distribution server 4, and determines the obstacle section 51 existing ahead. recognize.
As described above, the vehicle device 5 includes the event position information obtaining unit that obtains the event position information of the traffic event existing in front of the own vehicle, and the event position information obtaining unit exists in front of the own vehicle. Construction information or accident information is acquired as traffic events.

また、車両装置5は、自車両の前方を動画撮影するカメラ12を搭載している。カメラ12は、前方の視界(景色)を時系列的(時間的)に連続するフレーム画像を記録することにより動画データを生成する。
このように、車両装置5は、自車両の前方の画像を時系列的に連続するフレーム画像によって動画撮影する撮影手段を備えている。
Further, the vehicle device 5 is equipped with a camera 12 that shoots a moving image of the front of the host vehicle. The camera 12 generates moving image data by recording a frame image in which a front view (landscape) is continuous in a time-series (temporal) manner.
As described above, the vehicle device 5 includes the image capturing unit that captures a moving image of an image in front of the host vehicle using time-series continuous frame images.

そして、車両装置5は、カメラ12が生成した動画データからフレーム画像を抽出することにより送信用の画像データを取得する。
このように、車両装置5は、動画を構成するフレーム画像を画像データとして取得する画像データ取得手段を備えている。
なお、これは一例であって、動画撮影ではなく、カメラ12が所定の地点で静止画像を撮影するように構成することもできる。
Then, the vehicle device 5 acquires image data for transmission by extracting a frame image from the moving image data generated by the camera 12.
As described above, the vehicle device 5 includes the image data acquisition unit that acquires a frame image that constitutes a moving image as image data.
Note that this is an example, and the camera 12 may be configured to capture a still image at a predetermined point instead of capturing a moving image.

詳しくは後述するが、車両装置5は、交通情報によって障害物区間51を認識すると、これに基づいて撮影の基準地点と、当該基準地点より所定距離L(例えば、100m)だけ手前の手前地点を設定する。
基準地点の設定位置は、任意であるが、本実施形態の車両装置5は、一例として、障害物区間51の開始地点と終了地点を基準地点に設定する。
As will be described in detail later, when the vehicle apparatus 5 recognizes the obstacle section 51 based on the traffic information, the vehicle apparatus 5 determines a reference point for photography and a point in front of the reference point by a predetermined distance L (for example, 100 m) based on the obstacle section 51. Set.
Although the setting position of the reference point is arbitrary, the vehicle device 5 of the present embodiment sets the start point and the end point of the obstacle section 51 as the reference point, for example.

そして、車両装置5は、カメラ12が撮影した動画データから、これらの地点(障害物区間51の開始地点と終了地点に対して設定した基準地点と手前地点)に対応するフレーム画像を、これら地点での画像データとして抽出する。
次いで、車両装置5は、これら抽出したフレーム画像をこれら基準地点と手前地点での画像データとして画像配信サーバ2に送信(アップロード)する。
Then, the vehicle device 5 converts the frame images corresponding to these points (the reference point and the near point set for the start point and the end point of the obstacle section 51) from the moving image data captured by the camera 12 into these points. Extracted as image data.
Next, the vehicle device 5 transmits (uploads) the extracted frame images to the image distribution server 2 as image data at the reference point and the near point.

このように、車両装置5は、事象位置情報に基づいて基準地点を設定する基準地点設定手段を備え、当該設定した基準地点よりも所定距離だけ手前の手前地点と、当該設定した基準地点に対応して撮影した画像の画像データを取得する画像データ取得手段を備えている。
更に、車両装置5は、取得した画像データを所定のサーバに送信する送信手段を備えている。
As described above, the vehicle device 5 includes the reference point setting unit that sets the reference point based on the event position information, and corresponds to the point in front of the set reference point by a predetermined distance and the position corresponding to the set reference point. Image data acquiring means for acquiring image data of an image photographed by the camera.
Further, the vehicle device 5 includes a transmission unit that transmits the acquired image data to a predetermined server.

加えて、車両装置5の有する事象位置情報取得手段は、交通事象に対応する事象区間の事象開始地点(障害物区間51の開始地点)と事象終了地点(障害物区間51の終了地点)によって提供される事象位置情報を取得し、基準地点設定手段は、事象開始地点と事象終了地点を基準地点に設定している。   In addition, the event position information acquiring means of the vehicle device 5 is provided by an event start point (start point of the obstacle section 51) and an event end point (end point of the obstacle section 51) of the event section corresponding to the traffic event. The event location information obtained is acquired, and the reference point setting means sets the event start point and the event end point as the reference points.

以上のようにして、車両装置5は、障害物区間51の開始地点から距離L1だけ手前の地点、開始地点、終了地点から距離L2だけ手前の地点、及び終了地点の、合計4つの画像データを画像配信サーバ2に送信する。   As described above, the vehicle device 5 generates a total of four image data of a point that is a distance L1 from the start point of the obstacle section 51, a point that is a distance L2 from the start point, and the end point, and an end point. The image is transmitted to the image distribution server 2.

先に述べたように、通知された障害物区間51に対する障害物50の実際の存在位置には、ある程度の不確かさが存在するが、車両装置5は、障害物区間51の開始地点付近、及び終了地点付近で複数枚の前方画像を撮影することにより、障害物50を良好な構図で(即ち、後続のドライバが視認しやすい大きさ・形態で)画像内に撮影することができる。   As described above, there is a certain degree of uncertainty in the actual position of the obstacle 50 with respect to the notified obstacle section 51, but the vehicle device 5 has the vicinity of the start point of the obstacle section 51, and By photographing a plurality of front images near the end point, the obstacle 50 can be photographed in the image with a good composition (that is, in a size and form that is easy for a subsequent driver to visually recognize).

画像配信サーバ2は、画像データ提供サーバとして機能するサーバ装置であって、先行して障害物区間51を走行した車両装置5から画像データを受信して記憶し、後続の車両装置5に画像データを配信するサーバ装置である。
図1における画像配信サーバ2は、車両装置5aから4つの画像データを受信して記憶し、これを後続の車両3b、3cの車両装置5b、5cに配信する場合の例である。
The image distribution server 2 is a server device that functions as an image data providing server. The image distribution server 2 receives and stores image data from the vehicle device 5 that has previously traveled in the obstacle section 51, and stores the image data in the subsequent vehicle device 5. Is a server device that distributes the server.
The image distribution server 2 in FIG. 1 is an example of a case where four image data are received from the vehicle device 5a, stored, and distributed to the vehicle devices 5b, 5c of the following vehicles 3b, 3c.

なお、画像配信サーバ2は、車両装置5aから送信された4つの画像のうち、障害物50が最も良好に写っているものを画像認識処理によって選択し、これを配信するように構成することもできる。
このように、画像配信サーバ2は、画像データ送信装置から画像データを受信して記憶する画像データ記憶手段と、当該受信した画像データを、当該画像データを撮影した車両の後続の車両に配信する配信手段と、を備えている。
Note that the image distribution server 2 may be configured to select an image in which the obstacle 50 is best imaged from the four images transmitted from the vehicle device 5a by image recognition processing and distribute the selected image. it can.
As described above, the image distribution server 2 receives the image data from the image data transmission device and stores the image data, and distributes the received image data to a vehicle subsequent to the vehicle that captured the image data. Distribution means.

車両装置5b、5cは、配信された画像データを用いて障害物50の画像をディスプレイに表示する。これによって、車両3b、3cのドライバは、障害物50の状況を把握して、注意しながら障害物区間51を走行することができる。   The vehicle devices 5b and 5c display the image of the obstacle 50 on the display using the distributed image data. Thus, the drivers of the vehicles 3b and 3c can grasp the situation of the obstacle 50 and travel in the obstacle section 51 with care.

図2は、車両3が搭載する車両装置5のハードウェア構成の一例を示した図である。
車両装置5は、CPU(Central Processing Unit)6、ROM(Read Only Memory)7、RAM(Random Access Memory)8、車両位置検出部9、車両時刻検出部10、記憶部11、カメラ12、入力部13、音声出力部14、通信制御部15、ディスプレイ16、などをバスラインで接続したコンピュータによって構成されている。
FIG. 2 is a diagram illustrating an example of a hardware configuration of a vehicle device 5 mounted on the vehicle 3.
The vehicle device 5 includes a CPU (Central Processing Unit) 6, a ROM (Read Only Memory) 7, a RAM (Random Access Memory) 8, a vehicle position detection unit 9, a vehicle time detection unit 10, a storage unit 11, a camera 12, an input unit. 13, a computer in which an audio output unit 14, a communication control unit 15, a display 16, and the like are connected by a bus line.

CPU6は、ROM7や記憶部11などの各種記憶部が記憶するプログラムに従って、各種の情報処理や車両装置5の各部の制御を行う。
本実施形態では、記憶部11が記憶するナビゲーションプログラムに従って動作し、例えば、カメラ12を制御して動画を撮影したり、動画データから送信用の画像データを抽出したり、通信制御部15を制御して当該画像データを画像配信サーバ2に送信したりする。
The CPU 6 performs various types of information processing and controls each unit of the vehicle device 5 according to programs stored in various storage units such as the ROM 7 and the storage unit 11.
In the present embodiment, the operation is performed in accordance with the navigation program stored in the storage unit 11, for example, by controlling the camera 12 to capture a moving image, extracting image data for transmission from the moving image data, and controlling the communication control unit 15. Then, the image data is transmitted to the image distribution server 2.

ROM7は、読み取り専用のメモリであって、例えば、CPU6が車両装置5を起動するための基本的なプログラムやパラメータなどを記憶している。
RAM8は、CPU6が各種演算や情報処理、あるいは制御を行う際に必要なプログラムやデータを一時的に記憶するワーキングメモリであって、詳細は後述するが、動画データから画像データを抽出して取得するための作業用の動画データを記憶したり、取得した送信用の画像データを記憶したり、あるいは、障害物区間51の開始地点や終了地点を記憶したりなどする。
The ROM 7 is a read-only memory and stores, for example, basic programs and parameters for the CPU 6 to start the vehicle device 5.
The RAM 8 is a working memory that temporarily stores programs and data necessary for the CPU 6 to perform various operations, information processing, and control. As will be described in detail later, the RAM 8 extracts and acquires image data from moving image data. For example, it stores work moving image data, stores acquired transmission image data, or stores the start point and end point of the obstacle section 51.

車両位置検出部9は、GPS(Global Positioning System)、車速度センサ、加速度センサ、ステアリングセンサなどの検出装置を用いて構成されている。
GPSは、地球を周回する複数のGPS衛星が送信する時刻信号を受信し、これらの時間差から現在位置を検出する。
The vehicle position detection unit 9 is configured using a detection device such as a GPS (Global Positioning System), a vehicle speed sensor, an acceleration sensor, and a steering sensor.
The GPS receives time signals transmitted by a plurality of GPS satellites orbiting the earth, and detects a current position from a time difference between these signals.

車速度センサは、車軸の回転数に比例して発生するパルス信号などから車速度を検出し、加速度センサは、ピエゾ抵抗などから車両の加速度を検出する。
ステアリングセンサは、ハンドルや車軸に取り付けたエンコーダなどによりステアリングの角度を検出する。
The vehicle speed sensor detects a vehicle speed from a pulse signal or the like generated in proportion to the number of revolutions of the axle, and the acceleration sensor detects an acceleration of the vehicle from a piezo resistance or the like.
The steering sensor detects a steering angle by using a steering wheel, an encoder attached to an axle, or the like.

車両位置検出部9は、これらの検出装置が出力する検出値を解析することにより、自車両の現在位置(自車位置)を算出することができる。
本実施形態では、車両位置検出部9は、CPU6が動画データからフレーム画像を選択する基準となる自車位置をCPU6に提供したりする。
車両時刻検出部10は、現在時刻(西暦年や月日も含む)を計測してCPU6に出力する。
The vehicle position detection unit 9 can calculate the current position of the own vehicle (own vehicle position) by analyzing the detection values output by these detection devices.
In the present embodiment, the vehicle position detection unit 9 provides the CPU 6 with the vehicle position as a reference for the CPU 6 to select a frame image from the moving image data.
The vehicle time detector 10 measures the current time (including the year and month and year) and outputs it to the CPU 6.

記憶部11は、半導体装置やハードディスクなどで構成された大容量の記憶媒体を備えており、ナビゲーションプログラムやその他のプログラム、及びカメラ12が撮影した動画データやその他のデータを記憶している。
また、動画データは、容量が大きくなりがちなため、これに対処するために、記憶部11は、仮想のメモリ空間をCPU6に提供することも可能である。
The storage unit 11 includes a large-capacity storage medium including a semiconductor device and a hard disk, and stores a navigation program and other programs, moving image data captured by the camera 12, and other data.
In addition, since moving image data tends to have a large capacity, the storage unit 11 can provide a virtual memory space to the CPU 6 in order to cope with this.

ナビゲーションプログラムは、CPU6に対して、目的地までの誘導という本来の機能のほか、例えば、障害物区間51で画像を撮影してその画像データを画像配信サーバ2に送信したり、画像配信サーバ2が送信してきた画像データを用いて画像をディスプレイ16に表示する機能を発揮させる。   The navigation program provides the CPU 6 with an original function of guiding to a destination, for example, capturing an image in an obstacle section 51 and transmitting the image data to the image distribution server 2, Has a function of displaying an image on the display 16 using the image data transmitted by the user.

カメラ12は、CCD(Charge coupled cevices)やCMOS(Complementary metal−oxide−semiconductor)などで構成されたイメージセンサを備えた動画撮影部17と、カメラ12の位置を検出して出力するカメラ位置検出部18、及びカメラ12で検出した現在時刻を出力するカメラ時刻検出部19などを備えている。   The camera 12 includes a moving image photographing unit 17 including an image sensor composed of a charge coupled devices (CCD) or a complementary metal-oxide-semiconductor (CMOS), and a camera position detecting unit that detects the position of the camera 12 and outputs the position. And a camera time detector 19 for outputting the current time detected by the camera 12.

動画撮影部17は、車両前方の景色を所定のフレームレートによるフレーム画像によって動画撮影する。
動画撮影部17は、所定の画像圧縮技術を用いた動画処理によって、時系列的に隣接する複数のフレーム画像群を一体的に圧縮した画像データを生成する。
これに対し、CPU6は、当該画像データに所定の演算を施すことにより個々のフレーム画像を復元して、後述のフレーム画像の選択などの処理を行う。
The moving image capturing section 17 captures a moving image of a scene in front of the vehicle using a frame image at a predetermined frame rate.
The moving image capturing unit 17 generates image data by integrally compressing a plurality of time-series adjacent frame image groups by moving image processing using a predetermined image compression technique.
On the other hand, the CPU 6 restores each frame image by performing a predetermined operation on the image data, and performs processing such as selection of a frame image described later.

カメラ位置検出部18とカメラ時刻検出部19は、カメラ12が独自の回路構成によって、車両位置検出部9と車両時刻検出部10から独立して、カメラ12の現在位置と現在時刻を計測して出力する。   The camera position detecting unit 18 and the camera time detecting unit 19 measure the current position and the current time of the camera 12 independently of the vehicle position detecting unit 9 and the vehicle time detecting unit 10 by using the camera 12 with its own circuit configuration. Output.

動画撮影部17は、フレーム画像を生成する際に、カメラ時刻検出部19が検出した現在時刻をフレーム画像に付与して紐付けると共に、所定時間ごとにカメラ位置検出部18が検出した現在位置をフレーム画像に付与して紐付ける。
このように車両装置5は、所定時間ごとにカメラ位置情報を取得し、当該カメラ位置情報を取得した際に撮影されたフレーム画像に紐付ける位置紐付け手段と、各フレーム画像に対して撮影時刻を紐付ける時刻紐付け手段と、を備えている。
When generating the frame image, the moving image photographing unit 17 attaches the current time detected by the camera time detection unit 19 to the frame image and associates the current time with the frame image, and displays the current position detected by the camera position detection unit 18 at predetermined time intervals. It is attached to the frame image and linked.
As described above, the vehicle device 5 acquires the camera position information at predetermined time intervals, the position associating means for associating with the frame image photographed when the camera position information is acquired, and the photographing time for each frame image. Time linking means for linking

入力部13は、例えば、タッチパネル、キースイッチ、音声入力装置などの入力装置で構成されており、ドライバなどが車両装置5に対して経路探索に必要な目的地の入力などの指示や情報を入力するための入力手段を提供する。
これらの入力装置のうち、タッチパネルは、ディスプレイ16の表面に配置され、ディスプレイ16が表示するソフトキーに対するドライバなどの選択をタッチの検知により検出してCPU6に通知する。
The input unit 13 includes input devices such as a touch panel, a key switch, and a voice input device. A driver or the like inputs instructions and information such as input of a destination required for a route search to the vehicle device 5. Input means for performing the input.
Among these input devices, the touch panel is arranged on the surface of the display 16 and detects selection of a driver or the like for a soft key displayed on the display 16 by detecting a touch and notifies the CPU 6 of the selection.

通信制御部15は、例えば、インターネットなどの通信ネットワークに接続し、画像配信サーバ2、交通情報配信サーバ4、及びその他のサーバ装置と通信する。
CPU6は、通信制御部15を制御することにより、交通情報を受信したり、画像配信サーバ2に画像データを送信したりする。
The communication control unit 15 connects to a communication network such as the Internet, for example, and communicates with the image distribution server 2, the traffic information distribution server 4, and other server devices.
The CPU 6 controls the communication control unit 15 to receive traffic information and transmit image data to the image distribution server 2.

音声出力部14は、例えば、複数のスピーカで構成され、「前方で工事をしています」などと音声案内を出力するほか、ラジオの放送を音声出力することができる。
ディスプレイ16は、車両の運転席付近に設置された小型のディスプレイであって、入力画面や現在位置画面などの各種画面のほか、画像配信サーバ2が送信してきた画像データ(先行する車両3が障害物区間51付近を撮影したもの)による障害物50の画像などを表示する。
The audio output unit 14 is composed of, for example, a plurality of speakers, and outputs audio guidance such as “I'm constructing ahead” and also can output audio of a radio broadcast.
The display 16 is a small display installed near the driver's seat of the vehicle, and includes various screens such as an input screen and a current position screen, as well as image data transmitted by the image distribution server 2 (when the preceding vehicle 3 has an obstacle). An image of the obstacle 50 is displayed by taking an image of the vicinity of the object section 51).

図3の各図は、車両装置5が画像データを取得する地点を説明するための図である。
図3(a)に示したように、車両装置5は、まず、交通情報により障害物区間51の開始地点52と終了地点53を受信する。
車両装置5は、交通情報によって障害物区間51を認識すると、まず、障害物区間51の開始地点52を基準にして、開始地点52の手前側の所定距離M(例えば、150m)の地点に動作開始地点60を設定する。
Each drawing in FIG. 3 is a diagram for explaining a point at which the vehicle device 5 acquires image data.
As shown in FIG. 3A, the vehicle device 5 first receives a start point 52 and an end point 53 of an obstacle section 51 based on traffic information.
When the vehicle device 5 recognizes the obstacle section 51 based on the traffic information, the vehicle apparatus 5 first moves to a point at a predetermined distance M (for example, 150 m) on the near side of the start point 52 with reference to the start point 52 of the obstacle section 51. The starting point 60 is set.

車両装置5は、所定距離Mを、基準地点40から画像データを取得する手前地点41までの所定距離L1よりも大きく設定している。即ち、車両装置5は、手前地点41よりも更に手前に動作開始地点60を設定する。   In the vehicle device 5, the predetermined distance M is set to be larger than the predetermined distance L1 from the reference point 40 to the near point 41 at which the image data is acquired. That is, the vehicle device 5 sets the operation start point 60 further before the near point 41.

動作開始地点60は、車両装置5が画像送信モードとしての動作を開始する地点であり、車両装置5は、車両位置検出部9の出力する車両位置により車両3が動作開始地点60に到達したことを検出すると、画像取得動作を開始すると共に、画像取得地点への接近を監視し始める。
また、カメラ12の動作を通常はオフにしておき、動作モードの開始と共に撮影を開始するように構成してもよい。
The operation start point 60 is a point where the vehicle device 5 starts operation in the image transmission mode. The vehicle device 5 determines that the vehicle 3 has reached the operation start point 60 based on the vehicle position output from the vehicle position detection unit 9. Is detected, the image acquisition operation is started and the approach to the image acquisition point is monitored.
Alternatively, the operation of the camera 12 may be normally turned off, and the shooting may be started at the same time as the start of the operation mode.

このように、車両装置5は、基準地点に基づいて手前地点より更に手前に動作開始地点を設定する動作開始地点設定手段を備えており、車両装置5が有する画像データ取得手段は、自車両が設定した動作開始地点に到達した場合に画像データの取得動作を開始する。
次いで、車両装置5は、動作開始地点60を基準にして基準地点40を設定する。基準地点40は、画像データを取得する位置の基準となる地点である。
本実施形態では、車両装置5は、基準地点40を障害物区間51の開始地点52に設定する。
As described above, the vehicle device 5 includes the operation start point setting unit that sets the operation start point further before the near point based on the reference point. When the set operation start point is reached, the image data acquisition operation is started.
Next, the vehicle device 5 sets the reference point 40 based on the operation start point 60. The reference point 40 is a point serving as a reference for a position at which image data is acquired.
In the present embodiment, the vehicle device 5 sets the reference point 40 as the start point 52 of the obstacle section 51.

次いで、車両装置5は、基準地点40から手前側の所定距離L1の位置に手前地点41を設定する。本実施形態では、L1を100mとする。なお、これは一例であって、200m、150m、80m、50mなど、各種の値を用いることもできる(後述の所定距離L2、L3も同様)。
また、道路の幅や、道路の混雑具合、障害物区間51の長さといった、現地の交通環境に基づいてL1を可変的に設定するように構成することもできる。
Next, the vehicle device 5 sets the near point 41 at a position at a predetermined distance L1 on the near side from the reference point 40. In the present embodiment, L1 is set to 100 m. Note that this is an example, and various values such as 200 m, 150 m, 80 m, and 50 m can be used (the same applies to predetermined distances L2 and L3 described later).
Further, L1 may be variably set based on the local traffic environment such as the width of the road, the degree of congestion of the road, and the length of the obstacle section 51.

更には、車両装置5が、手前地点41に加えて、更に基準地点40より所定距離L3(例えば、100m)だけ先方の先方地点を設定し、先方地点で撮影した画像データを取得して画像配信サーバ2に送信するように構成することもできる。
この場合、車両装置5が備える画像データ取得手段は、更に、基準地点よりも所定距離だけ先方の先方地点で撮影した画像データを取得している。
このように、基準地点40の先方で更に画像データを取得すると、実際の障害物50Sと障害物区間51の開始地点52とが大きく離れていた場合であっても障害物50Sを良好に撮像することができる。
なお、この変形については、後述する終了地点53を基準点40に設定した場合についても適用が可能である。
Further, the vehicle device 5 sets a forward point a predetermined distance L3 (for example, 100 m) from the reference point 40 in addition to the near point 41, obtains image data captured at the forward point, and distributes the image. It may be configured to transmit to the server 2.
In this case, the image data obtaining means provided in the vehicle device 5 further obtains image data captured at a point ahead of the reference point by a predetermined distance from the reference point.
As described above, when the image data is further acquired beyond the reference point 40, the obstacle 50S is satisfactorily imaged even when the actual obstacle 50S and the start point 52 of the obstacle section 51 are far apart. be able to.
This modification is also applicable to a case where an end point 53 described later is set as the reference point 40.

車両装置5は、以上のようにして、基準地点40と手前地点41を設定すると、図3(b)に示したように、手前地点41に対応して撮影した画像データと、図3(c)で示したように、基準地点40に対応して撮影した画像データを取得して画像配信サーバ2に送信する。
このように、車両装置5は、基準地点40から手前側で2つの画像データを取得するが、例えば、基準地点40と手前地点41の中間点で撮影した画像データも取得するなど、3つ以上の画像データを取得して画像配信サーバ2に送信するように構成することもできる。
When the reference point 40 and the near point 41 are set as described above, the vehicle device 5 sets the image data captured corresponding to the near point 41 as shown in FIG. As shown in ()), the image data captured corresponding to the reference point 40 is acquired and transmitted to the image distribution server 2.
As described above, the vehicle device 5 acquires two pieces of image data on the near side from the reference point 40, but, for example, acquires three or more pieces of image data captured at an intermediate point between the reference point 40 and the near point 41. The image data may be acquired and transmitted to the image distribution server 2.

図4は、車両装置5が画像データを取得する地点を説明するための続きの図である。
車両装置5は、障害物区間51の終了地点53においても、開始地点52の場合と同様に手前地点46と基準地点45に対応して撮像した画像データを取得し、これを画像配信サーバ2に送信する。
車両装置5が終了地点53に対して行う処理は、繰り返しになるため、説明を簡略化する。
FIG. 4 is a continuation diagram for explaining a point where the vehicle device 5 acquires image data.
The vehicle device 5 also acquires image data captured corresponding to the near point 46 and the reference point 45 at the end point 53 of the obstacle section 51 as in the case of the start point 52, and sends the acquired image data to the image distribution server 2. Send.
The process performed by the vehicle device 5 for the end point 53 is repeated, and thus the description is simplified.

まず、車両装置5は、障害物区間51の終了地点53に基づいて、終了地点53から所定距離Mだけ手前の地点に動作開始地点61を設定する。本実施形態において、終了地点53に対する所定距離は、開始地点52に対するMと同じ150mであるが、開始地点52に対するMと異なる距離を設定するようにしてもよい。
そして、車両装置5は、更に、動作開始地点61に基づいて、終了地点53の位置に基準地点45を設定する。
加えて、車両装置5は、基準地点45から所定距離L2(例えば、100m)手前側の位置に手前地点46を設定する。
First, based on the end point 53 of the obstacle section 51, the vehicle device 5 sets the operation start point 61 at a point a predetermined distance M before the end point 53. In the present embodiment, the predetermined distance to the end point 53 is 150 m, which is the same as M for the start point 52, but a different distance from M to the start point 52 may be set.
Then, the vehicle device 5 further sets the reference point 45 at the position of the end point 53 based on the operation start point 61.
In addition, the vehicle device 5 sets the near point 46 at a position on the near side by a predetermined distance L2 (for example, 100 m) from the reference point 45.

その後、車両装置5は、動作開始地点61で画像送信モードを開始し、図4(b)で示したように、手前地点46に対応する画像データを取得し、更に、図4(c)で示したように、基準地点45に対応する画像データを取得して画像配信サーバ2に送信する。
このように、車両装置5は、車両3が終了地点53に接近しながら複数枚の画像データを取得するため、障害物50Eが終了地点53の付近にあったり、あるいは、終了地点53の先方(向こう側)にあったとしても、これを写真内に良好に写した画像データを取得することができる。
After that, the vehicle device 5 starts the image transmission mode at the operation start point 61, acquires the image data corresponding to the near point 46 as shown in FIG. 4B, and further acquires the image data in FIG. As shown, the image data corresponding to the reference point 45 is obtained and transmitted to the image distribution server 2.
As described above, the vehicle device 5 acquires a plurality of pieces of image data while the vehicle 3 approaches the end point 53. Therefore, the obstacle 50E is near the end point 53, or the vehicle 50 is located ahead of the end point 53 ( (On the other side), it is possible to obtain image data of this image well photographed.

本実施形態の車両装置5は、一例としてL2=100mとしたが、これは一例であって、L1の場合と同様に異なる値であってもよい。また、L1とL2は、同じである必要はなく、異なる距離としてもよい。
更に、車両装置5が、基準地点45から所定距離L4(例えば、100m)先方の先方地点で画像データを取得して画像配信サーバ2に送信するように構成してもよい。
また、本実施形態の車両装置5は、開始地点52側と終了地点53側の双方で画像データを取得して画像配信サーバ2に送信するが、開始地点52側だけで画像データを取得するなど、どちらか一方で画像データ取得処理を行ってもよい。
The vehicle device 5 of the present embodiment has L2 = 100 m as an example, but this is an example, and may have a different value as in the case of L1. Further, L1 and L2 need not be the same, and may be different distances.
Further, the vehicle device 5 may be configured to acquire image data at a point ahead of the reference point 45 by a predetermined distance L4 (for example, 100 m) and transmit the image data to the image distribution server 2.
Further, the vehicle device 5 of the present embodiment acquires image data at both the start point 52 side and the end point 53 side and transmits the image data to the image distribution server 2, but acquires image data only at the start point 52 side. Alternatively, the image data acquisition processing may be performed by either of them.

図5は、車両装置5が動画データから画像データを取得する処理を説明するための図である。
カメラ12の動画撮影部17は、光学系により撮像面に投影された画像を所定の時間間隔(フレームレート)で読み込むことにより、時系列的にフレーム画像を生成し、これらを圧縮処理して動画データを生成している。
FIG. 5 is a diagram illustrating a process in which the vehicle device 5 acquires image data from moving image data.
The moving image photographing unit 17 of the camera 12 reads the images projected on the imaging surface by the optical system at predetermined time intervals (frame rate), generates frame images in time series, compresses them, and Generating data.

図は、動画撮影部17が生成したフレーム画像を模式的に表しており、図示したように古いものから新しいものへ、時系列順(撮影した時刻順)に並べてある。
各フレーム画像には、撮影した時刻を表す時刻情報tn、tn+1、tn+2、…、tn+m、tn+m+1、…、tn+2mが付与されている。
これは、カメラ時刻検出部19が出力する現在時刻を動画撮影部17がフレーム画像に付与したものであり、当該フレーム画像の撮影時刻を表している。
The figure schematically shows the frame images generated by the moving image photographing unit 17, and is arranged in chronological order (in the order of photographing time) from oldest to newest as shown in the figure.
Each frame image is provided with time information tn, tn + 1, tn + 2,..., Tn + m, tn + m + 1,.
This is obtained by adding the current time output by the camera time detection unit 19 to the frame image by the moving image shooting unit 17 and represents the shooting time of the frame image.

また、フレーム画像には、m枚ごとに撮影された位置を表す位置情報gn、gn+m、…が付与されている。
これは、カメラ位置検出部18が出力する現在位置を、動画撮影部17がm枚ごとのフレーム画像に付与したものであり、当該フレーム画像の撮影位置を表している。
このように、カメラ12は、フレーム画像に間欠的に位置情報を紐付けて出力するため、車両装置5は、基準地点40などで撮影されたフレーム画像をピンポイントで特定することができない。これは、カメラ12の仕様によるものである。
In addition, position information gn, gn + m,... Indicating the position where the image is photographed every m frames is added to the frame image.
This is obtained by assigning the current position output by the camera position detection unit 18 to the m frame images by the moving image imaging unit 17 and represents the imaging position of the frame image.
Thus, since the camera 12 outputs the frame image intermittently in association with the position information, the vehicle device 5 cannot pinpoint the frame image captured at the reference point 40 or the like. This is due to the specifications of the camera 12.

そのため、車両装置5は、次のようにして、手前地点41、基準地点40、手前地点46、基準地点45の各地点に対応するフレーム画像を送信用の画像データとして動画データから選択することにより取得する。
例えば、基準地点40に対応する画像データを取得する場合、車両装置5は、車両位置検出部9が出力する基準地点40の位置を画像取得地点としてRAM8に記憶しておく。
そして、車両装置5は、動画データを演算してRAM8に展開したフレーム画像から、画像取得地点(ここでは基準地点40)の直前の位置情報(gn)と直後の位置情報(gn+1)が付与されているフレーム画像を特定する。
Therefore, the vehicle device 5 selects the frame images corresponding to each of the near point 41, the reference point 40, the near point 46, and the reference point 45 from the moving image data as image data for transmission as follows. get.
For example, when acquiring image data corresponding to the reference point 40, the vehicle device 5 stores the position of the reference point 40 output by the vehicle position detection unit 9 in the RAM 8 as an image acquisition point.
Then, the vehicle device 5 adds the position information (gn) immediately before the image acquisition point (the reference point 40) and the position information (gn + 1) immediately after the image acquisition point (here, the reference point 40) from the frame image developed on the RAM 8 by calculating the moving image data. Identify the frame image that is present.

次に、車両装置5は、当該特定した2枚のフレーム画像の間のフレーム画像群から、最も古い時刻に(即ち、最も早いタイミングで)カメラ12が撮影したフレーム画像(太線で示した時刻tnのフレーム画像)を画像取得地点に対応する画像データとして選択し、動画データから抽出する。
車両装置5は、手前地点41、基準地点40、手前地点46、基準地点45についても同様に画像取得地点に設定して、各地点の直前・直後の位置情報を付与されたフレーム画像の間にあるフレーム画像群から最も古い時刻に撮影されたものを送信用の画像データとして選択・抽出する。
なお、先に変形例で説明した、基準地点40、45よりもL3だけ先方の先方地点で更に画像データを取得する場合も同様である。
Next, the vehicle device 5 extracts, from the frame image group between the two specified frame images, the frame image captured by the camera 12 at the oldest time (that is, at the earliest timing) (time tn indicated by a thick line). Is selected as image data corresponding to the image acquisition point and extracted from the moving image data.
The vehicle device 5 also sets the near point 41, the reference point 40, the near point 46, and the reference point 45 as image acquisition points in the same manner, and sets the position information immediately before and after each point between the frame images. An image taken at the oldest time from a certain frame image group is selected and extracted as image data for transmission.
Note that the same applies to the case where image data is further acquired at a point ahead of the reference points 40 and 45 by L3 as described in the modification.

時間的に古い画像データを画像配信サーバ2に送信することにより、基準地点40が障害物50の位置と一致していて、かつ、フレーム画像群の中程、あるいは、前方に画像取得地点がある場合でも確実に、障害物50から手前のフレーム画像を選択することができる。   By transmitting image data that is temporally old to the image distribution server 2, the reference point 40 matches the position of the obstacle 50, and there is an image acquisition point in the middle or ahead of the frame image group. Even in this case, it is possible to reliably select the previous frame image from the obstacle 50.

このように、車両位置検出部9は、手前地点と、基準地点に対応する自車両の位置を取得する車両位置情報取得手段として機能しており、車両装置5が備える画像データ取得手段は、当該取得した自車両の位置の直前のカメラ位置情報と直後のカメラ位置情報との間のフレーム画像群の中からフレーム画像を画像データとして取得している。
そして、当該画像データ取得手段は、フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する。
As described above, the vehicle position detecting unit 9 functions as a vehicle position information obtaining unit that obtains the position of the own vehicle corresponding to the near point and the reference point. A frame image is acquired as image data from a frame image group between the camera position information immediately before the acquired vehicle position and the camera position information immediately after the acquired vehicle position.
Then, the image data obtaining means obtains, as image data, a frame image captured at the oldest time in the frame image group.

なお、このフレーム画像の選択方法は、一例であって、例えば、最も新しい時刻のものを選択したり、あるいは、中間の時刻のものを選択するように構成することもできる。
例えば、基準地点40では、最も新しいフレーム画像を選択し、基準地点45では、最も古いフレーム画像を選択する、といったように、地点ごとに異なる時刻のフレーム画像を選択してもよい。
この場合、画像データ取得手段は、基準地点に設定した事象開始地点に対しては、フレーム画像群のうち、最も新しい時刻に撮影されたフレーム画像を画像データとして取得し、基準地点に設定した事象終了地点に対しては、フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得している。
This method of selecting a frame image is merely an example, and for example, the frame image may be selected at the latest time or at an intermediate time.
For example, a frame image at a different time for each point may be selected, such as selecting the newest frame image at the reference point 40 and selecting the oldest frame image at the reference point 45.
In this case, the image data obtaining means obtains, as image data, a frame image taken at the latest time in the frame image group for the event start point set as the reference point, and sets the event set at the reference point. For the end point, a frame image captured at the oldest time in the frame image group is acquired as image data.

また、本実施形態では、画像取得地点の位置情報を記憶しておき、これを用いてフレーム画像群を特定したが、画像取得地点での時刻情報を車両時刻検出部10から取得してRAM8に記憶しておき、当該時刻情報を用いてフレーム画像群を特定してもよい。
この場合、車両装置5は、画像取得地点での時刻の直前直後のフレーム画像を特定し、これの間にあるフレーム画像群から送信用の画像データを選択する。
Further, in the present embodiment, the position information of the image acquisition point is stored, and the frame image group is specified using the information. However, the time information at the image acquisition point is acquired from the vehicle time detection unit 10 and stored in the RAM 8. The frame images may be stored and the frame image group may be specified using the time information.
In this case, the vehicle device 5 specifies the frame image immediately before and after the time at the image acquisition point, and selects image data for transmission from a frame image group located between the frame images.

次に画像データ送信処理の手順について説明する。
図6は、車両装置5が行う画像データ送信処理の手順を説明するためのフローチャートである。
まず、車両装置5のCPU6は、車両3のエンジンがスタートすると、記憶部11の記憶するナビゲーションプログラムをRAM8にロードし、これを実行することにより、車両装置5としての機能を開始する。これにより、CPU6は、カメラ12による動画撮影も開始する。
車両3の走行中、CPU6は、通信制御部15を駆動して交通情報配信サーバ4からの交通情報を受信してRAM8に読み込み、これを解析する(ステップ5)。
Next, the procedure of the image data transmission process will be described.
FIG. 6 is a flowchart illustrating a procedure of the image data transmission process performed by vehicle device 5.
First, when the engine of the vehicle 3 starts, the CPU 6 of the vehicle device 5 loads the navigation program stored in the storage unit 11 into the RAM 8 and executes the navigation program to start the function as the vehicle device 5. Thereby, the CPU 6 also starts shooting a moving image by the camera 12.
While the vehicle 3 is traveling, the CPU 6 drives the communication control unit 15 to receive the traffic information from the traffic information distribution server 4, reads the traffic information into the RAM 8, and analyzes it (step 5).

CPU6は、当該解析により、交通情報に障害物区間51の通知があるか否かを判断する(ステップ10)。
CPU6は、障害物区間51の通知がないと判断した場合(ステップ10;N)、ステップ5に戻って、交通情報の受信動作を継続する。
The CPU 6 determines from the analysis whether or not there is a notice of the obstacle section 51 in the traffic information (step 10).
When the CPU 6 determines that there is no notification of the obstacle section 51 (Step 10; N), the CPU 6 returns to Step 5 and continues the operation of receiving traffic information.

一方、CPU6は、障害物区間51の通知があると判断した場合(ステップ10;Y)、障害物区間51の開始地点52と終了地点53の位置を通知から解析してRAM8に記憶する。
そして、CPU6は、RAM8から開始地点52を読み出し、これから距離Mだけ手前の位置を計算する。更に、CPU6は、当該計算により算出した位置を動作開始地点60の位置としてRAM8に記憶することにより、動作開始地点60の位置を設定する(ステップ15)。
On the other hand, when the CPU 6 determines that there is a notification of the obstacle section 51 (step 10; Y), the CPU 6 analyzes the positions of the start point 52 and the end point 53 of the obstacle section 51 from the notification and stores them in the RAM 8.
Then, the CPU 6 reads the start point 52 from the RAM 8 and calculates a position in front of the start point 52 by a distance M. Further, the CPU 6 sets the position of the operation start point 60 by storing the position calculated by the calculation as the position of the operation start point 60 in the RAM 8 (step 15).

次に、CPU6は、車両位置検出部9によって車両3の自車位置を検出し、その値をRAM8に記憶する(ステップ20)。
そして、CPU6は、RAM8に記憶した自車位置と動作開始地点60を比較し、車両3が動作開始地点60に達したか否かを判断する(ステップ25)。
例えば、CPU6は、この判断を、自車位置と動作開始地点60の間の距離を計算し、その値が、所定の範囲内にある場合に、車両3が動作開始地点60に達したと判断する。
Next, the CPU 6 detects the own vehicle position of the vehicle 3 by the vehicle position detecting section 9 and stores the value in the RAM 8 (step 20).
Then, the CPU 6 compares the own vehicle position stored in the RAM 8 with the operation start point 60, and determines whether or not the vehicle 3 has reached the operation start point 60 (step 25).
For example, the CPU 6 determines that the vehicle 3 has reached the operation start point 60 when the distance between the own vehicle position and the operation start point 60 is calculated and the value is within a predetermined range. I do.

CPU6は、車両3がまだ動作開始地点60に到達していないと判断した場合(ステップ25、;N)、ステップ20に戻って、自車位置の検出処理を継続する。
一方、CPU6は、車両3が動作開始地点60に到達したと判断した場合(ステップ25;Y)、CPU6は、画像取得処理を行い(ステップ35)、更に画像選定処理を行う(ステップ40)。
When the CPU 6 determines that the vehicle 3 has not yet reached the operation start point 60 (Step 25; N), the process returns to Step 20, and the detection processing of the own vehicle position is continued.
On the other hand, when the CPU 6 determines that the vehicle 3 has reached the operation start point 60 (Step 25; Y), the CPU 6 performs an image acquisition process (Step 35), and further performs an image selection process (Step 40).

次に、CPU6は、車両位置検出部9が出力する車両3の現在位置(自車位置)とRAM8に記憶した終了地点53の位置を比較することにより、車両3が終了地点53を通過したか否かを判断し、これによって、全ての画像取得地点を通過したか否かを判断する(ステップ45)。   Next, the CPU 6 compares the current position (own vehicle position) of the vehicle 3 output by the vehicle position detection unit 9 with the position of the end point 53 stored in the RAM 8 to determine whether the vehicle 3 has passed the end point 53. It is determined whether or not all image acquisition points have been passed (step 45).

まだ通過していない画像取得地点があると判断した場合(ステップ45;N)、CPU6は、ステップ15に戻って、次の動作開始地点61を設定し、以下、同様の処理を行う。
一方、全ての画像取得地点を通過したと判断した場合(ステップ45;Y)、CPU6は、RAM8に記憶した画像データを、当該画像データの取得位置、及び取得時刻と共に通信制御部15経由で画像配信サーバ2に送信する(ステップ50)。
If it is determined that there is an image acquisition point that has not passed yet (step 45; N), the CPU 6 returns to step 15, sets the next operation start point 61, and performs the same processing thereafter.
On the other hand, when it is determined that all the image acquisition points have passed (step 45; Y), the CPU 6 stores the image data stored in the RAM 8 together with the acquisition position and the acquisition time of the image data via the communication control unit 15. The data is transmitted to the distribution server 2 (step 50).

なお、以上の処理では、開始地点52と終了地点53を基準地点とした場合の全ての画像データ(合計4個)を取得した後、これらを一括して画像配信サーバ2に送信しているが、ステップ50の処理をステップ40の処理の直後に行い、まず、開始地点52に対応する画像データを取得して画像配信サーバ2に送信し、更に、終了地点53に対応する画像データを取得して画像配信サーバ2に送信するように構成することもできる。   In the above-described processing, all the image data (a total of four pieces) when the start point 52 and the end point 53 are set as the reference points are acquired, and these are collectively transmitted to the image distribution server 2. The processing of step 50 is performed immediately after the processing of step 40. First, the image data corresponding to the start point 52 is acquired and transmitted to the image distribution server 2, and the image data corresponding to the end point 53 is acquired. Can be transmitted to the image distribution server 2.

更に、送信用の画像データを取得するごとに、これをその都度、画像配信サーバ2に送信するように構成することもできる。
このように、画像配信サーバ2への送信処理を時間的、及び位置的に分散することにより、電波障害などによる送信の失敗リスクを分散することができる。
Further, each time image data for transmission is acquired, the image data may be transmitted to the image distribution server 2 each time.
In this way, by dispersing the transmission processing to the image distribution server 2 in time and position, the risk of transmission failure due to radio interference or the like can be dispersed.

図7は、ステップ35の画像取得処理の手順を説明するためのフローチャートである。
車両装置5のCPU6は、ステップ15でRAM8に記憶した動作開始地点に対応する基準点40を設定する(ステップ105)。ここで図3、図4で説明したように、動作開始地点60の場合の基準点40は開始地点52であり、動作開始地点61の場合の基準点40は終了地点53である。
FIG. 7 is a flowchart for explaining the procedure of the image acquisition processing in step S35.
The CPU 6 of the vehicle device 5 sets the reference point 40 corresponding to the operation start point stored in the RAM 8 in Step 15 (Step 105). Here, as described with reference to FIGS. 3 and 4, the reference point 40 in the case of the operation start point 60 is the start point 52, and the reference point 40 in the case of the operation start point 61 is the end point 53.

次に、CPU6は、車両位置検出部9にアクセスして、車両位置検出部9が出力する現在位置をRAM8に読み込むことにより、車両3の現在位置を取得する(ステップ110)。
そして、CPU6は、ステップ105でRAM8に記憶した基準地点40と、ステップ110でRAM8に記憶した現在位置の差分を計算して結果をRAM8に出力することにより現在位置から基準地点40までの距離を算出する(ステップ115)。
Next, the CPU 6 accesses the vehicle position detector 9 and reads the current position output by the vehicle position detector 9 into the RAM 8, thereby acquiring the current position of the vehicle 3 (step 110).
Then, the CPU 6 calculates the difference between the reference point 40 stored in the RAM 8 in step 105 and the current position stored in the RAM 8 in step 110, and outputs the result to the RAM 8 to calculate the distance from the current position to the reference point 40. It is calculated (step 115).

次いで、CPU6は、RAM8に出力した算出距離から現在位置が基準地点40より所定距離L1=100mだけ手前の地点にあるか否かを判断する(ステップ120)。これは、αを許容誤差として、算出距離がL1±α以内の場合に、現在位置が基準地点40より所定距離L1=100mだけ手前の地点にあると判断する。   Next, the CPU 6 determines from the calculated distance output to the RAM 8 whether or not the current position is a point located a predetermined distance L1 = 100 m before the reference point 40 (step 120). When the calculated distance is within L1 ± α with α as an allowable error, it is determined that the current position is located a predetermined distance L1 = 100 m before the reference point 40.

CPU6は、現在位置が基準地点40より所定距離L1=100mだけ手前の地点にあると判断した場合(ステップ120;Y)、RAM8に記憶した現在位置を画像取得地点(手前地点41)の位置としてRAM8に記憶する(ステップ130)。
一方、CPU6は、現在位置が基準地点40より所定距離L1=100mだけ手前の地点にないと判断した場合(ステップ120;N)、CPU6は、更に、算出距離から現在位置が基準地点40にあるか否かを判断する(ステップ125)。判断手法は、ステップ120と同様である。
If the CPU 6 determines that the current position is located a predetermined distance L1 = 100 m before the reference point 40 (step 120; Y), the CPU 6 sets the current position stored in the RAM 8 as the position of the image acquisition point (near point 41). It is stored in the RAM 8 (step 130).
On the other hand, if the CPU 6 determines that the current position is not a point located a predetermined distance L1 = 100 m before the reference point 40 (step 120; N), the CPU 6 further determines that the current position is at the reference point 40 from the calculated distance. It is determined whether or not it is (Step 125). The determination method is the same as in step 120.

CPU6は、算出距離から現在位置が基準地点40であると判断した場合(ステップ125;Y)、RAM8に記憶した現在位置を画像取得地点(基準地点40)の位置としてRAM8に記憶する(ステップ130)。   When the CPU 6 determines that the current position is the reference point 40 from the calculated distance (step 125; Y), the CPU 6 stores the current position stored in the RAM 8 as the position of the image acquisition point (reference point 40) in the RAM 8 (step 130). ).

次に、CPU6は、ステップ130の処理を終えた場合、又は、ステップ125で、算出距離から現在位置が基準地点40でないと判断した場合(ステップ125;N)、RAM8が記憶してある現在位置と基準地点40の差分を計算することにより、現在位置が基準地点40の先方にあるか否かを判断する(ステップ135)。   Next, when the processing of step 130 is completed, or when the CPU 6 determines in step 125 that the current position is not the reference point 40 from the calculated distance (step 125; N), the CPU 6 stores the current position stored in the RAM 8. By calculating the difference between the current position and the reference point 40, it is determined whether or not the current position is ahead of the reference point 40 (step 135).

CPU6は、現在位置が基準地点40より先方にないと判断した場合(ステップ135;N)、ステップ110の処理に移行し、現在位置が基準地点40より先方にあると判断した場合(ステップ135;Y)、車両3が基準地点40を通過したため処理を図6のメインルーチンにリターンする。   When determining that the current position is not ahead of the reference point 40 (step 135; N), the CPU 6 shifts to the processing of step 110, and determines that the current position is ahead of the reference point 40 (step 135; Y), since the vehicle 3 has passed the reference point 40, the process returns to the main routine of FIG.

以上により、車両装置5は、手前地点41と基準地点40の位置を画像取得地点としてRAM8に記憶することができる。
なお、以上は、車両3が障害物区間51の開始地点52に接近する場合の処理について説明したが、終了地点53に接近する場合の処理も同様である。
As described above, the vehicle device 5 can store the positions of the near point 41 and the reference point 40 in the RAM 8 as image acquisition points.
In the above, the processing when the vehicle 3 approaches the start point 52 of the obstacle section 51 has been described. However, the processing when the vehicle 3 approaches the end point 53 is the same.

図8は、ステップ40の画像選定処理の手順を説明するためのフローチャートである。
まず、CPU6は、記憶部11に記憶した動画データから、画像選定処理に該当する部分を作業用の動画データとしてフレーム画像に展開し、これをRAM8に記憶することにより動画データを取得する(ステップ205)。
FIG. 8 is a flowchart for explaining the procedure of the image selection processing in step S40.
First, the CPU 6 develops a portion corresponding to the image selection process from the moving image data stored in the storage unit 11 into a frame image as working moving image data, and stores this in the RAM 8 to obtain moving image data (step 205).

次に、CPU6は、ステップ130でRAM8に記憶した手前地点41の位置を選定距離に代入してRAM8に記憶することにより、選定距離を手前地点41に設定する(ステップ210)。
そして、CPU6は、RAM8に展開したフレーム画像群において、フレーム画像に紐付けされた位置情報gを検索することにより、選定地点の直前と直後のフレーム画像を特定する。これにより、CPU6は、選定距離に対応するフレーム画像群を特定する(ステップ215)。
Next, the CPU 6 sets the selected distance to the near point 41 by substituting the position of the near point 41 stored in the RAM 8 in step 130 for the selected distance and storing the same in the RAM 8 (step 210).
Then, the CPU 6 specifies the frame images immediately before and after the selected point by searching the position information g associated with the frame image in the frame image group developed in the RAM 8. As a result, the CPU 6 specifies a frame image group corresponding to the selected distance (step 215).

次いで、CPU6は、特定したフレーム画像群から最も取得時刻が古いフレーム画像を特定し(ステップ220)、これをRAM8にコピーすることにより、当該フレーム画像の画像データを送信用の画像データに設定する(ステップ225)。
次に、CPU6は、画像配信サーバ2に送信するための全ての画像データ(ここでは、基準地点40と手前地点41に対応する画像データ)を取得したか否かを判断する(ステップ230)。
Next, the CPU 6 specifies a frame image with the oldest acquisition time from the specified frame image group (step 220), and sets the image data of the frame image as image data for transmission by copying the frame image to the RAM 8. (Step 225).
Next, the CPU 6 determines whether all the image data to be transmitted to the image distribution server 2 (here, the image data corresponding to the reference point 40 and the near point 41) has been acquired (step 230).

CPU6は、まだ、取得していない画像データがあると判断した場合(ステップ230;N)、RAM8に記憶してある選定距離を、次の画像取得地点(ここでは、基準地点40)に更新し(ステップ235)、ステップ215の処理に移行する。
一方、CPU6は、全ての画像データを取得したと判断した場合(ステップ230;Y)、処理を図6のメインルーチンにリターンする。そして、CPU6は、手前地点46、基準地点45についても同様に処理する。
When determining that there is image data that has not yet been acquired (step 230; N), the CPU 6 updates the selected distance stored in the RAM 8 to the next image acquisition point (here, the reference point 40). (Step 235), and the process proceeds to Step 215.
On the other hand, if the CPU 6 determines that all the image data has been acquired (step 230; Y), the process returns to the main routine of FIG. Then, the CPU 6 performs the same processing for the near point 46 and the reference point 45.

以上のように、車両装置5は、車両3の走行中に障害物50を検知し、画像内に障害物50が写るように撮影することを目的として、障害物区間51の開始地点52と終了地点53の2カ所に対して、これらを接近しながら2カ所ずつ、合計4カ所で前方を撮影した画像データを取得する。
このように撮影地点を複数箇所に設定するため、従来技術では、障害物50から離れすぎてしまい、画像内に障害物50を写すことができない場合があったが、本実施形態の車両装置5は、画像内に障害物50を良好に写すことができる。
As described above, the vehicle device 5 detects the obstacle 50 while the vehicle 3 is traveling, and captures the obstacle 50 in the image so that the obstacle 50 is captured in the image. Image data obtained by photographing the front at two locations, two locations at a time, approaching the two locations at the point 53 are acquired.
In this way, in order to set the photographing points at a plurality of places, in the related art, there are cases where the obstacle 50 is too far away from the obstacle 50 and the obstacle 50 cannot be captured in the image. Can satisfactorily capture the obstacle 50 in the image.

1 画像配信システム
2 画像配信サーバ
3 車両
4 交通情報配信サーバ
5 車両装置
6 CPU
7 ROM
8 RAM
9 車両位置検出部
10 車両時刻検出部
11 記憶部
12 カメラ
13 入力部
14 音声出力部
15 通信制御部
16 ディスプレイ
17 動画撮影部
18 カメラ位置検出部
19 カメラ時刻検出部
40 基準地点
41 手前地点
45 基準地点
46 手前地点
50 障害物
51 障害物区間
52 開始地点
53 終了地点
60 動作開始地点
61 動作開始地点
DESCRIPTION OF SYMBOLS 1 Image distribution system 2 Image distribution server 3 Vehicle 4 Traffic information distribution server 5 Vehicle device 6 CPU
7 ROM
8 RAM
9 Vehicle position detection unit 10 Vehicle time detection unit 11 Storage unit 12 Camera 13 Input unit 14 Audio output unit 15 Communication control unit 16 Display 17 Video shooting unit 18 Camera position detection unit 19 Camera time detection unit 40 Reference point 41 Near point 45 Reference Point 46 Near point 50 Obstacle 51 Obstacle section 52 Start point 53 End point 60 Operation start point 61 Operation start point

Claims (13)

自車両の前方の画像を撮影する撮影手段と、
前記自車両の前方に存在する交通事象の事象位置情報を取得する事象位置情報取得手段と、
前記取得した事象位置情報に基づいて基準地点を設定する基準地点設定手段と、
前記設定した基準地点よりも所定距離だけ手前の手前地点と、前記設定した基準地点に対応して前記撮影した画像の画像データを取得する画像データ取得手段と、
前記取得した画像データを所定のサーバに送信する送信手段と、
を具備したことを特徴とする画像データ送信装置。
Photographing means for photographing an image in front of the own vehicle;
Event position information obtaining means for obtaining event position information of a traffic event existing in front of the host vehicle,
Reference point setting means for setting a reference point based on the acquired event position information,
A point in front of the set reference point by a predetermined distance, and image data obtaining means for obtaining image data of the captured image corresponding to the set reference point,
Transmitting means for transmitting the obtained image data to a predetermined server,
An image data transmission device comprising:
前記事象位置情報取得手段は、前記交通事象に対応する事象区間の事象開始地点と事象終了地点によって提供される前記事象位置情報を取得し、
前記基準地点設定手段は、前記事象開始地点と前記事象終了地点を前記基準地点に設定する、
ことを特徴とする請求項1に記載の画像データ送信装置。
The event location information acquisition means acquires the event location information provided by an event start point and an event end point of an event section corresponding to the traffic event,
The reference point setting means sets the event start point and the event end point as the reference points,
The image data transmitting device according to claim 1, wherein:
前記撮影手段は、前記自車両の前方を動画撮影し、
前記画像データ取得手段は、前記動画を構成するフレーム画像を画像データとして取得することを特徴とする請求項1、又は請求項2に記載の画像データ送信装置。
The photographing means captures a moving image of the front of the host vehicle,
The image data transmitting apparatus according to claim 1, wherein the image data acquiring unit acquires a frame image forming the moving image as image data.
所定時間ごとにカメラ位置情報を取得し、当該カメラ位置情報を取得した際に撮影されたフレーム画像に紐付ける位置紐付け手段と、
各フレーム画像に対して撮影時刻を紐付ける時刻紐付け手段と、
前記手前地点と、前記基準地点に対応する前記自車両の位置を取得する車両位置情報取得手段と、を備え、
前記画像データ取得手段は、前記取得した自車両の位置の直前の前記カメラ位置情報と直後の前記カメラ位置情報との間のフレーム画像群の中からフレーム画像を画像データとして取得する、
ことを特徴とする請求項3に記載の画像データ送信装置。
A position associating unit that acquires camera position information at predetermined time intervals, and associates the camera position information with a frame image captured when acquiring the camera position information,
Time linking means for linking the shooting time to each frame image;
The near point, vehicle position information acquisition means for acquiring the position of the vehicle corresponding to the reference point,
The image data obtaining means obtains a frame image as image data from a frame image group between the camera position information immediately before the obtained position of the own vehicle and the camera position information immediately after,
The image data transmitting apparatus according to claim 3, wherein:
前記画像データ取得手段は、前記フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する、
ことを特徴とする請求項4に記載の画像データ送信装置。
The image data obtaining unit obtains, as image data, a frame image captured at the oldest time in the frame image group,
The image data transmitting device according to claim 4, wherein
前記画像データ取得手段は、
前記基準地点に設定した前記事象開始地点に対しては、前記フレーム画像群のうち、最も新しい時刻に撮影されたフレーム画像を画像データとして取得し、
前記基準地点に設定した前記事象終了地点に対しては、前記フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する、
ことを特徴とする請求項4に記載の画像データ送信装置。
The image data acquisition means,
For the event start point set as the reference point, of the frame image group, obtain a frame image captured at the latest time as image data,
For the event end point set as the reference point, of the frame image group, obtain a frame image taken at the oldest time as image data,
The image data transmitting device according to claim 4, wherein
前記設定した基準地点に基づいて前記手前地点より更に手前に動作開始地点を設定する動作開始地点設定手段を具備し、
前記画像データ取得手段は、前記自車両が前記設定した動作開始地点に到達した場合に画像データの取得動作を開始することを特徴とする請求項1から請求項6までのうちの何れか1の請求項に記載の画像データ送信装置。
An operation start point setting means for setting an operation start point further before the near point based on the set reference point,
7. The image data obtaining means according to claim 1, wherein the image data obtaining means starts the image data obtaining operation when the own vehicle reaches the set operation start point. The image data transmitting device according to claim.
前記画像データ取得手段は、更に、前記設定した基準地点よりも所定距離だけ先方の先方地点で前記撮影した画像データを取得することを特徴とする請求項4に記載の画像データ送信装置。   The image data transmitting apparatus according to claim 4, wherein the image data acquiring unit further acquires the photographed image data at a point ahead by a predetermined distance from the set reference point. 前記画像データ取得手段は、前記フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する、
ことを特徴とする請求項8に記載の画像データ送信装置。
The image data obtaining unit obtains, as image data, a frame image captured at the oldest time in the frame image group,
The image data transmitting apparatus according to claim 8, wherein:
前記画像データ取得手段は、
前記基準地点に設定した前記事象開始地点に対しては、前記フレーム画像群のうち、最も新しい時刻に撮影されたフレーム画像を画像データとして取得し、
前記基準地点に設定した前記事象終了地点に対しては、前記フレーム画像群のうち、最も古い時刻に撮影されたフレーム画像を画像データとして取得する、
ことを特徴とする請求項8に記載の画像データ送信装置。
The image data acquisition means,
For the event start point set as the reference point, of the frame image group, obtain a frame image captured at the latest time as image data,
For the event end point set as the reference point, of the frame image group, obtain a frame image taken at the oldest time as image data,
The image data transmitting apparatus according to claim 8, wherein:
前記事象位置情報取得手段は、前記自車両の前方に存在する工事情報又は事故情報を前記交通事象として取得する、
ことを特徴とする請求項1から請求項10までのうちの何れか1の請求項に記載の画像データ送信装置。
The event position information acquiring means acquires construction information or accident information existing in front of the host vehicle as the traffic event.
The image data transmitting apparatus according to claim 1, wherein the image data transmitting apparatus includes:
請求項1から請求項11に記載の画像データ送信装置から画像データを受信して記憶する画像データ記憶手段と、
前記受信した画像データを、前記画像データを撮影した車両の後続の車両に配信する配信手段と、
を具備したことを特徴とする画像データ提供サーバ。
Image data storage means for receiving and storing image data from the image data transmission device according to claim 1,
A distribution unit that distributes the received image data to a vehicle subsequent to the vehicle that captured the image data,
An image data providing server comprising:
自車両の前方に存在する交通事象の事象位置情報を取得する事象位置情報取得機能と、
前記取得した事象位置情報に基づいて基準地点を設定する基準地点設定機能と、
前記設定した基準地点よりも所定距離だけ手前の手前地点と、前記設定した基準地点に対応して撮像手段で撮影した画像の画像データを取得する画像データ取得機能と、
前記取得した画像データを所定のサーバに送信する送信機能と、
をコンピュータに実現させることを特徴とする画像データ送信プログラム。
An event location information acquisition function for acquiring event location information of a traffic event existing in front of the vehicle,
A reference point setting function for setting a reference point based on the acquired event position information,
An image data acquisition function for acquiring image data of an image photographed by an imaging unit corresponding to the near point that is a predetermined distance before the set reference point and the set reference point,
A transmission function of transmitting the obtained image data to a predetermined server,
An image data transmission program for causing a computer to realize the following.
JP2018122002A 2018-06-27 2018-06-27 Image data transmitting device, image data providing server, and image data transmitting program Pending JP2020004015A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018122002A JP2020004015A (en) 2018-06-27 2018-06-27 Image data transmitting device, image data providing server, and image data transmitting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018122002A JP2020004015A (en) 2018-06-27 2018-06-27 Image data transmitting device, image data providing server, and image data transmitting program

Publications (1)

Publication Number Publication Date
JP2020004015A true JP2020004015A (en) 2020-01-09

Family

ID=69100249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018122002A Pending JP2020004015A (en) 2018-06-27 2018-06-27 Image data transmitting device, image data providing server, and image data transmitting program

Country Status (1)

Country Link
JP (1) JP2020004015A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022108617A (en) * 2021-01-13 2022-07-26 株式会社デンソーテン Display control device, display control method and monitoring system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022108617A (en) * 2021-01-13 2022-07-26 株式会社デンソーテン Display control device, display control method and monitoring system
JP7514769B2 (en) 2021-01-13 2024-07-11 株式会社デンソーテン Display control device, display control method, and monitoring system

Similar Documents

Publication Publication Date Title
JP4367353B2 (en) Traffic information provision system, traffic information provision center, in-vehicle information collection device
KR101783982B1 (en) Integration Control System and Method Using Surveillance Camera for Vehicle
JP5585405B2 (en) Traffic information system, traffic information acquisition device, and traffic information provision device
JP6083752B2 (en) Driving support method, center device, driving support system
JP6728897B2 (en) Image collecting device, image collecting system, image collecting method and program
JP2021026554A (en) Travel support method, road photographing image collection method, and road side device
KR20170081920A (en) Method and apparatus for sharing video information associated with a vihicle
KR101744963B1 (en) Traffic information and vehicle information providing system using black box video data and method thereof
WO2012137367A1 (en) Image accumulation system
JP7537477B2 (en) IMAGE COLLECTION DEVICE, IMAGE COLLECTION SYSTEM, DRIVE RECORDER, IMAGE COLLECTION METHOD, AND PROGRAM
JP2020004017A (en) Image data transmission device and image data transmission program
JP2001304876A (en) Method for storing/reproducing image by on-vehicle camera
CN111464736A (en) Server, server control method, vehicle, vehicle control method, and storage medium storing programs
KR100975828B1 (en) Navigation service method and system and terminal according thereto
JP2020095565A (en) Information processing system, program, and information processing method
JP7348724B2 (en) In-vehicle device and display method
JP2021196626A (en) Image data provision device, image data provision system, image data provision method, and computer program
JP2013239087A (en) Information processing system and moving bodies
JP7254000B2 (en) Image delivery device and method, and image delivery system
JP2023134733A (en) Information processing device
JP2019087969A (en) Travel field investigation support device
JP2011154630A (en) Vehicle monitoring device
US20250371770A1 (en) Apparatus for generating a pseudo-reproducing image, and non-transitory computer-readable medium
JP2020004015A (en) Image data transmitting device, image data providing server, and image data transmitting program
JP2012032284A (en) Navigation system