[go: up one dir, main page]

JP2020030870A - Congestion prediction system, terminal, congestion prediction method, and congestion prediction program - Google Patents

Congestion prediction system, terminal, congestion prediction method, and congestion prediction program Download PDF

Info

Publication number
JP2020030870A
JP2020030870A JP2019218912A JP2019218912A JP2020030870A JP 2020030870 A JP2020030870 A JP 2020030870A JP 2019218912 A JP2019218912 A JP 2019218912A JP 2019218912 A JP2019218912 A JP 2019218912A JP 2020030870 A JP2020030870 A JP 2020030870A
Authority
JP
Japan
Prior art keywords
information
traffic
congestion prediction
traffic congestion
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019218912A
Other languages
Japanese (ja)
Inventor
博之 関谷
Hiroyuki Sekiya
博之 関谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2019218912A priority Critical patent/JP2020030870A/en
Publication of JP2020030870A publication Critical patent/JP2020030870A/en
Priority to JP2021168213A priority patent/JP2022023863A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

To predict congestion at an arbitrary location by collecting images of mobile objects on a road.SOLUTION: A congestion prediction device 100 collects images of mobile objects on a road captured by a plurality of terminals 110 and position information indicating positions at which the images were captured. An image processing unit 101 performs image processing on the collected images, and extracts traffic information, which is information relating to the mobile objects existing in the images. A traffic information processing unit 103 calculates information relating to congestion prediction for the road corresponding to the captured position using the traffic information extracted by the image processing unit 101, and generates congestion prediction information, which is then transmitted to the terminals 110.SELECTED DRAWING: Figure 1

Description

この発明は、移動体から撮像した画像を用いて渋滞を予測する渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムに関する。ただし、この発明の利用は、渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムに限らない。   The present invention relates to a traffic congestion prediction system, a terminal device, a traffic congestion prediction method, and a traffic congestion prediction program for predicting traffic congestion using an image captured from a moving object. However, the use of the present invention is not limited to the congestion prediction system, the terminal device, the congestion prediction method, and the congestion prediction program.

従来、道路の渋滞を予測する技術として、車両からの速度と、車両位置の平均速度に基づいて車両位置における渋滞状況を判断するサーバが開示されている(例えば、下記特許文献1参照。)。この技術では、車両で撮像した画像を画像解析して渋滞の判断に用いることも記載されている。   2. Description of the Related Art Conventionally, as a technique for predicting traffic congestion on a road, a server that determines a traffic congestion state at a vehicle position based on a speed from a vehicle and an average speed of the vehicle position has been disclosed (for example, see Patent Document 1 below). This technique also describes that an image captured by a vehicle is analyzed for use in determining traffic congestion.

このほか、道路に固定設置されたカメラにより撮像された画像を用いて渋滞を判断するシステムがある。   In addition, there is a system that determines traffic congestion using an image captured by a camera fixedly installed on a road.

特開2011−134195号公報JP 2011-134195 A

しかしながら、上記従来の技術では、任意の場所における渋滞を予測することができなかった。また、画像を用いた渋滞判断の構成では、設置コストがかかるとともに、カメラが固定設置された場所の渋滞判断しか行えない制限が生じる、という問題がある。   However, with the above-described conventional technique, it was not possible to predict traffic congestion at an arbitrary location. Further, the configuration of the traffic congestion determination using an image has a problem that the installation cost is high and there is a limitation that only the traffic congestion determination can be performed in a place where the camera is fixedly installed.

また、車両から受け取った速度などの情報から、当該車両が走行している道路の区間が
渋滞しているかどうかを判別するものであり、将来的に渋滞することを予測することはできない、という問題がある。本発明が解決しようとする課題には、上述した問題が一例として挙げられる。
In addition, it determines whether or not a section of the road on which the vehicle is traveling is congested based on information such as speed received from the vehicle, and cannot predict future congestion. There is. The problem to be solved by the present invention includes the above-mentioned problem as an example.

上述した課題を解決し、目的を達成するため、請求項1の発明にかかる渋滞予測システムは、道路上の移動体を撮影した画像と撮影した位置を示す位置情報とを取得する取得部と、前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理部と、前記画像処理部により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理部と、を有することを特徴とする。   In order to solve the above-mentioned problems and achieve the object, a traffic congestion prediction system according to the first aspect of the present invention provides an acquisition unit that acquires an image of a moving object on a road and position information indicating the position of the image, An image processing unit that extracts traffic information that is information on a moving object present in the image, and a traffic jam prediction on the road corresponding to a photographed position using the traffic information extracted by the image processing unit And a traffic information processing unit that calculates information about the traffic information.

また、請求項6の発明にかかる端末装置は、道路上の移動体を撮影した画像に基づき、前記道路上の前記移動体の渋滞予測を行う渋滞予測装置に対して、前記画像を送信する端末装置であって、道路上の移動体を撮影した画像を撮影する撮像部と、前記撮像部によって撮影された前記画像に撮影した位置情報を付与し、前記渋滞予測装置に送信する処理部と、を有することを特徴とする。   The terminal device according to claim 6, wherein the terminal transmits the image to a traffic congestion prediction device that predicts traffic congestion of the moving object on the road based on an image of the moving object on the road. An apparatus, an imaging unit that captures an image of a moving object on a road, and a processing unit that adds position information of the captured image to the image captured by the imaging unit and transmits the information to the traffic congestion prediction device. It is characterized by having.

また、請求項7の発明にかかる端末装置は、道路上の移動体を撮影した画像に基づき、前記道路上の前記移動体の渋滞予測を行う渋滞予測装置に接続される端末装置であって、前記渋滞予測装置に対して、所望する位置および時刻を含む渋滞予測の要求を行い、前記渋滞予測装置から受信した前記渋滞予測に関する情報を出力する処理部を有することを特徴とする。   Further, the terminal device according to the invention of claim 7 is a terminal device connected to a traffic congestion prediction device that performs traffic congestion prediction of the moving object on the road based on an image of a moving object on the road, The information processing apparatus further includes a processing unit that requests the traffic congestion prediction device for traffic congestion including a desired position and time, and outputs information related to the traffic congestion prediction received from the traffic congestion prediction device.

また、請求項8の発明にかかる渋滞予測方法は、渋滞予測装置が実施する渋滞予測方法において、道路上の移動体を撮影した画像と撮影した位置を示す位置情報とを取得する取得工程と、前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理工程と、前記画像処理工程により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理工程と、を含むことを特徴とする。   Further, the traffic congestion prediction method according to the invention of claim 8 is a traffic congestion prediction method performed by the traffic congestion prediction device, wherein an acquisition step of acquiring an image of a moving object on a road and position information indicating a position of the photographed object; An image processing step of extracting traffic information that is information on a moving object present in the image, and using the traffic information extracted in the image processing step, to predict traffic congestion on the road corresponding to a photographed position And a traffic information processing step of calculating information on the traffic information.

また、請求項9の発明にかかる渋滞予測プログラムは、上記記載の渋滞予測方法をコンピュータに実行させることを特徴とする。   According to a ninth aspect of the present invention, there is provided a traffic congestion prediction program for causing a computer to execute the above-described traffic congestion prediction method.

図1は、実施の形態にかかる渋滞予測システムの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a traffic congestion prediction system according to an embodiment. 図2は、実施の形態にかかる渋滞予測システムの処理手順の一例を示すフローチャートである。FIG. 2 is a flowchart illustrating an example of a processing procedure of the traffic congestion prediction system according to the embodiment. 図3は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a hardware configuration of the navigation device. 図4は、サーバのハードウェア構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of a hardware configuration of the server. 図5は、ナビゲーション装置による画像送信の処理内容を示すフローチャートである。FIG. 5 is a flowchart showing the content of processing of image transmission by the navigation device. 図6は、サーバによる交通情報生成の処理内容を示すフローチャートである。FIG. 6 is a flowchart showing a process of generating traffic information by the server. 図7は、交通情報の内容の一例を示す図表である。FIG. 7 is a chart showing an example of the content of traffic information. 図8は、交通情報を用いた渋滞予測の処理内容を示すフローチャートである。FIG. 8 is a flowchart showing the process of congestion prediction using traffic information. 図9は、渋滞予測要求から渋滞予測情報の送信までの処理内容を示すフローチャートである。FIG. 9 is a flowchart showing the processing contents from the traffic jam prediction request to the transmission of the traffic jam prediction information. 図10は、自然渋滞の発生状態を示す説明図である。FIG. 10 is an explanatory diagram showing a state of occurrence of natural congestion.

(実施の形態)
以下に添付図面を参照して、この発明にかかる渋滞予測システム、端末装置、渋滞予測方法および渋滞予測プログラムの好適な実施の形態を詳細に説明する。
(Embodiment)
DESCRIPTION OF EMBODIMENTS Preferred embodiments of a traffic congestion prediction system, a terminal device, a traffic congestion prediction method, and a traffic congestion prediction program according to the present invention will be described below in detail with reference to the accompanying drawings.

図1は、実施の形態にかかる渋滞予測システムの構成例を示すブロック図である。実施の形態にかかる渋滞予測システムは、互いに通信接続された渋滞予測装置100と、端末装置110とによって構成することができる。   FIG. 1 is a block diagram illustrating a configuration example of a traffic congestion prediction system according to an embodiment. The traffic congestion prediction system according to the embodiment can be configured by a traffic congestion prediction device 100 and a terminal device 110 that are connected to each other by communication.

渋滞予測装置100は、画像処理部101と、情報結合部102と、交通情報処理部103と、格納部104と、渋滞予測情報管理部105とを含む。端末装置110は、撮像部111と、測位部112と、処理部113とを含む。   The traffic congestion prediction device 100 includes an image processing unit 101, an information combining unit 102, a traffic information processing unit 103, a storage unit 104, and a traffic congestion prediction information management unit 105. The terminal device 110 includes an imaging unit 111, a positioning unit 112, and a processing unit 113.

渋滞予測装置100は、例えば、単一のサーバを用いて構成できるが、これに限らず、画像処理部101と交通情報処理部103の機能別に分散された複数のサーバを用いる構成としてもよい。   The traffic congestion prediction device 100 can be configured using, for example, a single server, but is not limited thereto, and may be configured to use a plurality of servers distributed according to functions of the image processing unit 101 and the traffic information processing unit 103.

端末装置110は、移動中の前方の画像を撮像部111により撮像し、渋滞予測装置100に送信する。この際、処理部113は、撮像部111の撮影画像とともに、撮影ID、および測位部112により測位された撮影時の位置情報を送信する。このほか、移動時の速度や時刻情報を送信してもよい。また、処理部113は、ユーザ操作等により、渋滞予測装置100に渋滞予測を要求し、渋滞予測装置100から送信された渋滞予測の情報を情報処理して図示しない表示部等に出力する。   The terminal device 110 captures an image in front of the moving object by the imaging unit 111 and transmits the image to the traffic congestion prediction device 100. At this time, the processing unit 113 transmits the photographing ID and the position information at the time of photographing that has been measured by the positioning unit 112, together with the photographed image of the imaging unit 111. In addition, speed and time information during the movement may be transmitted. Further, the processing unit 113 requests the traffic congestion prediction device 100 to perform traffic congestion prediction by a user operation or the like, processes information of the traffic congestion prediction transmitted from the traffic congestion prediction device 100, and outputs the information to a display unit (not shown) or the like.

端末装置110は、移動体に設けられるナビゲーション装置やユーザが持つスマートフォンや携帯電話、可搬型のパーソナル・コンピュータ等を用いて構成することにより、渋滞予測装置100に対して渋滞予測に用いる画像を送信し、また、渋滞予測装置100に対して渋滞予測を要求することができる。   The terminal device 110 transmits an image used for traffic congestion prediction to the traffic congestion prediction device 100 by using a navigation device provided on a mobile body, a smartphone or a mobile phone of a user, a portable personal computer, or the like. In addition, it is possible to request the traffic congestion prediction device 100 for traffic congestion prediction.

これらに限らず、端末装置110は、自宅や施設(店舗)等に固設されたパーソナル・コンピュータ等を用いて構成してもよい。この場合、端末装置110は、渋滞予測装置100に対して渋滞予測に用いる画像を送信する機能を省き、渋滞予測装置100に対して渋滞予測を要求する。このような端末装置110の場合、撮像部111と測位部112の機能を省くことができ、端末装置110の処理部113は、ユーザ操作等により渋滞予測を要求し、渋滞予測装置100から送信された渋滞予測の情報を表示部等に出力する。   Not limited to these, the terminal device 110 may be configured using a personal computer or the like fixedly installed in a home, a facility (store), or the like. In this case, the terminal device 110 omits the function of transmitting an image used for traffic congestion prediction to the traffic congestion prediction device 100, and requests the traffic congestion prediction device 100 for traffic congestion prediction. In the case of such a terminal device 110, the functions of the imaging unit 111 and the positioning unit 112 can be omitted, and the processing unit 113 of the terminal device 110 requests traffic congestion prediction by a user operation or the like, and is transmitted from the traffic congestion prediction device 100. The information of the predicted traffic congestion is output to a display unit or the like.

渋滞予測装置100の画像処理部101は、端末装置110から送信されてくる撮影画像を画像処理する。この画像処理では、撮影画像が示す道路と車両を抽出(検出)する。そして、端末装置110(移動体)が走行している走行車線(自車線)と、車線数、車線別の車両数、車間をそれぞれ検出する。このほか、撮影画像に含まれる各車両の車種を検出することもできる。   The image processing unit 101 of the traffic congestion prediction device 100 performs image processing on a captured image transmitted from the terminal device 110. In this image processing, the road and the vehicle indicated by the captured image are extracted (detected). Then, the traveling lane (own lane) in which the terminal device 110 (moving body) is traveling, the number of lanes, the number of vehicles for each lane, and the distance between the vehicles are detected. In addition, the type of each vehicle included in the captured image can be detected.

情報結合部102は、端末装置110から送信されてくる撮影画像の撮影ID、撮影時刻、および撮影位置の各情報を関連付けて格納部104に格納する。渋滞予測装置100の時刻を用いる場合、撮影画像を受信した時刻を用いることができ、端末装置110側における時刻情報の送信は不要である。また、渋滞予測装置100において、端末装置110が設けられた移動体の速度を把握している場合には、渋滞予測装置100は、例えば、端末装置110の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を求めることができる。   The information combining unit 102 stores the information on the shooting ID, shooting time, and shooting position of the shot image transmitted from the terminal device 110 in the storage unit 104 in association with each other. When the time of the traffic congestion prediction device 100 is used, the time at which the captured image is received can be used, and transmission of time information on the terminal device 110 side is unnecessary. Further, when the traffic congestion prediction device 100 knows the speed of the moving object provided with the terminal device 110, the traffic congestion prediction device 100 determines, for example, the amount of movement of the terminal device 110 in latitude and longitude and the required travel time. The speed of the moving object can be obtained by the calculation based on the speed.

そして、情報結合部102は、画像処理部101により画像処理された結果である、自車線情報を同一の撮影IDにより関連付け(結合)し、交通情報として格納部104に格納する。また、情報結合部102は、撮影ID毎の車線別の車両情報(車両数)を車線別車両情報として格納部104に格納する。交通情報は、道路、位置、時間帯別に分類した状態で格納部104に格納される。   The information combining unit 102 associates (combines) the own lane information, which is the result of the image processing performed by the image processing unit 101, with the same shooting ID, and stores the traffic information in the storage unit 104 as traffic information. In addition, the information combining unit 102 stores vehicle information (the number of vehicles) for each lane for each shooting ID in the storage unit 104 as vehicle information for each lane. The traffic information is stored in the storage unit 104 in a state of being classified by road, position, and time zone.

交通情報処理部103は、格納部104に格納された道路の位置、時間帯毎に分類された交通情報毎に統計関数を用いて位置および時間帯別の渋滞発生の確率を算出し、渋滞予測情報として格納部104に格納する。格納部104には、同一の道路上の複数の撮影画像の変化に基づく交通情報が格納されており、交通情報処理部103は、端末装置110からの要求時の交通情報を過去の交通情報(例えば同一時刻、場所)と比較することにより、渋滞の発生を予測する。   The traffic information processing unit 103 calculates the probability of occurrence of traffic congestion for each position and time zone using a statistical function for each of the road information stored in the storage unit 104 and each traffic information classified for each time zone, and predicts the traffic congestion. The information is stored in the storage unit 104 as information. The storage unit 104 stores traffic information based on changes in a plurality of captured images on the same road. The traffic information processing unit 103 stores the traffic information at the time of the request from the terminal device 110 in the past traffic information ( For example, the occurrence of congestion is predicted by comparing with the same time and place.

交通情報は、同一の道路についての情報に限らず、所定の範囲内(他の道路)の情報とすることができる。   The traffic information is not limited to information on the same road, but may be information within a predetermined range (another road).

この際、撮影画像に基づいて車線別の交通情報を得ているため、車線別の車両数(車間距離、車両の密度に相当)に基づいて渋滞の度合いを判断し、車線別の渋滞予測を行うことができる。   At this time, since traffic information for each lane is obtained based on the photographed image, the degree of traffic congestion is determined based on the number of vehicles (equivalent to the inter-vehicle distance and vehicle density) for each lane, and the traffic congestion prediction for each lane is made. It can be carried out.

渋滞予測情報としては、端末装置110の現在位置付近での今後の渋滞予測、端末装置110の目的地までの走行ルート上における渋滞予測、目的地付近での渋滞予測等がある。この渋滞予測情報の算出処理は、あらかじめ道路(場所)毎に算出しておいてもよいし、端末装置110からの要求時に、該当する道路(場所)について算出を行うようにしてもよい。   The congestion prediction information includes a future congestion prediction near the current position of the terminal device 110, a congestion prediction on a traveling route to the destination of the terminal device 110, a congestion prediction near the destination, and the like. The calculation processing of the traffic congestion prediction information may be calculated in advance for each road (location), or may be performed for the corresponding road (location) at the time of a request from the terminal device 110.

また、渋滞予測情報は、撮影された位置に対応する道路について渋滞予測するに限らない。例えば、撮影された位置情報に最も近い道路や、撮影されたタイミングでマップマッチングされた地図情報上の道路であってもよい。   Further, the traffic congestion prediction information is not limited to predicting traffic congestion for a road corresponding to the position where the image was captured. For example, a road closest to the photographed position information or a road on map information that has been subjected to map matching at the photographed timing may be used.

渋滞予測情報管理部105は、渋滞予測情報を管理する。この渋滞予測情報管理部105は、端末装置110からの渋滞予測の要求に対応した位置やエリアの渋滞予測情報を端末装置110に送信する。   The congestion prediction information management unit 105 manages congestion prediction information. The congestion prediction information management unit 105 transmits to the terminal device 110 the congestion prediction information of the position or the area corresponding to the request for the congestion prediction from the terminal device 110.

端末装置110は、例えば、移動体の移動時の走行ルートや目的地近傍の所定エリア内における渋滞予測情報を渋滞予測装置100に要求する。このほか、移動体による経路探索時においても同様に走行ルートや目的地近傍の所定エリア内における渋滞予測情報を要求する。これに対応して、渋滞予測装置100は、端末装置110(移動体)走行ルートや目的地近傍の所定エリア内における渋滞予測情報を抽出して端末装置110に送信することができる。   For example, the terminal device 110 requests the traffic congestion prediction device 100 for traffic congestion prediction information in a predetermined area near a travel route or a destination when the moving object moves. In addition, at the time of the route search by the moving body, similarly, it requests the traffic congestion prediction information in a predetermined area near the traveling route or the destination. In response to this, the traffic congestion prediction device 100 can extract the traffic congestion prediction information in a predetermined area near the terminal device 110 (mobile) travel route or destination and transmit the information to the terminal device 110.

図2は、実施の形態にかかる渋滞予測システムの処理手順の一例を示すフローチャートである。渋滞予測装置100が行う渋滞予測の処理内容を示す。はじめに、渋滞予測装置100は、端末装置110から撮影画像と、撮影時の位置情報、速度、時刻を取得する(ステップS201)。上述したように、速度、時刻は端末装置110から受信しなくても取得できる。   FIG. 2 is a flowchart illustrating an example of a processing procedure of the traffic congestion prediction system according to the embodiment. The processing content of traffic congestion prediction performed by the traffic congestion prediction device 100 is shown. First, the traffic congestion prediction device 100 acquires a captured image and positional information, speed, and time at the time of capturing from the terminal device 110 (step S201). As described above, the speed and the time can be obtained without receiving from the terminal device 110.

次に、渋滞予測装置100は、撮影画像を画像処理する(ステップS202)。この画像処理により、端末装置110(移動体)が走行している走行車線(自車線)、車線数、車線別の車両数、各車両の車種、車間を検出する。検出した情報は、ステップS201により取得した情報(位置情報、速度、時刻)と関連付け(結合)して、交通情報が生成され、格納部104に格納される。   Next, the traffic congestion prediction device 100 performs image processing on the captured image (step S202). By this image processing, the traveling lane (own lane), the number of lanes, the number of vehicles for each lane, the type of each vehicle, and the distance between the vehicles are detected. The detected information is associated (combined) with the information (position information, speed, time) acquired in step S201, and traffic information is generated and stored in the storage unit 104.

同一あるいは異なる複数の端末装置110は、異なる場所や時刻毎に複数の撮影画像を渋滞予測装置100に送信する。これにより、渋滞予測装置100は、ステップS201,ステップS202を繰り返し実行することにより、道路の場所、時刻別に多数の交通情報がデータベース化して格納されることになる。渋滞予測装置100は、この交通情報を用いて、以下の渋滞予測処理を行う。   The same or different plurality of terminal devices 110 transmit a plurality of captured images to the traffic congestion prediction device 100 at different locations and times. In this way, the traffic congestion prediction device 100 repeatedly executes steps S201 and S202, so that a large number of traffic information is stored in a database for each road location and time. The traffic congestion prediction device 100 performs the following traffic congestion prediction processing using the traffic information.

次に、渋滞予測装置100は、端末装置110から渋滞予測の要求を受信待ちする(ステップS203:Noのループ)。渋滞予測の要求を受信すると(ステップS203:Yes)、渋滞予測処理を行う(ステップS204)。この渋滞予測処理では、ステップS202により生成された交通情報を参照し、要求に含まれる場所(範囲)、時刻と同一の場所、時刻における過去の渋滞の発生に基づき、この場所(範囲)、時刻における渋滞の発生を予測する。   Next, the traffic congestion prediction device 100 waits for a request for traffic congestion prediction from the terminal device 110 (step S203: No loop). When a request for traffic congestion prediction is received (step S203: Yes), traffic congestion prediction processing is performed (step S204). In this traffic congestion prediction process, the traffic information generated in step S202 is referred to, and based on the location (range) included in the request, the same location as the time, and the past traffic congestion at the time, the location (range), the time Predict the occurrence of traffic congestion in.

なお、渋滞の発生を予測する場所は、要求に含まれる場所と完全に同一である必要は無く、要求に含まれる場所と同一の道路や所定の範囲内における過去の交通情報と渋滞の発生に基づいて、予測してもよい。また時刻についても同様で、要求に含まれる時刻を含む所定の時間帯でもよい。   The location where the occurrence of traffic congestion is predicted does not need to be exactly the same as the location included in the request, but may be the same as the location included in the request and past traffic information and traffic congestion within a predetermined range. Based on this, prediction may be made. Similarly, the time may be a predetermined time zone including the time included in the request.

この後、渋滞予測情報を端末装置110に送信し(ステップS205)、一連の渋滞予測処理を終了する。   Thereafter, the congestion prediction information is transmitted to the terminal device 110 (step S205), and a series of congestion prediction processing ends.

上記実施の形態によれば、端末装置が有するカメラが撮影した道路上の複数の場所および時刻の撮影画像を用いて渋滞予測するため、道路上のカメラやセンサ等のような固定設置されたものを用いた設置場所に限定された渋滞予測だけではなく、道路上の任意の場所の渋滞予測を行うことができる。   According to the above-described embodiment, in order to predict traffic congestion using captured images of a plurality of locations and times on the road captured by a camera of the terminal device, fixedly installed devices such as cameras and sensors on the road are used. It is possible to perform not only the traffic congestion prediction limited to the installation location using but also the traffic congestion prediction at an arbitrary place on the road.

また、多数の端末装置から送信される画像により、道路の渋滞状態を判断するための交通情報を多数取得できるため、任意の場所における渋滞予測の精度を向上できるようになる。   In addition, since a large number of traffic information for judging a traffic congestion state on a road can be acquired from images transmitted from a large number of terminal devices, the accuracy of congestion prediction at an arbitrary place can be improved.

端末装置としては、画像を撮影し、位置情報を送信できるカメラを備えた携帯電話やスマートフォン、カーナビゲーションなど汎用装置を利用できるため、渋滞予測装置は、多数の画像を容易に取得でき、システムコストも軽減できる。   As a terminal device, a general-purpose device such as a mobile phone, a smart phone, and a car navigation system equipped with a camera capable of capturing images and transmitting position information can be used. Can also be reduced.

また、渋滞予測情報の生成の際、車間と車両数を用いることとしたが、このほかに、天気や曜日、要求された場所の道路に接続している他の道路の交通情報、要求された場所近傍でのイベント有無など、渋滞要因となる得る他のデータを渋滞予測のパラメータとして加えてもよい。これにより、渋滞予測の精度をより向上できるようになる。   In addition, when generating the traffic congestion prediction information, the distance between vehicles and the number of vehicles were used, but in addition to this, the weather, the day of the week, traffic information of other roads connected to the road of the requested location, Other data that may be a cause of traffic congestion, such as the presence or absence of an event near a place, may be added as a parameter for traffic congestion prediction. Thereby, the accuracy of the traffic congestion prediction can be further improved.

そして、渋滞を車両数(車間距離)に基づき判断したが、道路上における任意の場所の渋滞前の画像と、端末装置から送信された現在の画像の類似度を画像処理することにより、画像同士の比較によっても同様に渋滞予測することができる。   The traffic congestion was determined based on the number of vehicles (inter-vehicle distance). However, similarity between an image before traffic congestion at an arbitrary location on the road and a current image transmitted from the terminal device is image-processed, so that images are congested. Can also be used to predict traffic congestion.

さらに、端末装置が撮影する画像は、静止画に限らず、動画でもよい。動画であれば他車線の移動体の速度についても判断できるため、より詳細な交通情報を得ることができる。   Further, the image captured by the terminal device is not limited to a still image, but may be a moving image. In the case of a moving image, the speed of a moving body in another lane can be determined, so that more detailed traffic information can be obtained.

また、渋滞予測データの生成には、重回帰分析などの統計学を適用してもよい。この際、道路毎に適切な最適アルゴリズムを組み替えることができる。   In addition, statistics such as multiple regression analysis may be applied to the generation of the traffic jam prediction data. At this time, an optimal algorithm can be rearranged for each road.

以下に、本発明の実施例について説明する。本実施例では、移動体(車両)にナビゲーション装置300が搭載され、各ユーザのナビゲーション装置300が上述した渋滞予測装置100としてのサーバにアクセスする構成について説明する。ここで、ナビゲーション装置300は、上記の端末装置110としての機能を有し、移動体の移動時の道路を撮影して渋滞予測装置100に送信する。また、このナビゲーション装置300は、渋滞予測装置100(サーバ)に対して所望する場所の渋滞予測情報を要求する。   Hereinafter, examples of the present invention will be described. In the present embodiment, a configuration in which the navigation device 300 is mounted on a moving object (vehicle) and the navigation device 300 of each user accesses the server as the above-described traffic congestion prediction device 100 will be described. Here, the navigation device 300 has a function as the terminal device 110 described above, and captures a road at the time of movement of the moving object and transmits the road to the traffic congestion prediction device 100. The navigation device 300 requests the traffic congestion prediction device 100 (server) for traffic congestion prediction information of a desired place.

(ナビゲーション装置300のハードウェア構成)
図3は、ナビゲーション装置のハードウェア構成の一例を示すブロック図である。図3において、ナビゲーション装置300は、CPU301、ROM302、RAM303、磁気ディスクドライブ304、磁気ディスク305、光ディスクドライブ306、光ディスク307、音声I/F(インターフェース)308、マイク309、スピーカ310、入力デバイス311、映像I/F312、ディスプレイ313、通信I/F314、GPSユニット315、各種センサ316、カメラ317、を備えている。各構成部301〜317は、バス320によってそれぞれ接続されている。
(Hardware configuration of navigation device 300)
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the navigation device. 3, a navigation device 300 includes a CPU 301, a ROM 302, a RAM 303, a magnetic disk drive 304, a magnetic disk 305, an optical disk drive 306, an optical disk 307, an audio I / F (interface) 308, a microphone 309, a speaker 310, an input device 311, A video I / F 312, a display 313, a communication I / F 314, a GPS unit 315, various sensors 316, and a camera 317 are provided. The components 301 to 317 are connected by a bus 320, respectively.

CPU301は、ナビゲーション装置300の全体の制御を司る。ROM302は、ブートプログラム、渋滞予測プログラム等を記録している。RAM303は、CPU301のワークエリアとして使用される。すなわち、CPU301は、RAM303をワークエリアとして使用しながら、ROM302に記録された各種プログラムを実行することによって、ナビゲーション装置300の全体の制御を司る。   The CPU 301 controls the entire navigation device 300. The ROM 302 stores a boot program, a congestion prediction program, and the like. The RAM 303 is used as a work area of the CPU 301. That is, the CPU 301 controls the entire navigation device 300 by executing various programs recorded in the ROM 302 while using the RAM 303 as a work area.

磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータの読み取り/書き込みを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記録する。磁気ディスク305としては、例えば、HD(ハードディスク)やFD(フレキシブルディスク)を用いることができる。   The magnetic disk drive 304 controls reading / writing of data from / to the magnetic disk 305 under the control of the CPU 301. The magnetic disk 305 records data written under the control of the magnetic disk drive 304. As the magnetic disk 305, for example, an HD (hard disk) or an FD (flexible disk) can be used.

また、光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータの読み取り/書き込みを制御する。光ディスク307は、光ディスクドライブ306の制御にしたがってデータが読み出される着脱自在な記録媒体である。光ディスク307は、書き込み可能な記録媒体を利用することもできる。着脱可能な記録媒体として、光ディスク307のほか、MO、メモリカードなどを用いることができる。   The optical disk drive 306 controls reading / writing of data from / to the optical disk 307 under the control of the CPU 301. The optical disk 307 is a removable recording medium from which data is read under the control of the optical disk drive 306. The optical disc 307 may use a writable recording medium. As the removable recording medium, an MO, a memory card, or the like can be used in addition to the optical disk 307.

磁気ディスク305および光ディスク307に記録される情報の一例としては、地図データ、車両情報、道路情報、走行履歴などが挙げられる。地図データは、カーナビゲーションシステムにおいて経路探索するときに用いられ、建物、河川、地表面、エネルギー補給施設などの地物(フィーチャ)をあらわす背景データ、道路の形状をリンクやノードなどであらわす道路形状データなどを含むベクタデータである。   Examples of information recorded on the magnetic disk 305 and the optical disk 307 include map data, vehicle information, road information, traveling history, and the like. Map data is used when searching for a route in a car navigation system, and background data representing features such as buildings, rivers, the ground surface, and energy supply facilities, and road shapes representing road shapes with links and nodes. This is vector data including data.

音声I/F308は、音声入力用のマイク309および音声出力用のスピーカ310に接続される。マイク309に受音された音声は、音声I/F308内でA/D変換される。マイク309は、例えば、車両のダッシュボード部などに設置され、その数は単数でも複数でもよい。スピーカ310からは、所定の音声信号を音声I/F308内でD/A変換した音声が出力される。   The audio I / F 308 is connected to a microphone 309 for audio input and a speaker 310 for audio output. The sound received by the microphone 309 is A / D-converted in the sound I / F 308. The microphone 309 is installed on, for example, a dashboard section of a vehicle, and the number thereof may be one or more. From the speaker 310, a sound obtained by D / A conversion of a predetermined sound signal in the sound I / F 308 is output.

入力デバイス311は、文字、数値、各種指示などの入力のための複数のキーを備えたリモコン、キーボード、タッチパネルなどが挙げられる。入力デバイス311は、リモコン、キーボード、タッチパネルのうちいずれか一つの形態によって実現されてもよいが、複数の形態によって実現することも可能である。   Examples of the input device 311 include a remote controller, a keyboard, and a touch panel having a plurality of keys for inputting characters, numerical values, various instructions, and the like. The input device 311 may be realized by any one of a remote controller, a keyboard, and a touch panel, but may be realized by a plurality of modes.

映像I/F312は、ディスプレイ313に接続される。映像I/F312は、具体的には、例えば、ディスプレイ313全体を制御するグラフィックコントローラと、即時表示可能な画像情報を一時的に記録するVRAM(Video RAM)などのバッファメモリと、グラフィックコントローラから出力される画像データに基づいてディスプレイ313を制御する制御ICなどによって構成される。   The video I / F 312 is connected to the display 313. Specifically, the video I / F 312 includes, for example, a graphic controller for controlling the entire display 313, a buffer memory such as a VRAM (Video RAM) for temporarily recording image information that can be displayed immediately, and an output from the graphic controller. It is composed of a control IC for controlling the display 313 based on the image data to be displayed.

ディスプレイ313には、アイコン、カーソル、メニュー、ウインドウ、あるいは文字や画像などの各種データが表示される。ディスプレイ313としては、例えば、TFT液晶ディスプレイ、有機ELディスプレイなどを用いることができる。   The display 313 displays icons, cursors, menus, windows, or various data such as characters and images. As the display 313, for example, a TFT liquid crystal display, an organic EL display, or the like can be used.

カメラ317は、車両外部の道路の映像を撮影する。映像は静止画あるいは動画のどちらでもよい。カメラ317によって車両外部の道路を撮影することにより、道路とともに走行中の他の車両が撮影される。この撮影画像は、CPU301によって画像処理された後、GPSユニット315の位置情報とともに、渋滞予測装置100(後述するサーバ400)に送信処理される。   The camera 317 captures an image of a road outside the vehicle. The image may be a still image or a moving image. By photographing the road outside the vehicle with the camera 317, another vehicle traveling along with the road is photographed. The captured image is subjected to image processing by the CPU 301 and then transmitted to the traffic congestion prediction device 100 (a server 400 described later) together with the position information of the GPS unit 315.

通信I/F314は、無線を介してネットワークに接続され、ナビゲーション装置300およびCPU301のインターフェースとして機能する。ネットワークとして機能する通信網には、CANやLIN(Local Interconnect Network)などの車内通信網や、公衆回線網や携帯電話網、DSRC(Dedicated Short Range Communication)、LAN、WANなどがある。通信I/F314は、例えば、公衆回線用接続モジュールやETC(ノンストップ自動料金支払いシステム)ユニット、FMチューナー、VICS(Vehicle Information and Communication System:登録商標)/ビーコンレシーバなどである。   The communication I / F 314 is connected to a network via radio, and functions as an interface between the navigation device 300 and the CPU 301. Examples of the communication network functioning as a network include an in-vehicle communication network such as CAN and LIN (Local Interconnect Network), a public line network and a mobile phone network, a Dedicated Short Range Communication (DSRC), a LAN, and a WAN. The communication I / F 314 is, for example, a public line connection module, an ETC (non-stop automatic fee payment system) unit, an FM tuner, a VICS (Vehicle Information and Communication System: registered trademark) / beacon receiver, and the like.

GPSユニット315は、GPS衛星からの電波を受信し、車両の現在位置を示す情報を出力する。GPSユニット315の出力情報は、後述する各種センサ316の出力値とともに、CPU301による車両の現在位置の算出に際して利用される。現在位置を示す情報は、例えば、緯度・経度、高度などの、地図データ上の1点を特定する情報である。   The GPS unit 315 receives radio waves from GPS satellites and outputs information indicating the current position of the vehicle. The output information of the GPS unit 315 is used together with the output values of various sensors 316 to be described later when the CPU 301 calculates the current position of the vehicle. The information indicating the current position is, for example, information for identifying one point on the map data, such as latitude / longitude and altitude.

各種センサ316は、車速センサ、加速度センサ、角速度センサ、傾斜センサなどの、車両の位置や挙動を判断するための情報を出力する。各種センサ316の出力値は、CPU301による車両の現在位置の算出や、速度や方位の変化量の算出に用いられる。   The various sensors 316 output information for determining the position and behavior of the vehicle, such as a vehicle speed sensor, an acceleration sensor, an angular velocity sensor, and a tilt sensor. The output values of the various sensors 316 are used by the CPU 301 to calculate the current position of the vehicle and to calculate the amount of change in speed and azimuth.

図3に示したCPU301は、ROM302等に格納されたプログラム実行により、図1に示した端末装置110の処理部113の機能を実現する。図3のカメラ317により図1の撮像部111の機能を実現し、図3のGPSユニット315により図1の測位部112の機能を実現する。   The CPU 301 illustrated in FIG. 3 realizes the function of the processing unit 113 of the terminal device 110 illustrated in FIG. 1 by executing a program stored in the ROM 302 or the like. The function of the imaging unit 111 of FIG. 1 is realized by the camera 317 of FIG. 3, and the function of the positioning unit 112 of FIG. 1 is realized by the GPS unit 315 of FIG.

(サーバの構成例)
図4は、サーバのハードウェア構成の一例を示すブロック図である。渋滞予測装置100を構成するサーバ400についても、図3に示したナビゲーション装置300と同様の構成を有する。なお、サーバ400においては、図3に記載のGPSユニット315、各種センサ316、カメラ317等は不要である。
(Example of server configuration)
FIG. 4 is a block diagram illustrating an example of a hardware configuration of the server. The server 400 included in the traffic congestion prediction device 100 has the same configuration as the navigation device 300 shown in FIG. In the server 400, the GPS unit 315, the various sensors 316, the camera 317, and the like shown in FIG.

図1に示した渋滞予測装置100は、サーバ400に設けられたROM402等に記録されたプログラムやデータを用いて、CPU401が所定のプログラムを実行することによって渋滞予測の機能を実現する。サーバ400の磁気ディスク405等には、上記の交通情報や、渋滞予測情報が格納される。また、通信I/F414を介してナビゲーション装置300と通信を行い、ナビゲーション装置300からの要求に対応した渋滞予測情報をナビゲーション装置300に出力する。   The traffic congestion prediction device 100 shown in FIG. 1 implements a traffic congestion prediction function by causing a CPU 401 to execute a predetermined program using programs and data recorded in a ROM 402 or the like provided in a server 400. The above-described traffic information and traffic congestion prediction information are stored in the magnetic disk 405 of the server 400 or the like. Further, communication with the navigation device 300 is performed via the communication I / F 414, and traffic jam prediction information corresponding to a request from the navigation device 300 is output to the navigation device 300.

また、サーバ400は、各ナビゲーション装置300から送信された画像の送信時刻やナビゲーション装置300が搭載された移動体の速度を算出する機能を有してもよい。サーバ400は、ナビゲーション装置300の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を計算することができる。   Further, the server 400 may have a function of calculating a transmission time of an image transmitted from each navigation device 300 and a speed of a moving body on which the navigation device 300 is mounted. The server 400 can calculate the speed of the moving object by calculation based on the movement amount of the latitude and longitude of the navigation device 300 and the required travel time.

図4に示したCPU401は、ROM402等に格納されたプログラム実行により、図1に示した渋滞予測装置100の画像処理部101、情報結合部102、交通情報処理部103、渋滞予測情報管理部105の機能を実現する。図4の磁気ディスク305や光ディスク307等は、図1に示した格納部104の機能を実現する。   The CPU 401 shown in FIG. 4 executes the program stored in the ROM 402 or the like to execute the image processing unit 101, the information combining unit 102, the traffic information processing unit 103, the traffic congestion prediction information management unit 105 of the traffic congestion prediction device 100 shown in FIG. Implement the function of The magnetic disk 305 and the optical disk 307 in FIG. 4 realize the function of the storage unit 104 shown in FIG.

(ナビゲーション装置による画像の送信処理)
図5は、ナビゲーション装置による画像送信の処理内容を示すフローチャートである。ナビゲーション装置300は、移動体の移動時にGPSユニット315等により常に位置を測位している(ステップS501)。そして、例えば、所定のタイミング毎に(例えば1分毎)、カメラ317により道路を撮影する(ステップS502)。例えば、前方の道路を撮影することにより、道路とともに、道路上の移動体がともに撮影される。
(Image transmission processing by the navigation device)
FIG. 5 is a flowchart showing the content of processing of image transmission by the navigation device. The navigation device 300 always measures the position by the GPS unit 315 or the like when the moving body moves (step S501). Then, for example, at a predetermined timing (for example, every minute), the road is photographed by the camera 317 (step S502). For example, by photographing a road ahead, a moving object on the road is photographed together with the road.

また、カメラ317により道路を撮影するトリガ(タイミング)は、サーバ400側からナビゲーション装置300への要求出力や、ナビゲーション装置300等のユーザの指示等とすることができる。   The trigger (timing) for photographing the road with the camera 317 can be a request output from the server 400 to the navigation device 300 or an instruction from the user of the navigation device 300 or the like.

そして、ナビゲーション装置300は、画像の撮影毎に、この撮影画像とともに撮影時の位置情報をサーバ400に送信する(ステップS503)。なお、ナビゲーション装置300は、撮影毎の画像に時刻を付与しておき、所定時間毎にまとめて複数の画像をサーバ400に送信することとしてもよい。   Then, the navigation device 300 transmits the position information at the time of photographing to the server 400 together with the photographed image every time the image is photographed (step S503). In addition, the navigation device 300 may add a time to an image for each shooting, and transmit a plurality of images to the server 400 collectively at predetermined time intervals.

ナビゲーション装置300は、上記のように画像の撮影を繰り返し行い、サーバ400に送信する。これにより、サーバ400は、複数のナビゲーション装置300が撮影した複数の道路の画像を収集することができる。   The navigation device 300 repeatedly shoots an image as described above, and transmits the image to the server 400. Thus, the server 400 can collect images of a plurality of roads captured by the plurality of navigation devices 300.

(サーバによる交通情報の生成処理)
図6は、サーバによる交通情報生成の処理内容を示すフローチャートである。はじめに、サーバ400は、ナビゲーション装置300から送信された画像、および位置情報(撮影位置)を受信する(ステップS601)。次に、画像受信時の移動体(ナビゲーション装置300)の速度と時刻を取得する(ステップS602)。
(Traffic information generation processing by server)
FIG. 6 is a flowchart showing a process of generating traffic information by the server. First, the server 400 receives the image and the position information (imaging position) transmitted from the navigation device 300 (Step S601). Next, the speed and time of the moving object (navigation device 300) at the time of receiving the image are acquired (step S602).

サーバ400は、これら移動体の速度と時刻はナビゲーション装置300が送信したものを取得してもよいし、サーバ400内部で生成したものを用いてもよい。サーバ400側で生成する場合、時刻は、画像受信時のサーバ400内部の時刻を用いる。移動体の移動は、移動体(ナビゲーション装置300)の緯度経度の移動量と移動所要時間に基づく計算により移動体の速度を計算したものを用いる。   The server 400 may obtain the speed and time of the moving object from those transmitted by the navigation device 300, or may use those generated inside the server 400. When the time is generated on the server 400 side, the time inside the server 400 when the image is received is used as the time. For the movement of the moving object, a value obtained by calculating the speed of the moving object by calculation based on the amount of movement of the moving object (navigation device 300) in latitude and longitude and the required moving time is used.

次に、サーバ400は、画像処理部101の画像処理により、取得した画像から車両、走行車線、車線数を検出する(ステップS603)。この際、例えば、撮影画像をオルソ画像に変換して、車両の位置、距離を特定でき、車線別車両数を検出できる。また、オルソ画像において、自車線の幅を導き出し、走行道路の車線数、車間を判断する。   Next, the server 400 detects the vehicle, the traveling lane, and the number of lanes from the acquired image by the image processing of the image processing unit 101 (step S603). At this time, for example, the photographed image is converted into an ortho image, the position and the distance of the vehicle can be specified, and the number of vehicles per lane can be detected. In the ortho image, the width of the own lane is derived, and the number of lanes and the distance between vehicles on the traveling road are determined.

次に、サーバ400は、情報結合部102により、取得した画像(ID)毎に、位置情報、速度、時刻、車線別車両数、自車線、の各情報を関連付け、交通情報として格納部104に格納する(ステップS604)。以上のステップS601〜ステップS604の処理は、ナビゲーション装置300から画像を受信する毎に行われる。   Next, the server 400 associates the position information, the speed, the time, the number of vehicles by lane, and the own lane with each image (ID) acquired by the information combining unit 102, and stores the information in the storage unit 104 as traffic information. It is stored (step S604). The processing of steps S601 to S604 is performed every time an image is received from the navigation device 300.

(交通情報の一例)
図7は、交通情報の内容の一例を示す図表である。図7の(a)は、ある1ユーザから送信された一つの画像を画像処理して得られた撮影画像処理情報701である。この撮影画像処理情報701は、車線情報(車線数)、自車線情報、車線別車両情報ID、の各情報からなる。図示の例では、自車が3車線道路(車線情報)の左から1番目(自車線情報)であることを示す。
(Example of traffic information)
FIG. 7 is a chart showing an example of the content of traffic information. FIG. 7A shows captured image processing information 701 obtained by performing image processing on one image transmitted from a certain user. The captured image processing information 701 includes lane information (the number of lanes), own lane information, and lane-specific vehicle information ID. In the illustrated example, the own vehicle is the first from the left (own lane information) of the three-lane road (lane information).

図7の(a)の車線別車両情報IDの詳細を図7の(b)の702に示す。車線別車両情報ID702は、1枚の画像毎にIDが割り当てられ、画像処理によって得られたID毎の位置(車線位置であり、画像中に存在する移動体の車線位置)と、車線毎の車間(画像中に存在する移動体と自車との車間)、の各情報とを有する。図示の例では、ID=1の場合、自車位置の前方の位置(車線1)に車間45mで移動体が存在し、自車位置の前方の位置(車線3)に車間30mと、車間60mでそれぞれ移動体が存在していることを示す。なお、図示の例では、3車線のうち、左車線の位置が「1」、中央車線の位置が「2」、右車線の位置が「3」で示される。   Details of the lane-specific vehicle information ID in FIG. 7A are shown in 702 in FIG. As the lane-specific vehicle information ID 702, an ID is assigned to each image, and a position for each ID (a lane position, which is a lane position of a moving object existing in the image) obtained by the image processing, The following information is provided between the vehicles (the distance between the moving object existing in the image and the vehicle). In the illustrated example, when ID = 1, a moving object exists at a position 45 m ahead of the own vehicle position (lane 1) at a distance of 45 m, and at a position ahead of the own vehicle position (lane 3), the distance between the vehicle and the vehicle is 30 m and 60 m. Indicates that a moving object is present. In the illustrated example, of the three lanes, the position of the left lane is indicated by “1”, the position of the center lane is indicated by “2”, and the position of the right lane is indicated by “3”.

図7の(c)に示す撮影条件情報703は、図7の(a)撮影画像処理情報701と、撮影時の条件である撮影位置(図示の例では緯度経度)、速度、時刻とを、撮影IDにより関連付けた情報である。   The photographing condition information 703 shown in (c) of FIG. 7 includes (a) the photographed image processing information 701 of FIG. 7 and the photographing position (latitude and longitude in the illustrated example), speed, and time, which are conditions at the time of photographing. This is information associated with the shooting ID.

図7の(d)は、交通情報704である。図7の(c)に示す撮影条件情報703を同一ユーザの異なる場所や時刻別、および異なるユーザについて蓄積した情報である。この交通情報704の行数を増やすことにより、所望する撮影位置について、時刻別の自車線情報、車線情報、車線別車両情報ID(車線位置、車間)をデータベース構築していくことができる。   FIG. 7D shows the traffic information 704. The photographing condition information 703 shown in FIG. 7C is accumulated for different places and times of the same user, and for different users. By increasing the number of lines of the traffic information 704, it is possible to construct a database of time-dependent own lane information, lane information, and lane-specific vehicle information ID (lane position, inter-vehicle) for a desired shooting position.

(交通情報を用いた渋滞予測処理)
図8は、交通情報を用いた渋滞予測の処理内容を示すフローチャートである。はじめに、サーバ400の交通情報処理部103は、交通情報704を位置、日付、時間帯毎に分類し(ステップS801)、分類されたデータ毎に統計関数を作成する(ステップS802)。この状態で、交通情報処理部103は、ナビゲーション装置300からの渋滞予測要求に含まれる要求条件の入力を待つ(ステップS803:Noのループ)。
(Congestion prediction processing using traffic information)
FIG. 8 is a flowchart showing the process of congestion prediction using traffic information. First, the traffic information processing unit 103 of the server 400 classifies the traffic information 704 by position, date, and time zone (Step S801), and creates a statistical function for each classified data (Step S802). In this state, the traffic information processing unit 103 waits for input of a request condition included in the traffic jam prediction request from the navigation device 300 (step S803: No loop).

交通情報処理部103は、要求条件の入力があれば(ステップS803:Yes)、この要求条件に該当する統計関数を利用して渋滞発生値を算出する(ステップS804)。そして、交通情報処理部103は、渋滞発生値が高い(正の値)かを判断し(ステップS805)、渋滞発生値が所定値より高ければ(ステップS805:Yes)、この渋滞発生値を渋滞予測情報として生成し、格納部104に格納する(ステップS806)。渋滞発生値が低ければ(ステップS805:No)、渋滞発生はないと判断し、今回の処理を終了する。   If there is a request condition input (step S803: Yes), the traffic information processing unit 103 calculates a traffic jam occurrence value using a statistical function corresponding to the request condition (step S804). Then, the traffic information processing unit 103 determines whether the traffic jam occurrence value is high (positive value) (step S805). If the traffic jam occurrence value is higher than the predetermined value (step S805: Yes), the traffic information occurrence unit 103 determines this traffic jam occurrence value as a traffic jam. It is generated as prediction information and stored in the storage unit 104 (step S806). If the traffic jam occurrence value is low (step S805: No), it is determined that there is no traffic jam, and the current process ends.

上記処理の具体例について説明する。上記例では、渋滞発生値を信頼度として所定のしきい値と比較し、渋滞の発生を判断している。例えば、ナビゲーション装置300から送信(入力)される渋滞予測の要求条件が、左車線交通量、右車線交通量、日付(曜日)、時間帯、が指定されている場合で説明する。   A specific example of the above processing will be described. In the above example, the occurrence of congestion is determined by comparing the congestion occurrence value with a predetermined threshold value as reliability. For example, a case will be described in which the traffic congestion prediction request condition transmitted (input) from the navigation device 300 specifies a left lane traffic volume, a right lane traffic volume, a date (day of the week), and a time zone.

なお、ナビゲーション装置300は撮影した画像を送信し、サーバ400がその画像を画像分析して左車線交通量、右車線交通量、日付(曜日)、時間帯を割り出す。また、日付時間はサーバのデータ受信時間などで割り出すこととする。交通量の一例としては、単位時間当たりの自動車の数である。   Note that the navigation device 300 transmits the captured image, and the server 400 analyzes the image to determine a left lane traffic volume, a right lane traffic volume, a date (day of the week), and a time zone. The date and time are determined based on the data reception time of the server. An example of the traffic volume is the number of vehicles per unit time.

はじめに、交通情報処理部103は、格納部104から指定された日付(曜日)と時間帯に対応する交通情報704を参照対象とする。例えば、要求条件がx道路、火曜日、12時〜13時のデータを集計した交通情報704を参照する。   First, the traffic information processing unit 103 refers to the traffic information 704 corresponding to the date (day of the week) and the time zone specified from the storage unit 104. For example, reference is made to the traffic information 704 in which the data of the required condition is x road, Tuesday, and from 12:00 to 13:00.

そして、交通情報処理部103は、渋滞発生に関する統計関数fnと、要求条件X,Yを入力値とし、下記の演算式を用いて渋滞確率を算出する。
fn(X,Y)=an(X)+bn(Y)
fn(xn,yn)=an(xn)+bn(yn)
渋滞発生値=max(1/fn(|X−xn|,|Y−yn|))−tn
Then, the traffic information processing unit 103 uses the statistical function fn relating to the occurrence of congestion and the required conditions X and Y as input values, and calculates the congestion probability using the following arithmetic expression.
fn (X, Y) = an (X) + bn (Y)
fn (xn, yn) = an (xn) + bn (yn)
Congestion occurrence value = max (1 / fn (| X-xn |, | Y-yn |))-tn

ただし、fn:統計関数(n=0,1,…)統計関数fnは、過去の渋滞予想データと現在の交通量を比較して、渋滞発生値を出すための関数である。X:左車線入力交通量,Y:右車線入力交通量,xn:左車線統計交通量,yn:右車線統計交通量,an:左車線予測係数,bn:右車線予測係数,tn:しきい値である。交通量は、画像撮影時の移動体の速度と、撮影された移動体の数から得られる。   Here, fn: statistical function (n = 0, 1,...) The statistical function fn is a function for comparing the past traffic congestion prediction data with the current traffic volume to obtain a traffic congestion occurrence value. X: left lane input traffic, Y: right lane input traffic, xn: left lane statistical traffic, yn: right lane statistical traffic, an: left lane prediction coefficient, bn: right lane prediction coefficient, tn: threshold Value. The traffic volume is obtained from the speed of the moving object at the time of image capturing and the number of the moving objects captured.

渋滞予想データは、ある道路で渋滞発生と判断された場合、その道路において渋滞判断が下された時間から所定時間遡り(遡る時間は道路毎に異なる)、渋滞発生までの交通情報(例えば各車線の交通量と速度と時間)を統計する。この統計データが普段の交通情報と著しく違う場合、この道路における渋滞予測データとなる。ただし、日付時間などのパラメータ別に1つの道路に対して多数の予測データを有する。なお、上記の渋滞発生の判断は、システムの渋滞予測装置100が判断してもよいし、他の外部システムから取得した情報であれば、車間が狭い場合やスピードが低い場合などに、渋滞と判断する。   When it is determined that traffic congestion has occurred on a certain road, the traffic congestion prediction data includes traffic information (for example, each lane) that goes back a predetermined time from the time at which the traffic congestion was determined on that road (the time to go back differs for each road). Statistics of traffic volume, speed and time). If this statistical data is significantly different from ordinary traffic information, it becomes traffic congestion prediction data on this road. However, there is a large number of prediction data for one road for each parameter such as date and time. The determination of the occurrence of traffic congestion may be made by the traffic congestion prediction device 100 of the system, or if the information is obtained from another external system, the traffic congestion may be determined when the distance between vehicles is narrow or when the speed is low. to decide.

また、上記の統計関数fnについて、上記例(2車線道路)で、「右車線が極めて混むとその後渋滞が発生する」、もしくは「右左両方ある程度混むとその後渋滞が発生する」といった2つ特徴をもつ道路の場合、渋滞発生パターンが2通りあるため、fnはn=2となる。この特徴は渋滞予想データから算出する。   The statistical function fn has two features in the above example (two-lane road), such as "congestion occurs when the right lane is extremely crowded," or "congestion occurs thereafter when both right and left are partially crowded." In the case of a road with two roads, there are two congestion occurrence patterns, so that fn is n = 2. This feature is calculated from traffic congestion prediction data.

右車線入力交通量は、ナビゲーション装置300が撮影した画像から算出された右車線の交通量であり、図7(b)車線別車両情報ID702「1」(車線別撮影ID「1」の道路は3車線道路)における位置「3」の行数(つまり3車線道路の右車線に存在する車両数)で示される。左車線入力交通量は、図7(b)車線別車両情報ID702「1」における位置「1」の行数(つまり3車線道路の左車線に存在する車両数)で示される。   The right lane input traffic volume is the traffic volume of the right lane calculated from the image captured by the navigation device 300, and FIG. 7B shows the lane-specific vehicle information ID 702 “1” (the road of the lane-specific photography ID “1” It is indicated by the number of rows at the position “3” in the three-lane road (that is, the number of vehicles existing in the right lane of the three-lane road). The left lane input traffic volume is indicated by the number of rows at the position “1” in the lane-specific vehicle information ID 702 “1” (that is, the number of vehicles existing in the left lane of the three-lane road) in FIG.

右(左)車線統計交通量は、渋滞予測データの中の該当パターンにおける位置「3」の交通量の平均や最頻値の統計値である。また、右(左)車線予測係数は、右(左)車線統計交通量と右車線入力交通量の差分に重みを付ける係数である。例えば、道路において「右車線が極めて混むとその後渋滞が発生する」というパターンがあれば、右車線予測係数を大きくする。これにより右車線の差分が最終的な渋滞発生値に大きく反映される。   The right (left) lane statistical traffic volume is a statistical value of the average or mode value of the traffic volume at the position “3” in the corresponding pattern in the traffic congestion prediction data. The right (left) lane prediction coefficient is a coefficient that weights the difference between the right (left) lane statistical traffic volume and the right lane input traffic volume. For example, if there is a pattern such as "congestion occurs after the right lane becomes extremely crowded" on the road, the right lane prediction coefficient is increased. As a result, the difference between the right lanes is largely reflected on the final traffic jam occurrence value.

上記渋滞予測の具体例について説明する。渋滞予測装置100は、ある道路の時刻t時において、渋滞が発生する前30分の統計データ(格納部104のデータ)に「右車線が極めて混む」、「右左両車線やや混んでいる」という2パターンがあったとする。この道路においては30分前に渋滞の予兆が現れることがわかる。この2パターンをこの道路のt時渋滞予想データとして格納部104に格納しておく。   A specific example of the traffic congestion prediction will be described. The traffic congestion prediction device 100 states that, at time t on a certain road, the right lane is extremely crowded and the right and left lanes are slightly crowded in statistical data (data in the storage unit 104) for 30 minutes before traffic congestion occurs. Suppose there are two patterns. It can be seen that a sign of congestion appears on this road 30 minutes before. These two patterns are stored in the storage unit 104 as traffic congestion prediction data at t of this road.

そして、ナビゲーション装置300のユーザから時刻t時に画像が送信されたとする。渋滞予測装置100では、この画像の画像解析により、右車線がとても混んでいると判断したとする。渋滞予測装置100は、画像解析結果について、渋滞予想データとの類似度を統計関数により計算すると、「右車線が極めて混む」パターンにとても類似していたとする。この場合、渋滞予測装置100の交通情報処理部103は、この画像が送られてきてから30分後に渋滞が発生すると判断し、渋滞予想情報管理部105に対して、この道路は30分後に渋滞すると出力する。   Then, it is assumed that the image is transmitted from the user of the navigation device 300 at time t. It is assumed that the traffic congestion prediction device 100 determines that the right lane is very crowded by image analysis of this image. It is assumed that the traffic congestion prediction device 100 is very similar to the “right lane is extremely crowded” pattern when the similarity to the traffic congestion prediction data is calculated by the statistical function for the image analysis result. In this case, the traffic information processing unit 103 of the traffic congestion prediction device 100 determines that a traffic congestion occurs 30 minutes after the image is transmitted, and instructs the traffic congestion information management unit 105 that the traffic will be congested after 30 minutes. Then output.

渋滞予測装置100の統計関数による計算の具体例について説明する。この道路は渋滞予想を下記の2パターン持っているため、
パターン1:「右車線が極めて混むと渋滞が発生する」
パターン2:「右左両車線やや混んでいると渋滞が発生する」
したがって、統計関数fnは2つ用意する。
f1(X,Y)=a1(x1)+b1(y1)
f2(X,Y)=a2(x2)+b1(y2)
A specific example of calculation using the statistical function of the traffic congestion prediction device 100 will be described. Because this road has the following two patterns of traffic congestion forecast,
Pattern 1: "Congestion occurs when the right lane is extremely crowded"
Pattern 2: "Congestion occurs when both right and left lanes are slightly crowded"
Therefore, two statistical functions fn are prepared.
f1 (X, Y) = a1 (x1) + b1 (y1)
f2 (X, Y) = a2 (x2) + b1 (y2)

x1:パターン1の予想データの左車線交通量(平均や最頻)→左車線の統計交通量
y1:パターン1の予想データの右車線交通量(平均や最頻)
x2:パターン2の予想データの左車線交通量(平均や最頻)
y2:パターン2の予想データの右車線交通量(平均や最頻)
a1:パターン1の左車線の重み,b1:パターン1の右車線の重み(パターン1では右車線のみに注目したいのでa1の値を大きく、b1の値を小さくする)
a2:パターン2の左車線の重み,b2:パターン2の右車線の重み(パターン2では両車線に注目したいのでa2=b2でよい)
x1: Left lane traffic volume (average or mode) of predicted data of pattern 1 → Statistical traffic volume of left lane y1: Right lane traffic volume (average or mode) of predicted data of pattern 1
x2: Left lane traffic volume of the forecast data of pattern 2 (average or mode)
y2: Right lane traffic volume of pattern 2 forecast data (average or mode)
a1: weight of the left lane of pattern 1; b1: weight of the right lane of pattern 1 (in pattern 1, the value of a1 is increased and the value of b1 is reduced since we want to focus on only the right lane)
a2: weight of the left lane of pattern 2; b2: weight of the right lane of pattern 2 (a2 = b2 in pattern 2 because both lanes are to be noted)

そして、渋滞予測情報管理部105は、各車線交通量X、Yが入力された時、
1/f1(|x1−X|,|y1−Y|)と1/f2(|x2−X|,|y2−Y|)を計算する。この値が大きい方を採用し、閾値tnと比べる。tnより大きければ渋滞予測情報を生成する。
Then, when the traffic congestion prediction information management unit 105 inputs each lane traffic volume X, Y,
1 / f1 (| x1-X |, | y1-Y |) and 1 / f2 (| x2-X |, | y2-Y |) are calculated. The larger value is adopted and compared with the threshold value tn. If it is larger than tn, traffic congestion prediction information is generated.

渋滞予測情報管理部105は、渋滞予測情報を格納部104に格納して管理し、ナビゲーション装置300からの渋滞予測要求時に渋滞予測情報をナビゲーション装置300に送信する。   The congestion prediction information management unit 105 stores and manages the congestion prediction information in the storage unit 104, and transmits the congestion prediction information to the navigation device 300 when a congestion prediction request is issued from the navigation device 300.

ナビゲーション装置300からの渋滞予測要求時の要求条件、例えば、天気等の指定があれば、交通情報処理部103は、このパラメータを含めた交通情報704を参照対象とする。要求条件が増えれば、要求に対し高精度な渋滞予測を行えるようになる。   If there is a request condition at the time of a traffic jam prediction request from the navigation device 300, for example, designation of weather or the like, the traffic information processing unit 103 refers to the traffic information 704 including this parameter. If the required conditions increase, it becomes possible to perform highly accurate traffic congestion prediction for the request.

また、上記の処理例では、ナビゲーション装置300からの渋滞予測要求を待って渋滞予測情報を算出する構成としたが、これに限らない。例えば、交通情報処理部103は、交通情報704に基づいて、あらかじめ位置および時刻別の渋滞予測情報を生成しておく構成としても良い。この場合、ナビゲーション装置300からの渋滞予測要求があれば、対応する位置と時刻の渋滞予測情報をナビゲーション装置300に直ちに送信することができる。   In the above processing example, the traffic jam prediction information is calculated after waiting for the traffic jam prediction request from the navigation device 300. However, the present invention is not limited to this. For example, the traffic information processing unit 103 may be configured to generate congestion prediction information for each position and time based on the traffic information 704 in advance. In this case, if there is a traffic jam prediction request from the navigation device 300, the traffic congestion prediction information of the corresponding position and time can be transmitted to the navigation device 300 immediately.

(渋滞予測要求と渋滞予測情報の送信について)
図9は、渋滞予測要求から渋滞予測情報の送信までの処理内容を示すフローチャートである。はじめに、ナビゲーション装置300は、指定位置や指定範囲の渋滞予測要求をサーバ400に送信する(ステップS901)。
(About transmission of traffic congestion prediction request and traffic congestion prediction information)
FIG. 9 is a flowchart showing the processing contents from the traffic jam prediction request to the transmission of the traffic jam prediction information. First, the navigation device 300 transmits a congestion prediction request for a specified position or a specified range to the server 400 (step S901).

サーバ400の渋滞予測情報管理部105は、この渋滞予測要求を受信し(ステップS902)、該当する指定位置や指定範囲の渋滞予測をナビゲーション装置300に送信(配信)する(ステップS903)。   The traffic congestion prediction information management unit 105 of the server 400 receives the traffic congestion prediction request (Step S902), and transmits (distributes) the traffic congestion prediction at the corresponding designated position or designated range to the navigation device 300 (Step S903).

ナビゲーション装置300は、サーバ400から送信された渋滞予測情報を受信し(ステップS904)、この渋滞予測情報を表示部に表示する(ステップS905)。   The navigation device 300 receives the traffic jam prediction information transmitted from the server 400 (step S904), and displays the traffic jam prediction information on the display unit (step S905).

なお、サーバ400の渋滞予測情報管理部105は、ステップS903の後、時間経過により渋滞の状態が変わる可能性があること等に基づいて、渋滞予測変更発生の有無を監視する構成にしてもよい(ステップS906)。渋滞予測変更発生がない場合には(ステップS906:No)、処理を終了するが、渋滞予測変更発生が生じた場合には(ステップS906:Yes)、ステップS903による渋滞予測情報の再度の演算および送信を行う。   The traffic congestion prediction information management unit 105 of the server 400 may be configured to monitor whether or not a traffic congestion prediction change has occurred based on a possibility that the state of the traffic congestion may change over time after step S903. (Step S906). If there is no traffic congestion prediction change (step S906: No), the process ends. If traffic congestion prediction change occurs (step S906: Yes), the traffic congestion prediction information is calculated again in step S903. Send.

(渋滞発生について)
図10は、自然渋滞の発生状態を示す説明図である。図10の(a)に示すように、走行する移動体の車両数が多くなってくると、移動体同士の車間が狭くなってくる。次に、図10(b)に示すように、一部の移動体1001の速度が遅くなると、追突しないように後続の移動体1011,1012が次々とブレーキを踏み速度を落とす。この結果、図10(c)に示すように、完全に停止する移動体1021があらわれ、後続する移動体1031,1032,1033,1034も次々に停車し、自然渋滞が発生する。
(About traffic jam)
FIG. 10 is an explanatory diagram showing a state of occurrence of natural congestion. As shown in FIG. 10A, as the number of vehicles of a moving body that travels increases, the distance between the moving bodies decreases. Next, as shown in FIG. 10B, when the speed of some of the moving bodies 1001 decreases, the succeeding moving bodies 1011 and 1012 step on the brakes one after another to reduce the speed so as not to collide. As a result, as shown in FIG. 10C, the moving body 1021 that stops completely appears, and the following moving bodies 1031, 1032, 1033, and 1034 also stop one after another, and a natural traffic jam occurs.

(渋滞予測について)
実施の形態の渋滞予測は、走行する移動体の台数が多くなると、移動体同士の車間が狭くなる、という点をナビゲーション装置300の撮影画像と、過去のデータベース(交通情報704)を参照して予測するものである。サーバ400は、要求条件に対応する過去の交通情報704を参照することにより、図10に示した自然渋滞の例で見れば、(a)〜(c)のどの状態に対応するかを判断するに相当し、渋滞予測要求に含まれる要求された日時等に対応した渋滞予測情報をナビゲーション装置300に送信する。
(About traffic congestion forecast)
The traffic congestion prediction according to the embodiment refers to a captured image of the navigation device 300 and a past database (traffic information 704) in that, as the number of traveling moving objects increases, the distance between vehicles decreases. To predict. The server 400 refers to the past traffic information 704 corresponding to the request condition, and determines which of the conditions (a) to (c) corresponds to the natural traffic congestion illustrated in FIG. 10. And transmits to the navigation device 300 traffic congestion prediction information corresponding to the requested date and time included in the traffic congestion prediction request.

加えて、要求時刻以降における渋滞がどのように変化するか(例えば、要求が図9(a)に相当する時刻の場合、例えば10分後には、図9(c)の自然渋滞発生が生じる、との予測についても渋滞予測情報としてナビゲーション装置300に送信できる。   In addition, how the traffic congestion changes after the request time (for example, when the request is a time corresponding to FIG. 9A, natural traffic congestion occurs as shown in FIG. 9C after 10 minutes, for example) Can be transmitted to the navigation device 300 as traffic jam prediction information.

(渋滞予測情報のルート探索への適用について)
上述した渋滞予測情報が渋滞発生の可能性が高い(渋滞発生値が高い)ことを示す場合、ナビゲーション装置300は、該当する渋滞発生の候補ルート上の道路について、渋滞予測情報を付与してルート案内できる。
(About application of traffic congestion prediction information to route search)
When the above-described congestion prediction information indicates that there is a high possibility of occurrence of congestion (congestion occurrence value is high), the navigation device 300 assigns the congestion prediction information to the corresponding road on the congestion candidate route, and I can guide you.

実施の形態のナビゲーション装置300は、上述した渋滞予測情報を考慮したルート探索を行う。これにより、渋滞が予想された道路(リンク)の平均旅行時間が多いため、この渋滞地点を避けたルートが探索される。   The navigation device 300 according to the embodiment performs a route search in consideration of the above-described traffic congestion prediction information. As a result, since the average travel time of the road (link) where traffic congestion is expected is long, a route that avoids this traffic congestion point is searched.

ただし、このように渋滞予測情報を用いたルート探索では、予測した時間になると該当する場所での実際の渋滞の有無が判明することになる。したがって、この予測時間のときに、予測した渋滞が起きていない(渋滞発生していない)場合も考えられる。このような場合には、この予測時間に達したとき、ナビゲーション装置300は、ルートを再探索するとともに、前回用いた渋滞予測情報を利用しないことにする。   However, in the route search using the traffic congestion prediction information, whether or not there is an actual traffic congestion at the corresponding place is determined at the predicted time. Therefore, there may be a case where the predicted congestion does not occur (no congestion occurs) at the time of the prediction. In such a case, when the prediction time has been reached, the navigation device 300 re-searches the route and does not use the traffic jam prediction information used last time.

上記ルート探索は、ナビゲーション装置300が行うに限らず、サーバ400が行ってもよい。サーバ400は、ナビゲーション装置300の現在位置、目的地等の位置情報を取得し、時刻等の他の探索条件を含めてルート探索すればよい。   The route search is not limited to being performed by the navigation device 300, but may be performed by the server 400. The server 400 may acquire position information such as the current position and the destination of the navigation device 300 and perform a route search including other search conditions such as time.

上記の実施の形態では、撮影画像から車線数、車両数、車間、等を画像処理して交通量を検出する構成としたが、画像処理によってさらに他のパラメータを取得する構成にもできる。例えば、撮影画像の道路の車線上に、工事中の誘導標識がある場合には、工事による突発的な渋滞の発生の可能性がある。このほか、渋滞発生の要因となり得る車種(バス、パトカー)、歩行者横断、等もパラメータとすることができる。   In the above embodiment, the traffic number is detected by performing image processing on the number of lanes, the number of vehicles, the distance between vehicles, and the like from the captured image. For example, when there is a guidance sign indicating that construction is in progress on the lane of the road in the captured image, there is a possibility that sudden congestion may occur due to the construction. In addition, a vehicle type (bus, police car), pedestrian crossing, and the like that can be a cause of traffic congestion can also be used as parameters.

したがって、撮影画像そのものについても、渋滞発生前後の画像の共通点、および相違点を統計処理することにより、交通情報704の精度を向上できるようになる。   Therefore, the accuracy of the traffic information 704 can be improved by statistically processing the common points and differences between the captured images themselves before and after the occurrence of traffic congestion.

また、上記実施の形態では、渋滞予測をサーバ等の渋滞予測装置100が行う構成としたが、ある1台のカーナビゲーション装置やパーソナル・コンピュータ等の端末装置110が渋滞予測する構成とし、渋滞予測を要求した他の端末装置110に送信する構成とすることもできる。   Further, in the above embodiment, the traffic congestion prediction device 100 such as a server performs the traffic congestion prediction. However, the traffic congestion prediction is performed by a certain car navigation device or a terminal device 110 such as a personal computer. May be transmitted to the other terminal device 110 that has requested.

なお、本実施の形態で説明した渋滞予測に関する方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。   The method related to traffic congestion prediction described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. This program may be a transmission medium that can be distributed via a network such as the Internet.

100 渋滞予測装置
101 画像処理部
102 情報結合部
103 交通情報処理部
104 格納部
105 渋滞予測情報管理部
110 端末装置
111 撮像部
112 測位部
113 処理部
REFERENCE SIGNS LIST 100 traffic congestion prediction device 101 image processing unit 102 information combining unit 103 traffic information processing unit 104 storage unit 105 traffic congestion prediction information management unit 110 terminal device 111 imaging unit 112 positioning unit 113 processing unit

Claims (1)

道路上の移動体を撮影した画像と撮影した位置を示す位置情報とを取得する取得部と、
前記画像中に存在する移動体に関する情報である交通情報を抽出する画像処理部と、
前記画像処理部により抽出された前記交通情報を用いて、撮影された位置に対応する前記道路上の渋滞予測に関する情報を算出する交通情報処理部と、
を有することを特徴とする渋滞予測システム。
An acquisition unit that acquires an image of a moving object on a road and position information indicating a position where the moving object is photographed,
An image processing unit that extracts traffic information that is information on a moving object present in the image,
Using the traffic information extracted by the image processing unit, a traffic information processing unit that calculates information related to traffic congestion prediction on the road corresponding to the position where the image was captured,
Traffic congestion prediction system characterized by having.
JP2019218912A 2019-12-03 2019-12-03 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program Pending JP2020030870A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019218912A JP2020030870A (en) 2019-12-03 2019-12-03 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2021168213A JP2022023863A (en) 2019-12-03 2021-10-13 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019218912A JP2020030870A (en) 2019-12-03 2019-12-03 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018072730A Division JP2018106762A (en) 2018-04-04 2018-04-04 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021168213A Division JP2022023863A (en) 2019-12-03 2021-10-13 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Publications (1)

Publication Number Publication Date
JP2020030870A true JP2020030870A (en) 2020-02-27

Family

ID=69622660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019218912A Pending JP2020030870A (en) 2019-12-03 2019-12-03 Congestion prediction system, terminal, congestion prediction method, and congestion prediction program

Country Status (1)

Country Link
JP (1) JP2020030870A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021169174A1 (en) * 2020-02-29 2021-09-02 深圳壹账通智能科技有限公司 Road congestion degree prediction method, apparatus, computer device, and readable storage medium
CN113743983A (en) * 2021-08-09 2021-12-03 太逗科技集团有限公司 Android application-based electric pin management method, device, equipment and medium
CN113808401A (en) * 2021-09-18 2021-12-17 平安普惠企业管理有限公司 Traffic congestion prediction method, device, device and storage medium
JP2023053447A (en) * 2021-10-01 2023-04-13 株式会社ヒスコム vending machine system
JP2023517648A (en) * 2020-03-10 2023-04-26 グーグル エルエルシー Systems and methods for identifying obstacles and hazards along routes

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256991A (en) * 2002-03-05 2003-09-12 National Institute Of Advanced Industrial & Technology Visual probe car system, its traffic information providing method and its information center system
JP2006221537A (en) * 2005-02-14 2006-08-24 Denso Corp Traffic information providing system, traffic information providing center, and on-vehicle information collecting device
JP2010025709A (en) * 2008-07-17 2010-02-04 Pioneer Electronic Corp Driving support apparatus, driving support method, driving support program, and computer-readable storage medium
JP2010134640A (en) * 2008-12-03 2010-06-17 Honda Motor Co Ltd Information acquisition apparatus
JP2011123840A (en) * 2009-12-14 2011-06-23 Aisin Aw Co Ltd Vehicle guide device, vehicle guide method and vehicle guide program
US20130073192A1 (en) * 2011-09-20 2013-03-21 Infosys Limited System and method for on-road traffic density analytics using video stream mining and statistical techniques
JP2013206325A (en) * 2012-03-29 2013-10-07 Sumitomo Electric Ind Ltd Traffic information prediction device, traffic information prediction method and computer program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256991A (en) * 2002-03-05 2003-09-12 National Institute Of Advanced Industrial & Technology Visual probe car system, its traffic information providing method and its information center system
JP2006221537A (en) * 2005-02-14 2006-08-24 Denso Corp Traffic information providing system, traffic information providing center, and on-vehicle information collecting device
JP2010025709A (en) * 2008-07-17 2010-02-04 Pioneer Electronic Corp Driving support apparatus, driving support method, driving support program, and computer-readable storage medium
JP2010134640A (en) * 2008-12-03 2010-06-17 Honda Motor Co Ltd Information acquisition apparatus
JP2011123840A (en) * 2009-12-14 2011-06-23 Aisin Aw Co Ltd Vehicle guide device, vehicle guide method and vehicle guide program
US20130073192A1 (en) * 2011-09-20 2013-03-21 Infosys Limited System and method for on-road traffic density analytics using video stream mining and statistical techniques
JP2013206325A (en) * 2012-03-29 2013-10-07 Sumitomo Electric Ind Ltd Traffic information prediction device, traffic information prediction method and computer program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021169174A1 (en) * 2020-02-29 2021-09-02 深圳壹账通智能科技有限公司 Road congestion degree prediction method, apparatus, computer device, and readable storage medium
JP2023517648A (en) * 2020-03-10 2023-04-26 グーグル エルエルシー Systems and methods for identifying obstacles and hazards along routes
JP7479496B2 (en) 2020-03-10 2024-05-08 グーグル エルエルシー System and method for identifying obstacles and hazards along a route - Patents.com
CN113743983A (en) * 2021-08-09 2021-12-03 太逗科技集团有限公司 Android application-based electric pin management method, device, equipment and medium
CN113808401A (en) * 2021-09-18 2021-12-17 平安普惠企业管理有限公司 Traffic congestion prediction method, device, device and storage medium
CN113808401B (en) * 2021-09-18 2023-02-10 平安普惠企业管理有限公司 Traffic congestion prediction method, device, equipment and storage medium
JP2023053447A (en) * 2021-10-01 2023-04-13 株式会社ヒスコム vending machine system
JP7297325B2 (en) 2021-10-01 2023-06-26 株式会社ヒスコム vending machine system

Similar Documents

Publication Publication Date Title
JP2015076078A (en) Congestion prediction system, terminal device, congestion prediction method, and congestion prediction program
JP2020030870A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2020024225A (en) Traffic jam display device, traffic jam display method, and traffic jam display program
KR101744963B1 (en) Traffic information and vehicle information providing system using black box video data and method thereof
JP2015076077A (en) Traffic volume estimation system,terminal device, traffic volume estimation method and traffic volume estimation program
KR101280313B1 (en) Smart bus information system
JP2010169441A (en) Information output terminal, information output method, information output program and recording medium
JP2015075479A (en) Traffic jam display device, traffic jam display method, and traffic jam display program
JPWO2014097445A1 (en) Map information generating apparatus and map information generating method
JP2009103524A (en) Navigation device, navigation method, navigation program, and computer-readable recording medium
US20240071213A1 (en) Information processing apparatus, information processing method, and system
JP2018132529A (en) Congestion display device, congestion display method, and congestion display program
JP2016173270A (en) Presentation device, presentation method, and presentation program
JP2018169411A (en) Image transmission system, terminal, image transmission method, and image transmission program
CN120151902B (en) In-vehicle network data pre-storing method before entering signal blind area and related equipment
JP2018106762A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2011022004A (en) Device, method and program for updating of map data, and recording medium
JP2022023863A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2025061935A (en) IMAGE TRANSMISSION SYSTEM, TERMINAL, IMAGE TRANSMISSION METHOD, AND IMAGE TRANSMISSION PROGRAM
JP2015163856A (en) image transmission system, terminal, image transmission method and image transmission program
JP2009222409A (en) Device, method, and program for outputting information, and recording medium
JP2025015592A (en) Congestion prediction system, terminal, congestion prediction method, and congestion prediction program
JP2008152364A (en) Information providing device, information providing method, information providing program and computer-readable recording medium
WO2014162612A1 (en) Information provision system, terminal, information provision method, and information provision program
WO2014174648A1 (en) Information recording system, information acquisition device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210713