[go: up one dir, main page]

JP2022019163A - Information processing equipment, information processing methods, and computer programs - Google Patents

Information processing equipment, information processing methods, and computer programs Download PDF

Info

Publication number
JP2022019163A
JP2022019163A JP2020122834A JP2020122834A JP2022019163A JP 2022019163 A JP2022019163 A JP 2022019163A JP 2020122834 A JP2020122834 A JP 2020122834A JP 2020122834 A JP2020122834 A JP 2020122834A JP 2022019163 A JP2022019163 A JP 2022019163A
Authority
JP
Japan
Prior art keywords
autonomous traveling
peripheral object
remote monitoring
route
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020122834A
Other languages
Japanese (ja)
Other versions
JP7477821B2 (en
Inventor
信夫 河口
Nobuo Kawaguchi
一哉 武田
Kazuya Takeda
栄二朗 竹内
Eijiro Takeuchi
祥生 石黒
Yoshio Ishiguro
明 丁
Akira Cho
セグラ アレックサンダー カルバヨ
Carballo Segura Alexander
芳樹 二宮
Yoshiki Ninomiya
健登 大谷
Kento Otani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tier Iv Inc
Tokai National Higher Education and Research System NUC
Original Assignee
Tier Iv Inc
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tier Iv Inc, Tokai National Higher Education and Research System NUC filed Critical Tier Iv Inc
Priority to JP2020122834A priority Critical patent/JP7477821B2/en
Publication of JP2022019163A publication Critical patent/JP2022019163A/en
Application granted granted Critical
Publication of JP7477821B2 publication Critical patent/JP7477821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Selective Calling Equipment (AREA)

Abstract

【課題】1人の監視者が複数の自律走行移動体の遠隔監視を行う際の監視者の負担を軽減する。【解決手段】複数の自律走行移動体の遠隔監視のための情報処理装置は、経路情報取得部と、周辺物体情報取得部と、変換部と、画像生成部と、表示制御部とを備える。経路情報取得部は、各自律走行移動体の走行予定経路を示す経路情報を取得する。周辺物体情報取得部は、各自律走行移動体の周辺物体の少なくとも位置を含む状態を示す周辺物体情報を取得する。変換部は、各自律走行移動体について、走行予定経路と周辺物体の状態との相対関係が維持されるように、予め定められた基準形状への走行予定経路の変換と周辺物体の状態の変換とを実行する。画像生成部は、各自律走行移動体についての変換後の走行予定経路および周辺物体の状態を示す監視画像を生成する。表示制御部は、監視画像を表示装置に表示させる。【選択図】図6[Problem] To reduce the burden on a single monitor when remotely monitoring multiple autonomously traveling mobile bodies. [Solution] An information processing device for remotely monitoring multiple autonomously traveling mobile bodies includes a route information acquisition unit, a surrounding object information acquisition unit, a conversion unit, an image generation unit, and a display control unit. The route information acquisition unit acquires route information indicating a planned travel route of each autonomously traveling mobile body. The surrounding object information acquisition unit acquires surrounding object information indicating a state including at least the position of an object surrounding each autonomously traveling mobile body. The conversion unit converts the planned travel route into a predetermined reference shape and converts the state of the surrounding objects for each autonomously traveling mobile body so that a relative relationship between the planned travel route and the state of the surrounding objects is maintained. The image generation unit generates a monitoring image indicating the planned travel route and the state of the surrounding objects after conversion for each autonomously traveling mobile body. The display control unit causes the monitoring image to be displayed on a display device. [Selected Figure] FIG. 6

Description

本明細書に開示される技術は、複数の自律走行移動体の遠隔監視のための情報処理装置、情報処理方法、および、コンピュータプログラムに関する。 The techniques disclosed herein relate to information processing devices, information processing methods, and computer programs for remote monitoring of a plurality of autonomous traveling vehicles.

近年、人による運転操作を必要とせずに自律的に走行する自律走行車両(「自動運転車両」とも呼ばれる。)が開発されている。自律走行車両は、例えば、管理者から発せられた指令に基づき走行予定経路を設定し、自律走行車両が備える各種センサから出力される信号や、外部との通信により取得された情報等に基づき、自律走行車両自身や周辺物体(他の車両、歩行者、信号機、街路樹、車線等)の状態(位置、向き、速度、形状、色彩等)を検知・認識し、周辺物体との衝突を回避しつつ、設定された走行予定経路に沿って自律的に走行する。 In recent years, autonomous traveling vehicles (also referred to as "autonomous driving vehicles") that autonomously travel without the need for human driving operations have been developed. The autonomous vehicle sets, for example, a planned travel route based on a command issued by the administrator, and is based on signals output from various sensors provided in the autonomous vehicle, information acquired by communication with the outside, and the like. Detects and recognizes the state (position, direction, speed, shape, color, etc.) of the autonomous vehicle itself and surrounding objects (other vehicles, pedestrians, traffic lights, street trees, lanes, etc.) and avoids collisions with surrounding objects. While doing so, it travels autonomously along the set planned travel route.

また、自律走行車両の円滑でより安全な走行を実現するために、遠隔監視センタにおいて自律走行車両を遠隔監視し、必要により、自律走行車両の制御に介入する(自律走行車両の制御を補助する)技術が知られている(例えば、特許文献1参照)。自律走行車両の制御への介入の態様としては、例えば、自律走行車両自身や自律走行車両の周辺物体の状態の検知・認識の補助や、自律走行車両の遠隔操縦が挙げられる。 In addition, in order to realize smoother and safer driving of the autonomous vehicle, the remote monitoring center remotely monitors the autonomous vehicle and, if necessary, intervenes in the control of the autonomous vehicle (assists the control of the autonomous vehicle). ) Technology is known (see, for example, Patent Document 1). Examples of the mode of intervention in the control of the autonomous vehicle include assistance in detecting and recognizing the state of the autonomous vehicle itself and surrounding objects of the autonomous vehicle, and remote control of the autonomous vehicle.

特開2018-140755号公報Japanese Unexamined Patent Publication No. 2018-140755

自律走行車両を遠隔監視する際には、効率性の観点から、1人の監視者が複数の自律走行車両を遠隔監視することが望ましい。しかしながら、自律走行車両毎に、走行予定経路や周辺物体の状態は千差万別であるため、1人の監視者が複数の自律走行車両の遠隔監視を行うようにすると、監視者の負担が大きい、という課題がある。 When remotely monitoring an autonomous vehicle, it is desirable that one observer remotely monitor a plurality of autonomous vehicles from the viewpoint of efficiency. However, since the planned travel route and the state of surrounding objects vary from one autonomous vehicle to another, if one observer performs remote monitoring of a plurality of autonomous vehicles, the burden on the observer will be increased. There is a problem that it is big.

なお、このような課題は、自律走行車両の遠隔監視に限らず、例えば自律走行ロボットのように、自律的に走行する車両以外の移動体の遠隔監視にも共通の課題である。 It should be noted that such a problem is not limited to remote monitoring of autonomous traveling vehicles, but is also a common problem for remote monitoring of moving objects other than autonomously traveling vehicles, such as autonomous traveling robots.

本明細書では、上述した課題を解決することが可能な技術を開示する。 This specification discloses a technique capable of solving the above-mentioned problems.

本明細書に開示される技術は、例えば、以下の形態として実現することが可能である。 The techniques disclosed herein can be realized, for example, in the following forms.

(1)本明細書に開示される情報処理装置は、複数の自律走行移動体の遠隔監視のための情報処理装置であって、経路情報取得部と、周辺物体情報取得部と、変換部と、画像生成部と、表示制御部とを備える。経路情報取得部は、各前記自律走行移動体の走行予定経路を示す経路情報を取得する。周辺物体情報取得部は、各前記自律走行移動体の周辺物体の少なくとも位置を含む状態を示す周辺物体情報を取得する。変換部は、各前記自律走行移動体について、前記走行予定経路と前記周辺物体の状態との相対関係が維持されるように、予め定められた基準形状への前記走行予定経路の変換と前記周辺物体の状態の変換とを実行する。画像生成部は、各前記自律走行移動体についての前記変換後の前記走行予定経路および前記周辺物体の状態を示す監視画像を生成する。表示制御部は、前記監視画像を表示装置に表示させる。 (1) The information processing device disclosed in the present specification is an information processing device for remote monitoring of a plurality of autonomous traveling mobile bodies, and includes a route information acquisition unit, a peripheral object information acquisition unit, and a conversion unit. , An image generation unit and a display control unit are provided. The route information acquisition unit acquires route information indicating the planned travel route of each autonomous traveling vehicle. The peripheral object information acquisition unit acquires peripheral object information indicating a state including at least the position of the peripheral object of each of the autonomous traveling moving bodies. The conversion unit converts the planned travel route into a predetermined reference shape and the periphery so that the relative relationship between the planned travel route and the state of the peripheral object is maintained for each autonomous traveling vehicle. Performs transformation of the state of the object. The image generation unit generates a monitoring image showing the state of the planned travel path and the peripheral objects after the conversion for each autonomous traveling vehicle. The display control unit causes the display device to display the monitoring image.

このように、本情報処理装置によれば、各自律走行移動体について、走行予定経路と周辺物体の状態との相対関係が維持されるように、予め定められた基準形状への走行予定経路の変換と周辺物体の状態の変換とが実行され、各自律走行移動体について、変換後の走行予定経路および周辺物体の状態を示す監視画像が生成され、監視画像が表示装置に表示される。そのため、監視画像において、各自律走行移動体についての走行予定経路が、予め定められた基準形状に(すなわち、互いに同一の形状に)揃えられた状態で示される。従って、各自律走行移動体についての走行予定経路がそのまま(すなわち、自律走行移動体毎にばらばらの形状で)示される構成と比較して、監視者は、走行予定経路と周辺物体との関係を容易に把握することができる。以上のことから、本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う際の監視者の負担を軽減することができる。 As described above, according to the present information processing apparatus, for each autonomous traveling moving body, the traveling route to the predetermined reference shape is maintained so that the relative relationship between the traveling route and the state of the surrounding object is maintained. The conversion and the conversion of the state of the peripheral object are executed, and for each autonomous traveling moving body, a monitoring image showing the planned traveling route after conversion and the state of the peripheral object is generated, and the monitoring image is displayed on the display device. Therefore, in the monitoring image, the planned travel route for each autonomous traveling vehicle is shown in a state of being aligned with a predetermined reference shape (that is, in the same shape as each other). Therefore, the observer determines the relationship between the planned travel path and the surrounding objects, as compared with the configuration in which the planned travel route for each autonomous traveling vehicle is shown as it is (that is, in a disjointed shape for each autonomous traveling vehicle). It can be easily grasped. From the above, according to this information processing apparatus, it is possible to reduce the burden on the observer when one observer performs remote monitoring of a plurality of autonomous traveling vehicles.

(2)上記情報処理装置において、前記監視画像は、各前記自律走行移動体の前記変換後の前記走行予定経路が、各前記自律走行移動体の現在位置を基準点として互いに重なるように示された画像である構成としてもよい。本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う場合であっても、監視者は、単一の走行予定経路と各周辺物体との間の関係のみを監視すればよい。従って、本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う際の監視者の負担を効果的に軽減することができる。 (2) In the information processing apparatus, the monitoring image is shown so that the converted travel schedule of each autonomous traveling vehicle overlaps with each other with the current position of each autonomous traveling vehicle as a reference point. It may be configured as an image. According to this information processing device, even when one observer performs remote monitoring of a plurality of autonomous traveling objects, the observer has a relationship between a single planned travel route and each peripheral object. You only have to monitor. Therefore, according to this information processing apparatus, it is possible to effectively reduce the burden on the observer when one observer performs remote monitoring of a plurality of autonomous traveling vehicles.

(3)上記情報処理装置において、さらに、各前記自律走行移動体の少なくとも速度を含む状態を示す車両情報を取得する車両情報取得部を備え、前記監視画像は、前記自律走行移動体の速度に基づき導かれる時間距離のスケールが、各前記自律走行移動体について揃うように表現された画像である構成としてもよい。本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う場合であっても、監視者は、各自律走行移動体の速度差を意識することなく、監視画像における自律走行移動体の走行予定経路と各周辺物体との間の距離に基づき、自律走行移動体の制御への介入の要否を判断することができる。従って、本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う際の監視者の負担を極めて効果的に軽減することができる。 (3) The information processing apparatus further includes a vehicle information acquisition unit that acquires vehicle information indicating a state including at least the speed of each autonomous traveling vehicle, and the monitoring image is based on the speed of the autonomous traveling vehicle. The scale of the time distance derived based on the basis may be an image represented so as to be aligned for each of the autonomous traveling vehicles. According to this information processing device, even when one observer performs remote monitoring of a plurality of autonomous traveling vehicles, the observer monitors without being aware of the speed difference of each autonomous traveling vehicle. Based on the distance between the planned travel path of the autonomous traveling vehicle and each peripheral object in the image, it is possible to determine whether or not intervention in the control of the autonomous traveling vehicle is necessary. Therefore, according to this information processing apparatus, it is possible to extremely effectively reduce the burden on the observer when one observer performs remote monitoring of a plurality of autonomous traveling vehicles.

(4)上記情報処理装置において、前記監視画像は、前記走行予定経路を走行する前記自律走行移動体との衝突のおそれがある警戒領域を示す画像である構成としてもよい。本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う場合であっても、監視者は、監視画像における警戒領域と各周辺物体との位置関係に基づき、自律走行移動体の制御への介入の要否を容易に判断することができる。従って、本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う際の監視者の負担を極めて効果的に軽減することができる。 (4) In the information processing apparatus, the monitoring image may be configured as an image showing a warning area where there is a possibility of collision with the autonomous traveling moving body traveling on the planned traveling route. According to this information processing device, even when one observer remotely monitors a plurality of autonomous traveling objects, the observer is based on the positional relationship between the warning area and each peripheral object in the surveillance image. , It is possible to easily determine the necessity of intervention in the control of the autonomous traveling vehicle. Therefore, according to this information processing apparatus, it is possible to extremely effectively reduce the burden on the observer when one observer performs remote monitoring of a plurality of autonomous traveling vehicles.

(5)上記情報処理装置において、前記表示制御部は、前記監視画像に含まれる前記周辺物体が選択されたことに応じて、選択された前記周辺物体についての詳細画像を前記表示装置に表示させる構成としてもよい。本情報処理装置によれば、監視者は、表示装置に表示された周辺物体についての詳細画像を参照して、該周辺物体に関して、自律走行移動体の制御に対する介入の要否を判断したり、実際の介入を実行したりすることができる。従って、本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う際の監視者の負担を軽減しつつ、各自律走行移動体について適切な遠隔監視を行うことができる。 (5) In the information processing apparatus, the display control unit causes the display device to display a detailed image of the selected peripheral object in response to the selection of the peripheral object included in the monitoring image. It may be configured. According to the information processing apparatus, the observer can refer to the detailed image of the peripheral object displayed on the display device to determine the necessity of intervention for the control of the autonomous traveling vehicle with respect to the peripheral object. You can perform actual interventions. Therefore, according to this information processing apparatus, appropriate remote monitoring is performed for each autonomous traveling vehicle while reducing the burden on the observer when one observer performs remote monitoring of a plurality of autonomous traveling vehicles. be able to.

(6)上記情報処理装置において、前記基準形状は、直線形状である構成としてもよい。本情報処理装置によれば、監視者は、単純な形状の走行予定経路と各周辺物体との間の関係を監視すればよく、自律走行移動体の制御への介入の要否を容易に判断することができる。従って、本情報処理装置によれば、1人の監視者が複数の自律走行移動体の遠隔監視を行う際の監視者の負担を効果的に軽減することができる。 (6) In the information processing apparatus, the reference shape may be a linear shape. According to this information processing device, the observer only needs to monitor the relationship between the planned traveling route having a simple shape and each peripheral object, and easily determines whether or not intervention in the control of the autonomous traveling moving body is necessary. can do. Therefore, according to this information processing apparatus, it is possible to effectively reduce the burden on the observer when one observer performs remote monitoring of a plurality of autonomous traveling vehicles.

なお、本明細書に開示される技術は、種々の形態で実現することが可能であり、例えば、情報処理装置、情報処理方法、それらの方法を実現するコンピュータプログラム、そのコンピュータプログラムを記録した一時的でない記録媒体等の形態で実現することができる。 The techniques disclosed in the present specification can be realized in various forms, for example, an information processing apparatus, an information processing method, a computer program that realizes those methods, and a temporary recording of the computer program. It can be realized in the form of an untargeted recording medium or the like.

本実施形態における遠隔監視システム10の構成を概略的に示す説明図An explanatory diagram schematically showing the configuration of the remote monitoring system 10 in the present embodiment. 遠隔監視管理サーバ20の構成を概略的に示す説明図Explanatory diagram schematically showing the configuration of the remote monitoring management server 20 本実施形態の遠隔監視管理サーバ20により実行される遠隔監視管理処理を示すフローチャートA flowchart showing a remote monitoring management process executed by the remote monitoring management server 20 of the present embodiment. 本実施形態の遠隔監視管理サーバ20により実行される遠隔監視管理処理の概要を示す説明図Explanatory diagram which shows the outline of the remote monitoring management processing executed by the remote monitoring management server 20 of this embodiment. 本実施形態の遠隔監視管理サーバ20により実行される遠隔監視管理処理の概要を示す説明図Explanatory diagram which shows the outline of the remote monitoring management processing executed by the remote monitoring management server 20 of this embodiment. 本実施形態の遠隔監視管理サーバ20により実行される遠隔監視管理処理の概要を示す説明図Explanatory diagram which shows the outline of the remote monitoring management processing executed by the remote monitoring management server 20 of this embodiment.

A.実施形態:
A-1.遠隔監視システム10の構成:
図1は、本実施形態における遠隔監視システム10の構成を概略的に示す説明図である。遠隔監視システム10は、例えば遠隔監視センタにおいて複数の自律走行車両60を遠隔監視し、必要により、自律走行車両60の制御に介入する(自律走行車両60の制御を補助する)ためのシステムである。
A. Embodiment:
A-1. Configuration of remote monitoring system 10:
FIG. 1 is an explanatory diagram schematically showing the configuration of the remote monitoring system 10 in the present embodiment. The remote monitoring system 10 is a system for remotely monitoring a plurality of autonomous traveling vehicles 60 at, for example, a remote monitoring center and intervening in the control of the autonomous traveling vehicle 60 (assisting the control of the autonomous traveling vehicle 60) as necessary. ..

遠隔監視システム10による遠隔監視の対象である自律走行車両60は、人による運転操作を必要とせずに自律的に走行する車両である。自律走行車両60は、自家用車両であってもよいし、タクシー、バス、トラック等の業務用車両であってもよい。自律走行車両60は、特許請求の範囲における自律走行移動体の一例である。 The autonomous traveling vehicle 60, which is the target of remote monitoring by the remote monitoring system 10, is a vehicle that autonomously travels without requiring a driving operation by a person. The autonomous traveling vehicle 60 may be a private vehicle or a commercial vehicle such as a taxi, a bus, or a truck. The autonomous traveling vehicle 60 is an example of an autonomous traveling vehicle within the scope of claims.

自律走行車両60は、センサ66と、通信部64と、駆動部68と、自律走行制御部62とを備える。センサ66は、例えば、カメラ、ミリ波レーダ、LIDAR、超音波センサ、GPS、車速センサ、加速度センサ等を含み、自律走行車両60自身や周辺物体(他の車両、歩行者、信号機、街路樹、車線等)の状態(位置、向き、速度、形状、色彩等)を検知する。通信部64は、所定の通信方式で他の装置(例えば、遠隔監視システム10を構成する後述の遠隔監視管理サーバ20や遠隔監視装置30)と通信を行う通信インターフェースである。駆動部68は、例えば、エンジン、モータ、ステアリング、ブレーキ等を含み、自律走行車両60の走行動作(加速、操舵、制動等)を行う。自律走行制御部62は、例えばCPUやメモリを備えるコンピュータにより構成され、自律走行車両60の自律的な走行を制御する。例えば、自律走行制御部62は、管理者(例えば、遠隔監視システム10の管理者)から発せられた指令に基づき走行予定経路を設定し、センサ66から出力される各種信号や、通信部64を介した外部との通信により取得された情報(例えば、高精度3次元地図や、他の自律走行車両60により検知された周辺物体の情報)等に基づき、自律走行車両60自身や周辺物体の状態を検知・認識し、駆動部68による走行動作を制御することにより、周辺物体との衝突を回避しつつ、設定された走行予定経路に沿って自律走行車両60を自律的に走行させる。 The autonomous traveling vehicle 60 includes a sensor 66, a communication unit 64, a driving unit 68, and an autonomous traveling control unit 62. The sensor 66 includes, for example, a camera, a millimeter-wave radar, LIDAR, an ultrasonic sensor, a GPS, a vehicle speed sensor, an acceleration sensor, and the like, and includes an autonomous traveling vehicle 60 itself and surrounding objects (other vehicles, pedestrians, traffic lights, street trees, etc.). Detects the state (position, orientation, speed, shape, color, etc.) of the lane (lane, etc.). The communication unit 64 is a communication interface that communicates with another device (for example, a remote monitoring management server 20 or a remote monitoring device 30 described later constituting the remote monitoring system 10) by a predetermined communication method. The drive unit 68 includes, for example, an engine, a motor, steering, a brake, and the like, and performs a traveling operation (acceleration, steering, braking, etc.) of the autonomous traveling vehicle 60. The autonomous travel control unit 62 is configured by, for example, a computer including a CPU and a memory, and controls autonomous travel of the autonomous travel vehicle 60. For example, the autonomous travel control unit 62 sets a planned travel route based on a command issued by an administrator (for example, the administrator of the remote monitoring system 10), and sets various signals output from the sensor 66 and the communication unit 64. The state of the autonomous traveling vehicle 60 itself and surrounding objects based on information acquired by communication with the outside via communication (for example, a high-precision three-dimensional map and information on peripheral objects detected by another autonomous traveling vehicle 60). By detecting and recognizing the above and controlling the traveling operation by the driving unit 68, the autonomous traveling vehicle 60 is autonomously driven along the set planned traveling route while avoiding a collision with a peripheral object.

しかしながら、自律走行車両60の自律走行中に、センサ66の検出精度の問題や走行環境の問題等に起因して、自律走行車両60が自律走行車両60自身や周辺物体の状態を確実に検知・認識できない場合がある。例えば、周辺物体として歩行者を検知したものの、該歩行者が道路を横断するか否かを判断できない場合や、周辺物体が検知されたものの、該周辺物体は自律走行車両60の走行に支障の無い物体(例えば、明らかに軽い飛来物)である場合、周辺に非常に多くの歩行者がいる場合、トンネル内を走行する場合、豪雨や濃霧の中を走行する場合等である。そのような場合には、自律走行車両60による円滑な自律走行が困難となったり、周辺物体と衝突する可能性が高まったりするおそれがある。そのような場合に備えて、遠隔監視システム10は、自律走行車両60を遠隔監視しており、自発的に、あるいは、自律走行車両60からの求めに応じて、自律走行車両60の制御に介入する(自律走行車両60の制御を補助する)。遠隔監視システム10による自律走行車両60の制御への介入の態様としては、例えば、自律走行車両60自身や自律走行車両60の周辺物体の状態の検知・認識の補助や、自律走行車両60の遠隔操縦が挙げられる。これにより、自律走行車両60の円滑で、快適で、より安全な走行が実現される。 However, during autonomous traveling of the autonomous traveling vehicle 60, the autonomous traveling vehicle 60 reliably detects the state of the autonomous traveling vehicle 60 itself and surrounding objects due to problems such as the detection accuracy of the sensor 66 and the traveling environment. It may not be recognized. For example, when a pedestrian is detected as a peripheral object but it cannot be determined whether or not the pedestrian crosses the road, or when a peripheral object is detected, the peripheral object interferes with the running of the autonomous traveling vehicle 60. There are no objects (for example, obviously light flying objects), there are a large number of pedestrians in the vicinity, traveling in a tunnel, traveling in heavy rain or heavy fog, and so on. In such a case, smooth autonomous traveling by the autonomous traveling vehicle 60 may be difficult, or the possibility of collision with a peripheral object may increase. In preparation for such a case, the remote monitoring system 10 remotely monitors the autonomous traveling vehicle 60, and intervenes in the control of the autonomous traveling vehicle 60 voluntarily or in response to a request from the autonomous traveling vehicle 60. (Assists the control of the autonomous traveling vehicle 60). Examples of the mode of intervention in the control of the autonomous traveling vehicle 60 by the remote monitoring system 10 include assisting in detecting and recognizing the state of the autonomous traveling vehicle 60 itself and surrounding objects of the autonomous traveling vehicle 60, and remote control of the autonomous traveling vehicle 60. Maneuvering is mentioned. As a result, smooth, comfortable, and safer running of the autonomous traveling vehicle 60 is realized.

図1に示すように、遠隔監視システム10は、遠隔監視管理サーバ20と、複数の遠隔監視装置30と、ルータ等のネットワーク通信装置40とを備える。図1には、3つの遠隔監視装置30が示されているが、遠隔監視システム10に含まれる遠隔監視装置30の個数は、2個以下であってもよいし、4個以上であってもよい。遠隔監視システム10を構成する各装置は、LAN等の内部ネットワーク82を介して互いに通信可能に接続されている。また、遠隔監視管理サーバ20および複数の遠隔監視装置30は、ネットワーク通信装置40およびインターネット等の外部ネットワーク84を介して、各自律走行車両60と通信可能に接続されている。 As shown in FIG. 1, the remote monitoring system 10 includes a remote monitoring management server 20, a plurality of remote monitoring devices 30, and a network communication device 40 such as a router. Although three remote monitoring devices 30 are shown in FIG. 1, the number of remote monitoring devices 30 included in the remote monitoring system 10 may be two or less, or four or more. good. The devices constituting the remote monitoring system 10 are connected to each other so as to be able to communicate with each other via an internal network 82 such as a LAN. Further, the remote monitoring management server 20 and the plurality of remote monitoring devices 30 are communicably connected to each autonomous traveling vehicle 60 via a network communication device 40 and an external network 84 such as the Internet.

遠隔監視装置30は、監視者MOによる自律走行車両60の遠隔監視に利用される端末装置であり、例えばPCにより構成される。遠隔監視装置30は、例えば液晶ディスプレイ等の表示装置32を備える。監視者MOは、遠隔監視装置30の表示装置32に表示される監視画像MI(後述)を参照して自律走行車両60の制御への介入の要否を判断し、介入が必要と判断した場合に、遠隔監視装置30を操作して自律走行車両60の制御への介入を行う。遠隔監視装置30は、自律走行車両60の制御への介入を含む自律走行車両60の遠隔監視を実行するためのユーザインターフェース(例えば、キーボード、マウス、タッチパネル、操縦桿等)を備えている。本実施形態では、各監視者MO(各遠隔監視装置30)は、複数の(例えば、10台の)自律走行車両60の遠隔監視を同時に行っている。 The remote monitoring device 30 is a terminal device used for remote monitoring of the autonomous traveling vehicle 60 by the observer MO, and is composed of, for example, a PC. The remote monitoring device 30 includes a display device 32 such as a liquid crystal display. When the observer MO determines the necessity of intervention in the control of the autonomous traveling vehicle 60 by referring to the monitoring image MI (described later) displayed on the display device 32 of the remote monitoring device 30, and determines that intervention is necessary. In addition, the remote monitoring device 30 is operated to intervene in the control of the autonomous traveling vehicle 60. The remote monitoring device 30 includes a user interface (for example, a keyboard, a mouse, a touch panel, a control stick, etc.) for performing remote monitoring of the autonomous traveling vehicle 60 including intervention in the control of the autonomous traveling vehicle 60. In the present embodiment, each observer MO (each remote monitoring device 30) simultaneously performs remote monitoring of a plurality of (for example, 10) autonomous traveling vehicles 60.

遠隔監視管理サーバ20は、各監視者MOによる遠隔監視装置30を用いた遠隔監視を管理するためのサーバ装置である。図2は、遠隔監視管理サーバ20の構成を概略的に示す説明図である。遠隔監視管理サーバ20は、制御部210と、記憶部220と、表示部230と、操作入力部240と、インターフェース部250とを備える。これらの各部は、バス290を介して互いに通信可能に接続されている。なお、遠隔監視管理サーバ20は、特許請求の範囲における情報処理装置の一例である。 The remote monitoring management server 20 is a server device for managing remote monitoring using the remote monitoring device 30 by each observer MO. FIG. 2 is an explanatory diagram schematically showing the configuration of the remote monitoring management server 20. The remote monitoring management server 20 includes a control unit 210, a storage unit 220, a display unit 230, an operation input unit 240, and an interface unit 250. Each of these parts is communicably connected to each other via bus 290. The remote monitoring management server 20 is an example of an information processing device within the scope of claims.

遠隔監視管理サーバ20の表示部230は、例えば液晶ディスプレイ等により構成され、各種の画像や情報を表示する。また、操作入力部240は、例えばキーボードやマウス、ボタン、マイク等により構成され、管理者の操作や指示を受け付ける。なお、表示部230がタッチパネルを備えることにより、操作入力部240として機能するとしてもよい。また、インターフェース部250は、例えばLANインターフェースやUSBインターフェース等により構成され、有線または無線により他の装置との通信を行う。 The display unit 230 of the remote monitoring management server 20 is composed of, for example, a liquid crystal display or the like, and displays various images and information. Further, the operation input unit 240 is composed of, for example, a keyboard, a mouse, a button, a microphone, and the like, and receives operations and instructions of the administrator. The display unit 230 may be provided with a touch panel to function as an operation input unit 240. Further, the interface unit 250 is configured by, for example, a LAN interface, a USB interface, or the like, and communicates with other devices by wire or wirelessly.

遠隔監視管理サーバ20の記憶部220は、例えばROMやRAM、ハードディスクドライブ(HDD)等により構成され、各種のプログラムやデータを記憶したり、各種のプログラムを実行する際の作業領域やデータの一時的な記憶領域として利用されたりする。例えば、記憶部220には、後述する遠隔監視管理処理を実行するためのコンピュータプログラムである遠隔監視管理プログラムCPが格納されている。遠隔監視管理プログラムCPは、例えば、CD-ROMやDVD-ROM、USBメモリ等のコンピュータ読み取り可能な記録媒体(不図示)に格納された状態で提供され、遠隔監視管理サーバ20にインストールすることにより記憶部220に格納される。 The storage unit 220 of the remote monitoring management server 20 is composed of, for example, a ROM, a RAM, a hard disk drive (HDD), or the like, and stores various programs and data, and temporarily executes a work area and data when executing various programs. It is used as a typical storage area. For example, the storage unit 220 stores a remote monitoring management program CP, which is a computer program for executing a remote monitoring management process described later. The remote monitoring management program CP is provided in a state of being stored in a computer-readable recording medium (not shown) such as a CD-ROM, a DVD-ROM, or a USB memory, and is installed in the remote monitoring management server 20. It is stored in the storage unit 220.

また、遠隔監視管理サーバ20の記憶部220には、地図情報221が格納されている。地図情報221は、例えば高精度な3次元地図情報であり、道路の位置および形状の情報に加えて、信号機、道路標識、街路樹、ガードレール、建物等の位置および形状の情報を含んでいる。 Further, the map information 221 is stored in the storage unit 220 of the remote monitoring management server 20. The map information 221 is, for example, high-precision three-dimensional map information, and includes information on the position and shape of traffic lights, road signs, roadside trees, guardrails, buildings, and the like, in addition to information on the position and shape of roads.

遠隔監視管理サーバ20の制御部210は、例えばCPU等により構成され、記憶部220から読み出したコンピュータプログラムを実行することにより、遠隔監視管理サーバ20の動作を制御する。例えば、制御部210は、記憶部220から遠隔監視管理プログラムCPを読み出して実行することにより、後述の遠隔監視管理処理を実行する遠隔監視管理部211として機能する。遠隔監視管理部211は、機能モジュールとして、車両情報取得部212と、経路情報取得部213と、周辺物体情報取得部214と、変換部215と、画像生成部216と、表示制御部217とを含む。これら各部の機能については、後述の遠隔監視管理処理の説明に合わせて説明する。 The control unit 210 of the remote monitoring management server 20 is configured by, for example, a CPU or the like, and controls the operation of the remote monitoring management server 20 by executing a computer program read from the storage unit 220. For example, the control unit 210 functions as the remote monitoring management unit 211 that executes the remote monitoring management process described later by reading the remote monitoring management program CP from the storage unit 220 and executing the remote monitoring management program CP. The remote monitoring management unit 211 includes a vehicle information acquisition unit 212, a route information acquisition unit 213, a peripheral object information acquisition unit 214, a conversion unit 215, an image generation unit 216, and a display control unit 217 as functional modules. include. The functions of each of these parts will be described in accordance with the description of the remote monitoring management process described later.

A-2.遠隔監視管理処理:
図3は、本実施形態の遠隔監視管理サーバ20により実行される遠隔監視管理処理を示すフローチャートである。また、図4から図6は、本実施形態の遠隔監視管理サーバ20により実行される遠隔監視管理処理の概要を示す説明図である。
A-2. Remote monitoring management process:
FIG. 3 is a flowchart showing a remote monitoring management process executed by the remote monitoring management server 20 of the present embodiment. 4 to 6 are explanatory views showing an outline of the remote monitoring management process executed by the remote monitoring management server 20 of the present embodiment.

本実施形態の遠隔監視管理処理は、各監視者MOによる遠隔監視装置30を用いた自律走行車両60の遠隔監視を管理する処理であり、例えば、複数の自律走行車両60を監視するための監視画像MIを生成して各遠隔監視装置30の表示装置32に表示させる処理を含む。遠隔監視管理処理は、管理者が、遠隔監視管理サーバ20の操作入力部240を操作して開始指示を入力したことに応じて開始される。なお、本実施形態では、遠隔監視装置30(監視者MO)毎に、遠隔監視管理処理が実行される。以下では、1つの遠隔監視装置30について実行される遠隔監視管理処理について説明する。 The remote monitoring management process of the present embodiment is a process of managing the remote monitoring of the autonomous traveling vehicle 60 using the remote monitoring device 30 by each observer MO, for example, monitoring for monitoring a plurality of autonomous traveling vehicles 60. It includes a process of generating an image MI and displaying it on the display device 32 of each remote monitoring device 30. The remote monitoring management process is started in response to the administrator operating the operation input unit 240 of the remote monitoring management server 20 and inputting a start instruction. In this embodiment, the remote monitoring management process is executed for each remote monitoring device 30 (monitorer MO). Hereinafter, the remote monitoring management process executed for one remote monitoring device 30 will be described.

上述したように、各自律走行車両60は、管理者から発せられた指令に基づき走行予定経路を設定し、センサ66等を用いて自律走行車両60自身や周辺物体の状態を検知・認識し、周辺物体との衝突を回避しつつ、設定された走行予定経路に沿って自律的に走行している。図4には、一例として、1つの遠隔監視装置30による遠隔監視の対象である2つの自律走行車両60についての走行予定経路PAおよび周辺物体OBが示されている。より詳細には、図4のA欄には、緩やかなカーブが続く道路を比較的高速で走行している自律走行車両60aについての走行予定経路PAおよび周辺物体OB(周辺物体OB1,OB2)が示されており、図4のB欄には、比較的低速で交差点を右折しようとしている自律走行車両60bについての走行予定経路PAおよび周辺物体OB(周辺物体OB3,OB4)が示されている。周辺物体OBに付された矢印は、周辺物体OBの向き(予想進行方向)を示している。 As described above, each autonomous vehicle 60 sets a planned travel route based on a command issued by the administrator, and detects and recognizes the state of the autonomous vehicle 60 itself and surrounding objects by using a sensor 66 or the like. It travels autonomously along the set planned travel route while avoiding collisions with surrounding objects. As an example, FIG. 4 shows a planned travel route PA and a peripheral object OB for two autonomous traveling vehicles 60 that are the targets of remote monitoring by one remote monitoring device 30. More specifically, in column A of FIG. 4, the planned travel route PA and peripheral objects OB (peripheral objects OB1 and OB2) for the autonomous traveling vehicle 60a traveling on a road having a gentle curve at a relatively high speed are shown. It is shown, and in column B of FIG. 4, the planned travel route PA and peripheral objects OB (peripheral objects OB3, OB4) for the autonomous traveling vehicle 60b trying to turn right at the intersection at a relatively low speed are shown. The arrow attached to the peripheral object OB indicates the direction (expected traveling direction) of the peripheral object OB.

はじめに、遠隔監視管理サーバ20の車両情報取得部212(図2)が、遠隔監視装置30による監視の対象である複数の(例えば、10台の)自律走行車両60のそれぞれの状態を示す車両情報Ivを取得する(S100)。本実施形態では、車両情報Ivにより示される自律走行車両60の状態は、自律走行車両60の位置と向きと速度とを含む。車両情報取得部212は、各自律走行車両60のセンサ66等により検出された自律走行車両60の状態を示す車両情報Ivを、各自律走行車両60から直接的に取得してもよい。また、車両情報Ivが自律走行車両60以外の他の装置(例えば、遠隔監視装置30)の記憶部に格納されている場合には、車両情報取得部212は、該格納された車両情報Ivを取得してもよい。 First, the vehicle information acquisition unit 212 (FIG. 2) of the remote monitoring management server 20 indicates vehicle information indicating the state of each of a plurality of (for example, 10) autonomous traveling vehicles 60 to be monitored by the remote monitoring device 30. Acquire Iv (S100). In the present embodiment, the state of the autonomous traveling vehicle 60 indicated by the vehicle information Iv includes the position, direction, and speed of the autonomous traveling vehicle 60. The vehicle information acquisition unit 212 may directly acquire the vehicle information Iv indicating the state of the autonomous traveling vehicle 60 detected by the sensor 66 or the like of each autonomous traveling vehicle 60 from each autonomous traveling vehicle 60. Further, when the vehicle information Iv is stored in the storage unit of a device other than the autonomous traveling vehicle 60 (for example, the remote monitoring device 30), the vehicle information acquisition unit 212 stores the stored vehicle information Iv. You may get it.

また、遠隔監視管理サーバ20の経路情報取得部213(図2)が、該複数の自律走行車両60のそれぞれの走行予定経路PAを示す経路情報Ipを取得する(S110)。経路情報取得部213は、各自律走行車両60から直接的に経路情報Ipを取得してもよい。また、経路情報Ipが自律走行車両60以外の他の装置(例えば、遠隔監視装置30)の記憶部に格納されている場合には、経路情報取得部213は、該格納された経路情報Ipを取得してもよい。 Further, the route information acquisition unit 213 (FIG. 2) of the remote monitoring management server 20 acquires the route information Ip indicating the planned travel route PA of each of the plurality of autonomous traveling vehicles 60 (S110). The route information acquisition unit 213 may acquire the route information Ip directly from each autonomous traveling vehicle 60. Further, when the route information Ip is stored in the storage unit of a device other than the autonomous traveling vehicle 60 (for example, the remote monitoring device 30), the route information acquisition unit 213 stores the stored route information Ip. You may get it.

また、遠隔監視管理サーバ20の周辺物体情報取得部214(図2)が、該複数の自律走行車両60のそれぞれの周辺物体OBの状態を示す周辺物体情報Ioを取得する(S120)。本実施形態では、周辺物体情報Ioにより示される周辺物体OBの状態は、周辺物体OBの位置と向きと速度とを含む。周辺物体情報取得部214は、各自律走行車両60のセンサ66等により検出された周辺物体OBの状態を示す周辺物体情報Ioを、各自律走行車両60から直接的に取得してもよい。また、周辺物体情報取得部214は、各自律走行車両60の位置を示す位置情報を取得し、記憶部220に格納された地図情報221を参照して、各自律走行車両60の位置における周辺物体OBの状態を示す周辺物体情報Ioを取得してもよい。 Further, the peripheral object information acquisition unit 214 (FIG. 2) of the remote monitoring management server 20 acquires peripheral object information Io indicating the state of each peripheral object OB of the plurality of autonomous traveling vehicles 60 (S120). In the present embodiment, the state of the peripheral object OB indicated by the peripheral object information Io includes the position, direction, and velocity of the peripheral object OB. The peripheral object information acquisition unit 214 may directly acquire peripheral object information Io indicating the state of the peripheral object OB detected by the sensor 66 or the like of each autonomous traveling vehicle 60 from each autonomous traveling vehicle 60. Further, the peripheral object information acquisition unit 214 acquires position information indicating the position of each autonomous traveling vehicle 60, refers to the map information 221 stored in the storage unit 220, and refers to the peripheral object at the position of each autonomous traveling vehicle 60. Peripheral object information Io indicating the state of OB may be acquired.

このように、車両情報Ivの取得処理(S100)と経路情報Ipの取得処理(S110)と周辺物体情報Ioの取得処理(S120)とが実行されることにより、遠隔監視管理サーバ20の遠隔監視管理部211(図2)は、図4に示すように、各自律走行車両60の状態(位置、向き、速度)と走行予定経路PAと周辺物体OBの状態(位置、向き、速度)とを認識することができる。なお、車両情報Ivの取得処理(S100)と経路情報Ipの取得処理(S110)と周辺物体情報Ioの取得処理(S120)との実行順序は任意に設定可能であり、また、2つまたは3つの処理が同時に実行されてもよい。 In this way, the remote monitoring of the remote monitoring management server 20 is performed by executing the vehicle information Iv acquisition process (S100), the route information Ip acquisition process (S110), and the peripheral object information Io acquisition process (S120). As shown in FIG. 4, the management unit 211 (FIG. 2) determines the state (position, direction, speed) of each autonomous traveling vehicle 60, the planned travel route PA, and the state (position, direction, speed) of the peripheral object OB. Can be recognized. The execution order of the vehicle information Iv acquisition process (S100), the route information Ip acquisition process (S110), and the peripheral object information Io acquisition process (S120) can be arbitrarily set, and two or three can be set arbitrarily. Two processes may be executed at the same time.

次に、遠隔監視管理サーバ20の変換部215(図2)が、複数の自律走行車両60のそれぞれについて、走行予定経路PAおよび周辺物体OBの状態(位置、向き、速度等)の変換処理を行う(S130)。この変換処理は、走行予定経路PAと周辺物体OBの状態との相対関係が維持されるように、予め定められた基準形状への走行予定経路PAの変換と周辺物体OBの状態の変換とを実行する処理である。本実施形態では、基準形状は直線形状である。そのため、走行予定経路PAは直線形状に変換される。図5のA,B欄には、それぞれ、図4のA,B欄に示された自律走行車両60a,60bについて、直線形状に変換された走行予定経路PA(以下、「基準走行予定経路PAx」という。)と、変換後の周辺物体OBの状態(位置および向き)とが示されている。このような変換は、例えば、変換前の走行予定経路PAを所定のピッチで離散化した各点について、直線形状の基準走行予定経路PAx上の1点への変換行列を求め、該変換行列を用いて周辺物体OBの状態(位置および向き)を変換することにより実現することができる。また、変換後の周辺物体OBの状態は、上述した変換前の走行予定経路PAを所定のピッチで離散化した各点について求められた変換後の周辺物体OBの状態を重畳したヒートマップとして表されてもよいし、変換前の走行予定経路PAにおける周辺物体OBに最も近い点について求められた変換後の周辺物体OBの状態として表されてもよい。 Next, the conversion unit 215 (FIG. 2) of the remote monitoring management server 20 performs conversion processing of the states (position, direction, speed, etc.) of the planned travel route PA and the peripheral object OB for each of the plurality of autonomous traveling vehicles 60. Do (S130). In this conversion process, the conversion of the planned travel path PA to the predetermined reference shape and the conversion of the state of the peripheral object OB are performed so that the relative relationship between the planned travel path PA and the state of the peripheral object OB is maintained. This is the process to be executed. In this embodiment, the reference shape is a linear shape. Therefore, the planned travel route PA is converted into a linear shape. In the columns A and B of FIG. 5, for the autonomous traveling vehicles 60a and 60b shown in the columns A and B of FIG. 4, the planned traveling route PA converted into a linear shape (hereinafter, "reference planned traveling route PAx"). ”) And the state (position and orientation) of the peripheral object OB after conversion are shown. In such a conversion, for example, for each point where the planned travel path PA before conversion is discretized at a predetermined pitch, a conversion matrix to one point on the reference travel route PAx having a linear shape is obtained, and the transformation matrix is used. It can be realized by converting the state (position and orientation) of the peripheral object OB by using it. Further, the state of the peripheral object OB after the conversion is shown as a heat map in which the state of the peripheral object OB after the conversion obtained for each point where the above-mentioned planned travel path PA before the conversion is discretized at a predetermined pitch is superimposed. It may be expressed as the state of the peripheral object OB after the conversion obtained for the point closest to the peripheral object OB in the planned travel route PA before the conversion.

次に、遠隔監視管理サーバ20の画像生成部216(図2)が、監視画像MIを生成する(S140)。図6には、監視画像MIの一例が示されている。図6に示すように、監視画像MIは、各自律走行車両60についての変換後の走行予定経路PA(基準走行予定経路PAx)および周辺物体OBの状態を、俯瞰的に示す画像である。すなわち、監視画像MIは、遠隔監視装置30(監視者MO)の監視対象であるすべての自律走行車両60についての基準走行予定経路PAxとすべての周辺物体OBの状態とが、集合的に示された画像である。例えば、図6に示すように、監視画像MIには、一の自律走行車両60aの周囲に存在する周辺物体OB1,OB2と、他の一の自律走行車両60bの周囲に存在する周辺物体OB3,OB4とが示されている。 Next, the image generation unit 216 (FIG. 2) of the remote monitoring management server 20 generates the monitoring image MI (S140). FIG. 6 shows an example of the surveillance image MI. As shown in FIG. 6, the monitoring image MI is an image showing the state of the converted travel schedule route PA (reference travel schedule route PAx) and the peripheral object OB for each autonomous traveling vehicle 60 from a bird's-eye view. That is, in the monitoring image MI, the reference travel schedule route PAx and the states of all peripheral objects OB for all the autonomous traveling vehicles 60 to be monitored by the remote monitoring device 30 (monitorer MO) are collectively shown. It is an image. For example, as shown in FIG. 6, in the surveillance image MI, the peripheral objects OB1 and OB2 existing around one autonomous traveling vehicle 60a and the peripheral objects OB3 existing around the other autonomous traveling vehicle 60b are shown. OB4 is shown.

ただし、本実施形態では、監視画像MIは、各自律走行車両60の基準走行予定経路PAxが、各自律走行車両60の現在位置を基準点として互いに重なるように示された画像である。すなわち、画像生成部216は、各自律走行車両60の基準走行予定経路PAxにおける各自律走行車両60の現在位置を互いに一致させ、かつ、各自律走行車両60の基準走行予定経路PAxの延伸方向も互いに一致させることにより、監視画像MIを生成する。そのため、監視画像MIに実際に示される基準走行予定経路PAxは、1つのみとなる。 However, in the present embodiment, the monitoring image MI is an image shown so that the reference travel schedule path PAx of each autonomous vehicle 60 overlaps with each other with the current position of each autonomous vehicle 60 as a reference point. That is, the image generation unit 216 matches the current positions of the autonomous traveling vehicles 60 with each other in the reference traveling route PAx of the autonomous traveling vehicle 60, and also extends the extension direction of the reference traveling route PAx of the autonomous traveling vehicle 60. By matching with each other, the surveillance image MI is generated. Therefore, the reference travel route PAx actually shown in the monitoring image MI is only one.

また、本実施形態では、監視画像MIは、自律走行車両60の速度に基づき導かれる時間距離のスケールが、各自律走行車両60について揃うように表現された画像である。この点について、以下説明する。 Further, in the present embodiment, the surveillance image MI is an image expressed so that the scale of the time distance derived based on the speed of the autonomous traveling vehicle 60 is aligned for each autonomous traveling vehicle 60. This point will be described below.

図5のA,B欄には、警戒領域ARが破線で示されている。警戒領域ARは、該領域に周辺物体OBが存在すると、該周辺物体OBと走行予定経路PA(基準走行予定経路PAx)を走行する自律走行車両60との衝突のおそれがあるような領域である。本実施形態では、警戒領域ARは、基準走行予定経路PAxに沿って所定の幅(基準走行予定経路PAxに直交する方向の幅)を有する領域として設定される。警戒領域ARの幅は、自律走行車両60の速度に基づき決められる。具体的には、時間距離のスケールを揃えるために、自律走行車両60の速度が速いほど、警戒領域ARの幅は大きく設定される。 In the columns A and B of FIG. 5, the caution area AR is indicated by a broken line. The caution area AR is an area in which if a peripheral object OB exists in the area, there is a risk of collision between the peripheral object OB and the autonomous traveling vehicle 60 traveling on the planned travel route PA (reference travel schedule PAx). .. In the present embodiment, the warning area AR is set as a region having a predetermined width (width in a direction orthogonal to the reference travel schedule path PAx) along the reference travel schedule route PAx. The width of the warning area AR is determined based on the speed of the autonomous traveling vehicle 60. Specifically, in order to align the scale of the time distance, the faster the speed of the autonomous traveling vehicle 60, the larger the width of the warning area AR is set.

画像生成部216は、監視画像MIを生成する際に、各自律走行車両60について設定された警戒領域ARの幅を揃えることにより、時間距離のスケールを揃える。より詳細には、図6に示すように、監視画像MIには、1つの警戒領域AR(以下、「基準警戒領域AR0」という。)が示されている。画像生成部216は、監視画像MIを生成する際に、各自律走行車両60について、警戒領域ARの幅を基準警戒領域AR0の幅に変換し、それに合わせて周辺物体OBの状態(位置等)も変換する。例えば、図5のB欄に示された比較的低速で走行している自律走行車両60(自律走行車両60b)については、警戒領域ARの幅が比較的狭い。この警戒領域ARの幅が基準警戒領域AR0の幅より狭いとすると、監視画像MIの生成の際に、警戒領域ARと周辺物体OBとの相対位置関係が維持されるように、周辺物体OBが実際の位置より基準走行予定経路PAxから離れた位置に配置される。反対に、例えば、図5のA欄に示された比較的高速で走行している自律走行車両60(自律走行車両60a)については、警戒領域ARの幅が比較的広い。この警戒領域ARの幅が基準警戒領域AR0の幅より広いとすると、監視画像MIの生成の際に、警戒領域ARと周辺物体OBとの相対位置関係が維持されるように、周辺物体OBが実際の位置より基準走行予定経路PAxに近い位置に配置される。このようにして監視画像MIが生成されることにより、各自律走行車両60についての時間距離のスケールが揃うこととなる。 The image generation unit 216 aligns the scale of the time distance by aligning the widths of the warning areas AR set for each autonomous traveling vehicle 60 when generating the surveillance image MI. More specifically, as shown in FIG. 6, the surveillance image MI shows one warning area AR (hereinafter, referred to as “reference warning area AR0”). When generating the surveillance image MI, the image generation unit 216 converts the width of the warning area AR into the width of the reference warning area AR0 for each autonomous vehicle 60, and the state (position, etc.) of the peripheral object OB accordingly. Also convert. For example, for the autonomous traveling vehicle 60 (autonomous traveling vehicle 60b) traveling at a relatively low speed shown in column B of FIG. 5, the width of the warning area AR is relatively narrow. Assuming that the width of the warning area AR is narrower than the width of the reference warning area AR0, the peripheral object OB maintains the relative positional relationship between the warning area AR and the peripheral object OB when the surveillance image MI is generated. It is placed at a position farther from the reference travel route PAx than the actual position. On the contrary, for example, for the autonomous traveling vehicle 60 (autonomous traveling vehicle 60a) traveling at a relatively high speed shown in the column A of FIG. 5, the width of the warning area AR is relatively wide. Assuming that the width of the warning area AR is wider than the width of the reference warning area AR0, the peripheral object OB maintains the relative positional relationship between the warning area AR and the peripheral object OB when the surveillance image MI is generated. It is arranged at a position closer to the reference travel route PAx than the actual position. By generating the monitoring image MI in this way, the scales of the time distances for each autonomous traveling vehicle 60 are aligned.

このようにして生成された監視画像MIは、遠隔監視装置30(監視者MO)による遠隔監視の対象であるすべての自律走行車両60の周辺に位置するすべての周辺物体OBの状態が、1つの直線形状の基準走行予定経路PAxの周囲に、時間距離のスケールが揃った状態で示された画像となる。すなわち、監視画像MIは、あたかも1台の自律走行車両60の遠隔監視を行っているような画像となる。 The surveillance image MI generated in this way has one state of all peripheral objects OB located around all autonomous traveling vehicles 60 that are the targets of remote monitoring by the remote monitoring device 30 (monitorer MO). The image is shown with the time and distance scales aligned around the linear reference travel route PAx. That is, the surveillance image MI is an image as if one autonomous traveling vehicle 60 is being remotely monitored.

次に、遠隔監視管理サーバ20の表示制御部217(図2)が、生成された監視画像MIを、遠隔監視装置30の表示装置32に表示させる(S150)。監視者MOは、表示装置32に表示された監視画像MIを参照して、あたかも1台の自律走行車両60の遠隔監視を行うように、複数の自律走行車両60の遠隔監視を同時に行う。 Next, the display control unit 217 (FIG. 2) of the remote monitoring management server 20 causes the generated monitoring image MI to be displayed on the display device 32 of the remote monitoring device 30 (S150). The observer MO refers to the monitoring image MI displayed on the display device 32, and simultaneously performs remote monitoring of a plurality of autonomous traveling vehicles 60 as if remote monitoring of one autonomous traveling vehicle 60 is performed.

遠隔監視管理サーバ20の遠隔監視管理部211(図2)は、遠隔監視装置30の表示装置32に監視画像MIが表示された状態において、監視者MOにより周辺物体OBの選択がなされたか否かを監視する(S160)。周辺物体OBの選択は、例えば、表示装置32に表示された監視画像MI上で、遠隔監視装置30のユーザインターフェースを介して、1つの周辺物体OBまたはその周辺が指定されることにより実現される。監視者MOは、例えば、監視画像MIにおいて基準警戒領域AR0に進入した(あるいは、進入しそうな)周辺物体OBを選択するなど、自律走行車両60の自律走行に支障となり得る周辺物体OBを選択することができる。 In the remote monitoring management unit 211 (FIG. 2) of the remote monitoring management server 20, whether or not the peripheral object OB has been selected by the observer MO while the monitoring image MI is displayed on the display device 32 of the remote monitoring device 30. Is monitored (S160). The selection of the peripheral object OB is realized, for example, by designating one peripheral object OB or its surroundings on the surveillance image MI displayed on the display device 32 via the user interface of the remote monitoring device 30. .. The observer MO selects a peripheral object OB that may interfere with the autonomous traveling of the autonomous traveling vehicle 60, for example, selecting a peripheral object OB that has entered (or is likely to enter) the reference warning area AR0 in the surveillance image MI. be able to.

S160において、監視者MOにより周辺物体OBの選択がなされたと判定された場合には(S160:YES)、遠隔監視管理サーバ20の表示制御部217(図2)は、選択された周辺物体OBについての詳細画像を遠隔監視装置30の表示装置32に表示させる(S170)。選択された周辺物体OBについての詳細画像としては、例えば、選択された周辺物体OBに対応する自律走行車両60(該周辺物体OBに近付きつつある自律走行車両60)のセンサ66(例えばカメラ)により取得された画像(映像)や、選択された周辺物体OBの位置する領域の拡大地図等が用いられる。表示装置32において、周辺物体OBについての詳細画像は、監視画像MIと並べて表示されてもよいし、監視画像MIに重畳して表示されたり、監視画像MIと切り替えて表示されたり、監視画像MIの一部として表示されたりしてもよい。監視者MOは、表示装置32に表示された周辺物体OBについての詳細画像を参照して、該周辺物体OBに関して、自律走行車両60の制御に対する介入の要否を判断したり、実際の介入を実行したりすることができる。 When it is determined in S160 that the peripheral object OB has been selected by the observer MO (S160: YES), the display control unit 217 (FIG. 2) of the remote monitoring management server 20 determines the selected peripheral object OB. The detailed image of is displayed on the display device 32 of the remote monitoring device 30 (S170). As a detailed image of the selected peripheral object OB, for example, the sensor 66 (for example, a camera) of the autonomous traveling vehicle 60 (autonomous traveling vehicle 60 approaching the peripheral object OB) corresponding to the selected peripheral object OB is used. The acquired image (video), an enlarged map of the area where the selected peripheral object OB is located, and the like are used. In the display device 32, the detailed image of the peripheral object OB may be displayed side by side with the monitoring image MI, may be displayed superimposed on the monitoring image MI, may be displayed by switching to the monitoring image MI, or may be displayed by switching to the monitoring image MI. It may be displayed as part of. The observer MO refers to the detailed image of the peripheral object OB displayed on the display device 32, determines the necessity of intervention for the control of the autonomous traveling vehicle 60 with respect to the peripheral object OB, or performs an actual intervention. You can do it.

遠隔監視管理サーバ20の表示制御部217(図2)は、遠隔監視装置30の表示装置32に周辺物体OBについての詳細画像が表示された状態において、該詳細画像の表示終了指示がなされたか否かを監視し(S180)、該詳細画像の表示終了指示がなされたと判定された場合に(S180:YES)、該詳細画像の表示を終了する(S190)。 The display control unit 217 (FIG. 2) of the remote monitoring management server 20 is in a state where the detailed image of the peripheral object OB is displayed on the display device 32 of the remote monitoring device 30, and whether or not the display end instruction of the detailed image is given. (S180), and when it is determined that the instruction to end the display of the detailed image has been given (S180: YES), the display of the detailed image is terminated (S190).

その後、上述したS100以降の処理が繰り返し実行される。すなわち、車両情報Iv、経路情報Ipおよび周辺物体情報Ioの取得が行われることによって、自律走行車両60の現在位置や走行予定経路PA、周辺物体OBの状態が更新され、それに伴い監視画像MIが更新される。例えば、ある自律走行車両60の進行方向付近に位置する周辺物体OBが、走行予定経路PAに近付くように移動した場合には、監視画像MIにおいて、該周辺物体OBが基準走行予定経路PAxのより近くの位置に示されるように、監視画像MIが更新される。また、ある自律走行車両60が加速した場合には、該自律走行車両60についての時間距離が短くなるため、該自律走行車両60の進行方向付近に位置して停止している周辺物体OBが基準走行予定経路PAxのより近くの位置に示されるように、監視画像MIが更新される。反対に、ある自律走行車両60が減速した場合には、該自律走行車両60についての時間距離が長くなるため、該自律走行車両60の進行方向付近に位置して停止している周辺物体OBが基準走行予定経路PAxからより離れた位置に示されるように、監視画像MIが更新される。 After that, the above-mentioned processes after S100 are repeatedly executed. That is, by acquiring the vehicle information Iv, the route information Ip, and the peripheral object information Io, the current position of the autonomous traveling vehicle 60, the planned travel route PA, and the state of the peripheral object OB are updated, and the monitoring image MI is updated accordingly. Will be updated. For example, when a peripheral object OB located near the traveling direction of a certain autonomous traveling vehicle 60 moves so as to approach the planned traveling route PA, the peripheral object OB is based on the reference traveling route PAx in the monitoring image MI. The surveillance image MI is updated as shown at a nearby location. Further, when a certain autonomous traveling vehicle 60 accelerates, the time distance of the autonomous traveling vehicle 60 becomes shorter, so that the peripheral object OB located near the traveling direction of the autonomous traveling vehicle 60 is used as a reference. The surveillance image MI is updated as shown at a position closer to the planned travel route PAx. On the contrary, when a certain autonomous traveling vehicle 60 decelerates, the time distance of the autonomous traveling vehicle 60 becomes long, so that the peripheral object OB located near the traveling direction of the autonomous traveling vehicle 60 is stopped. The surveillance image MI is updated so as to be shown at a position farther from the reference travel route PAx.

また、S160において、周辺物体OBの選択がなされなかったと判定された場合には(S160:NO)、遠隔監視管理サーバ20の遠隔監視管理部211(図2)が、遠隔監視管理処理の終了指示がなされたか否かを判定する(S200)。S200において、遠隔監視管理処理の終了指示がなされなかったと判定された場合には(S200:NO)、上述したS100以降の処理が繰り返し実行される。一方、S200において、遠隔監視管理処理の終了指示がなされたと判定された場合(S200:YES)、遠隔監視管理サーバ20の遠隔監視管理部211(図2)は、遠隔監視管理処理を終了する。 If it is determined in S160 that the peripheral object OB has not been selected (S160: NO), the remote monitoring management unit 211 (FIG. 2) of the remote monitoring management server 20 gives an instruction to end the remote monitoring management process. It is determined whether or not this has been done (S200). If it is determined in S200 that the end instruction of the remote monitoring management process has not been given (S200: NO), the above-mentioned processes after S100 are repeatedly executed. On the other hand, when it is determined in S200 that the instruction to end the remote monitoring management process has been given (S200: YES), the remote monitoring management unit 211 (FIG. 2) of the remote monitoring management server 20 ends the remote monitoring management process.

A-3.本実施形態の効果:
以上説明したように、本実施形態の遠隔監視管理サーバ20は、複数の自律走行車両60の遠隔監視のための情報処理装置である。遠隔監視管理サーバ20は、経路情報取得部213と、周辺物体情報取得部214と、変換部215と、画像生成部216と、表示制御部217とを備える。経路情報取得部213は、各自律走行車両60の走行予定経路PAを示す経路情報Ipを取得する。周辺物体情報取得部214は、各自律走行車両60の周辺物体OBの少なくとも位置を含む状態を示す周辺物体情報Ioを取得する。変換部215は、各自律走行車両60について、走行予定経路PAと周辺物体OBの状態との相対関係が維持されるように、予め定められた基準形状への走行予定経路PAの変換と周辺物体OBの状態の変換とを実行する。画像生成部216は、各自律走行車両60についての変換後の走行予定経路PAおよび周辺物体OBの状態を示す監視画像MIを生成する。表示制御部217は、監視画像MIを表示装置32に表示させる。
A-3. Effect of this embodiment:
As described above, the remote monitoring management server 20 of the present embodiment is an information processing device for remote monitoring of a plurality of autonomous traveling vehicles 60. The remote monitoring management server 20 includes a route information acquisition unit 213, a peripheral object information acquisition unit 214, a conversion unit 215, an image generation unit 216, and a display control unit 217. The route information acquisition unit 213 acquires the route information Ip indicating the planned travel route PA of each autonomous traveling vehicle 60. The peripheral object information acquisition unit 214 acquires peripheral object information Io indicating a state including at least the position of the peripheral object OB of each autonomous traveling vehicle 60. The conversion unit 215 converts the planned travel route PA into a predetermined reference shape and peripheral objects so that the relative relationship between the planned travel route PA and the state of the peripheral object OB is maintained for each autonomous traveling vehicle 60. Performs OB state conversion and. The image generation unit 216 generates a monitoring image MI showing the states of the planned travel path PA and the peripheral object OB after conversion for each autonomous traveling vehicle 60. The display control unit 217 causes the display device 32 to display the monitoring image MI.

このように、本実施形態の遠隔監視管理サーバ20によれば、各自律走行車両60について、走行予定経路PAと周辺物体OBの状態との相対関係が維持されるように、予め定められた基準形状への走行予定経路PAの変換と周辺物体OBの状態の変換とが実行され、各自律走行車両60について、変換後の走行予定経路PAおよび周辺物体OBの状態を示す監視画像MIが生成され、監視画像MIが表示装置32に表示される。そのため、監視画像MIにおいて、各自律走行車両60についての走行予定経路PAが、予め定められた基準形状に(互いに同一の形状に)揃えられた状態で示される。従って、各自律走行車両60についての走行予定経路PAがそのまま(すなわち、自律走行車両60毎にばらばらの形状で)示される構成と比較して、監視者MOは、走行予定経路PAと周辺物体OBとの関係を容易に把握することができる。以上のことから、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う際の監視者MOの負担を軽減することができる。 As described above, according to the remote monitoring management server 20 of the present embodiment, a predetermined standard is set so that the relative relationship between the planned travel route PA and the state of the peripheral object OB is maintained for each autonomous traveling vehicle 60. The conversion of the planned travel route PA to the shape and the conversion of the state of the peripheral object OB are executed, and for each autonomous traveling vehicle 60, a monitoring image MI showing the status of the planned travel route PA and the peripheral object OB after conversion is generated. , The monitoring image MI is displayed on the display device 32. Therefore, in the monitoring image MI, the planned travel route PA for each autonomous traveling vehicle 60 is shown in a state of being aligned with a predetermined reference shape (in the same shape as each other). Therefore, the observer MO is compared with the configuration in which the planned travel path PA for each autonomous traveling vehicle 60 is shown as it is (that is, in a disjointed shape for each autonomous traveling vehicle 60), and the observer MO is the planned travel route PA and the peripheral object OB. The relationship with can be easily grasped. From the above, according to the remote monitoring management server 20 of the present embodiment, it is possible to reduce the burden on the observer MO when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60.

また、本実施形態の遠隔監視管理サーバ20により生成される監視画像MIは、各自律走行車両60の変換後の走行予定経路PA(基準走行予定経路PAx)が、各自律走行車両60の現在位置を基準点として互いに重なるように示された画像である。そのため、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う場合であっても、監視者MOは、単一の走行予定経路PA(基準走行予定経路PAx)と各周辺物体OBとの間の関係のみを監視すればよい。従って、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う際の監視者MOの負担を効果的に軽減することができる。 Further, in the monitoring image MI generated by the remote monitoring management server 20 of the present embodiment, the planned travel route PA (reference travel schedule PAx) after conversion of each autonomous travel vehicle 60 is the current position of each autonomous travel vehicle 60. It is an image shown so as to overlap each other with the reference point. Therefore, according to the remote monitoring management server 20 of the present embodiment, even when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60, the observer MO is a single planned travel route. Only the relationship between the PA (reference travel route PAx) and each peripheral object OB needs to be monitored. Therefore, according to the remote monitoring management server 20 of the present embodiment, it is possible to effectively reduce the burden on the observer MO when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60.

また、本実施形態の遠隔監視管理サーバ20により生成される監視画像MIは、自律走行車両60の速度に基づき導かれる時間距離のスケールが、各自律走行車両60について揃うように表現された画像である。そのため、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う場合であっても、監視者MOは、各自律走行車両60の速度差を意識することなく、監視画像MIにおける自律走行車両60の走行予定経路PAと各周辺物体OBとの間の距離に基づき、自律走行車両60の制御への介入の要否を判断することができる。従って、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う際の監視者MOの負担を極めて効果的に軽減することができる。 Further, the surveillance image MI generated by the remote monitoring management server 20 of the present embodiment is an image expressed so that the scale of the time distance derived based on the speed of the autonomous traveling vehicle 60 is aligned for each autonomous traveling vehicle 60. be. Therefore, according to the remote monitoring management server 20 of the present embodiment, even when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60, the observer MO is the autonomous traveling vehicle 60. Judging whether or not intervention in the control of the autonomous vehicle 60 is necessary based on the distance between the planned travel route PA of the autonomous vehicle 60 and each peripheral object OB in the monitoring image MI without being aware of the speed difference. Can be done. Therefore, according to the remote monitoring management server 20 of the present embodiment, the burden on the observer MO when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60 can be extremely effectively reduced. ..

また、本実施形態の遠隔監視管理サーバ20により生成される監視画像MIは、走行予定経路PA(基準走行予定経路PAx)を走行する自律走行車両60との衝突のおそれがある領域である警戒領域ARを示す画像である。そのため、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う場合であっても、監視者MOは、監視画像MIにおける警戒領域ARと各周辺物体OBとの位置関係に基づき、自律走行車両60の制御への介入の要否を容易に判断することができる。従って、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う際の監視者MOの負担を極めて効果的に軽減することができる。 Further, the monitoring image MI generated by the remote monitoring management server 20 of the present embodiment is a warning area which is an area where there is a possibility of collision with the autonomous traveling vehicle 60 traveling on the planned traveling route PA (reference planned traveling route PAx). It is an image showing AR. Therefore, according to the remote monitoring management server 20 of the present embodiment, even when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60, the observer MO is a warning area in the monitoring image MI. Based on the positional relationship between the AR and each peripheral object OB, it is possible to easily determine whether or not intervention in the control of the autonomous traveling vehicle 60 is necessary. Therefore, according to the remote monitoring management server 20 of the present embodiment, the burden on the observer MO when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60 can be extremely effectively reduced. ..

また、本実施形態の遠隔監視管理サーバ20では、表示制御部217は、監視画像MIに含まれる周辺物体OBが選択されたことに応じて、選択された周辺物体OBについての詳細画像を表示装置32に表示させる。そのため、本実施形態の遠隔監視管理サーバ20によれば、監視者MOは、表示装置32に表示された周辺物体OBについての詳細画像を参照して、該周辺物体OBに関して、自律走行車両60の制御に対する介入の要否を判断したり、実際の介入を実行したりすることができる。従って、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う際の監視者MOの負担を軽減しつつ、各自律走行車両60について適切な遠隔監視を行うことができる。 Further, in the remote monitoring management server 20 of the present embodiment, the display control unit 217 displays a detailed image of the selected peripheral object OB in response to the selection of the peripheral object OB included in the monitoring image MI. Display on 32. Therefore, according to the remote monitoring management server 20 of the present embodiment, the observer MO refers to the detailed image of the peripheral object OB displayed on the display device 32, and refers to the peripheral object OB with respect to the autonomous traveling vehicle 60. You can determine the need for control interventions and perform actual interventions. Therefore, according to the remote monitoring management server 20 of the present embodiment, each autonomous traveling vehicle 60 is reduced from the burden on the observer MO when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60. Appropriate remote monitoring can be performed.

また、本実施形態の遠隔監視管理サーバ20では、走行予定経路PAの変換を行う際の基準形状は、直線形状である。すなわち、変換後の走行予定経路PAである基準走行予定経路PAxは、直線形状である。そのため、本実施形態の遠隔監視管理サーバ20によれば、監視者MOは、単純な形状の走行予定経路PA(基準走行予定経路PAx)と各周辺物体OBとの間の関係を監視すればよく、自律走行車両60の制御への介入の要否を容易に判断することができる。従って、本実施形態の遠隔監視管理サーバ20によれば、1人の監視者MOが複数の自律走行車両60の遠隔監視を行う際の監視者MOの負担を効果的に軽減することができる。 Further, in the remote monitoring management server 20 of the present embodiment, the reference shape when converting the planned travel route PA is a linear shape. That is, the reference travel schedule route PAx, which is the travel schedule route PA after conversion, has a linear shape. Therefore, according to the remote monitoring management server 20 of the present embodiment, the observer MO may monitor the relationship between the planned travel route PA (reference travel schedule PAx) having a simple shape and each peripheral object OB. , The necessity of intervention in the control of the autonomous traveling vehicle 60 can be easily determined. Therefore, according to the remote monitoring management server 20 of the present embodiment, it is possible to effectively reduce the burden on the observer MO when one observer MO performs remote monitoring of a plurality of autonomous traveling vehicles 60.

B.変形例:
本明細書で開示される技術は、上述の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の形態に変形することができ、例えば次のような変形も可能である。
B. Modification example:
The technique disclosed in the present specification is not limited to the above-described embodiment, and can be transformed into various forms without departing from the gist thereof, and for example, the following modifications are also possible.

上記実施形態における遠隔監視システム10の構成は、あくまで一例であり、種々変形可能である。例えば、上記実施形態では、遠隔監視管理サーバ20と各遠隔監視装置30とが内部ネットワーク82を介して通信可能に接続されているが、遠隔監視管理サーバ20と各遠隔監視装置30とがインターネット等の外部ネットワークを介して通信可能に接続されていてもよい。また、遠隔監視管理サーバ20が、遠隔監視装置としての機能を有し、監視者MOが遠隔監視管理サーバ20を用いて自律走行車両60の遠隔監視を行ってもよい。 The configuration of the remote monitoring system 10 in the above embodiment is merely an example and can be variously modified. For example, in the above embodiment, the remote monitoring management server 20 and each remote monitoring device 30 are communicably connected via the internal network 82, but the remote monitoring management server 20 and each remote monitoring device 30 are connected to the Internet or the like. It may be connected so as to be communicable via the external network of. Further, the remote monitoring management server 20 may have a function as a remote monitoring device, and the observer MO may perform remote monitoring of the autonomous traveling vehicle 60 using the remote monitoring management server 20.

上記各実施形態において、ハードウェアによって実現されている構成の一部をソフトウェアに置き換えるようにしてもよく、反対に、ソフトウェアによって実現されている構成の一部をハードウェアに置き換えるようにしてもよい。 In each of the above embodiments, a part of the configuration realized by the hardware may be replaced with software, and conversely, a part of the configuration realized by the software may be replaced with hardware. ..

上記実施形態における遠隔監視管理処理の内容は、あくまで一例であり、種々変更可能である。例えば、上記実施形態では、各自律走行車両60の周辺物体OBの状態を示す周辺物体情報Ioが、周辺物体OBの位置と向きと速度とを示す情報を含んでいるが、周辺物体情報Ioは、周辺物体OBの少なくとも位置を示す情報を含んでいればよく、周辺物体OBの向きと速度との少なくとも一方を示す情報を含んでいなくてもよいし、周辺物体OBの他の状態を示す情報を含んでいてもよい。 The content of the remote monitoring management process in the above embodiment is merely an example and can be changed in various ways. For example, in the above embodiment, the peripheral object information Io indicating the state of the peripheral object OB of each autonomous traveling vehicle 60 includes information indicating the position, direction, and speed of the peripheral object OB, but the peripheral object information Io is included. , It suffices to include information indicating at least the position of the peripheral object OB, and may not include information indicating at least one of the direction and the speed of the peripheral object OB, and indicates another state of the peripheral object OB. It may contain information.

上記実施形態では、各自律走行車両60の走行予定経路PAが直線形状に変換されているが、各自律走行車両60の走行予定経路PAが直線形状以外の予め定められた基準形状(例えば、円形状や螺旋形状等)に変換されてもよい。 In the above embodiment, the planned travel path PA of each autonomous vehicle 60 is converted into a linear shape, but the planned travel route PA of each autonomous vehicle 60 has a predetermined reference shape (for example, a circle) other than the linear shape. It may be converted into a shape, a spiral shape, etc.).

上記実施形態では、監視画像MIの生成の際に、自律走行車両60の速度に基づき導かれる時間距離のスケールが各自律走行車両60について揃うように、幅方向(基準走行予定経路PAxに直交する方向)における基準走行予定経路PAxと周辺物体OBとの距離を調整しているが、時間距離のスケールを揃える態様はこれに限られない。例えば、監視画像MIの生成の際に、基準走行予定経路PAxに平行な方向における自律走行車両60と周辺物体OBとの距離を調整することにより、時間距離のスケールを揃えてもよい。例えば、監視画像MIにおいて、比較的速度の速い自律走行車両60の進行方向付近に位置する周辺物体OBは自律走行車両60の比較的近くに示され、比較的速度の遅い自律走行車両60の進行方向付近に位置する周辺物体OBは、自律走行車両60から比較的遠くに示されることにより、時間距離のスケールを揃えてもよい。 In the above embodiment, when the monitoring image MI is generated, the scale of the time distance derived based on the speed of the autonomous traveling vehicle 60 is aligned with each autonomous traveling vehicle 60 in the width direction (orthogonal to the reference traveling route PAx). The distance between the reference travel route PAx and the peripheral object OB in the direction) is adjusted, but the mode of aligning the scale of the time distance is not limited to this. For example, when the surveillance image MI is generated, the time distance scale may be aligned by adjusting the distance between the autonomous traveling vehicle 60 and the peripheral object OB in the direction parallel to the reference travel schedule path PAx. For example, in the surveillance image MI, the peripheral object OB located near the traveling direction of the autonomous traveling vehicle 60 having a relatively high speed is shown relatively close to the autonomous traveling vehicle 60, and the traveling of the autonomous traveling vehicle 60 having a relatively slow speed is shown. Peripheral objects OBs located near the direction may be scaled in time and distance by being shown relatively far from the autonomous vehicle 60.

上記実施形態では、監視画像MIは、走行予定経路PAを走行する自律走行車両60との衝突のおそれがある領域である警戒領域ARを示す画像であるが、必ずしも監視画像MIに警戒領域ARが示される必要はない。また、本実施形態では、監視画像MIは、自律走行車両60の速度に基づき導かれる時間距離のスケールが、各自律走行車両60について揃うように表現された画像であるが、必ずしも監視画像MIにおいて各自律走行車両60についての時間距離のスケールが揃えられる必要はない。例えば、監視画像MIは、各自律走行車両60についての時間距離のスケールを揃える処理が行われることなく、各自律走行車両60についての基準走行予定経路PAxおよび周辺物体OBの状態がそのまま併合された画像であるとしてもよい。また、本実施形態では、監視画像MIは、各自律走行車両60の変換後の走行予定経路PAが、各自律走行車両60の現在位置を基準点として互いに重なるように示された画像であるが、必ずしも監視画像MIにおいて各自律走行車両60の変換後の走行予定経路PAが互いに重なるように示される必要はない。例えば、監視画像MIは、各自律走行車両60についての基準走行予定経路PAxおよび周辺物体OBの状態を、個別に示す画像であるとしてもよい。また、上記実施形態では、監視画像MIは、各自律走行車両60についての基準走行予定経路PAxおよび周辺物体OBの状態を俯瞰的に示す画像であるが、監視画像MIの表示態様はこれに限られない。例えば、監視画像MIは、基準走行予定経路PAxおよび周辺物体OBの状態を3次元的に示す画像(例えば、仮想的な車両の運転席からの視界を模擬した画像)であってもよい。その場合には、基準走行予定経路PAxが、3次元的に示された画像において基準形状(例えば、直線形状)に見えるように示される。 In the above embodiment, the surveillance image MI is an image showing the warning area AR which is an area where there is a possibility of collision with the autonomous traveling vehicle 60 traveling on the planned travel route PA, but the monitoring image MI does not necessarily include the warning area AR. It does not need to be shown. Further, in the present embodiment, the surveillance image MI is an image expressed so that the scale of the time distance derived based on the speed of the autonomous traveling vehicle 60 is aligned for each autonomous traveling vehicle 60, but the surveillance image MI is not necessarily used. It is not necessary for the time distance scales for each autonomous vehicle 60 to be aligned. For example, in the surveillance image MI, the states of the reference travel schedule path PAx and the peripheral object OB for each autonomous vehicle 60 are merged as they are without the processing of aligning the time distance scales for each autonomous vehicle 60. It may be an image. Further, in the present embodiment, the monitoring image MI is an image showing that the converted travel schedule paths PA of each autonomous vehicle 60 overlap each other with the current position of each autonomous vehicle 60 as a reference point. , It is not always necessary to show in the monitoring image MI that the converted travel schedule paths PA of each autonomous vehicle 60 overlap each other. For example, the surveillance image MI may be an image individually showing the states of the reference travel schedule path PAx and the peripheral object OB for each autonomous traveling vehicle 60. Further, in the above embodiment, the surveillance image MI is an image showing the state of the reference travel schedule path PAx and the peripheral object OB for each autonomous traveling vehicle 60 from a bird's-eye view, but the display mode of the surveillance image MI is limited to this. I can't. For example, the surveillance image MI may be an image (for example, an image simulating the view from the driver's seat of a virtual vehicle) showing the states of the reference travel route PAx and the peripheral object OB in three dimensions. In that case, the reference travel route PAx is shown so as to appear as a reference shape (for example, a linear shape) in the image shown three-dimensionally.

また、上記実施形態では、複数の自律走行車両60の遠隔監視を例に用いて説明しているが、本明細書に開示される技術は、例えば自律走行ロボットのように、自律的に走行する車両以外の移動体の遠隔監視にも同様に適用可能である。 Further, in the above embodiment, the remote monitoring of a plurality of autonomous traveling vehicles 60 is described as an example, but the technology disclosed in the present specification autonomously travels like, for example, an autonomous traveling robot. It can also be applied to remote monitoring of moving objects other than vehicles.

10:遠隔監視システム 20:遠隔監視管理サーバ 30:遠隔監視装置 32:表示装置 40:ネットワーク通信装置 60:自律走行車両 62:自律走行制御部 64:通信部 66:センサ 68:駆動部 82:内部ネットワーク 84:外部ネットワーク 210:制御部 211:遠隔監視管理部 212:車両情報取得部 213:経路情報取得部 214:周辺物体情報取得部 215:変換部 216:画像生成部 217:表示制御部 220:記憶部 221:地図情報 230:表示部 240:操作入力部 250:インターフェース部 290:バス AR0:基準警戒領域 AR:警戒領域 CP:遠隔監視管理プログラム Io:周辺物体情報 Ip:経路情報 MI:監視画像 MO:監視者 OB:周辺物体 PA:走行予定経路 PAx:基準走行予定経路 10: Remote monitoring system 20: Remote monitoring management server 30: Remote monitoring device 32: Display device 40: Network communication device 60: Autonomous traveling vehicle 62: Autonomous driving control unit 64: Communication unit 66: Sensor 68: Drive unit 82: Internal Network 84: External network 210: Control unit 211: Remote monitoring management unit 212: Vehicle information acquisition unit 213: Route information acquisition unit 214: Peripheral object information acquisition unit 215: Conversion unit 216: Image generation unit 217: Display control unit 220: Storage unit 221: Map information 230: Display unit 240: Operation input unit 250: Interface unit 290: Bus AR0: Reference alert area AR: Alert area CP: Remote monitoring management program Io: Peripheral object information Ip: Route information MI: Monitoring image MO: Observer OB: Peripheral object PA: Scheduled travel route PAx: Reference planned travel route

Claims (8)

複数の自律走行移動体の遠隔監視のための情報処理装置であって、
各前記自律走行移動体の走行予定経路を示す経路情報を取得する経路情報取得部と、
各前記自律走行移動体の周辺物体の少なくとも位置を含む状態を示す周辺物体情報を取得する周辺物体情報取得部と、
各前記自律走行移動体について、前記走行予定経路と前記周辺物体の状態との相対関係が維持されるように、予め定められた基準形状への前記走行予定経路の変換と前記周辺物体の状態の変換とを実行する変換部と、
各前記自律走行移動体についての前記変換後の前記走行予定経路および前記周辺物体の状態を示す監視画像を生成する画像生成部と、
前記監視画像を表示装置に表示させる表示制御部と、
を備える、情報処理装置。
An information processing device for remote monitoring of multiple autonomous moving objects.
A route information acquisition unit that acquires route information indicating a planned travel route of each autonomous traveling vehicle, and a route information acquisition unit.
A peripheral object information acquisition unit that acquires peripheral object information indicating a state including at least the position of the peripheral object of each autonomous traveling moving body, and a peripheral object information acquisition unit.
For each of the autonomous traveling bodies, the conversion of the planned traveling route to a predetermined reference shape and the state of the peripheral object so that the relative relationship between the planned traveling route and the state of the peripheral object is maintained. A converter that performs conversions, and
An image generation unit that generates a monitoring image showing the state of the planned travel route and the peripheral objects after the conversion for each autonomous traveling vehicle, and an image generation unit.
A display control unit that displays the monitoring image on the display device,
An information processing device equipped with.
請求項1に記載の情報処理装置であって、
前記監視画像は、各前記自律走行移動体の前記変換後の前記走行予定経路が、各前記自律走行移動体の現在位置を基準点として互いに重なるように示された画像である、情報処理装置。
The information processing apparatus according to claim 1.
The monitoring image is an information processing device, which is an image in which the converted travel schedule of each autonomous traveling vehicle is shown to overlap each other with the current position of each autonomous traveling vehicle as a reference point.
請求項2に記載の情報処理装置であって、さらに、
各前記自律走行移動体の少なくとも速度を含む状態を示す車両情報を取得する車両情報取得部を備え、
前記監視画像は、前記自律走行移動体の速度に基づき導かれる時間距離のスケールが、各前記自律走行移動体について揃うように表現された画像である、情報処理装置。
The information processing apparatus according to claim 2, further
A vehicle information acquisition unit for acquiring vehicle information indicating a state including at least a speed of each of the autonomous traveling moving bodies is provided.
The monitoring image is an information processing device, which is an image in which the scale of the time distance derived based on the speed of the autonomous traveling vehicle is expressed so as to be aligned for each of the autonomous traveling vehicles.
請求項3に記載の情報処理装置であって、
前記監視画像は、前記走行予定経路を走行する前記自律走行移動体との衝突のおそれがある警戒領域を示す画像である、情報処理装置。
The information processing apparatus according to claim 3.
The monitoring image is an information processing device which is an image showing a warning area where there is a possibility of collision with the autonomous traveling moving body traveling on the planned traveling route.
請求項1から請求項4までのいずれか一項に記載の情報処理装置であって、
前記表示制御部は、前記監視画像に含まれる前記周辺物体が選択されたことに応じて、選択された前記周辺物体についての詳細画像を前記表示装置に表示させる、情報処理装置。
The information processing apparatus according to any one of claims 1 to 4.
The display control unit is an information processing device that causes the display device to display a detailed image of the selected peripheral object in response to the selection of the peripheral object included in the monitoring image.
請求項1から請求項5までのいずれか一項に記載の情報処理装置であって、
前記基準形状は、直線形状である、情報処理装置。
The information processing apparatus according to any one of claims 1 to 5.
The information processing device whose reference shape is a linear shape.
複数の自律走行移動体の遠隔監視のための情報処理方法であって、
各前記自律走行移動体の走行予定経路を示す経路情報を取得する工程と、
各前記自律走行移動体の周辺物体の少なくとも位置を含む状態を示す周辺物体情報を取得する工程と、
各前記自律走行移動体について、前記走行予定経路と前記周辺物体の状態との相対関係が維持されるように、予め定められた基準形状への前記走行予定経路の変換と前記周辺物体の状態の変換とを実行する工程と、
各前記自律走行移動体についての前記変換後の前記走行予定経路および前記周辺物体の状態を示す監視画像を生成する工程と、
前記監視画像を表示装置に表示させる工程と、
を備える、情報処理方法。
It is an information processing method for remote monitoring of multiple autonomous moving objects.
A process of acquiring route information indicating a planned travel route of each autonomous traveling vehicle, and
A step of acquiring peripheral object information indicating a state including at least a position of a peripheral object of each autonomous traveling moving body, and a step of acquiring peripheral object information.
For each of the autonomous traveling moving bodies, the conversion of the planned traveling route to a predetermined reference shape and the state of the peripheral object so that the relative relationship between the planned traveling route and the state of the peripheral object is maintained. The process of performing the conversion and
A step of generating a monitoring image showing the state of the planned travel route and the peripheral objects after the conversion for each autonomous traveling vehicle, and a step of generating a monitoring image.
The process of displaying the monitoring image on the display device and
Information processing method.
複数の自律走行移動体の遠隔監視のためのコンピュータプログラムであって、
コンピュータに、
各前記自律走行移動体の走行予定経路を示す経路情報を取得する処理と、
各前記自律走行移動体の周辺物体の少なくとも位置を含む状態を示す周辺物体情報を取得する処理と、
各前記自律走行移動体について、前記走行予定経路と前記周辺物体の状態との相対関係が維持されるように、予め定められた基準形状への前記走行予定経路の変換と前記周辺物体の状態の変換とを実行する処理と、
各前記自律走行移動体についての前記変換後の前記走行予定経路および前記周辺物体の状態を示す監視画像を生成する処理と、
前記監視画像を表示装置に表示させる処理と、
を実行させる、コンピュータプログラム。
A computer program for remote monitoring of multiple autonomous moving objects.
On the computer
Processing to acquire route information indicating the planned travel route of each autonomous traveling vehicle, and
The process of acquiring peripheral object information indicating a state including at least the position of the peripheral object of each autonomous traveling moving body, and
For each of the autonomous traveling bodies, the conversion of the planned traveling route to a predetermined reference shape and the state of the peripheral object so that the relative relationship between the planned traveling route and the state of the peripheral object is maintained. The process of performing the conversion and
A process of generating a monitoring image showing the state of the planned travel route and the peripheral objects after the conversion for each autonomous traveling vehicle, and a process of generating a monitoring image.
The process of displaying the surveillance image on the display device and
A computer program that runs.
JP2020122834A 2020-07-17 2020-07-17 Information processing device, information processing method, and computer program Active JP7477821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020122834A JP7477821B2 (en) 2020-07-17 2020-07-17 Information processing device, information processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020122834A JP7477821B2 (en) 2020-07-17 2020-07-17 Information processing device, information processing method, and computer program

Publications (2)

Publication Number Publication Date
JP2022019163A true JP2022019163A (en) 2022-01-27
JP7477821B2 JP7477821B2 (en) 2024-05-02

Family

ID=80203562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020122834A Active JP7477821B2 (en) 2020-07-17 2020-07-17 Information processing device, information processing method, and computer program

Country Status (1)

Country Link
JP (1) JP7477821B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018140755A (en) * 2017-02-28 2018-09-13 パナソニックIpマネジメント株式会社 Remote control device, remote control method, and remote control program
WO2020044954A1 (en) * 2018-08-31 2020-03-05 パイオニア株式会社 Image control program, image control device, and image control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018140755A (en) * 2017-02-28 2018-09-13 パナソニックIpマネジメント株式会社 Remote control device, remote control method, and remote control program
WO2020044954A1 (en) * 2018-08-31 2020-03-05 パイオニア株式会社 Image control program, image control device, and image control method

Also Published As

Publication number Publication date
JP7477821B2 (en) 2024-05-02

Similar Documents

Publication Publication Date Title
US11414080B2 (en) Vehicle control device, vehicle control method, and storage medium
US11789461B2 (en) Autonomous vehicle collision mitigation systems and methods
US20230150509A1 (en) Vehicle control device, vehicle control method, and storage medium
US11130492B2 (en) Vehicle control device, vehicle control method, and storage medium
US11636762B2 (en) Image display device
CN110546461B (en) Driving control method and driving control device
US20210101600A1 (en) Vehicle control device, vehicle control method, and storage medium
US20200398868A1 (en) Vehicle control system, vehicle control method, and program
US20160304126A1 (en) Vehicle control device
WO2019112799A1 (en) Improving safety of autonomous vehicles using a virtual augmented support environment
JP2022063472A (en) Vehicle remote operation support system, vehicle remote operation support server and vehicle remote operation support method
JPWO2017158768A1 (en) Vehicle control system, vehicle control method, and vehicle control program
US11390302B2 (en) Vehicle control device, vehicle control method, and program
US11475690B2 (en) Vehicle control system and vehicle control method
US10854083B2 (en) Vehicle control device, vehicle control method, and storage medium
JP6636484B2 (en) Travel control device, travel control method, and program
JP7379033B2 (en) Driving support method and driving support device
JP7220192B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP6632581B2 (en) Travel control device, travel control method, and program
CN114651286A (en) Obstacle avoidance action
JP2001301484A (en) Safe driving support device, its method and recording medium
JP7587780B2 (en) Information processing device, information processing method, and computer program
CN111753632B (en) Driving assistance device
JP7477821B2 (en) Information processing device, information processing method, and computer program
US12071136B2 (en) Navigating minor-major intersections with an autonomous vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200728

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240410

R150 Certificate of patent or registration of utility model

Ref document number: 7477821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150