[go: up one dir, main page]

JP2024162110A - Sensor state estimation device and sensor state estimation system - Google Patents

Sensor state estimation device and sensor state estimation system Download PDF

Info

Publication number
JP2024162110A
JP2024162110A JP2023077330A JP2023077330A JP2024162110A JP 2024162110 A JP2024162110 A JP 2024162110A JP 2023077330 A JP2023077330 A JP 2023077330A JP 2023077330 A JP2023077330 A JP 2023077330A JP 2024162110 A JP2024162110 A JP 2024162110A
Authority
JP
Japan
Prior art keywords
recognition information
sensor state
state estimation
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023077330A
Other languages
Japanese (ja)
Inventor
歌 于
Ge Yu
俊也 熊野
Toshiya Kumano
浩 上杉
Hiroshi Uesugi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2023077330A priority Critical patent/JP2024162110A/en
Publication of JP2024162110A publication Critical patent/JP2024162110A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To enable the estimation of the state of a peripheral monitoring sensor used in automatic driving while reducing the processing load and power consumption in a movable body that performs automatic driving.SOLUTION: A sensor state estimation device comprises: a recognition information storage unit 102 which stores recognition information being information on a peripheral environment of an own vehicle recognized from a sensing result of a peripheral monitoring sensor; a reference extraction unit 103 which extracts recognition information of a reference target being a reference for estimating a sensor state from the recognition information stored in the recognition information storage unit 102; and a sensor state estimation unit 106 which estimates the sensor state by comparing the recognition information of the reference target previously extracted from the reference extraction unit 103 with new recognition information of the reference target recognized from a new sensing result of the peripheral monitoring sensor and included in the peripheral environment of the own vehicle. The device uses a processor different from one used by an automatic driving ECU and is supplied with power from a power supply system different from one that supplies the power to the automatic driving ECU.SELECTED DRAWING: Figure 2

Description

本開示は、センサ状態推定装置及びセンサ状態推定システムに関するものである。 This disclosure relates to a sensor state estimation device and a sensor state estimation system.

特許文献1には、自動運転に関する制御を行う自動運転制御部内に設けられた劣化診断部において、自動運転に用いられる各センサの劣化の評価を行う技術が開示されている。特許文献1に開示の技術では、各センサからのデータ又は信号に基づいて実行した物体認識処理の認識結果を用いて、センサ毎の劣化の評価を行う。 Patent Document 1 discloses a technology in which a degradation diagnosis unit provided in an autonomous driving control unit that controls autonomous driving evaluates the degradation of each sensor used in autonomous driving. The technology disclosed in Patent Document 1 evaluates the degradation of each sensor using the recognition results of object recognition processing executed based on data or signals from each sensor.

国際公開第2021/065559号International Publication No. 2021/065559

自動運転の制御は複雑であるため、自動運転中の自動運転制御部では、処理負荷が大きくなる。よって、自動運転中の自動運転制御部において、劣化の評価に関する処理を行っうと、自動運転制御部の処理負荷が過多になるおそれがある。劣化の評価に関する処理としては、劣化の評価に用いる情報をセンサから取得する処理,劣化の評価を行う処理等が挙げられる。これに対して、駐車中に劣化の評価に関する処理を行うことも考えられる。しかしながら、自動運転の制御は複雑であるため、自動運転制御部の処理に必要となる電力も大きくなる。よって、駐車中に劣化の評価に関する処理を行った場合でも、バッテリの電力消費が増大化してしまうおそれがある。 Because autonomous driving control is complex, the processing load is large on the autonomous driving control unit during autonomous driving. Therefore, if the autonomous driving control unit performs processing related to deterioration evaluation during autonomous driving, there is a risk that the processing load on the autonomous driving control unit will become excessive. Examples of processing related to deterioration evaluation include processing to obtain information used for deterioration evaluation from a sensor and processing to evaluate deterioration. In response to this, it is also possible to perform processing related to deterioration evaluation while the vehicle is parked. However, because autonomous driving control is complex, the power required for processing by the autonomous driving control unit is also large. Therefore, even if processing related to deterioration evaluation is performed while the vehicle is parked, there is a risk that battery power consumption will increase.

この開示の1つの目的は、自動運転に用いられる周辺監視センサの状態の推定を、自動運転を行う移動体における処理負荷及び電力消費を低減して行うことを可能にするセンサ状態推定装置及びセンサ状態推定システムを提供することにある。 One objective of this disclosure is to provide a sensor state estimation device and a sensor state estimation system that enable estimation of the state of a surrounding monitoring sensor used in autonomous driving with reduced processing load and power consumption in a vehicle performing autonomous driving.

上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、開示の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、1つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。 The above object is achieved by a combination of features recited in the independent claims, and the subclaims define further advantageous embodiments of the disclosure. The reference characters in parentheses in the claims indicate a correspondence with the specific means described in the embodiments described below as one aspect, and do not limit the technical scope of the present disclosure.

上記目的を達成するために、本開示のセンサ状態推定装置は、自動運転を行う移動体の自動運転に用いられる、移動体の周辺を監視する周辺監視センサの状態であるセンサ状態を推定するセンサ状態推定装置であって、周辺監視センサでのセンシング結果から認識される移動体の周辺環境の情報である認識情報を記憶する認識情報記憶部(102)と、認識情報記憶部に記憶された認識情報から、センサ状態を推定するための基準とする基準物標の認識情報を抽出する基準抽出部(103,103a)と、基準抽出部から過去に抽出しておいた基準物標の認識情報と、周辺監視センサでの新たなセンシング結果から認識される移動体の周辺環境に含まれるその基準物標の新たな認識情報とを照合することで、センサ状態を推定するセンサ状態推定部(106,106a,106b)とを備え、自動運転の制御を行う自動運転制御部(17)が用いるのとは異なる演算処理装置を用いるとともに、自動運転制御部が電力の供給を受けるのとは異なる電源系統で電力の供給を受ける。 In order to achieve the above object, the sensor state estimation device disclosed herein is a sensor state estimation device that estimates a sensor state, which is the state of a perimeter monitoring sensor that monitors the perimeter of a mobile body used for the automatic driving of a mobile body that performs automatic driving, and includes a recognition information storage unit (102) that stores recognition information, which is information on the surrounding environment of the mobile body recognized from the sensing result of the perimeter monitoring sensor, a reference extraction unit (103, 103a) that extracts recognition information of a reference target that is used as a reference for estimating the sensor state from the recognition information stored in the recognition information storage unit, and a sensor state estimation unit (106, 106a, 106b) that estimates the sensor state by comparing the recognition information of the reference target previously extracted from the reference extraction unit with new recognition information of the reference target included in the surrounding environment of the mobile body recognized from new sensing results of the perimeter monitoring sensor, and uses a calculation processing device different from that used by the automatic driving control unit (17) that controls the automatic driving, and is supplied with power from a power supply system different from that from which the automatic driving control unit receives power.

これによれば、認識情報記憶部、基準抽出部、及びセンサ状態推定部を備えるセンサ状態推定装置が、自動運転の制御を行う自動運転制御部が用いるのとは異なる演算処理装置を用いることになる。よって、移動体の自動運転中に周辺監視センサのセンサ状態を推定しても、センサ状態の推定によって、自動運転制御部の処理負荷が過多にならずに済む。また、認識情報記憶部、基準抽出部、及びセンサ状態推定部を備えるセンサ状態推定装置が、自動運転制御部が電力の供給を受けるのとは異なる電源系統で電力の供給を受けることになる。よって、移動体の運転終了時に、自動運転制御部を動作させなくても、センサ状態を推定することが可能になる。従って、移動体における電力消費の増大化を抑えることが可能になる。その結果、自動運転に用いられる周辺監視センサの状態の推定を、自動運転を行う移動体における処理負荷及び電力消費を低減して行うことが可能になる。 According to this, the sensor state estimation device including the recognition information storage unit, the reference extraction unit, and the sensor state estimation unit uses a different arithmetic processing device from that used by the automatic driving control unit that controls automatic driving. Therefore, even if the sensor state of the periphery monitoring sensor is estimated during automatic driving of the mobile body, the processing load of the automatic driving control unit due to the estimation of the sensor state is not excessive. In addition, the sensor state estimation device including the recognition information storage unit, the reference extraction unit, and the sensor state estimation unit receives power from a power supply system different from that from which the automatic driving control unit receives power. Therefore, it is possible to estimate the sensor state when the operation of the mobile body ends without operating the automatic driving control unit. Therefore, it is possible to suppress an increase in power consumption in the mobile body. As a result, it is possible to estimate the state of the periphery monitoring sensor used for automatic driving while reducing the processing load and power consumption in the mobile body performing automatic driving.

また、上記目的を達成するために、本開示のセンサ状態推定システムは、自動運転を行う移動体の自動運転に用いられる、移動体の周辺を監視する周辺監視センサでのセンシング結果から移動体の周辺環境を認識する周辺環境認識部(14,15)と、周辺環境認識部で認識した周辺環境の情報である認識情報をもとに、移動体の自動運転の制御を行う自動運転制御部(17)と、前述のセンサ状態推定装置(10,10a,10b)と、を含む。 In order to achieve the above object, the sensor state estimation system of the present disclosure includes a surrounding environment recognition unit (14, 15) that recognizes the surrounding environment of the mobile body from the sensing results of a surrounding monitoring sensor that monitors the surroundings of the mobile body and is used for the autonomous driving of the autonomous driving mobile body, an autonomous driving control unit (17) that controls the autonomous driving of the mobile body based on the recognition information, which is information on the surrounding environment recognized by the surrounding environment recognition unit, and the aforementioned sensor state estimation device (10, 10a, 10b).

これによれば、前述のセンサ状態推定装置を含むので、自動運転に用いられる周辺監視センサの状態の推定を、自動運転を行う移動体における処理負荷及び電力消費を低減して行うことが可能になる。 As a result, since the system includes the aforementioned sensor state estimation device, it is possible to estimate the state of the surrounding monitoring sensors used in autonomous driving while reducing the processing load and power consumption in the autonomous driving vehicle.

移動体用システム1の概略的な構成の一例を示す図である。1 is a diagram showing an example of a schematic configuration of a mobile body system 1. FIG. センサ状態推定装置10の概略的な構成の一例を示す図である。1 is a diagram illustrating an example of a schematic configuration of a sensor state estimation device 10. FIG. 基準物標の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of a reference target; 移動体用システム2の概略的な構成の一例を示す図である。FIG. 2 is a diagram showing an example of a schematic configuration of a mobile body system 2. 車両側ユニット1aの概略的な構成の一例を示す図である。FIG. 2 is a diagram showing an example of a schematic configuration of a vehicle-side unit 1a. センサ状態推定装置10aの概略的な構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a schematic configuration of a sensor state estimation device 10a. 移動体用システム2bの概略的な構成の一例を示す図である。FIG. 2 is a diagram showing an example of a schematic configuration of a mobile body system 2b. 車両側ユニット1bの概略的な構成の一例を示す図である。2 is a diagram showing an example of a schematic configuration of a vehicle-side unit 1b. FIG. センサ状態推定装置10bの概略的な構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a schematic configuration of a sensor state estimation device 10b.

図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。 Several embodiments for disclosure will be described with reference to the drawings. For ease of explanation, parts in several embodiments that have the same functions as parts shown in the drawings used in the previous explanations may be given the same reference numerals and their explanations may be omitted. For parts given the same reference numerals, the explanations in other embodiments may be referred to.

<移動体用システム1の概略構成>
移動体用システム1は、自動運転を行う移動体に利用することが可能なものである。移動体用システム1は、図1に示すように、センサ状態推定装置10、通信モジュール11、ロケータ12、地図データベース(以下、地図DB)13、外界カメラ14、LiDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)装置15、車両制御ECU16、自動運転ECU17、HCU(Human Machine Interface Control Unit)18、及び提示装置19を含んでいる。例えば、センサ状態推定装置10、通信モジュール11、ロケータ12、地図DB13、外界カメラ14、LiDAR装置15、車両制御ECU16、自動運転ECU17、及びHCU18は車内LAN(図1のLAN参照)と接続される構成とすればよい。移動体用システム1を用いる移動体は、例えば車両であるものとすればよい。移動体用システム1を用いる移動体は、移動体であれば車両に限るものではないが、以下では自動運転を行う自動車に用いる場合を例に挙げて説明を行う。自動運転を行う自動車を、以下では自動運転車両と呼ぶ。
<Overall configuration of mobile body system 1>
The mobile body system 1 can be used for a mobile body that performs automatic driving. As shown in FIG. 1, the mobile body system 1 includes a sensor state estimation device 10, a communication module 11, a locator 12, a map database (hereinafter, map DB) 13, an external camera 14, a LiDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging) device 15, a vehicle control ECU 16, an automatic driving ECU 17, an HCU (Human Machine Interface Control Unit) 18, and a presentation device 19. For example, the sensor state estimation device 10, the communication module 11, the locator 12, the map DB 13, the external camera 14, the LiDAR device 15, the vehicle control ECU 16, the automatic driving ECU 17, and the HCU 18 may be configured to be connected to an in-vehicle LAN (see LAN in FIG. 1). The mobile body that uses the mobile body system 1 may be, for example, a vehicle. The mobile body using the mobile body system 1 is not limited to a vehicle as long as it is a mobile body, but the following description will be given using an example of an autonomously driven automobile. An autonomously driven automobile will be referred to as an autonomously driven vehicle hereinafter.

自動運転車両の自動運転の度合い(以下、自動化レベル)としては、例えばSAEが定義しているように、複数のレベルが存在し得る。自動化レベルは、例えば以下のようにLV0~5に区分される。 There can be multiple levels of automation for an autonomous vehicle (hereafter referred to as automation level), as defined by the SAE, for example. Automation levels are classified into LV0 to 5, for example, as follows:

LV0は、車両側のシステムが介入せずに運転者が全ての運転タスクを実施するレベルである。運転タスクは動的運転タスクと言い換えてもよい。運転タスクは、例えば操舵、加減速、及び周辺監視とする。LV0は、いわゆる手動運転に相当する。LV1は、システムが操舵と加減速とのいずれかを支援するレベルである。LV1は、いわゆる運転支援に相当する。LV2は、システムが操舵と加減速とのいずれをも支援するレベルである。LV2は、いわゆる部分運転自動化に相当する。LV1~2も自動運転の一部であるものとする。LV3の自動運転は、特定の条件下ではシステムが全ての運転タスクを実施可能であり、緊急時に運転者が運転操作を行うレベルである。LV3の自動運転では、システムから運転交代の要求があった場合に、運転手が迅速に対応可能であることが求められる。LV3は、いわゆる条件付運転自動化に相当する。LV4の自動運転は、対応不可能な道路,極限環境等の一部状況下を除き、システムが全ての運転タスクを実施可能なレベルである。LV4は、いわゆる高度運転自動化に相当する。LV5の自動運転は、あらゆる環境下でシステムが全ての運転タスクを実施可能なレベルである。LV5は、いわゆる完全運転自動化に相当する。 LV0 is a level where the driver performs all driving tasks without intervention of the vehicle's system. The driving tasks may be referred to as dynamic driving tasks. Driving tasks include, for example, steering, acceleration/deceleration, and periphery monitoring. LV0 corresponds to so-called manual driving. LV1 is a level where the system assists with either steering or acceleration/deceleration. LV1 corresponds to so-called driving assistance. LV2 is a level where the system assists with both steering and acceleration/deceleration. LV2 corresponds to so-called partial driving automation. LV1 to LV2 are also considered to be part of automated driving. LV3 automated driving is a level where the system can perform all driving tasks under certain conditions, and the driver performs driving operations in an emergency. In LV3 automated driving, the driver is required to be able to respond quickly when the system requests a change of driving. LV3 corresponds to so-called conditional driving automation. LV4 automated driving is a level where the system can perform all driving tasks, except under some circumstances such as roads that cannot be handled and extreme environments. LV4 corresponds to so-called high driving automation. LV5 autonomous driving is a level where the system can perform all driving tasks in any environment. LV5 corresponds to so-called full driving automation.

本施形態の自動運転車両は、少なくともLV1以上の自動運転を行うものとする。本施形態の自動運転車両は、自動化レベルが切り替え可能であってもよい。自動化レベルは、LV0~5のうちの一部のレベル間でのみ切り替え可能な構成であってもよい。 The autonomous vehicle of this embodiment is assumed to perform autonomous driving at least at LV1 or higher. The autonomous vehicle of this embodiment may be capable of switching the automation level. The automation level may be configured to be switchable only between some of the levels LV0 to 5.

通信モジュール11は、自車の外部のサーバ装置との間で、無線通信を介して情報の送受信を行う。つまり、広域通信を行う。このサーバ装置は、センタのサーバ装置であってもよいし、クラウドのサーバ装置であってもよい。通信モジュール11は、他車との間で、無線通信を介して情報の送受信を行ってもよい。つまり、車車間通信を行ってもよい。通信モジュール11は、路側に設置された路側機との間で、無線通信を介して情報の送受信を行ってもよい。つまり、路車間通信を行ってもよい。路車間通信を行う場合、通信モジュール11は、路側機を介して、自車の周辺車両から送信されるその周辺車両の情報を受信してもよい。 The communication module 11 transmits and receives information via wireless communication with a server device external to the vehicle. In other words, it performs wide-area communication. This server device may be a server device at a center or a server device in the cloud. The communication module 11 may transmit and receive information via wireless communication with other vehicles. In other words, it may perform vehicle-to-vehicle communication. The communication module 11 may transmit and receive information via wireless communication with a roadside unit installed on the roadside. In other words, it may perform road-to-vehicle communication. When performing road-to-vehicle communication, the communication module 11 may receive information about surrounding vehicles transmitted from the surrounding vehicles via the roadside unit.

ロケータ12は、GNSS(Global Navigation Satellite System)受信機及び慣性センサを備えている。GNSS受信機は、複数の測位衛星からの測位信号を受信する。慣性センサは、例えばジャイロセンサ及び加速度センサを備える。ロケータ12は、GNSS受信機で受信する測位信号と、慣性センサの計測結果とを組み合わせることにより、ロケータ12を搭載した自車の車両位置(以下、自車位置)を逐次測位する。自車位置は、例えば緯度経度の座標で表されるものとする。なお、自車位置の測位には、車両に搭載された車速センサから逐次出力される信号から求めた走行距離も用いる構成としてもよい。 The locator 12 includes a GNSS (Global Navigation Satellite System) receiver and an inertial sensor. The GNSS receiver receives positioning signals from multiple positioning satellites. The inertial sensor includes, for example, a gyro sensor and an acceleration sensor. The locator 12 sequentially measures the position of the vehicle (hereinafter, the vehicle position) on which the locator 12 is mounted, by combining the positioning signals received by the GNSS receiver with the measurement results of the inertial sensor. The vehicle position is represented, for example, in latitude and longitude coordinates. Note that the vehicle position may also be measured using a travel distance calculated from a signal sequentially output from a vehicle speed sensor mounted on the vehicle.

地図DB13は、不揮発性メモリであって、地図データを格納している。地図データは、ナビゲーション機能での経路案内に用いられる地図データであってもよいし、高精度地図データであってもよい。高精度地図データは、ナビゲーション機能での経路案内に用いられる地図データよりも高精度な地図データである。高精度地図データには、例えば道路の三次元形状情報,車線数情報,各車線に許容された進行方向を示す情報等の自動運転に利用可能な情報が含まれている。他にも、高精度地図データには、例えば区画線等の路面標示について、両端の位置を示すノード点の情報が含まれていてもよい。なお、ロケータ12は、道路の三次元形状情報を用いることで、GNSS受信機を用いない構成としてもよい。例えば、ロケータ12は、道路の三次元形状情報と、周辺監視センサでの検出結果とを用いて、自車位置を特定する構成としてもよい。周辺監視センサとしては、後述する外界カメラ14,LiDAR装置15等が挙げられる。 The map DB 13 is a non-volatile memory that stores map data. The map data may be map data used for route guidance in the navigation function, or may be high-precision map data. The high-precision map data is map data with higher precision than the map data used for route guidance in the navigation function. The high-precision map data includes information that can be used for automated driving, such as three-dimensional shape information of the road, information on the number of lanes, and information indicating the permitted traveling direction for each lane. In addition, the high-precision map data may include information on node points indicating the positions of both ends of road markings such as dividing lines. The locator 12 may be configured not to use a GNSS receiver by using three-dimensional shape information of the road. For example, the locator 12 may be configured to identify the vehicle position using three-dimensional shape information of the road and the detection results of a perimeter monitoring sensor. Examples of the perimeter monitoring sensor include an external camera 14 and a LiDAR device 15, which will be described later.

なお、通信モジュール11は、外部のサーバ装置から配信される地図データを例えば広域通信で受信し、地図DB13に格納してもよい。この場合、地図DB13を揮発性メモリとし、通信モジュール11が自車位置に応じた領域の地図データを逐次取得する構成としてもよい。 The communication module 11 may receive map data distributed from an external server device, for example, via wide area communication, and store the data in the map DB 13. In this case, the map DB 13 may be a volatile memory, and the communication module 11 may be configured to sequentially acquire map data for an area corresponding to the vehicle position.

外界カメラ14は、自車の外界の所定範囲を撮像する。外界カメラ14は、周辺監視センサに相当する。図1では、便宜上、移動体用システム1に1つの外界カメラ14が含まれる構成を示したが、必ずしもこれに限らない。移動体用システム1に含まれる外界カメラ14は、複数であってもよい。例えば、外界カメラ14としては、自車の前方、左側方、右側方、及び後方をそれぞれ撮像範囲とするように4つの外界カメラ14が移動体用システム1に含まれる構成としてもよい。 The external camera 14 captures an image of a predetermined range of the outside world of the vehicle. The external camera 14 corresponds to a perimeter monitoring sensor. In FIG. 1, for convenience, a configuration in which the mobile body system 1 includes one external camera 14 is shown, but this is not necessarily limited to this. The mobile body system 1 may include multiple external cameras 14. For example, the mobile body system 1 may be configured to include four external cameras 14 so that the imaging ranges of the front, left side, right side, and rear of the vehicle are respectively provided.

外界カメラ14は、センシング結果として、逐次撮像する撮像画像の情報を得る。外界カメラ14は、撮像した画像(以下、撮像画像)に対して画像認識処理を行う。外界カメラ14は、画像認識処理によって、例えば自車位置に対する物体の位置、物体のサイズ、及び物体の種別を認識すればよい。よって、外界カメラ14が周辺環境認識部に相当する。この認識結果が、自車の周辺環境の情報である認識情報に相当する。外界カメラ14は、この認識情報を、逐次車内LANに出力すればよい。物体のサイズについては、自車から物体までの距離をもとに、撮像画像中でのサイズを実際のサイズに換算すればよい。物体のサイズは、物体の幅,高さ等とすればよい。他にも、画像認識処理によって物体の一部の構成要素まで検出できる場合には、この構成要素間の距離をサイズとして認識してもよい。一例としては、車両のテールランプ間の距離が挙げられる。他の例では、看板,道路標識内の文字のサイズ,色分けのサイズ比率が挙げられる。物体の種別は、例えばパターン認識によって認識すればよい。 The external camera 14 obtains information on the captured images as a sensing result. The external camera 14 performs image recognition processing on the captured images (hereinafter, captured images). The external camera 14 may recognize, for example, the position of an object relative to the vehicle's position, the size of the object, and the type of the object through image recognition processing. Therefore, the external camera 14 corresponds to the surrounding environment recognition unit. This recognition result corresponds to recognition information, which is information on the surrounding environment of the vehicle. The external camera 14 may sequentially output this recognition information to the in-vehicle LAN. The size of an object may be converted from the size in the captured image to the actual size based on the distance from the vehicle to the object. The size of an object may be the width, height, etc. of the object. In addition, if some components of an object can be detected by image recognition processing, the distance between these components may be recognized as the size. One example is the distance between the tail lights of a vehicle. Other examples include the size of characters on a signboard or road sign, and the size ratio of color coding. The type of object may be recognized, for example, by pattern recognition.

また、外界カメラ14は、記憶装置141を有する。移動体用システム1に含まれる外界カメラ14が複数の場合には、外界カメラ14ごとに記憶装置141を有する構成とすればよい。外界カメラ14は、認識情報を逐次車内LANに出力する他、認識情報を記憶装置141に記憶する。なお、外界カメラ14は、記憶装置141のメモリ容量を圧迫し過ぎないように、予め定めた特定物体についての認識情報に絞って記憶する構成としてもよい。特定物体の例としては、自動車,案内標識,警戒標識等とすればよい。記憶装置141は、外界カメラ14のスペックについてのスペック情報,撮像画像のログデータ等も認識情報に紐付けて記憶すればよい。撮像画像のログの一例としては、検出日時,検出位置,検出距離,反射強度,作動電圧,検出時天候等が挙げられる。 The external camera 14 also has a storage device 141. When the mobile system 1 includes multiple external cameras 14, each external camera 14 may have a storage device 141. The external camera 14 outputs the recognition information to the in-vehicle LAN one after another, and stores the recognition information in the storage device 141. The external camera 14 may be configured to store only recognition information about a predetermined specific object so as not to overload the memory capacity of the storage device 141. Examples of specific objects may be automobiles, guide signs, and warning signs. The storage device 141 may also store specification information about the specifications of the external camera 14, log data of the captured image, and the like, linked to the recognition information. Examples of the captured image log include the detection date and time, detection position, detection distance, reflection intensity, operating voltage, and weather at the time of detection.

LiDAR装置15は、自車周辺の所定の範囲に光を照射し、その光が物標によって反射された反射光を検出する光学センサである。LiDAR装置15も、周辺監視センサに相当する。図1では、便宜上、移動体用システム1に1つのLiDAR装置15が含まれる構成を示したが、必ずしもこれに限らない。移動体用システム1に含まれるLiDAR装置15は、複数であってもよい。例えば、LiDAR装置15としては、自車の前方、左後側方、及び右後側方をそれぞれ走査範囲とするように3つのLiDAR装置15が移動体用システム1に含まれる構成としてもよい。 The LiDAR device 15 is an optical sensor that emits light to a predetermined range around the vehicle and detects the light reflected by a target. The LiDAR device 15 also corresponds to a perimeter monitoring sensor. For convenience, FIG. 1 shows a configuration in which the mobile body system 1 includes one LiDAR device 15, but this is not necessarily limited to this. The mobile body system 1 may include multiple LiDAR devices 15. For example, the mobile body system 1 may be configured to include three LiDAR devices 15 so that the scanning ranges are respectively in front, to the left rear side, and to the right rear side of the vehicle.

LiDAR装置15は、センシング結果として、物体によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果を逐次得る。LiDAR装置15は、得られた走査結果としてのポイントクラウドに対して物体認識処理を行う。LiDAR装置15は、物体認識処理によって、例えば自車位置に対する物体の位置,物体のサイズ,及び物体の種別を認識すればよい。よって、LiDAR装置15が周辺環境認識部に相当する。この認識結果も、自車の周辺環境の情報である認識情報に相当する。LiDAR装置15は、この認識情報を、逐次車内LANに出力すればよい。物体のサイズについては、自車から物体までの距離をもとに、ポイントクラウドの座標系でのサイズを実際のサイズに換算すればよい。物体のサイズは、物体の幅,高さ等とすればよい。物体の種別は、例えばパターン認識によって認識すればよい。 The LiDAR device 15 sequentially obtains, as a sensing result, a scanning result based on a received signal obtained when receiving a reflected wave reflected by an object. The LiDAR device 15 performs object recognition processing on the point cloud obtained as the scanning result. The LiDAR device 15 may recognize, for example, the position of an object relative to the vehicle position, the size of the object, and the type of the object through the object recognition processing. Thus, the LiDAR device 15 corresponds to a surrounding environment recognition unit. This recognition result also corresponds to recognition information, which is information on the surrounding environment of the vehicle. The LiDAR device 15 may sequentially output this recognition information to the in-vehicle LAN. The size of the object may be converted from the size in the coordinate system of the point cloud to the actual size based on the distance from the vehicle to the object. The size of the object may be the width, height, etc. of the object. The type of the object may be recognized, for example, by pattern recognition.

また、LiDAR装置15は、記憶装置151を有する。移動体用システム1に含まれるLiDAR装置15が複数の場合には、LiDAR装置15ごとに記憶装置151を有する構成とすればよい。LiDAR装置15は、認識情報を逐次車内LANに出力する他、認識情報を記憶装置151に記憶する。なお、LiDAR装置15は、記憶装置151のメモリ容量を圧迫し過ぎないように、予め定めた特定物体についての認識情報に絞って記憶する構成としてもよい。特定物体の例としては、自動車,案内標識,警戒標識等とすればよい。記憶装置151は、LiDAR装置15のスペックについてのスペック情報,走査結果のログデータ等も認識情報に紐付けて記憶すればよい。走査結果のログの一例としては、検出日時,検出位置,検出距離,反射強度,作動電圧,検出時天候等が挙げられる。 The LiDAR device 15 also has a storage device 151. When the mobile system 1 includes multiple LiDAR devices 15, each LiDAR device 15 may have a storage device 151. The LiDAR device 15 sequentially outputs the recognition information to the in-vehicle LAN, and stores the recognition information in the storage device 151. The LiDAR device 15 may be configured to store only recognition information about a predetermined specific object so as not to overload the memory capacity of the storage device 151. Examples of specific objects include automobiles, guide signs, and warning signs. The storage device 151 may also store specification information about the specifications of the LiDAR device 15, log data of the scanning results, etc., linked to the recognition information. Examples of logs of the scanning results include the detection date and time, the detection position, the detection distance, the reflection intensity, the operating voltage, and the weather at the time of detection.

本実施形態では、移動体用システム1に含まれる周辺監視センサが外界カメラ14及びLiDAR装置15である場合を例に挙げて説明するが、必ずしもこれに限らない。移動体用システム1に含まれる周辺監視センサは、外界カメラ14及びLiDAR装置15のうちのいずれか一方のみであってもよい。また、移動体用システム1に含まれる周辺監視センサは、外界カメラ14及びLiDAR装置15以外であってもよい。外界カメラ14及びLiDAR装置15以外の周辺監視センサとしては、ミリ波レーダ,ソナー等が挙げられる。 In this embodiment, the case where the perimeter monitoring sensors included in the mobile body system 1 are the external camera 14 and the LiDAR device 15 will be described as an example, but this is not necessarily limited to this. The perimeter monitoring sensor included in the mobile body system 1 may be only one of the external camera 14 and the LiDAR device 15. Furthermore, the perimeter monitoring sensor included in the mobile body system 1 may be other than the external camera 14 and the LiDAR device 15. Examples of perimeter monitoring sensors other than the external camera 14 and the LiDAR device 15 include millimeter wave radar, sonar, etc.

本実施形態では、外界カメラ14及びLiDAR装置15で物体の位置,物体のサイズ,及び物体の種別を認識する構成を示したが、必ずしもこれに限らない。例えば、周辺監視センサでのセンシング結果をもとに、周辺監視センサ以外の電子制御装置で物体の位置,物体のサイズ,及び物体の種別を認識してもよい。この場合、この電子制御装置の記憶装置で認識情報を記憶する構成とすればよい。つまり、周辺環境認識部にあたる機能ブロック及び認識情報を記憶する機能ブロックが、周辺監視センサ以外の電子制御装置に備えられる構成としてもよい。周辺環境認識部にあたる機能ブロックの電源系統が自動運転ECU17と異なるのであれば、以下のようにしてもよい。周辺環境認識部にあたる機能ブロック及び認識情報を記憶する機能ブロックに相当する部材が、自動運転ECU17の筐体内に設けられていてもよい。この周辺環境認識部、自動運転ECU17、及びセンサ状態推定装置10を含む構成が、センサ状態推定システムに相当する。本実施形態では、移動体用システム1がセンサ状態推定システムに相当する。 In this embodiment, the external camera 14 and the LiDAR device 15 are configured to recognize the position, size, and type of an object, but this is not necessarily limited to this. For example, the position, size, and type of an object may be recognized by an electronic control device other than the peripheral monitoring sensor based on the sensing result of the peripheral monitoring sensor. In this case, the recognition information may be stored in the storage device of this electronic control device. In other words, the functional block corresponding to the peripheral environment recognition unit and the functional block that stores the recognition information may be provided in an electronic control device other than the peripheral monitoring sensor. If the power supply system of the functional block corresponding to the peripheral environment recognition unit is different from that of the automatic driving ECU 17, the following may be used. The functional block corresponding to the peripheral environment recognition unit and the functional block that stores the recognition information may be provided within the housing of the automatic driving ECU 17. The configuration including the peripheral environment recognition unit, the automatic driving ECU 17, and the sensor state estimation device 10 corresponds to the sensor state estimation system. In this embodiment, the mobile system 1 corresponds to the sensor state estimation system.

車両制御ECU16は、自車の走行制御を行う電子制御装置である。走行制御としては、加減速制御及び/又は操舵制御が挙げられる。車両制御ECU16としては、操舵制御を行う操舵ECU、加減速制御を行うパワーユニット制御ECU及びブレーキECU等がある。車両制御ECU16は、自車に搭載された電子制御スロットル、ブレーキアクチュエータ、EPS(Electric Power Steering)モータ等の各走行制御デバイスへ制御信号を出力することで走行制御を行う。 The vehicle control ECU 16 is an electronic control device that controls the driving of the vehicle. Driving control includes acceleration/deceleration control and/or steering control. The vehicle control ECU 16 includes a steering ECU that controls steering, a power unit control ECU that controls acceleration/deceleration, and a brake ECU. The vehicle control ECU 16 controls driving by outputting control signals to each driving control device installed in the vehicle, such as an electronically controlled throttle, a brake actuator, and an EPS (Electric Power Steering) motor.

自動運転ECU17は、例えばプロセッサ、メモリ、I/O、これらを接続するバスを備えるコンピュータを主体として構成される。このプロセッサが演算処理装置に相当する。自動運転ECU17が、自動運転制御部に相当する。自動運転ECU17は、車両電源から電力供給を受けて動作する。車両電源とは、車両が走行する際にオンとなる電源である。自車がエンジン車である場合、イグニッション電源が車両電源に相当する。また自車が電気自動車若しくはハイブリッド車といった電動車である場合、システムメインリレーが車両電源に相当する。 The autonomous driving ECU 17 is mainly composed of a computer equipped with, for example, a processor, memory, I/O, and a bus connecting these. This processor corresponds to an arithmetic processing device. The autonomous driving ECU 17 corresponds to an autonomous driving control unit. The autonomous driving ECU 17 operates by receiving power from a vehicle power supply. The vehicle power supply is a power supply that is turned on when the vehicle is running. If the vehicle is an engine vehicle, the ignition power supply corresponds to the vehicle power supply. Also, if the vehicle is an electrically powered vehicle such as an electric vehicle or hybrid vehicle, the system main relay corresponds to the vehicle power supply.

自動運転ECU17は、メモリに記憶された制御プログラムを実行することにより、自動運転に関する処理を実行する。ここで言うところのメモリは、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、半導体メモリ又は磁気ディスクなどによって実現される。自動運転ECU17は、機能ブロックとして、状況認識部、行動判断部、及び制御実行部を備える。 The autonomous driving ECU 17 executes processes related to autonomous driving by executing control programs stored in memory. The memory referred to here is a non-transitory tangible storage medium that non-temporarily stores computer-readable programs and data. The non-transitory tangible storage medium is realized by a semiconductor memory or a magnetic disk, for example. The autonomous driving ECU 17 has the following functional blocks: a situation recognition unit, an action determination unit, and a control execution unit.

状況認識部は、自車に関する状況を認識する。状況認識部は、周辺監視センサで逐次得られる認識情報に基づき、自車の周囲の走行環境を認識する。状況認識部は、周辺監視センサの認識情報の他に、ロケータ12から取得する自車位置及び地図DB13から取得する地図データ等に基づき、自車の周囲の走行環境を認識してもよい。一例として、状況認識部は、これらの情報を用いて、実際の走行環境を再現した仮想空間を生成する。 The situation recognition unit recognizes the situation regarding the vehicle. The situation recognition unit recognizes the driving environment around the vehicle based on the recognition information successively obtained by the surrounding monitoring sensor. In addition to the recognition information from the surrounding monitoring sensor, the situation recognition unit may recognize the driving environment around the vehicle based on the vehicle position acquired from the locator 12 and map data acquired from the map DB 13. As an example, the situation recognition unit uses this information to generate a virtual space that reproduces the actual driving environment.

行動判断部は、運転者と自車のシステムとの間で運転操作の制御主体を切り替える。行動判断部は、運転操作の制御権がシステム側にある場合、状況認識部での認識結果に基づき、自車を走行させる走行プランを決定する。走行プランとしては、目的地までの経路,目的地に到着するために自車が取るべき振る舞いを決定すればよい。振る舞いの一例としては、直進、右折、左折、車線変更等がある。 The behavior determination unit switches the control of driving operations between the driver and the vehicle's system. When the system has control of driving operations, the behavior determination unit determines a driving plan for driving the vehicle based on the recognition results of the situation recognition unit. The driving plan may determine the route to the destination and the behavior that the vehicle should take to reach the destination. Examples of behavior include going straight, turning right, turning left, changing lanes, etc.

制御実行部は、運転操作の制御権が自車のシステム側にある場合、車両制御ECU16との連携により、行動判断部にて決定された走行計画に従って、自車の加減速制御及び操舵制御等を実行する。制御実行部は、例えばACC(Adaptive Cruise Control)制御、LTA(Lane Tracing Assist)制御、PCS(Pre-Collision Safety)制御、AEB(Automatic Emergency Braking)制御、及びLCA制御(Lane Change Assist)等を実行する。 When the control authority for driving operations is in the vehicle's system, the control execution unit executes acceleration/deceleration control and steering control of the vehicle in accordance with the driving plan determined by the action determination unit in cooperation with the vehicle control ECU 16. The control execution unit executes, for example, ACC (Adaptive Cruise Control), LTA (Lane Tracing Assist), PCS (Pre-Collision Safety), AEB (Automatic Emergency Braking), and LCA (Lane Change Assist) control.

HCU18は、例えばプロセッサ、メモリ、I/O、これらを接続するバスを備えるコンピュータを主体として構成される。HCU18は、メモリに記憶された制御プログラムを実行することにより、乗員と自車のシステムとのやり取りに関する各種の処理を実行する。ここで言うところのメモリは、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、半導体メモリ又は磁気ディスクなどによって実現される。 HCU18 is mainly composed of a computer equipped with, for example, a processor, memory, I/O, and a bus connecting these. HCU18 executes various processes related to the interaction between the occupants and the vehicle's systems by executing control programs stored in the memory. The memory referred to here is a non-transitory tangible storage medium that non-temporarily stores computer-readable programs and data. The non-transitory tangible storage medium is realized by a semiconductor memory, a magnetic disk, or the like.

提示装置19は、自車に設けられて、自車の室内に向けて情報提示を行う。提示装置19は、HCU18の指示に従って情報提示を行う。提示装置19は、少なくとも運転者に向けて情報提示を行えばよい。提示装置19は、運転者以外の同乗者にも情報提示を行っても構わない。提示装置19としては、表示器,音声出力装置等が挙げられる。表示器は、情報を表示することで情報提示を行う。表示器としては、例えばメータMID(Multi Information Display),CID(Center Information Display),HUD(Head-Up Display),インジケータ等を用いることができる。メータMIDは、車室内のうちの運転席の正面に設けられる表示装置である。一例として、メータMIDは、メータパネルに設けられる構成とすればよい。CIDは、自車のインスツルメントパネルの中央に配置される表示装置である。HUDは、車室内のうちの例えばインスツルメントパネルに設けられる。HUDは、プロジェクタによって形成される表示像を、投影部材としてのフロントウインドシールドに既定された投影領域に投影する。HUDは、フロントウインドシールドの代わりに、運転席の正面に設けられるコンバイナに表示像を投影する構成としてもよい。音声出力装置は、音声を出力することで情報提示を行う。音声出力装置としては、スピーカ等が挙げられる。 The presentation device 19 is provided in the vehicle and presents information to the interior of the vehicle. The presentation device 19 presents information according to instructions from the HCU 18. The presentation device 19 only needs to present information to at least the driver. The presentation device 19 may also present information to passengers other than the driver. Examples of the presentation device 19 include a display device and an audio output device. The display device presents information by displaying information. Examples of the display device that can be used include a meter MID (Multi Information Display), a CID (Center Information Display), a HUD (Head-Up Display), and an indicator. The meter MID is a display device provided in front of the driver's seat in the vehicle interior. As an example, the meter MID may be configured to be provided in a meter panel. The CID is a display device located in the center of the instrument panel of the vehicle. The HUD is provided in the vehicle interior, for example, in the instrument panel. The HUD projects a display image formed by a projector onto a predetermined projection area on the windshield as a projection member. The HUD may be configured to project the display image onto a combiner provided in front of the driver's seat instead of the windshield. The audio output device presents information by outputting audio. Examples of the audio output device include a speaker.

センサ状態推定装置10は、例えばプロセッサ、メモリ、I/O、これらを接続するバスを備えるコンピュータを主体として構成される。このプロセッサが演算処理装置に相当する。センサ状態推定装置10が用いるプロセッサは、自動運転ECU17が用いるプロセッサとは、物理的に異なるプロセッサである。つまり、センサ状態推定装置10は、自動運転ECU17が用いるのとは異なる演算処理装置を用いる。センサ状態推定装置10は、メモリに記憶された制御プログラムを実行することにより、周辺監視センサのセンサ状態の推定に関する各種の処理を実行する。センサ状態は、周辺監視センサの異常の有無に関する状態としてもよい。センサ状態は、一時的な異常ではない、周辺監視センサの性能劣化に関する状態とすればよい。センサ状態推定装置10は、車両電源とは異なる電源から電力供給を受けて動作する。つまり、自動運転ECU17が電力の供給を受けるのとは異なる電源系統で電力の供給を受ける。一例としては、自車の駐車時にも電力供給が可能なバックアップ電源から電力供給を受けて動作する構成とすればよい。センサ状態推定装置10は、移動体に設けられる構成とすればよい。本実施形態の例では、センサ状態推定装置10は、自動車に設けられる。センサ状態推定装置10での処理の詳細については後述する。 The sensor state estimation device 10 is mainly composed of a computer having, for example, a processor, a memory, an I/O, and a bus connecting these. This processor corresponds to an arithmetic processing device. The processor used by the sensor state estimation device 10 is a physically different processor from the processor used by the automatic driving ECU 17. In other words, the sensor state estimation device 10 uses an arithmetic processing device different from that used by the automatic driving ECU 17. The sensor state estimation device 10 executes various processes related to the estimation of the sensor state of the periphery monitoring sensor by executing a control program stored in the memory. The sensor state may be a state related to the presence or absence of an abnormality in the periphery monitoring sensor. The sensor state may be a state related to performance deterioration of the periphery monitoring sensor that is not a temporary abnormality. The sensor state estimation device 10 operates by receiving power supply from a power source other than the vehicle power source. In other words, the sensor state estimation device 10 receives power supply from a power source system other than that from which the automatic driving ECU 17 receives power supply. As an example, the sensor state estimation device 10 may be configured to operate by receiving power supply from a backup power source that can supply power even when the vehicle is parked. The sensor state estimation device 10 may be configured to be provided in a moving body. In this embodiment, the sensor state estimation device 10 is installed in an automobile. Details of the processing by the sensor state estimation device 10 will be described later.

<センサ状態推定装置10の概略構成>
続いて、図2を用いて、センサ状態推定装置10の概略構成を説明する。図2に示すように、センサ状態推定装置10は、記憶用取得部101、認識情報記憶部102、基準抽出部103、環境情報記録部104、照合用取得部105、及びセンサ状態推定部106を機能ブロックとして備える。なお、センサ状態推定装置10が実行する機能の一部又は全部を、1つ或いは複数のIC等によりハードウェア的に構成してもよい。また、センサ状態推定装置10が備える機能ブロックの一部又は全部は、プロセッサによるソフトウェアの実行とハードウェア部材の組み合わせによって実現されてもよい。
<Overall configuration of sensor state estimation device 10>
Next, a schematic configuration of the sensor state estimation device 10 will be described with reference to Fig. 2. As shown in Fig. 2, the sensor state estimation device 10 includes a storage acquisition unit 101, a recognition information storage unit 102, a reference extraction unit 103, an environmental information recording unit 104, a matching acquisition unit 105, and a sensor state estimation unit 106 as functional blocks. Note that some or all of the functions executed by the sensor state estimation device 10 may be configured as hardware using one or more ICs or the like. Also, some or all of the functional blocks included in the sensor state estimation device 10 may be realized by a combination of software execution by a processor and hardware members.

記憶用取得部101は、外界カメラ14の記憶装置141に記憶されている認識情報を取得する。記憶用取得部101は、LiDAR装置15の記憶装置151に記憶されている認識情報を取得する。記憶用取得部101は、取得した認識情報を認識情報記憶部102に記憶する。記憶用取得部101は、自車の走行中に、認識情報を取得する構成としてもよい。記憶用取得部101は、自車の駐車中に、認識情報を取得する構成としてもよい。 The storage acquisition unit 101 acquires the recognition information stored in the storage device 141 of the external camera 14. The storage acquisition unit 101 acquires the recognition information stored in the storage device 151 of the LiDAR device 15. The storage acquisition unit 101 stores the acquired recognition information in the recognition information storage unit 102. The storage acquisition unit 101 may be configured to acquire the recognition information while the host vehicle is traveling. The storage acquisition unit 101 may be configured to acquire the recognition information while the host vehicle is parked.

基準抽出部103は、周辺監視センサのセンサ状態を推定するための基準とする基準物標の認識情報を抽出する。本実施形態では、外界カメラ14及びLiDAR装置15のセンサ状態を推定するための基準物標の認識情報を抽出する。基準抽出部103は、認識情報記憶部102に記憶された認識情報から、基準物標の認識情報を抽出する。基準抽出部103は、認識情報記憶部102に逐次記憶された認識情報から、同一地点に定常的に認識される物標を基準物標とし、基準物標の認識情報を抽出する。同一地点に定常的に認識されることは、認識された物体の位置の統計情報から特定すればよい。例えば、位置の分散が閾値以下である物標を基準物標とし、認識情報を抽出すればよい。この場合の認識情報としては、物体位置,反射強度,認識距離等が挙げられる。認識情報としては、周辺監視センサの作動電圧を用いてもよい。同一地点に定常的に認識される物標の例としては、特定の看板,道路標識等が挙げられる。基準物標としては、自車に対して特定の範囲に限らず、左右方向、上方向、近傍、遠方のあらゆる範囲を対象として抽出することが好ましい。これによれば、センサ状態の推定精度が向上する。図3の例では、自車であるHVに対して、左方向の警戒標識LWS、右方向の警戒標識RWS、及び上方向の案内標識RGSが基準物標として抽出される場合を示す。基準物標の認識情報の抽出は、例えば数日~数年のスパンでログを取って行えばよい。 The reference extraction unit 103 extracts the recognition information of the reference object as a reference for estimating the sensor state of the perimeter monitoring sensor. In this embodiment, the recognition information of the reference object for estimating the sensor state of the external camera 14 and the LiDAR device 15 is extracted. The reference extraction unit 103 extracts the recognition information of the reference object from the recognition information stored in the recognition information storage unit 102. The reference extraction unit 103 extracts the recognition information of the reference object from the recognition information sequentially stored in the recognition information storage unit 102, using a target that is constantly recognized at the same point as the reference target and extracting the recognition information of the reference object. The fact that the object is constantly recognized at the same point may be identified from statistical information on the position of the recognized object. For example, a target whose position variance is equal to or less than a threshold may be used as the reference target and the recognition information may be extracted. Examples of the recognition information in this case include the object position, reflection intensity, recognition distance, etc. The operating voltage of the perimeter monitoring sensor may be used as the recognition information. Examples of targets that are constantly recognized at the same point include specific signboards, road signs, etc. It is preferable to extract the reference objects not only from a specific range with respect to the vehicle, but also from all ranges in the left and right directions, upward, nearby, and distant directions. This improves the accuracy of estimating the sensor state. The example in FIG. 3 shows a case where a warning sign LWS in the left direction, a warning sign RWS in the right direction, and a guide sign RGS in the upward direction are extracted as reference objects with respect to the vehicle (HV). The recognition information of the reference objects can be extracted by taking logs over a span of several days to several years, for example.

また、基準抽出部103は、型式特定部1031及び設置物特定部1032をサブ機能ブロックとして備えてもよい。型式特定部1031は、認識情報記憶部102に記憶された認識情報から、車両型式を特定する。つまり、自車の周辺環境に含まれる車両についての型式を特定する。そして、基準抽出部103は、型式特定部1031で特定する車両型式ごとに特有のサイズ情報を、基準物標の認識情報として抽出すればよい。車両型式ごとに特有のサイズ情報は、例えば車両型式とサイズ情報との対応関係を予め記憶したデータベースを参照して抽出すればよい。この場合のサイズ情報としては、例えば車両のテールランプ間の距離が挙げられる。他にも、車高,車幅等であってもよい。以上の構成によれば、走行中の車両であっても基準物標として利用することが可能になる。 The reference extraction unit 103 may also include a model identification unit 1031 and an installation identification unit 1032 as sub-functional blocks. The model identification unit 1031 identifies the vehicle model from the recognition information stored in the recognition information storage unit 102. In other words, it identifies the model of the vehicle included in the surrounding environment of the vehicle. The reference extraction unit 103 may then extract size information specific to each vehicle model identified by the model identification unit 1031 as recognition information of the reference target. The size information specific to each vehicle model may be extracted by referring to a database that previously stores the correspondence between vehicle models and size information. In this case, the size information may be, for example, the distance between the tail lamps of the vehicle. Other examples of the size information include the vehicle height and vehicle width. With the above configuration, even a moving vehicle can be used as a reference target.

設置物特定部1032は、認識情報記憶部102に記憶された認識情報から、標準規格が定まった路上設置物を特定する。つまり、自車の周辺環境に含まれる、標準規格が定まった路上設置物を特定する。標準規格が定まった路上設置物としては、道路標識等が挙げられる。そして、基準抽出部103は、設置物特定部1032で特定する路上設置物ごとに特有のサイズ情報を、基準物標の認識情報として抽出すればよい。路上設置物ごとに特有のサイズ情報は、例えば路上設置物の種別とサイズ情報との対応関係を予め記憶したデータベースを参照して抽出すればよい。この場合のサイズ情報としては、例えば道路標識内の文字のサイズ,色分けのサイズ比率が挙げられる。以上の構成によれば、同一地点に同じ物標を複数回認識される前であっても、標準規格が定まった路上設置物を基準物標として利用することが可能になる。 The installation identification unit 1032 identifies road installations with established standard specifications from the recognition information stored in the recognition information storage unit 102. In other words, it identifies road installations with established standard specifications that are included in the surrounding environment of the vehicle. Examples of road installations with established standard specifications include road signs. The reference extraction unit 103 may then extract size information specific to each road installation identified by the installation identification unit 1032 as recognition information of the reference target. The size information specific to each road installation may be extracted by referring to a database that previously stores the correspondence between the type of road installation and size information. Examples of size information in this case include the size of characters in road signs and the size ratio of color coding. With the above configuration, it is possible to use road installations with established standard specifications as reference targets even before the same target is recognized multiple times at the same location.

基準抽出部103は、基準物標の認識情報を抽出した場合に、その基準物標が周辺監視センサでセンシングされた際の環境情報を環境情報記録部104に記録すればよい。環境情報は、環境についての情報である。環境情報としては、時間帯,季節,天候等の情報が挙げられる。基準抽出部103は、抽出した基準物標の認識情報と、環境情報とを紐付けて環境情報記録部104に記録すればよい。 When the reference extraction unit 103 extracts the recognition information of a reference target, it may record in the environmental information recording unit 104 the environmental information at the time when the reference target was sensed by the surrounding monitoring sensor. Environmental information is information about the environment. Examples of environmental information include information on the time of day, season, weather, etc. The reference extraction unit 103 may link the extracted recognition information of the reference target with the environmental information and record it in the environmental information recording unit 104.

照合用取得部105は、外界カメラ14及びLiDAR装置15で得られた認識情報を取得する。つまり、周辺監視センサでのセンシング結果から認識される自車の周辺環境に含まれる基準物標の認識情報を取得する。照合用取得部105は、例えばセンサ状態推定部106でセンサ状態の推定を行う場合に、認識情報を取得する構成とすればよい。照合用取得部105は、外界カメラ14及びLiDAR装置15が認識情報を逐次出力している場合には、逐次出力されるこの認識情報を取得すればよい。照合用取得部105は、外界カメラ14及びLiDAR装置15が認識情報を逐次出力していない場合には、以下のようにしてもよい。照合用取得部105は、例えば記憶装置141,151に記憶されている直近の認識情報を取得してもよい。これにより、自車の駐車時に、外界カメラ14及びLiDAR装置15がセンシングを行わない場合であっても、センサ状態の推定を行うことが可能になる。 The matching acquisition unit 105 acquires the recognition information obtained by the external camera 14 and the LiDAR device 15. That is, the matching acquisition unit 105 acquires the recognition information of the reference object included in the surrounding environment of the vehicle recognized from the sensing result of the surrounding monitoring sensor. The matching acquisition unit 105 may be configured to acquire the recognition information when the sensor state estimation unit 106 estimates the sensor state, for example. When the external camera 14 and the LiDAR device 15 sequentially output the recognition information, the matching acquisition unit 105 may acquire the recognition information sequentially output. When the external camera 14 and the LiDAR device 15 do not sequentially output the recognition information, the matching acquisition unit 105 may be as follows. The matching acquisition unit 105 may acquire the most recent recognition information stored in the storage devices 141 and 151, for example. This makes it possible to estimate the sensor state even when the external camera 14 and the LiDAR device 15 do not perform sensing when parking the vehicle.

センサ状態推定部106は、基準抽出部103から過去に抽出しておいた基準物標の認識情報と、照合用取得部105で取得したその基準物標の新たな認識情報とを照合する。センサ状態推定部106は、この照合を行うことで、センサ状態を推定する。基準抽出部103から過去に抽出しておいた基準物標の認識情報を、以下では照合基準認識情報と呼ぶ。また、照合用取得部105で取得するその基準物標の新たな認識情報を、以下では新規認識情報と呼ぶ。新規認識情報は、周辺監視センサで照合基準認識情報が得られたよりも後のセンシングによって得られた認識情報である。以上の構成によれば、周辺監視センサの劣化による検知距離の低下,検知範囲の狭小化にともなう認識情報の変化をもとに、センサ状態をより精度良く推定することが可能になる。一例としては、新規認識情報としての検知距離から照合基準認識情報としての検知距離を差し引いた値の絶対値が設定値以上の場合に、センサの劣化を推定すればよい。 The sensor state estimation unit 106 compares the recognition information of the reference object previously extracted from the reference extraction unit 103 with the new recognition information of the reference object acquired by the matching acquisition unit 105. The sensor state estimation unit 106 estimates the sensor state by performing this comparison. The recognition information of the reference object previously extracted from the reference extraction unit 103 is hereinafter referred to as matching reference recognition information. The new recognition information of the reference object acquired by the matching acquisition unit 105 is hereinafter referred to as new recognition information. The new recognition information is recognition information obtained by sensing after the matching reference recognition information was obtained by the perimeter monitoring sensor. With the above configuration, it is possible to estimate the sensor state with higher accuracy based on the change in recognition information due to the decrease in detection distance and the narrowing of the detection range caused by the deterioration of the perimeter monitoring sensor. As an example, if the absolute value of the value obtained by subtracting the detection distance as the matching reference recognition information from the detection distance as the new recognition information is equal to or greater than a set value, the deterioration of the sensor can be estimated.

センサ状態推定部106は、少なくとも1日前よりも古い過去についての照合基準認識情報に対する、新規認識情報の変動に基づき、センサ状態を推定することが好ましい。少なくとも1日前よりも古い過去についての照合基準認識情報とは、基準抽出部103から抽出された、少なくとも1日前よりも古い過去についての基準物標の認識情報である。例えば1日前よりも古い過去は、1年前であってもよいし、1か月前であってもよい。以上の構成によれば、一時的な異常でない経年劣化といった長期的な異常といったセンサ状態をより精度良く推定することが可能になる。 It is preferable that the sensor state estimation unit 106 estimates the sensor state based on the fluctuation of the new recognition information relative to the matching reference recognition information for the past at least one day ago. The matching reference recognition information for the past at least one day ago is the recognition information of the reference target for the past at least one day ago extracted from the reference extraction unit 103. For example, the past older than one day ago may be one year ago or one month ago. With the above configuration, it becomes possible to more accurately estimate the sensor state, such as a long-term abnormality such as aging deterioration that is not a temporary abnormality.

センサ状態推定部106は、照合基準認識情報を、現在の環境に対しての照合基準認識情報に補正してセンサ状態を推定することが好ましい。センサ状態推定部106は、現在の環境と、環境情報記録部104に記憶されている環境情報が示す環境との違いから、現在の環境に対しての照合基準認識情報を推定し、補正すればよい。現在の環境とは、新たなセンシング結果が周辺監視センサで得られた際の環境と言い換えることができる。具体例としては、天候,季節,時間帯ごとの反射強度の傾向といった認識情報の変化の傾向を予め記憶したマップ等を用いて、上述の予測を行えばよい。そして、天候,季節,時間帯による環境情報の変化分だけ照合基準認識情報を補正すればよい。これによれば、現在の環境と同じ環境についての照合基準認識情報が得られていない場合であっても、得られている照合基準認識情報から推定して補正することが可能になる。その結果、現在の環境と同じ環境についての照合基準認識情報が得られていない場合であっても、センサ状態をより精度良く推定することが可能になる。なお、現在の環境と同じ環境についての照合基準認識情報が得られている場合には、その照合基準認識情報を用いてセンサ状態を推定すればよい。 It is preferable that the sensor state estimation unit 106 estimates the sensor state by correcting the matching reference recognition information to matching reference recognition information for the current environment. The sensor state estimation unit 106 may estimate and correct the matching reference recognition information for the current environment based on the difference between the current environment and the environment indicated by the environmental information stored in the environmental information recording unit 104. The current environment can be rephrased as the environment when a new sensing result is obtained by the perimeter monitoring sensor. As a specific example, the above prediction may be performed using a map or the like that stores in advance the tendency of changes in the recognition information, such as the tendency of reflection intensity for each weather, season, and time period. Then, the matching reference recognition information may be corrected by the amount of change in the environmental information due to the weather, season, and time period. According to this, even if the matching reference recognition information for the same environment as the current environment has not been obtained, it is possible to estimate and correct from the obtained matching reference recognition information. As a result, even if the matching reference recognition information for the same environment as the current environment has not been obtained, it is possible to estimate the sensor state with higher accuracy. Note that, if the matching reference recognition information for the same environment as the current environment has been obtained, the matching reference recognition information may be used to estimate the sensor state.

センサ状態推定部106は、センサ状態の推定結果を通知させる指示を、HCU18に送ることで、HCU18にセンサ状態の推定結果を通知させればよい。センサ状態の推定結果を、以下では診断結果と呼ぶ。診断結果の通知は、提示装置19から自車の乗員に向けて行わせればよい。提示装置19からの通知には、ナビゲーション画面での通知を含んでもよい。診断結果の通知は、車両の管理者の端末で行わせてもよい。管理者としては、車両の所有者,メンテナンス担当者等が挙げられる。端末は、PCであってもよいし、多機能携帯電話機であってもよい。車両の管理者の端末で診断通知を行わせる場合は、以下のようにすればよい。HCU18は、車両の管理者の端末として登録されたアドレスに、ネットワークを介して診断結果を送信し、端末の表示器で診断結果を通知させればよい。診断結果は、車両の販売店に向けて通知させてもよい。この場合、HCU18は、車両の販売店のコールセンターとして登録されたアドレスに、ネットワークを介して診断結果を送信すればよい。そして、コールセンターから、販売店の端末の表示器で診断結果を通知させればよい。 The sensor state estimation unit 106 may send an instruction to the HCU 18 to notify the HCU 18 of the estimated result of the sensor state. The estimated result of the sensor state is hereinafter referred to as a diagnosis result. The notification of the diagnosis result may be made from the presentation device 19 to the occupants of the vehicle. The notification from the presentation device 19 may include a notification on the navigation screen. The notification of the diagnosis result may be made by the terminal of the vehicle manager. The manager may be the owner of the vehicle, a maintenance person, etc. The terminal may be a PC or a multi-function mobile phone. When the diagnosis notification is made by the terminal of the vehicle manager, the following may be performed. The HCU 18 may transmit the diagnosis result via a network to an address registered as the terminal of the vehicle manager, and notify the diagnosis result on the display of the terminal. The diagnosis result may be notified to the vehicle dealer. In this case, the HCU 18 may transmit the diagnosis result via a network to an address registered as the call center of the vehicle dealer. The call center can then notify the dealer of the diagnosis results on the display of their terminal.

<実施形態1のまとめ>
実施形態1の構成によれば、前述したように、センサ状態推定装置10により、周辺監視センサのセンサ状態をより精度良く推定することが可能になる。また、センサ状態推定装置10は、自動運転ECU17が用いるのとは異なる演算処理装置を用いる。よって、自車の自動運転中に周辺監視センサのセンサ状態を推定しても、センサ状態の推定によって、自動運転ECU17の処理負荷が過多にならずに済む。つまり、自動運転処理を妨害することを抑えることが可能になる。また、センサ状態推定装置10は、自動運転ECU17が電力の供給を受けるのとは異なる電源系統で電力の供給を受ける。よって、自車の駐車時に、自動運転ECU17を動作させなくても、センサ状態を推定することが可能になる。従って、自車のバッテリにおける電力消費の増大化を抑えることが可能になる。その結果、自動運転に用いられる周辺監視センサの状態の推定を、自動運転を行う移動体における処理負荷及び電力消費を低減して行うことが可能になる。
Summary of First Embodiment
According to the configuration of the first embodiment, as described above, the sensor state estimation device 10 can estimate the sensor state of the perimeter monitoring sensor with higher accuracy. In addition, the sensor state estimation device 10 uses a different arithmetic processing device from that used by the automatic driving ECU 17. Therefore, even if the sensor state of the perimeter monitoring sensor is estimated during automatic driving of the vehicle, the processing load of the automatic driving ECU 17 is not excessive due to the estimation of the sensor state. In other words, it is possible to suppress interference with the automatic driving process. In addition, the sensor state estimation device 10 receives power from a power supply system different from that from which the automatic driving ECU 17 receives power. Therefore, it is possible to estimate the sensor state when the vehicle is parked without operating the automatic driving ECU 17. Therefore, it is possible to suppress an increase in power consumption in the battery of the vehicle. As a result, it is possible to estimate the state of the perimeter monitoring sensor used for automatic driving by reducing the processing load and power consumption in the moving body performing automatic driving.

(実施形態2)
前述の実施形態の構成に限らず、以下の実施形態2の構成としてもよい。以下では、実施形態2の構成の一例について図を用いて説明する。
(Embodiment 2)
The configuration is not limited to that of the above-described embodiment, and may be that of the following embodiment 2. An example of the configuration of embodiment 2 will be described below with reference to the drawings.

<移動体用システム2の概略構成>
図4に示す移動体用システム2は、車両側ユニット1a及びサーバ装置3を含む。車両側ユニット1aとサーバ装置3とは、ネットワークを介して通信を行う。車両側ユニット1aは、車両HVに設けられる。車両側ユニット1aの詳細については後述する。サーバ装置3は、センタのサーバ装置であってもよいし、クラウドのサーバ装置であってもよい。サーバ装置3は、移動体の外部の記憶装置に相当する。サーバ装置3の詳細については後述する。本実施形態では、移動体用システム2がセンサ状態推定システムに相当する。
<Overall configuration of mobile body system 2>
The mobile body system 2 shown in FIG. 4 includes a vehicle side unit 1a and a server device 3. The vehicle side unit 1a and the server device 3 communicate with each other via a network. The vehicle side unit 1a is provided in the vehicle HV. Details of the vehicle side unit 1a will be described later. The server device 3 may be a center server device or a cloud server device. The server device 3 corresponds to a storage device external to the mobile body. Details of the server device 3 will be described later. In this embodiment, the mobile body system 2 corresponds to a sensor state estimation system.

<車両側ユニット1aの概略構成>
車両側ユニット1aは、図5に示すように、センサ状態推定装置10a,通信モジュール11a、ロケータ12、地図DB13、外界カメラ14、LiDAR装置15、車両制御ECU16、自動運転ECU17、HCU18、及び提示装置19を含んでいる。車両側ユニット1aは、一部の点を除けば、移動体用システム1と同様である。この点とは、センサ状態推定装置10及び通信モジュール11の代わりにセンサ状態推定装置10a及び通信モジュール11aを含む点である。
<General configuration of vehicle side unit 1a>
5, the vehicle-side unit 1a includes a sensor state estimation device 10a, a communication module 11a, a locator 12, a map DB 13, an external camera 14, a LiDAR device 15, a vehicle control ECU 16, an autonomous driving ECU 17, an HCU 18, and a presentation device 19. The vehicle-side unit 1a is similar to the mobile body system 1 except for some points, in that the vehicle-side unit 1a includes a sensor state estimation device 10a and a communication module 11a instead of the sensor state estimation device 10 and the communication module 11.

通信モジュール11aは、一部の処理が異なる点を除けば、実施形態1の通信モジュール11と同様である。以下では、この異なる点について説明する。通信モジュール11aは、ネットワークを介してサーバ装置3と通信を行う。つまり、通信モジュール11aは、サーバ装置3は、外部記憶装置との間で情報の送受信を行う。この通信モジュール11aが送受信部に相当する。通信モジュール11aは、例えばセルラー通信によってサーバ装置3と通信を行えばよい。セルラー通信としては、例えば5Gに準拠した無線通信を用いればよい。 The communication module 11a is similar to the communication module 11 of embodiment 1, except for some differences in processing. The differences are described below. The communication module 11a communicates with the server device 3 via a network. That is, the communication module 11a transmits and receives information between the server device 3 and an external storage device. This communication module 11a corresponds to a transmitter/receiver. The communication module 11a may communicate with the server device 3 by cellular communication, for example. For the cellular communication, wireless communication conforming to 5G may be used, for example.

通信モジュール11aは、センサ状態推定装置10aで抽出される基準物標の認識情報を、サーバ装置3に送信する。通信モジュール11aは、その基準物標が周辺監視センサでセンシングされた際の環境情報も、サーバ装置3に送信する。この環境情報は、実施形態1で述べたものと同様とすればよい。サーバ装置3では、送信されてくる、その基準物標の認識情報を記録する。サーバ装置3では、送信されてくる、その基準物標の認識情報と、その環境情報とを紐付けて記録すればよい。また、通信モジュール11aは、サーバ装置3に記録された基準物標の認識情報を、必要に応じてサーバ装置3から受信する。通信モジュール11aは、基準物標の認識情報に紐付けられた環境情報も、サーバ装置3から受信する構成としてもよい。 The communication module 11a transmits the recognition information of the reference object extracted by the sensor state estimation device 10a to the server device 3. The communication module 11a also transmits environmental information when the reference object is sensed by the surrounding monitoring sensor to the server device 3. This environmental information may be the same as that described in the first embodiment. The server device 3 records the transmitted recognition information of the reference object. The server device 3 may record the transmitted recognition information of the reference object and the environmental information in association with each other. In addition, the communication module 11a receives the recognition information of the reference object recorded in the server device 3 from the server device 3 as necessary. The communication module 11a may also be configured to receive the environmental information associated with the recognition information of the reference object from the server device 3.

<センサ状態推定装置10aの概略構成>
続いて、図6を用いて、センサ状態推定装置10aの概略構成を説明する。図6に示すように、センサ状態推定装置10aは、記憶用取得部101、認識情報記憶部102、基準抽出部103a、照合用取得部105、センサ状態推定部106aを機能ブロックとして備える。センサ状態推定装置10aは、基準抽出部103の代わりに基準抽出部103aを備える。センサ状態推定装置10aは、センサ状態推定部106の代わりにセンサ状態推定部106aを備える。センサ状態推定装置10aは、環境情報記録部104を備えない。センサ状態推定装置10aは、これらの点を除けば、実施形態1のセンサ状態推定装置10と同様である。
<Overall configuration of sensor state estimation device 10a>
Next, a schematic configuration of the sensor state estimation device 10a will be described with reference to Fig. 6. As shown in Fig. 6, the sensor state estimation device 10a includes a storage acquisition unit 101, a recognition information storage unit 102, a reference extraction unit 103a, a matching acquisition unit 105, and a sensor state estimation unit 106a as functional blocks. The sensor state estimation device 10a includes the reference extraction unit 103a instead of the reference extraction unit 103. The sensor state estimation device 10a includes the sensor state estimation unit 106a instead of the sensor state estimation unit 106. The sensor state estimation device 10a does not include the environmental information recording unit 104. Except for these points, the sensor state estimation device 10a is similar to the sensor state estimation device 10 of the first embodiment.

基準抽出部103aは、一部の処理が異なる点を除けば、実施形態1の基準抽出部103と同様である。以下では、この異なる点について説明する。基準抽出部103aは、抽出した基準物標の認識情報を、通信モジュール11aを介して、サーバ装置3に送信する。基準抽出部103aは、その基準物標が周辺監視センサでセンシングされた際の環境情報も、通信モジュール11aを介して、サーバ装置3に送信してもよい。 The reference extraction unit 103a is similar to the reference extraction unit 103 of embodiment 1, except for some differences in processing. The differences are described below. The reference extraction unit 103a transmits recognition information of the extracted reference target to the server device 3 via the communication module 11a. The reference extraction unit 103a may also transmit environmental information at the time when the reference target is sensed by the surrounding monitoring sensor to the server device 3 via the communication module 11a.

センサ状態推定部106aは、一部の処理が異なる点を除けば、実施形態1のセンサ状態推定部106と同様である。以下では、この異なる点について説明する。センサ状態推定部106aは、通信モジュール11aを介して、サーバ装置3に記録された基準物標の認識情報を、サーバ装置3から取得する。この基準物標の認識情報は、基準抽出部103aから過去に抽出しておいた基準物標の認識情報である。センサ状態推定部106aは、取得したこの基準物標の認識情報と、照合用取得部105で取得したその基準物標の新たな認識情報とを照合する。センサ状態推定部106aは、この照合を行うことで、実施形態1で述べたのと同様にして、センサ状態を推定する。 The sensor state estimation unit 106a is similar to the sensor state estimation unit 106 of embodiment 1, except for some differences in processing. The differences are described below. The sensor state estimation unit 106a acquires the recognition information of the reference object recorded in the server device 3 from the server device 3 via the communication module 11a. This recognition information of the reference object is the recognition information of the reference object previously extracted by the reference extraction unit 103a. The sensor state estimation unit 106a compares this acquired recognition information of the reference object with new recognition information of the reference object acquired by the comparison acquisition unit 105. By performing this comparison, the sensor state estimation unit 106a estimates the sensor state in the same manner as described in embodiment 1.

センサ状態推定部106aは、サーバ装置3から基準物標の認識情報を取得する場合に、紐付けられている環境情報も取得してもよい。センサ状態推定部106aは、現在の環境と、取得したこの環境情報が示す環境との違いから、現在の環境に対しての照合基準認識情報を推定し、補正してもよい。センサ状態推定部106aは、実施形態1で述べたのと同様にして、現在の環境に対しての照合基準認識情報を推定し、補正すればよい。 When acquiring recognition information of a reference target from the server device 3, the sensor state estimation unit 106a may also acquire linked environmental information. The sensor state estimation unit 106a may estimate and correct matching reference recognition information for the current environment based on the difference between the current environment and the environment indicated by the acquired environmental information. The sensor state estimation unit 106a may estimate and correct matching reference recognition information for the current environment in the same manner as described in embodiment 1.

<実施形態2のまとめ>
実施形態2の構成であっても、センサ状態推定装置10と同様に、センサ状態推定装置10aにより、周辺監視センサのセンサ状態をより精度良く推定することが可能になる。また、センサ状態推定装置10aは、自動運転ECU17が用いるのとは異なる演算処理装置を用いる。また、センサ状態推定装置10aは、自動運転ECU17が電力の供給を受けるのとは異なる電源系統で電力の供給を受ける。よって、自動運転に用いられる周辺監視センサの状態の推定を、自動運転を行う移動体における処理負荷及び電力消費を低減して行うことが可能になる。実施形態2では、基準抽出部103aから抽出した基準物標の認識情報を、サーバ装置3に送信して記憶し、必要に応じて取得する。よって、自車側のメモリの消費量を抑えることが可能になる。
(実施形態3)
前述の実施形態の構成に限らず、以下の実施形態3の構成としてもよい。以下では、実施形態3の構成の一例について図を用いて説明する。
Summary of Second Embodiment
Even in the configuration of the second embodiment, the sensor state estimation device 10a can estimate the sensor state of the perimeter monitoring sensor with higher accuracy, similar to the sensor state estimation device 10. Moreover, the sensor state estimation device 10a uses a calculation processing device different from that used by the automatic driving ECU 17. Moreover, the sensor state estimation device 10a receives power from a power supply system different from that used by the automatic driving ECU 17. Therefore, it is possible to estimate the state of the perimeter monitoring sensor used for automatic driving with reduced processing load and power consumption in the moving body performing automatic driving. In the second embodiment, the recognition information of the reference object extracted from the reference extraction unit 103a is transmitted to the server device 3, stored, and retrieved as necessary. Therefore, it is possible to reduce the memory consumption on the vehicle side.
(Embodiment 3)
The configuration is not limited to that of the above-described embodiment, and may be that of the following embodiment 3. An example of the configuration of embodiment 3 will be described below with reference to the drawings.

<移動体用システム2bの概略構成>
図7に示す移動体用システム2bは、車両側ユニット1b及びサーバ装置3bを含む。車両側ユニット1bとサーバ装置3bとは、ネットワークを介して通信を行う。車両側ユニット1aは、車両HVに設けられる。車両側ユニット1bの詳細については後述する。サーバ装置3bは、センサ状態推定装置10bを備える。サーバ装置3bは、センタのサーバ装置であってもよいし、クラウドのサーバ装置であってもよい。サーバ装置3bは、車両HVの外部に設けられる。サーバ装置3bの詳細については後述する。本実施形態では、移動体用システム2bがセンサ状態推定システムに相当する。
<Overall configuration of mobile body system 2b>
The mobile body system 2b shown in FIG. 7 includes a vehicle side unit 1b and a server device 3b. The vehicle side unit 1b and the server device 3b communicate with each other via a network. The vehicle side unit 1a is provided in the vehicle HV. Details of the vehicle side unit 1b will be described later. The server device 3b includes a sensor state estimation device 10b. The server device 3b may be a center server device or a cloud server device. The server device 3b is provided outside the vehicle HV. Details of the server device 3b will be described later. In this embodiment, the mobile body system 2b corresponds to a sensor state estimation system.

<車両側ユニット1bの概略構成>
車両側ユニット1bは、図8に示すように、通信モジュール11b、ロケータ12、地図DB13、外界カメラ14、LiDAR装置15、車両制御ECU16、自動運転ECU17、HCU18、及び提示装置19を含んでいる。車両側ユニット1bは、通信モジュール11の代わりに通信モジュール11bを含む点と、センサ状態推定装置10を含まない点とを除けば、移動体用システム1と同様である。
<General configuration of vehicle-side unit 1b>
8, the vehicle-side unit 1b includes a communication module 11b, a locator 12, a map DB 13, an external camera 14, a LiDAR device 15, a vehicle control ECU 16, an autonomous driving ECU 17, an HCU 18, and a presentation device 19. The vehicle-side unit 1b is similar to the mobile body system 1 except that it includes a communication module 11b instead of the communication module 11 and does not include the sensor state estimation device 10.

通信モジュール11bは、一部の処理が異なる点を除けば、実施形態1の通信モジュール11と同様である。以下では、この異なる点について説明する。通信モジュール11bは、ネットワークを介してサーバ装置3bと通信を行う。通信モジュール11bは、例えばセルラー通信によってサーバ装置3bと通信を行えばよい。セルラー通信としては、例えば5Gに準拠した無線通信を用いればよい。通信モジュール11bは、外界カメラ14の記憶装置141に記憶されている認識情報を、サーバ装置3bに送信する。通信モジュール11bは、LiDAR装置15の記憶装置151に記憶されている認識情報を、サーバ装置3bに送信する。通信モジュール11bは、車両HVの走行中に、認識情報を逐次送信する構成とすればよい。通信モジュール11bは、車両HVの駐車中に、走行中に得られた認識情報を送信する構成としてもよい。 The communication module 11b is similar to the communication module 11 of the first embodiment, except for some differences in processing. The differences will be described below. The communication module 11b communicates with the server device 3b via a network. The communication module 11b may communicate with the server device 3b by, for example, cellular communication. For the cellular communication, for example, wireless communication conforming to 5G may be used. The communication module 11b transmits the recognition information stored in the storage device 141 of the external camera 14 to the server device 3b. The communication module 11b transmits the recognition information stored in the storage device 151 of the LiDAR device 15 to the server device 3b. The communication module 11b may be configured to sequentially transmit the recognition information while the vehicle HV is traveling. The communication module 11b may be configured to transmit the recognition information obtained while the vehicle HV is traveling while parked.

通信モジュール11bは、サーバ装置3bのセンサ状態推定装置10bから送信されてくる、センサ状態の推定結果(つまり、診断結果)を通知させる指示を受信する。診断結果を通知させる指示を、以下では通知指示と呼ぶ。通信モジュール11bで受信する通知指示は、HCU18に送られる。そして、HCU18が診断結果を通知させればよい。診断結果の通知については、実施形態1で述べたのと同様にして行えばよい。なお、車両の管理者の端末及び車両の販売店で診断通知を行わせる場合には、車両側ユニット1bを介さない構成としてもよい。例えば、センサ状態推定装置10bが、車両の管理者の端末として登録されたアドレスに診断結果を送信し、端末の表示器で診断結果を通知させればよい。例えば、センサ状態推定装置10bが、車両の販売店のコールセンターとして登録されたアドレスに診断結果を送信してもよい。そして、コールセンターから、販売店の端末の表示器で診断結果を通知させてもよい。 The communication module 11b receives an instruction to notify the sensor state estimation result (i.e., the diagnosis result) transmitted from the sensor state estimation device 10b of the server device 3b. The instruction to notify the diagnosis result is hereinafter referred to as a notification instruction. The notification instruction received by the communication module 11b is sent to the HCU 18. Then, the HCU 18 may notify the diagnosis result. The notification of the diagnosis result may be performed in the same manner as described in the first embodiment. Note that, when the diagnosis notification is performed at the terminal of the vehicle manager and the vehicle dealer, a configuration may be adopted that does not involve the vehicle side unit 1b. For example, the sensor state estimation device 10b may transmit the diagnosis result to an address registered as the terminal of the vehicle manager, and the diagnosis result may be notified on the display of the terminal. For example, the sensor state estimation device 10b may transmit the diagnosis result to an address registered as the call center of the vehicle dealer. Then, the call center may notify the diagnosis result on the display of the terminal of the dealer.

<センサ状態推定装置10bの概略構成>
続いて、図9を用いて、センサ状態推定装置10bの概略構成を説明する。図9に示すように、センサ状態推定装置10bは、記憶用取得部101b、認識情報記憶部102、基準抽出部103、環境情報記録部104、照合用取得部105b、センサ状態推定部106b、及び送受信部107を機能ブロックとして備える。センサ状態推定装置10bは、記憶用取得部101の代わりに記憶用取得部101bを備える。センサ状態推定装置10bは、照合用取得部105の代わりに照合用取得部105bを備える。センサ状態推定装置10bは、センサ状態推定部106の代わりにセンサ状態推定部106bを備える。センサ状態推定装置10bは、送受信部107を備える。センサ状態推定装置10bは、これらの点を除けば、実施形態1のセンサ状態推定装置10と同様である。
<Schematic configuration of sensor state estimation device 10b>
Next, a schematic configuration of the sensor state estimation device 10b will be described with reference to FIG. 9. As shown in FIG. 9, the sensor state estimation device 10b includes a storage acquisition unit 101b, a recognition information storage unit 102, a reference extraction unit 103, an environmental information recording unit 104, a matching acquisition unit 105b, a sensor state estimation unit 106b, and a transmission/reception unit 107 as functional blocks. The sensor state estimation device 10b includes a storage acquisition unit 101b instead of the storage acquisition unit 101. The sensor state estimation device 10b includes a matching acquisition unit 105b instead of the matching acquisition unit 105. The sensor state estimation device 10b includes a sensor state estimation unit 106b instead of the sensor state estimation unit 106. The sensor state estimation device 10b includes a transmission/reception unit 107. Except for these points, the sensor state estimation device 10b is similar to the sensor state estimation device 10 of the first embodiment.

センサ状態推定装置10bが用いるプロセッサは、サーバ装置3bに備えられるプロセッサである。つまり、センサ状態推定装置10bは、自動運転ECU17が用いるのとは異なる演算処理装置を用いる。センサ状態推定装置10bは、車両電源とは異なる電源から電力供給を受けて動作する。センサ状態推定装置10bは、サーバ装置3bの電源から電力供給を受けて動作する。つまり、センサ状態推定装置10bは、自動運転ECU17が電力の供給を受けるのとは異なる電源系統で電力の供給を受ける。 The processor used by the sensor state estimation device 10b is a processor provided in the server device 3b. In other words, the sensor state estimation device 10b uses a different calculation processing device from that used by the autonomous driving ECU 17. The sensor state estimation device 10b operates by receiving power from a power source different from the vehicle power source. The sensor state estimation device 10b operates by receiving power from the power source of the server device 3b. In other words, the sensor state estimation device 10b receives power from a power source system different from that which receives power from the autonomous driving ECU 17.

送受信部107は、ネットワークを介して通信モジュール11bと通信を行う。つまり、送受信部107は、通信モジュール11bとの間で情報の送受信を行う。記憶用取得部101bは、一部の処理が異なる点を除けば、実施形態1の記憶用取得部101と同様である。以下では、この異なる点について説明する。記憶用取得部101bは、外界カメラ14の記憶装置141に記憶されている認識情報を、送受信部107を介して取得する。記憶用取得部101は、LiDAR装置15の記憶装置151に記憶されている認識情報を、送受信部107を介して取得する。つまり、実施形態3の認識情報記憶部102は、認識情報を、通信を介して車両HVから取得して記憶することになる。 The transmission/reception unit 107 communicates with the communication module 11b via the network. That is, the transmission/reception unit 107 transmits and receives information to and from the communication module 11b. The storage acquisition unit 101b is similar to the storage acquisition unit 101 of the first embodiment, except for some differences in processing. The differences are described below. The storage acquisition unit 101b acquires the recognition information stored in the storage device 141 of the external camera 14 via the transmission/reception unit 107. The storage acquisition unit 101 acquires the recognition information stored in the storage device 151 of the LiDAR device 15 via the transmission/reception unit 107. That is, the recognition information storage unit 102 of the third embodiment acquires and stores the recognition information from the vehicle HV via communication.

照合用取得部105bは、一部の処理が異なる点を除けば、実施形態1の照合用取得部105と同様である。以下では、この異なる点について説明する。照合用取得部105は、外界カメラ14及びLiDAR装置15で得られた認識情報を、送受信部107を介して取得する。つまり、周辺監視センサでのセンシング結果から認識される車両HVの周辺環境に含まれる基準物標の認識情報を取得する。照合用取得部105は、例えばセンサ状態推定部106bでセンサ状態の推定を行う場合に、認識情報を取得する構成とすればよい。照合用取得部105bは、例えば記憶装置141,151に記憶されている直近の認識情報を、送受信部107を介して取得すればよい。照合用取得部105bは、外界カメラ14及びLiDAR装置15から逐次出力される認識情報を、送受信部107を介して取得してもよい。 The matching acquisition unit 105b is similar to the matching acquisition unit 105 of the first embodiment, except for some different processing. The following describes this difference. The matching acquisition unit 105 acquires the recognition information obtained by the external camera 14 and the LiDAR device 15 via the transmission/reception unit 107. That is, it acquires recognition information of a reference target included in the surrounding environment of the vehicle HV recognized from the sensing result of the surrounding monitoring sensor. The matching acquisition unit 105 may be configured to acquire recognition information, for example, when the sensor state estimation unit 106b estimates the sensor state. The matching acquisition unit 105b may acquire the most recent recognition information stored in the storage devices 141 and 151 via the transmission/reception unit 107. The matching acquisition unit 105b may acquire the recognition information sequentially output from the external camera 14 and the LiDAR device 15 via the transmission/reception unit 107.

センサ状態推定部106bは、一部の処理が異なる点を除けば、実施形態1のセンサ状態推定部106と同様である。以下では、この異なる点について説明する。センサ状態推定部106bは、センサ状態の推定結果を通知させる指示(つまり、通知指示)を、送受信部107を介して通信モジュール11bへ送信させる。 The sensor state estimation unit 106b is similar to the sensor state estimation unit 106 of the first embodiment, except for some differences in processing. The differences are described below. The sensor state estimation unit 106b transmits an instruction to notify the estimation result of the sensor state (i.e., a notification instruction) to the communication module 11b via the transmission/reception unit 107.

<実施形態3のまとめ>
実施形態3の構成であっても、センサ状態推定装置10と同様に、センサ状態推定装置10bにより、周辺監視センサのセンサ状態をより精度良く推定することが可能になる。また、センサ状態推定装置10bは、自動運転ECU17が用いるのとは異なる演算処理装置を用いる。また、センサ状態推定装置10bは、自動運転ECU17が電力の供給を受けるのとは異なる電源系統で電力の供給を受ける。よって、自動運転に用いられる周辺監視センサの状態の推定を、自動運転を行う移動体における処理負荷及び電力消費を低減して行うことが可能になる。実施形態3では、センサ状態推定装置10bが車両HVの外部にあるため、自動運転に用いられる周辺監視センサの状態の推定を、自動運転を行う移動体における処理負荷及び電力消費をさらに低減して行うことが可能になる。
Summary of the Third Embodiment
Even in the configuration of the third embodiment, the sensor state estimation device 10b can estimate the sensor state of the perimeter monitoring sensor with higher accuracy, similar to the sensor state estimation device 10. Moreover, the sensor state estimation device 10b uses a calculation processing device different from that used by the automatic driving ECU 17. Moreover, the sensor state estimation device 10b receives power from a power supply system different from that used by the automatic driving ECU 17. Therefore, it is possible to estimate the state of the perimeter monitoring sensor used for automatic driving with reduced processing load and power consumption in the moving body performing automatic driving. In the third embodiment, since the sensor state estimation device 10b is outside the vehicle HV, it is possible to estimate the state of the perimeter monitoring sensor used for automatic driving with further reduced processing load and power consumption in the moving body performing automatic driving.

なお、本開示は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。また、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウェア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウェア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 Note that the present disclosure is not limited to the above-described embodiment, and various modifications are possible within the scope of the claims. The technical scope of the present disclosure also includes embodiments obtained by appropriately combining the technical means disclosed in different embodiments. The control unit and the method described in the present disclosure may be realized by a dedicated computer that constitutes a processor programmed to execute one or more functions embodied in a computer program. Alternatively, the device and the method described in the present disclosure may be realized by a dedicated hardware logic circuit. Alternatively, the device and the method described in the present disclosure may be realized by one or more dedicated computers that are configured by combining a processor that executes a computer program with one or more hardware logic circuits. Furthermore, the computer program may be stored in a computer-readable non-transient tangible recording medium as instructions executed by the computer.

1 移動体用システム(センサ状態推定システム)、2,2b 移動体用システム(センサ状態推定システム)、3 サーバ装置(外部記憶装置)、10,10a,10b センサ状態推定装置、11a 通信モジュール(送受信部)、14 外界カメラ(周辺監視センサ,周辺環境認識部)、15 LiDAR装置(周辺監視センサ,周辺環境認識部)、17 自動運転ECU(自動運転制御部)、102 認識情報記憶部、103,103a 基準抽出部、104 環境情報記録部、106,106a,106b センサ状態推定部、1031 型式特定部、1032 設置物特定部 1 Mobile system (sensor state estimation system), 2, 2b Mobile system (sensor state estimation system), 3 Server device (external storage device), 10, 10a, 10b Sensor state estimation device, 11a Communication module (transmitter/receiver), 14 External camera (surroundings monitoring sensor, surrounding environment recognition unit), 15 LiDAR device (surroundings monitoring sensor, surrounding environment recognition unit), 17 Autonomous driving ECU (autonomous driving control unit), 102 Recognition information storage unit, 103, 103a Reference extraction unit, 104 Environmental information recording unit, 106, 106a, 106b Sensor state estimation unit, 1031 Type identification unit, 1032 Installation identification unit

Claims (10)

自動運転を行う移動体の自動運転に用いられる、前記移動体の周辺を監視する周辺監視センサの状態であるセンサ状態を推定するセンサ状態推定装置であって、
前記周辺監視センサでのセンシング結果から認識される前記移動体の周辺環境の情報である認識情報を記憶する認識情報記憶部(102)と、
前記認識情報記憶部に記憶された認識情報から、前記センサ状態を推定するための基準とする基準物標の認識情報を抽出する基準抽出部(103,103a)と、
前記基準抽出部から過去に抽出しておいた基準物標の認識情報と、前記周辺監視センサでの新たなセンシング結果から認識される前記移動体の周辺環境に含まれるその基準物標の新たな認識情報とを照合することで、前記センサ状態を推定するセンサ状態推定部(106,106a,106b)とを備え、
前記自動運転の制御を行う自動運転制御部(17)が用いるのとは異なる演算処理装置を用いるとともに、前記自動運転制御部が電力の供給を受けるのとは異なる電源系統で電力の供給を受けるセンサ状態推定装置。
A sensor state estimation device that estimates a sensor state, which is a state of a periphery monitoring sensor that is used for automatic driving of a moving body that performs automatic driving and monitors a periphery of the moving body, comprising:
a recognition information storage unit (102) for storing recognition information, which is information on the surrounding environment of the moving object recognized from the sensing result of the surrounding monitoring sensor;
a reference extraction unit (103, 103a) that extracts, from the recognition information stored in the recognition information storage unit, recognition information of a reference object that is used as a reference for estimating the sensor state;
a sensor state estimation unit (106, 106a, 106b) that estimates the sensor state by comparing recognition information of a reference object previously extracted by the reference extraction unit with new recognition information of the reference object included in the surrounding environment of the moving body recognized from a new sensing result of the surrounding monitoring sensor;
A sensor state estimation device that uses a processing device different from that used by an autonomous driving control unit (17) that controls the autonomous driving, and that receives power from a power supply system different from that from which the autonomous driving control unit receives power.
請求項1に記載のセンサ状態推定装置であって、
前記移動体の外部の記憶装置である外部記憶装置(3)との間で情報の送受信を行う送受信部(11a)を備え、
前記送受信部は、前記基準抽出部で抽出した基準物標の認識情報を前記外部記憶装置に送信するとともに、前記外部記憶装置に送信した前記基準物標の認識情報を、前記記憶装置から受信し、
前記センサ状態推定部は、前記基準抽出部から過去に抽出しておいた基準物標の認識情報と、前記周辺監視センサでの新たなセンシング結果から認識される前記移動体の周辺環境に含まれるその基準物標の新たな認識情報とを照合することで、前記センサ状態を推定するセンサ状態推定装置。
The sensor state estimation device according to claim 1 ,
A transmitting/receiving unit (11a) for transmitting and receiving information to and from an external storage device (3) that is an external storage device of the mobile body,
the transmitting/receiving unit transmits recognition information of the reference object extracted by the reference extraction unit to the external storage device, and receives the recognition information of the reference object transmitted to the external storage device from the storage device;
The sensor state estimation unit is a sensor state estimation device that estimates the sensor state by comparing recognition information of a reference target previously extracted by the reference extraction unit with new recognition information of the reference target included in the surrounding environment of the moving body recognized from new sensing results of the surrounding monitoring sensor.
請求項1に記載のセンサ状態推定装置であって、
前記基準抽出部は、前記認識情報記憶部に逐次記憶された認識情報から、同一地点に定常的に認識される物標を前記基準物標とし、前記基準物標の認識情報を抽出するセンサ状態推定装置。
The sensor state estimation device according to claim 1 ,
The reference extraction unit is a sensor state estimation device that extracts recognition information of a reference target from the recognition information sequentially stored in the recognition information storage unit, the reference target being a target that is constantly recognized at the same point.
請求項1に記載のセンサ状態推定装置であって、
前記基準抽出部は、前記認識情報記憶部に記憶された認識情報から、前記移動体の周辺環境に含まれる車両についての型式である車両型式を特定する型式特定部(1031)を有し、
前記基準抽出部は、前記型式特定部で特定する車両型式ごとに特有のサイズ情報を、前記基準物標の認識情報として抽出するセンサ状態推定装置。
The sensor state estimation device according to claim 1 ,
The reference extraction unit has a model identification unit (1031) that identifies a vehicle model, which is a model of a vehicle included in the surrounding environment of the moving object, from the recognition information stored in the recognition information storage unit;
The reference extraction unit is configured to extract size information specific to each vehicle model identified by the model identification unit as recognition information of the reference object.
請求項1に記載のセンサ状態推定装置であって、
前記基準抽出部は、前記認識情報記憶部に記憶された認識情報から、前記移動体の周辺環境に含まれる、標準規格が定まった路上設置物を特定する設置物特定部(1032)を有し、
前記基準抽出部は、前記設置物特定部で特定する前記路上設置物ごとに特有のサイズ情報を、前記基準物標の認識情報として抽出するセンサ状態推定装置。
The sensor state estimation device according to claim 1 ,
The criterion extraction unit has an installation identification unit (1032) that identifies a road installation having a standard specification that is included in the surrounding environment of the moving object from the recognition information stored in the recognition information storage unit,
The reference extraction unit is a sensor state estimation device that extracts size information specific to each of the road installations identified by the installation identification unit as recognition information of the reference object.
請求項1に記載のセンサ状態推定装置であって、
前記センサ状態推定部は、前記基準抽出部から抽出された、少なくとも1日前よりも古い過去についての基準物標の認識情報に対する、前記周辺監視センサでの新たなセンシング結果から認識される前記移動体の周辺環境に含まれるその基準物標の新たな認識情報の変動に基づき、センサ状態を推定するセンサ状態推定装置。
The sensor state estimation device according to claim 1 ,
The sensor state estimation unit is a sensor state estimation device that estimates a sensor state based on fluctuations in new recognition information of a reference object included in the surrounding environment of the moving body, recognized from new sensing results of the surrounding monitoring sensor, relative to recognition information of the reference object extracted from the reference extraction unit for a period at least older than one day.
請求項1に記載のセンサ状態推定装置であって、
前記基準抽出部で基準物標の認識情報を抽出した場合に、その基準物標が前記周辺監視センサでセンシングされた際の環境についての情報である環境情報を記録する環境情報記録部(104)を備え、
前記センサ状態推定部は、前記基準抽出部から過去に抽出しておいた基準物標の認識情報を、前記新たなセンシング結果が前記周辺監視センサで得られた際の環境と、前記環境情報記録部に記憶されている前記環境情報が示す環境との違いから、前記新たなセンシング結果が前記周辺監視センサで得られた際の環境において予測される認識情報に補正して、前記センサ状態を推定するセンサ状態推定装置。
The sensor state estimation device according to claim 1 ,
an environmental information recording unit (104) for recording environmental information, which is information about the environment when the reference object is sensed by the perimeter monitoring sensor, when the reference object recognition information is extracted by the reference extraction unit;
The sensor state estimation unit corrects the recognition information of the reference target previously extracted by the reference extraction unit to recognition information predicted in the environment when the new sensing result is obtained by the perimeter monitoring sensor, based on the difference between the environment when the new sensing result is obtained by the perimeter monitoring sensor and the environment indicated by the environmental information stored in the environmental information recording unit, thereby estimating the sensor state.
請求項2に記載のセンサ状態推定装置であって、
前記移動体に設けられるセンサ状態推定装置。
The sensor state estimation device according to claim 2,
A sensor state estimation device provided in the moving body.
請求項1に記載のセンサ状態推定装置であって、
前記移動体の外部に設けられ、
前記認識情報記憶部は、前記認識情報を、通信を介して前記移動体から取得して記憶するセンサ状態推定装置。
The sensor state estimation device according to claim 1 ,
provided outside the moving body,
The recognition information storage unit is a sensor state estimation device that acquires the recognition information from the moving body via communication and stores the recognition information.
自動運転を行う移動体の自動運転に用いられる、前記移動体の周辺を監視する周辺監視センサでのセンシング結果から前記移動体の周辺環境を認識する周辺環境認識部(14,15)と、
前記周辺環境認識部で認識した周辺環境の情報である認識情報をもとに、前記移動体の自動運転の制御を行う自動運転制御部(17)と、
請求項1~9のいずれか1項に記載のセンサ状態推定装置(10,10a,10b)と、を含むセンサ状態推定システム。
A surrounding environment recognition unit (14, 15) that recognizes the surrounding environment of the moving body from a sensing result of a surrounding monitoring sensor that is used for the automatic driving of the moving body and monitors the surroundings of the moving body;
An automatic driving control unit (17) that controls automatic driving of the moving body based on recognition information, which is information on the surrounding environment recognized by the surrounding environment recognition unit;
A sensor state estimation system comprising: a sensor state estimation device (10, 10a, 10b) according to any one of claims 1 to 9.
JP2023077330A 2023-05-09 2023-05-09 Sensor state estimation device and sensor state estimation system Pending JP2024162110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023077330A JP2024162110A (en) 2023-05-09 2023-05-09 Sensor state estimation device and sensor state estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023077330A JP2024162110A (en) 2023-05-09 2023-05-09 Sensor state estimation device and sensor state estimation system

Publications (1)

Publication Number Publication Date
JP2024162110A true JP2024162110A (en) 2024-11-21

Family

ID=93522434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023077330A Pending JP2024162110A (en) 2023-05-09 2023-05-09 Sensor state estimation device and sensor state estimation system

Country Status (1)

Country Link
JP (1) JP2024162110A (en)

Similar Documents

Publication Publication Date Title
US11402836B2 (en) Server device, terminal device, communication system, information reception method, information transmission method, information reception program, information transmission program, recording medium, and data structure
JP7644716B2 (en) Neural network training using ground truth data augmented with map information for autonomous machine applications
JP7424866B2 (en) Leveraging obstacle and lane detection to determine lane assignments for objects in the environment
CN109421738B (en) Method and apparatus for monitoring autonomous vehicles
CN109421739B (en) Method and apparatus for monitoring autonomous vehicles
US11100675B2 (en) Information processing apparatus, information processing method, program, and moving body
JP2022024741A (en) Vehicle control device and vehicle control method
US20200108835A1 (en) Server, information processing method, and non-transitory storage medium storing program
CN113168691A (en) Information processing device, information processing method, program, mobile body control device, and mobile body
JP7626157B2 (en) VIDEO RECORDING SYSTEM, AUTONOMOUS DRIVING SYSTEM, AND VIDEO RECORDING METHOD
US11181924B2 (en) System and method for performing differential analysis of vehicles
JP7038830B2 (en) Satellite-assisted identification method of vehicle position
US20220319191A1 (en) Control device and control method for mobile object, and storage medium
US12469391B2 (en) Driving support system
US12415534B2 (en) Vehicle system and storage medium
US20240426997A1 (en) Information processing apparatus, information processing method, and information processing system
US20220307858A1 (en) Vehicle position estimation device, vehicle position estimation method, and non-transitory recording medium
US11990038B2 (en) Control device, moving body, control method, and storage medium
CN113771845B (en) Method, device, vehicle and storage medium for predicting vehicle trajectory
US20240399866A1 (en) Display apparatus for vehicle, display method, and display program
US20240042927A1 (en) Vehicle notification control device and vehicle notification control method
JP2024162110A (en) Sensor state estimation device and sensor state estimation system
JP2024070586A (en) Vehicle control device
US20240010242A1 (en) Signal processing device and signal processing method
JP7794336B2 (en) App quality confirmation system, app distribution device and app quality confirmation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20251009