[go: up one dir, main page]

JP2019159772A - Vehicle system - Google Patents

Vehicle system Download PDF

Info

Publication number
JP2019159772A
JP2019159772A JP2018045301A JP2018045301A JP2019159772A JP 2019159772 A JP2019159772 A JP 2019159772A JP 2018045301 A JP2018045301 A JP 2018045301A JP 2018045301 A JP2018045301 A JP 2018045301A JP 2019159772 A JP2019159772 A JP 2019159772A
Authority
JP
Japan
Prior art keywords
vehicle
lighting
camera
unit
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018045301A
Other languages
Japanese (ja)
Inventor
大坪 高之
Takayuki Otsubo
高之 大坪
成彦 風岡
Shigehiko Kazaoka
成彦 風岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Priority to JP2018045301A priority Critical patent/JP2019159772A/en
Priority to CN201910184045.1A priority patent/CN110271480B/en
Publication of JP2019159772A publication Critical patent/JP2019159772A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • B60Q1/085Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

To provide a vehicle system capable of improving the accuracy of recognizing the surrounding environment of a vehicle.SOLUTION: A vehicle system includes: a camera 43a configured to acquire image data indicating the surrounding environment of a vehicle at a first rate; a camera control part 420a configured to control the operation of the camera 43a; a lighting unit 42a configured to emit light toward the outside of the vehicle; a lighting control part 410a configured to control lighting of the lighting unit 42a at a second rate; a wireless communication part configured to receive a standard time signal indicating the standard time; and an internal time adjustment part configured to adjust the internal time so that the internal time of the vehicle matches the standard time based on the standard time signal. The lighting timing of the lighting unit 42a matches the lighting timing of the second lighting unit provided in a second vehicle outside the vehicle. The camera control part 420a determines the acquisition timing of each frame of the image data based on information related to the lighting timing of the lighting unit 42a.SELECTED DRAWING: Figure 3

Description

本開示は、車両システムに関する。特に、本開示は、自動運転モードで走行可能な車両に設けられた車両システムに関する。   The present disclosure relates to a vehicle system. In particular, the present disclosure relates to a vehicle system provided in a vehicle that can travel in an automatic driving mode.

現在、自動車の自動運転技術の研究が各国で盛んに行われており、自動運転モードで車両(以下、「車両」は自動車のことを指す。)が公道を走行することができるための法整備が各国で検討されている。ここで、自動運転モードでは、車両システムが車両の走行を自動的に制御する。具体的には、自動運転モードでは、車両システムは、カメラ、レーダ(例えば、レーザレーダやミリ波レーダ)等のセンサから得られる車両の周辺環境を示す情報(周辺環境情報)に基づいてステアリング制御(車両の進行方向の制御)、ブレーキ制御及びアクセル制御(車両の制動、加減速の制御)のうちの少なくとも1つを自動的に行う。一方、以下に述べる手動運転モードでは、従来型の車両の多くがそうであるように、運転者が車両の走行を制御する。具体的には、手動運転モードでは、運転者の操作(ステアリング操作、ブレーキ操作、アクセル操作)に従って車両の走行が制御され、車両システムはステアリング制御、ブレーキ制御及びアクセル制御を自動的に行わない。尚、車両の運転モードとは、一部の車両のみに存在する概念ではなく、自動運転機能を有さない従来型の車両も含めた全ての車両において存在する概念であって、例えば、車両制御方法等に応じて分類される。   Currently, there is a lot of research on autonomous driving technology in various countries, and legislation to enable vehicles (hereinafter referred to as “vehicles” to refer to automobiles) on public roads in autonomous driving mode. Are being studied in various countries. Here, in the automatic operation mode, the vehicle system automatically controls the traveling of the vehicle. Specifically, in the automatic driving mode, the vehicle system performs steering control based on information (surrounding environment information) indicating the surrounding environment of the vehicle obtained from a sensor such as a camera or a radar (for example, a laser radar or a millimeter wave radar). At least one of (control of the traveling direction of the vehicle), brake control and accelerator control (vehicle braking, acceleration / deceleration control) is automatically performed. On the other hand, in the manual driving mode described below, the driver controls the traveling of the vehicle, as is the case with many conventional vehicles. Specifically, in the manual operation mode, vehicle travel is controlled in accordance with driver operations (steering operation, brake operation, accelerator operation), and the vehicle system does not automatically perform steering control, brake control, and accelerator control. The vehicle driving mode is not a concept that exists only in some vehicles, but a concept that exists in all vehicles including conventional vehicles that do not have an automatic driving function. It is classified according to the method.

このように、将来において、公道上では自動運転モードで走行中の車両(以下、適宜、「自動運転車」という。)と手動運転モードで走行中の車両(以下、適宜、「手動運転車」という。)が混在することが予想される。   Thus, in the future, on the public road, a vehicle running in the automatic driving mode (hereinafter referred to as “automatic driving vehicle” as appropriate) and a vehicle running in the manual driving mode (hereinafter referred to as “manual driving vehicle” as appropriate). Is expected to be mixed.

自動運転技術の一例として、特許文献1には、先行車に後続車が自動追従走行した自動追従走行システムが開示されている。当該自動追従走行システムでは、先行車と後続車の各々が照明システムを備えており、先行車と後続車との間に他車が割り込むことを防止するための文字情報が先行車の照明システムに表示されると共に、自動追従走行である旨を示す文字情報が後続車の照明システムに表示される。   As an example of the automatic driving technique, Patent Literature 1 discloses an automatic following traveling system in which a following vehicle automatically follows a preceding vehicle. In the automatic following traveling system, each of the preceding vehicle and the following vehicle has an illumination system, and character information for preventing another vehicle from interrupting between the preceding vehicle and the following vehicle is included in the lighting system of the preceding vehicle. In addition to being displayed, character information indicating that the vehicle is following the vehicle automatically is displayed on the lighting system of the following vehicle.

特開平9−277887号公報Japanese Patent Laid-Open No. 9-277887

ところで、自動運転技術の発展において、車両の周辺環境の認知精度を飛躍的に向上させることが課題となっている。この点において、車両の周辺環境を示す周辺環境情報は、車両に搭載されたカメラにより取得された画像データに基づいて生成されるため、画像データの信頼性は、周辺環境情報の信頼性に大きく影響を与える。一方、夜間において車両が走行中の場合、対向車の照明ユニットから出射されたハイビーム等のグレア光が画像データの信頼性に悪影響を及ぼす可能性がある。より具体的には、対向車の照明ユニットから出射された光によって画像データにハレーションが生じるため、当該車両は、周辺環境情報(特に、他車両の存在)を正確に特定することができない虞がある。   By the way, in the development of automatic driving technology, it has been a challenge to dramatically improve the recognition accuracy of the surrounding environment of the vehicle. In this respect, since the surrounding environment information indicating the surrounding environment of the vehicle is generated based on the image data acquired by the camera mounted on the vehicle, the reliability of the image data is largely the reliability of the surrounding environment information. Influence. On the other hand, when the vehicle is traveling at night, glare light such as a high beam emitted from the lighting unit of the oncoming vehicle may adversely affect the reliability of the image data. More specifically, since the image data is halated by the light emitted from the lighting unit of the oncoming vehicle, the vehicle may not be able to accurately specify the surrounding environment information (particularly, the presence of other vehicles). is there.

本開示は、車両の周辺環境の認知精度を向上させることが可能な車両システムを提供することを目的とする。   An object of the present disclosure is to provide a vehicle system capable of improving the recognition accuracy of the surrounding environment of the vehicle.

本開示の一態様に係る車両システムは、自動運転モードで走行可能な車両に設けられている。
車両システムは、
第1レートで前記車両の周辺環境を示す画像データを取得するように構成されたカメラと、
前記カメラの動作を制御するように構成されたカメラ制御部と、
前記車両の外部に向けて光を出射するように構成された照明ユニットと、
第2レートで前記照明ユニットを点灯制御するように構成された照明制御部と、
標準時刻を示す標準時刻信号を受信するように構成された無線通信部と、
前記標準時刻信号に基づいて、前記車両の内部時刻が前記標準時刻に一致するように前記内部時刻を調整するように構成された内部時刻調整部と、
を備える。
前記照明ユニットの点灯タイミングと前記車両の外部に存在する第2車両に設けられた第2照明ユニットの点灯タイミングが互いに一致する。
前記カメラ制御部は、前記照明ユニットの点灯タイミングに関連する情報に基づいて、前記画像データの各フレームの取得タイミングを決定する。
A vehicle system according to an aspect of the present disclosure is provided in a vehicle that can travel in an automatic driving mode.
The vehicle system
A camera configured to acquire image data indicating the surrounding environment of the vehicle at a first rate;
A camera controller configured to control the operation of the camera;
A lighting unit configured to emit light toward the outside of the vehicle;
An illumination controller configured to control lighting of the illumination unit at a second rate;
A wireless communication unit configured to receive a standard time signal indicating the standard time;
Based on the standard time signal, an internal time adjustment unit configured to adjust the internal time so that the internal time of the vehicle matches the standard time;
Is provided.
The lighting timing of the lighting unit and the lighting timing of the second lighting unit provided in the second vehicle existing outside the vehicle coincide with each other.
The camera control unit determines acquisition timing of each frame of the image data based on information related to lighting timing of the lighting unit.

上記構成によれば、照明ユニットの点灯タイミングと第2照明ユニットの点灯タイミングが互いに一致すると共に、画像データの各フレームの取得タイミングは、照明ユニットの点灯タイミングに関連する情報に基づいて決定される。このように、各フレームの取得タイミングは、第2照明ユニットの点灯タイミングに基づいて決定されるため、第2照明ユニットから出射された光によって画像データの各フレームにハレーションが生じることを好適に防止することが可能となる。このように、車両の周辺環境の認知精度を向上させることが可能な車両システムを提供することができる。   According to the above configuration, the lighting timing of the lighting unit and the lighting timing of the second lighting unit coincide with each other, and the acquisition timing of each frame of the image data is determined based on information related to the lighting timing of the lighting unit. . Thus, since the acquisition timing of each frame is determined based on the lighting timing of the second lighting unit, it is preferable to prevent halation from occurring in each frame of the image data due to the light emitted from the second lighting unit. It becomes possible to do. Thus, the vehicle system which can improve the recognition accuracy of the surrounding environment of a vehicle can be provided.

本開示の別の態様に係る車両システムは、自動運転モードで走行可能な車両に設けられている。
車両システムは、
第1レートで前記車両の周辺環境を示す第1画像データを取得するように構成された第1カメラと、
前記第1レートよりも高い第2レートで前記車両の周辺環境を示す第2画像データを取得するように構成された第2カメラと、
前記第1カメラ及び前記第2カメラの動作を制御するように構成されたカメラ制御部と、
を備える。
前記カメラ制御部は、
前記第2画像データに基づいて、前記車両の外部に存在する第2車両に設けられた第2照明ユニットの点灯タイミングに関連する点灯タイミング情報を特定し、
前記特定された点灯タイミング情報に基づいて、前記第1画像データの各フレームの取得タイミングを決定するように構成される。
A vehicle system according to another aspect of the present disclosure is provided in a vehicle that can travel in an automatic operation mode.
The vehicle system
A first camera configured to obtain first image data indicating a surrounding environment of the vehicle at a first rate;
A second camera configured to acquire second image data indicating a surrounding environment of the vehicle at a second rate higher than the first rate;
A camera control unit configured to control operations of the first camera and the second camera;
Is provided.
The camera control unit
Based on the second image data, identifying lighting timing information related to the lighting timing of the second lighting unit provided in the second vehicle existing outside the vehicle,
The acquisition timing of each frame of the first image data is determined based on the specified lighting timing information.

本開示によれば、車両の周辺環境の認知精度を向上させることが可能な車両システムを提供することができる。   According to the present disclosure, it is possible to provide a vehicle system capable of improving the recognition accuracy of the surrounding environment of the vehicle.

車両システムを備える車両の上面図を示す模式図である。It is a schematic diagram which shows the top view of a vehicle provided with a vehicle system. 車両システムを示すブロック図である。It is a block diagram which shows a vehicle system. 第1実施形態における左前照明システムの制御部の機能ブロックを示す図である。It is a figure which shows the functional block of the control part of the left front illumination system in 1st Embodiment. 互いに対向する2つの車両1A,1Bを示す図である。It is a figure which shows two vehicles 1A and 1B which mutually oppose. 第1実施形態に係る画像データの各フレームの取得タイミングを決定する処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which determines the acquisition timing of each flame | frame of the image data which concerns on 1st Embodiment. (a)は、車両1Aにおける照明ユニットの点灯タイミングと画像データの各フレームの取得タイミングとの関係を説明するために図(その1)である。(b)は、車両1Bにおける照明ユニットの点灯タイミングと画像データの各フレームの取得タイミングとの関係を説明するための図(その1)である。(A) is a figure (the 1) in order to demonstrate the relationship between the lighting timing of the illumination unit in vehicle 1A, and the acquisition timing of each flame | frame of image data. (B) is a figure (the 1) for demonstrating the relationship between the lighting timing of the lighting unit in vehicle 1B, and the acquisition timing of each flame | frame of image data. (a)は、車両1Aにおける照明ユニットの点灯タイミングと画像データの各フレームの取得タイミングとの関係を説明するために図(その2)である。(b)は、車両1Bにおける照明ユニットの点灯タイミングと画像データの各フレームの取得タイミングとの関係を説明するための図(その2)である。(A) is a figure (the 2) in order to demonstrate the relationship between the lighting timing of the lighting unit in vehicle 1A, and the acquisition timing of each flame | frame of image data. (B) is the figure (the 2) for demonstrating the relationship between the lighting timing of the illumination unit in the vehicle 1B, and the acquisition timing of each flame | frame of image data. 第2実施形態に係る第1画像データの各フレームの取得タイミングを決定する処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which determines the acquisition timing of each flame | frame of 1st image data which concerns on 2nd Embodiment. 第2実施形態における左前照明システムの制御部の機能ブロックを示す図である。It is a figure which shows the functional block of the control part of the left front illumination system in 2nd Embodiment. (a)は、車両1Aの第1カメラにより取得される第1画像データの各フレームの取得タイミングを示す図である。(b)は、車両1Bの照明ユニットの点灯タイミングを示す図である。(A) is a figure showing the acquisition timing of each frame of the 1st image data acquired by the 1st camera of vehicles 1A. (B) is a figure which shows the lighting timing of the lighting unit of the vehicle 1B.

(第1実施形態)
以下、第1実施形態について図面を参照しながら説明する。第1実施形態の説明では、説明の便宜上、「左右方向」、「前後方向」について適宜言及する。これらの方向は、図1に示す車両1について設定された相対的な方向である。ここで、「前後方向」は、「前方向」及び「後方向」を含む方向である。「左右方向」は、「左方向」及び「右方向」を含む方向である。
(First embodiment)
Hereinafter, the first embodiment will be described with reference to the drawings. In the description of the first embodiment, for the convenience of description, the “left-right direction” and the “front-rear direction” are referred to as appropriate. These directions are relative directions set for the vehicle 1 shown in FIG. Here, the “front-rear direction” is a direction including “front direction” and “rear direction”. The “left / right direction” is a direction including “left direction” and “right direction”.

最初に、図1を参照して本実施形態に係る車両1について説明する。図1は、車両システム2を備える車両1の上面図を示す模式図である。図1に示すように、車両1は、自動運転モードで走行可能な車両(自動車)であって、車両システム2を備える。車両システム2は、車両制御部3と、左前照明システム4a(以下、単に「照明システム4a」という。)と、右前照明システム4b(以下、単に「照明システム4b」という。)と、左後照明システム4c(以下、単に「照明システム4c」という。)と、右後照明システム4d(以下、単に「照明システム4d」という。)を少なくとも備える。   First, the vehicle 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a schematic diagram illustrating a top view of a vehicle 1 including a vehicle system 2. As shown in FIG. 1, the vehicle 1 is a vehicle (automobile) that can travel in the automatic operation mode, and includes a vehicle system 2. The vehicle system 2 includes a vehicle control unit 3, a left front lighting system 4a (hereinafter simply referred to as “lighting system 4a”), a right front lighting system 4b (hereinafter simply referred to as “lighting system 4b”), and a left rear lighting. A system 4c (hereinafter simply referred to as “lighting system 4c”) and a right rear lighting system 4d (hereinafter simply referred to as “lighting system 4d”) are provided.

照明システム4aは、車両1の左前側に設けられる。特に、照明システム4aは、車両1の左前側に設置されたハウジング24aと、ハウジング24aに取り付けられた透光カバー22aとを備える。照明システム4bは、車両1の右前側に設けられる。特に、照明システム4bは、車両1の右前側に設置されたハウジング24bと、ハウジング24bに取り付けられた透光カバー22bとを備える。照明システム4cは、車両1の左後側に設けられる。特に、照明システム4cは、車両1の左後側に設置されたハウジング24cと、ハウジング24cに取り付けられた透光カバー22cとを備える。照明システム4dは、車両1の右後側に設けられる。特に、照明システム4dは、車両1の右後側に設置されたハウジング24dと、ハウジング24dに取り付けられた透光カバー22dとを備える。   The illumination system 4 a is provided on the left front side of the vehicle 1. In particular, the lighting system 4a includes a housing 24a installed on the left front side of the vehicle 1 and a light-transmitting cover 22a attached to the housing 24a. The illumination system 4 b is provided on the right front side of the vehicle 1. In particular, the lighting system 4b includes a housing 24b installed on the right front side of the vehicle 1 and a translucent cover 22b attached to the housing 24b. The illumination system 4 c is provided on the left rear side of the vehicle 1. In particular, the lighting system 4c includes a housing 24c installed on the left rear side of the vehicle 1 and a light-transmitting cover 22c attached to the housing 24c. The lighting system 4d is provided on the right rear side of the vehicle 1. In particular, the illumination system 4d includes a housing 24d installed on the right rear side of the vehicle 1 and a light-transmitting cover 22d attached to the housing 24d.

次に、図2を参照することで、図1に示す車両システム2を具体的に説明する。図2は、車両システム2を示すブロック図である。図2に示すように、車両システム2は、車両制御部3と、照明システム4a〜4dと、センサ5と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11とを備える。さらに、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。また、車両システム2は、電力を供給するように構成されたバッテリー(図示せず)を備えてもよい。   Next, the vehicle system 2 shown in FIG. 1 will be described in detail with reference to FIG. FIG. 2 is a block diagram showing the vehicle system 2. As shown in FIG. 2, the vehicle system 2 includes a vehicle control unit 3, lighting systems 4a to 4d, a sensor 5, an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, and a wireless communication unit. 10 and a storage device 11. Further, the vehicle system 2 includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17. The vehicle system 2 may also include a battery (not shown) configured to supply power.

車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及びTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。   The vehicle control unit 3 is configured to control the traveling of the vehicle 1. The vehicle control unit 3 is configured by, for example, at least one electronic control unit (ECU: Electronic Control Unit). The electronic control unit includes a computer system (e.g., SoC (System on a Chip)) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements. The processor includes, for example, at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit). The CPU may be composed of a plurality of CPU cores. The GPU may be configured by a plurality of GPU cores. The memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory). A vehicle control program may be stored in the ROM.

例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラムである。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。   For example, the vehicle control program may include an artificial intelligence (AI) program for automatic driving. The AI program is a program constructed by supervised or unsupervised machine learning (particularly deep learning) using a multilayer neural network. The RAM may temporarily store a vehicle control program, vehicle control data, and / or surrounding environment information indicating the surrounding environment of the vehicle. The processor may be configured to expand a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.

また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field−Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。   In addition, the computer system may be configured by a non-Neumann computer such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array). Furthermore, the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.

照明システム4aは、制御部40aと、照明ユニット42aと、カメラ43aと、LiDAR(Light Detection and Ranging)ユニット44a(レーザーレーダの一例)と、ミリ波レーダ45aとをさらに備える。制御部40aと、照明ユニット42aと、カメラ43aと、LiDARユニット44aと、ミリ波レーダ45aは、図1に示すように、ハウジング24aと透光カバー22aによって形成される空間Sa内(灯室内)に配置される。尚、制御部40aは、空間Sa以外の車両1の所定の場所に配置されてもよい。例えば、制御部40aは、車両制御部3と一体的に構成されてもよい。   The illumination system 4a further includes a control unit 40a, an illumination unit 42a, a camera 43a, a LiDAR (Light Detection and Ranging) unit 44a (an example of a laser radar), and a millimeter wave radar 45a. As shown in FIG. 1, the control unit 40a, the illumination unit 42a, the camera 43a, the LiDAR unit 44a, and the millimeter wave radar 45a are in the space Sa (in the lamp chamber) formed by the housing 24a and the translucent cover 22a. Placed in. In addition, the control part 40a may be arrange | positioned in the predetermined places of the vehicles 1 other than space Sa. For example, the control unit 40a may be configured integrally with the vehicle control unit 3.

制御部40aは、例えば、少なくとも一つの電子制御ユニット(ECU)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU、MPU、GPU及びTPUのうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROMと、RAMを含む。ROMには、車両1の周辺環境を特定するための周辺環境特定プログラムが記憶されてもよい。   The control unit 40a is configured by at least one electronic control unit (ECU), for example. The electronic control unit includes a computer system (e.g., SoC) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements. The processor includes, for example, at least one of a CPU, MPU, GPU, and TPU. The CPU may be composed of a plurality of CPU cores. The GPU may be configured by a plurality of GPU cores. The memory includes a ROM and a RAM. The ROM may store a surrounding environment specifying program for specifying the surrounding environment of the vehicle 1.

例えば、周辺環境特定プログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラムである。RAMには、周辺環境特定プログラム、カメラ43aに取得された画像データ、LiDARユニット44aによって取得された3次元マッピングデータ(点群データ)及びミリ波レーダ45aによって取得された検出データ等が一時的に記憶されてもよい。プロセッサは、ROMに記憶された周辺環境特定プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。   For example, the surrounding environment specifying program is a program constructed by supervised or unsupervised machine learning (particularly deep learning) using a multilayer neural network. The RAM temporarily stores a surrounding environment specifying program, image data acquired by the camera 43a, three-dimensional mapping data (point cloud data) acquired by the LiDAR unit 44a, detection data acquired by the millimeter wave radar 45a, and the like. It may be stored. The processor may be configured to develop a program designated from the peripheral environment specifying program stored in the ROM on the RAM and execute various processes in cooperation with the RAM.

また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。   The computer system may be configured by a non-Neumann computer such as an ASIC or FPGA. Furthermore, the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.

照明ユニット42aは、車両1の外部(前方)に向けて光を出射することによって、配光パターンを形成するように構成されている。照明ユニット42aは、光を出射する光源と、光学系とを有する。光源は、例えば、マトリックス状(例えば、N行×M列、N>1、M>1)に配列された複数の発光素子によって構成されてもよい。発光素子は、例えば、LED(Light Emitting Diode)、LD(Laser Diode)又は有機EL素子である。光学系は、光源から出射された光を照明ユニット42aの前方に向けて反射するように構成されたリフレクタと、光源から直接出射された光又はリフレクタによって反射された光を屈折するように構成されたレンズとのうちの少なくとも一方を含む。車両1の運転モードが手動運転モード又は運転支援モードである場合に、照明ユニット42aは、運転者用の配光パターン(例えば、ロービーム用配光パターンやハイビーム用配光パターン)を車両1の前方に形成するように構成されている。このように、照明ユニット42aは、左側ヘッドランプユニットとして機能する。一方、車両1の運転モードが高度運転支援モード又は完全自動運転モードである場合に、照明ユニット42aは、カメラ用の配光パターンを車両1の前方に形成するように構成されてもよい。   The illumination unit 42 a is configured to form a light distribution pattern by emitting light toward the outside (front) of the vehicle 1. The illumination unit 42a includes a light source that emits light and an optical system. For example, the light source may be configured by a plurality of light emitting elements arranged in a matrix (for example, N rows × M columns, N> 1, M> 1). The light emitting element is, for example, an LED (Light Emitting Diode), an LD (Laser Diode), or an organic EL element. The optical system is configured to refract the light emitted from the light source and reflected toward the front of the illumination unit 42a, and the light directly emitted from the light source or the light reflected by the reflector. At least one of the other lenses. When the driving mode of the vehicle 1 is the manual driving mode or the driving support mode, the lighting unit 42a displays a driver light distribution pattern (for example, a low beam light distribution pattern or a high beam light distribution pattern) in front of the vehicle 1. It is comprised so that it may form. Thus, the illumination unit 42a functions as a left headlamp unit. On the other hand, when the driving mode of the vehicle 1 is the advanced driving support mode or the fully automatic driving mode, the lighting unit 42a may be configured to form a light distribution pattern for the camera in front of the vehicle 1.

制御部40aは、照明ユニット42aに設けられた複数の発光素子の各々に電気信号(例えば、PWM(Pulse Width Modulation)信号)を個別に供給するように構成されていてもよい。この場合、制御部40aは、電気信号が供給される発光素子を個別に選択することができると共に、発光素子毎に電気信号のDuty比を調整することができる。つまり、制御部40aは、マトリックス状に配列された複数の発光素子のうち、点灯又は消灯すべき発光素子を選択することができると共に、点灯している各発光素子の輝度を決定することができる。このため、制御部40aは、照明ユニット42aから前方に向けて出射される配光パターンの形状及び明るさを変更することができる。   The control unit 40a may be configured to individually supply an electric signal (for example, a PWM (Pulse Width Modulation) signal) to each of the plurality of light emitting elements provided in the illumination unit 42a. In this case, the control unit 40a can individually select the light emitting elements to which the electric signal is supplied, and can adjust the duty ratio of the electric signal for each light emitting element. That is, the control unit 40a can select a light emitting element to be turned on or off from a plurality of light emitting elements arranged in a matrix, and can determine the luminance of each light emitting element that is turned on. . For this reason, the control unit 40a can change the shape and brightness of the light distribution pattern emitted forward from the illumination unit 42a.

カメラ43aは、車両1の周辺環境を検出するように構成されている。特に、カメラ43aは、所定のフレームレートで車両1の周辺環境を示す画像データを取得した上で、当該画像データを制御部40aに送信するように構成されている。制御部40aは、送信された画像データに基づいて、周辺環境情報を特定する。ここで、周辺環境情報は、車両1の外部に存在する対象物に関する情報を含んでもよい。例えば、周辺環境情報は、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の相対的位置関係に関する情報とを含んでもよい。   The camera 43a is configured to detect the surrounding environment of the vehicle 1. In particular, the camera 43a is configured to acquire image data indicating the surrounding environment of the vehicle 1 at a predetermined frame rate and then transmit the image data to the control unit 40a. The controller 40a identifies the surrounding environment information based on the transmitted image data. Here, the surrounding environment information may include information on an object existing outside the vehicle 1. For example, the surrounding environment information may include information related to the attribute of the object existing outside the vehicle 1 and information related to the relative positional relationship of the object with respect to the vehicle 1.

カメラ43aは、例えば、CCD(Charge−Coupled Device)やCMOS(相補型MOS:Metal Oxide Semiconductor)等の撮像素子によって構成される。カメラ43aは、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。カメラ43aがステレオカメラの場合、制御部40aは、視差を利用することで、ステレオカメラによって取得された2以上の画像データに基づいて、車両1と車両1の外部に存在する対象物(例えば、歩行者等)との間の距離を特定することができる。また、本実施形態では、1つのカメラ43aが照明システム4aに設けられているが、2以上のカメラ43aが照明システム4aに設けられてもよい。   The camera 43a is configured by an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS: Metal Oxide Semiconductor), for example. The camera 43a may be configured as a monocular camera or a stereo camera. When the camera 43a is a stereo camera, the control unit 40a uses the parallax, and based on two or more image data acquired by the stereo camera, the vehicle 1 and an object existing outside the vehicle 1 (for example, Distance from a pedestrian or the like). In the present embodiment, one camera 43a is provided in the illumination system 4a. However, two or more cameras 43a may be provided in the illumination system 4a.

LiDARユニット44a(レーザーレーダの一例)は、車両1の周辺環境を検出するように構成されている。特に、LiDARユニット44aは、所定のフレームレートで車両1の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを制御部40aに送信するように構成されている。制御部40aは、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。ここで、周辺環境情報は、車両1の外部に存在する対象物に関する情報を含んでもよい。例えば、周辺環境情報は、例えば、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の相対的位置関係に関する情報とを含んでもよい。   The LiDAR unit 44a (an example of a laser radar) is configured to detect the surrounding environment of the vehicle 1. In particular, the LiDAR unit 44a is configured to transmit 3D mapping data to the control unit 40a after acquiring 3D mapping data (point cloud data) indicating the surrounding environment of the vehicle 1 at a predetermined frame rate. . The controller 40a identifies the surrounding environment information based on the transmitted 3D mapping data. Here, the surrounding environment information may include information on an object existing outside the vehicle 1. For example, the surrounding environment information may include, for example, information related to an attribute of an object existing outside the vehicle 1 and information related to a relative positional relationship of the object with respect to the vehicle 1.

より具体的には、LiDARユニット44aは、レーザ光の各出射角度(水平角度θ、垂直角度φ)におけるレーザ光(光パルス)の飛行時間(TOF:Time of Flight)ΔT1に関する情報を取得した上で、飛行時間ΔT1に関する情報に基づいて、各出射角度(水平角度θ、垂直角度φ)におけるLiDARユニット44a(車両1)と車両1の外部に存在する物体との間の距離Dに関する情報を取得することができる。ここで、飛行時間ΔT1は、例えば、以下のように算出することができる。

飛行時間ΔT1=t1−t0

t1:レーザ光(光パルス)がLiDARユニットに戻ってきた時刻
t0:LiDARユニットがレーザ光(光パルス)を出射した時刻

このように、LiDARユニット44aは、車両1の周辺環境を示す3Dマッピングデータを取得することができる。
More specifically, the LiDAR unit 44a obtains information on the flight time (TOF: Time of Flight) ΔT1 of the laser beam (light pulse) at each laser beam emission angle (horizontal angle θ, vertical angle φ). Thus, information on the distance D between the LiDAR unit 44a (vehicle 1) and an object existing outside the vehicle 1 at each emission angle (horizontal angle θ, vertical angle φ) is acquired based on information on the flight time ΔT1. can do. Here, the flight time ΔT1 can be calculated as follows, for example.

Flight time ΔT1 = t1-t0

t1: Time when laser light (light pulse) returns to the LiDAR unit t0: Time when LiDAR unit emits laser light (light pulse)

Thus, the LiDAR unit 44a can acquire 3D mapping data indicating the surrounding environment of the vehicle 1.

また、LiDARユニット44aは、例えば、レーザ光を出射するように構成されたレーザ光源と、レーザ光を水平方向及び垂直方向に走査させるように構成された光偏向器と、レンズ等の光学系と、物体によって反射されたレーザ光を受光するように構成された受光部とを備える。レーザ光源から出射されるレーザ光の中心波長は特に限定されない。例えば、レーザ光は、中心波長が900nm付近である非可視光であってもよい。光偏向器は、例えば、MEMS(Micro Electro Mechanical Systems)ミラーであってもよい。受光部は、例えば、フォトダイオードである。尚、LIDARユニット44aは、光偏向器によってレーザ光を走査せずに、3Dマッピングデータを取得してもよい。例えば、LiDARユニット44aは、フェイズドアレイ方式又はフラッシュ方式で3Dマッピングデータを取得してもよい。また、本実施形態では、1つのLiDARユニット44aが照明システム4aに設けられているが、2以上のLiDARユニット44aが照明システム4aに設けられてもよい。例えば、2つのLiDARユニット44aが照明システム4aに設けられている場合、一方のLiDARユニット44aが車両1の前方領域における周辺環境を検出するように構成されると共に、他方のLiDARユニット44aが車両1の側方領域における周辺環境を検出するように構成されてもよい。   The LiDAR unit 44a includes, for example, a laser light source configured to emit laser light, an optical deflector configured to scan the laser light in a horizontal direction and a vertical direction, and an optical system such as a lens. And a light receiving unit configured to receive the laser light reflected by the object. The center wavelength of the laser light emitted from the laser light source is not particularly limited. For example, the laser light may be invisible light having a center wavelength near 900 nm. The optical deflector may be, for example, a MEMS (Micro Electro Mechanical Systems) mirror. The light receiving unit is, for example, a photodiode. The LIDAR unit 44a may acquire 3D mapping data without scanning the laser beam with the optical deflector. For example, the LiDAR unit 44a may acquire 3D mapping data by a phased array method or a flash method. In the present embodiment, one LiDAR unit 44a is provided in the illumination system 4a, but two or more LiDAR units 44a may be provided in the illumination system 4a. For example, when two LiDAR units 44a are provided in the lighting system 4a, one LiDAR unit 44a is configured to detect the surrounding environment in the front area of the vehicle 1, and the other LiDAR unit 44a is configured to detect the vehicle 1 It may be configured to detect the surrounding environment in the lateral region of the.

ミリ波レーダ45aは、車両1の周辺環境を検出するように構成されている。特に、ミリ波レーダ45aは、車両1の周辺環境を示す検出データを取得した上で、当該検出データを制御部40aに送信するように構成されている。制御部40aは、送信された検出データに基づいて、周辺環境情報を特定する。ここで、周辺環境情報は、車両1の外部に存在する対象物に関する情報を含んでもよい。周辺環境情報は、例えば、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の位置に関する情報と、車両1に対する対象物の速度に関する情報を含んでもよい。   The millimeter wave radar 45 a is configured to detect the surrounding environment of the vehicle 1. In particular, the millimeter wave radar 45 a is configured to transmit detection data to the control unit 40 a after acquiring detection data indicating the surrounding environment of the vehicle 1. The control unit 40a specifies the surrounding environment information based on the transmitted detection data. Here, the surrounding environment information may include information on an object existing outside the vehicle 1. The surrounding environment information may include, for example, information related to the attribute of an object existing outside the vehicle 1, information related to the position of the object relative to the vehicle 1, and information related to the speed of the object relative to the vehicle 1.

例えば、ミリ波レーダ45aは、パルス変調方式、FM−CW(Frequency Moduleted−Continuous Wave)方式又は2周波CW方式で、ミリ波レーダ45a(車両1)と車両1の外部に存在する物体との間の距離Dを取得することができる。パルス変調方式を用いる場合、ミリ波レーダ45aは、ミリ波の各出射角度におけるミリ波の飛行時間ΔT2に関する情報を取得した上で、飛行時間ΔT2に関する情報に基づいて、各出射角度におけるミリ波レーダ45a(車両1)と車両1の外部に存在する物体との間の距離Dに関する情報を取得することができる。ここで、飛行時間ΔT2は、例えば、以下のように算出することができる。

飛行時間ΔT2=t3−t2

t3:ミリ波がミリ波レーダに戻ってきた時刻
t2:ミリ波レーダがミリ波を出射した時刻

また、ミリ波レーダ45aは、ミリ波レーダ45aから出射されたミリ波の周波数f0とミリ波レーダ45aに戻ってきたミリ波の周波数f1に基づいて、ミリ波レーダ45a(車両1)に対する車両1の外部に存在する物体の相対速度Vに関する情報を取得することができる。
For example, the millimeter wave radar 45 a is a pulse modulation method, an FM-CW (Frequency Modulated-Continuous Wave) method, or a two-frequency CW method, and between the millimeter wave radar 45 a (the vehicle 1) and an object existing outside the vehicle 1. Distance D can be obtained. When the pulse modulation method is used, the millimeter wave radar 45a acquires information on the flight time ΔT2 of the millimeter wave at each emission angle of the millimeter wave, and then, based on the information on the flight time ΔT2, the millimeter wave radar at each emission angle. Information regarding the distance D between 45a (vehicle 1) and an object existing outside the vehicle 1 can be acquired. Here, the flight time ΔT2 can be calculated as follows, for example.

Flight time ΔT2 = t3−t2

t3: Time when millimeter wave returns to millimeter wave radar t2: Time when millimeter wave radar emits millimeter wave

Also, the millimeter wave radar 45a is based on the millimeter wave frequency f0 emitted from the millimeter wave radar 45a and the millimeter wave frequency f1 returned to the millimeter wave radar 45a, and the vehicle 1 with respect to the millimeter wave radar 45a (vehicle 1). It is possible to acquire information related to the relative velocity V of an object existing outside.

また、本実施形態では、1つのミリ波レーダ45aが照明システム4aに設けられているが、2以上のミリ波レーダ45aが照明システム4aに設けられてもよい。例えば、照明システム4aは、短距離用のミリ波レーダ45aと、中距離用のミリ波レーダ45aと、長距離用のミリ波レーダ45aを有してもよい。   In the present embodiment, one millimeter wave radar 45a is provided in the illumination system 4a, but two or more millimeter wave radars 45a may be provided in the illumination system 4a. For example, the illumination system 4a may include a millimeter wave radar 45a for short distance, a millimeter wave radar 45a for medium distance, and a millimeter wave radar 45a for long distance.

照明システム4bは、制御部40bと、照明ユニット42bと、カメラ43bと、LiDARユニット44bと、ミリ波レーダ45bとをさらに備える。制御部40bと、照明ユニット42bと、カメラ43bと、LiDARユニット44bと、ミリ波レーダ45bは、図1に示すように、ハウジング24bと透光カバー22bによって形成される空間Sb内(灯室内)に配置される。尚、制御部40bは、空間Sb以外の車両1の所定の場所に配置されてもよい。例えば、制御部40bは、車両制御部3と一体的に構成されてもよい。制御部40bは、制御部40aと同様な機能及び構成を有してもよい。照明ユニット42bは、照明ユニット42aと同様な機能及び構成を有してもよい。この点において、照明ユニット42bは、右側ヘッドランプユニットとして機能する。カメラ43bは、カメラ43aと同様な機能及び構成を有してもよい。LiDARユニット44bは、LiDARユニット44aと同様な機能及び構成を有してもよい。ミリ波レーダ45bは、ミリ波レーダ45aと同様な機能及び構成を有してもよい。   The illumination system 4b further includes a control unit 40b, an illumination unit 42b, a camera 43b, a LiDAR unit 44b, and a millimeter wave radar 45b. As shown in FIG. 1, the control unit 40b, the illumination unit 42b, the camera 43b, the LiDAR unit 44b, and the millimeter wave radar 45b are in the space Sb (in the lamp chamber) formed by the housing 24b and the translucent cover 22b. Placed in. In addition, the control part 40b may be arrange | positioned in the predetermined places of the vehicles 1 other than the space Sb. For example, the control unit 40b may be configured integrally with the vehicle control unit 3. The control unit 40b may have the same function and configuration as the control unit 40a. The lighting unit 42b may have the same function and configuration as the lighting unit 42a. In this respect, the illumination unit 42b functions as a right headlamp unit. The camera 43b may have the same function and configuration as the camera 43a. The LiDAR unit 44b may have the same function and configuration as the LiDAR unit 44a. The millimeter wave radar 45b may have the same function and configuration as the millimeter wave radar 45a.

照明システム4cは、制御部40cと、照明ユニット42cと、カメラ43cと、LiDARユニット44cと、ミリ波レーダ45cとをさらに備える。制御部40cと、照明ユニット42cと、カメラ43cと、LiDARユニット44cと、ミリ波レーダ45cは、図1に示すように、ハウジング24cと透光カバー22cによって形成される空間Sc内(灯室内)に配置される。尚、制御部40cは、空間Sc以外の車両1の所定の場所に配置されてもよい。例えば、制御部40cは、車両制御部3と一体的に構成されてもよい。制御部40cは、制御部40aと同様な機能及び構成を有してもよい。   The illumination system 4c further includes a control unit 40c, an illumination unit 42c, a camera 43c, a LiDAR unit 44c, and a millimeter wave radar 45c. As shown in FIG. 1, the control unit 40c, the illumination unit 42c, the camera 43c, the LiDAR unit 44c, and the millimeter wave radar 45c are in the space Sc (in the lamp chamber) formed by the housing 24c and the translucent cover 22c. Placed in. In addition, the control part 40c may be arrange | positioned in the predetermined places of the vehicles 1 other than the space Sc. For example, the control unit 40c may be configured integrally with the vehicle control unit 3. The control unit 40c may have the same function and configuration as the control unit 40a.

照明ユニット42cは、車両1の外部(後方)に向けて光を出射することによって、配光パターンを形成するように構成されている。照明ユニット42cは、光を出射する光源と、光学系とを有する。光源は、例えば、マトリックス状(例えば、N行×M列、N>1、M>1)に配列された複数の発光素子によって構成されてもよい。発光素子は、例えば、LED、LD又は有機EL素子である。光学系は、光源から出射された光を照明ユニット42cの前方に向けて反射するように構成されたリフレクタと、光源から直接出射された光又はリフレクタによって反射された光を屈折するように構成されたレンズとのうちの少なくとも一方を含んでもよい。車両1の運転モードが手動運転モード又は運転支援モードである場合に、照明ユニット42cは消灯してもよい。一方、車両1の運転モードが高度運転支援モード又は完全自動運転モードである場合に、照明ユニット42cは、カメラ用の配光パターンを車両1の後方に形成するように構成されてもよい。   The illumination unit 42c is configured to form a light distribution pattern by emitting light toward the outside (rear) of the vehicle 1. The illumination unit 42c includes a light source that emits light and an optical system. For example, the light source may be configured by a plurality of light emitting elements arranged in a matrix (for example, N rows × M columns, N> 1, M> 1). The light emitting element is, for example, an LED, an LD, or an organic EL element. The optical system is configured to refract light emitted from the light source and reflected toward the front of the illumination unit 42c, and light emitted directly from the light source or reflected by the reflector. Or at least one of the other lenses. When the driving mode of the vehicle 1 is the manual driving mode or the driving support mode, the lighting unit 42c may be turned off. On the other hand, when the driving mode of the vehicle 1 is the advanced driving support mode or the fully automatic driving mode, the lighting unit 42c may be configured to form a light distribution pattern for the camera behind the vehicle 1.

カメラ43cは、カメラ43aと同様な機能及び構成を有してもよい。LiDARユニット44cは、LiDARユニット44cと同様な機能及び構成を有してもよい。ミリ波レーダ45cは、ミリ波レーダ45aと同様な機能及び構成を有してもよい。   The camera 43c may have the same function and configuration as the camera 43a. The LiDAR unit 44c may have the same function and configuration as the LiDAR unit 44c. The millimeter wave radar 45c may have the same function and configuration as the millimeter wave radar 45a.

照明システム4dは、制御部40dと、照明ユニット42dと、カメラ43dと、LiDARユニット44dと、ミリ波レーダ45dとを更に備える。制御部40dと、照明ユニット42dと、カメラ43dと、LiDARユニット44dと、ミリ波レーダ45dは、図1に示すように、ハウジング24dと透光カバー22dによって形成される空間Sd内(灯室内)に配置される。尚、制御部40dは、空間Sd以外の車両1の所定の場所に配置されてもよい。例えば、制御部40dは、車両制御部3と一体的に構成されてもよい。制御部40dは、制御部40cと同様な機能及び構成を有してもよい。照明ユニット42dは、照明ユニット42cと同様な機能及び構成を有してもよい。カメラ43dは、カメラ43cと同様な機能及び構成を有してもよい。LiDARユニット44dは、LiDARユニット44cと同様な機能及び構成を有してもよい。ミリ波レーダ45dは、ミリ波レーダ45cと同様な機能及び構成を有してもよい。   The illumination system 4d further includes a control unit 40d, an illumination unit 42d, a camera 43d, a LiDAR unit 44d, and a millimeter wave radar 45d. As shown in FIG. 1, the control unit 40d, the illumination unit 42d, the camera 43d, the LiDAR unit 44d, and the millimeter wave radar 45d are in the space Sd (in the lamp chamber) formed by the housing 24d and the translucent cover 22d. Placed in. The control unit 40d may be disposed at a predetermined location of the vehicle 1 other than the space Sd. For example, the control unit 40d may be configured integrally with the vehicle control unit 3. The control unit 40d may have the same function and configuration as the control unit 40c. The lighting unit 42d may have the same function and configuration as the lighting unit 42c. The camera 43d may have the same function and configuration as the camera 43c. The LiDAR unit 44d may have the same function and configuration as the LiDAR unit 44c. The millimeter wave radar 45d may have the same function and configuration as the millimeter wave radar 45c.

センサ5は、加速度センサ、速度センサ及びジャイロセンサ等を有してもよい。センサ5は、車両1の走行状態を検出して、車両1の走行状態を示す走行状態情報を車両制御部3に出力するように構成されている。また、センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。さらに、センサ5は、車両1の周辺環境の明るさ(照度等)を検出するように構成された照度センサを備えてもよい。照度センサは、例えば、フォトダイオードから出力される光電流の大きさに応じて周辺環境の明るさを決定してもよい。   The sensor 5 may include an acceleration sensor, a speed sensor, a gyro sensor, and the like. The sensor 5 is configured to detect the traveling state of the vehicle 1 and output traveling state information indicating the traveling state of the vehicle 1 to the vehicle control unit 3. The sensor 5 includes a seating sensor that detects whether the driver is sitting in the driver's seat, a face direction sensor that detects the direction of the driver's face, an external weather sensor that detects external weather conditions, and whether there is a person in the vehicle. You may further provide the human sensitive sensor etc. which detect whether. Further, the sensor 5 may include an illuminance sensor configured to detect the brightness (such as illuminance) of the surrounding environment of the vehicle 1. For example, the illuminance sensor may determine the brightness of the surrounding environment according to the magnitude of the photocurrent output from the photodiode.

HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイである。GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。   The HMI 8 includes an input unit that receives an input operation from the driver, and an output unit that outputs traveling information and the like to the driver. The input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode switching switch for switching the operation mode of the vehicle 1, and the like. The output unit is a display that displays various travel information. The GPS 9 is configured to acquire the current position information of the vehicle 1 and output the acquired current position information to the vehicle control unit 3.

無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1は、他車両、インフラ設備又は携帯型電子機器とアドホックモードにより直接通信してもよいし、アクセスポイントを介して通信してもよい。また、無線通信部10は、標準時刻を示す標準時刻信号(例えば、標準電波)を受信するように構成されている。さらに、車両1は、図示しない通信ネットワークを介して他車両、インフラ設備又は携帯型電子機器と通信してもよい。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及び無線アクセスネットワーク(RAN)のうちの少なくとも一つを含む。無線通信規格は、例えば、Wi−Fi(登録商標),Bluetooth(登録商標),ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi−Fiである。また、車両1は、他車両、インフラ設備又は携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。   The wireless communication unit 10 receives information (for example, travel information) about other vehicles around the vehicle 1 from the other vehicle and transmits information about the vehicle 1 (for example, travel information) to the other vehicles. It is configured (vehicle-to-vehicle communication). The wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as traffic lights and beacon lights, and to transmit travel information of the vehicle 1 to the infrastructure equipment (road-to-vehicle communication). In addition, the wireless communication unit 10 receives information related to the pedestrian from a portable electronic device (smart phone, tablet, wearable device, etc.) carried by the pedestrian, and transmits the own vehicle travel information of the vehicle 1 to the portable electronic device. It is comprised so that (communication between pedestrians). The vehicle 1 may communicate directly with other vehicles, infrastructure facilities, or portable electronic devices in an ad hoc mode, or may communicate via an access point. The wireless communication unit 10 is configured to receive a standard time signal (for example, a standard radio wave) indicating a standard time. Furthermore, the vehicle 1 may communicate with other vehicles, infrastructure facilities, or portable electronic devices via a communication network (not shown). The communication network includes at least one of the Internet, a local area network (LAN), a wide area network (WAN), and a radio access network (RAN). The wireless communication standard is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), LPWA, DSRC (registered trademark), or Li-Fi. The vehicle 1 may communicate with other vehicles, infrastructure facilities, or portable electronic devices using the fifth generation mobile communication system (5G).

記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2D又は3Dの地図情報及び/又は車両制御プログラムが記憶されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部10とインターネット等の通信ネットワークを介して更新されてもよい。   The storage device 11 is an external storage device such as a hard disk drive (HDD) or an SSD (Solid State Drive). The storage device 11 may store 2D or 3D map information and / or a vehicle control program. The storage device 11 is configured to output map information and a vehicle control program to the vehicle control unit 3 in response to a request from the vehicle control unit 3. The map information and the vehicle control program may be updated via the wireless communication unit 10 and a communication network such as the Internet.

車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報及び/又は地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、自動運転モードでは、車両1の走行は車両システム2により自動制御される。   When the vehicle 1 travels in the automatic driving mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal based on the traveling state information, the surrounding environment information, the current position information, and / or the map information. At least one of them is automatically generated. The steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal. The brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal. The accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and to control the accelerator device 17 based on the received accelerator control signal. As described above, in the automatic driving mode, the vehicle system 2 automatically controls the traveling of the vehicle 1.

一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に応じて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。   On the other hand, when the vehicle 1 travels in the manual operation mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal in accordance with the driver's manual operation with respect to the accelerator pedal, the brake pedal, and the steering wheel. To do. Thus, in the manual operation mode, the steering control signal, the accelerator control signal, and the brake control signal are generated by the driver's manual operation, so that the traveling of the vehicle 1 is controlled by the driver.

次に、車両1の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御のうちの一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2からの運転支援なしに運転者が車両1を運転する。   Next, the operation mode of the vehicle 1 will be described. The operation mode includes an automatic operation mode and a manual operation mode. The automatic driving mode includes a fully automatic driving mode, an advanced driving support mode, and a driving support mode. In the fully automatic driving mode, the vehicle system 2 automatically performs all traveling control of steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle 1 can be driven. In the advanced driving support mode, the vehicle system 2 automatically performs all travel control of steering control, brake control, and accelerator control, and the driver does not drive the vehicle 1 although it is in a state where the vehicle 1 can be driven. In the driving support mode, the vehicle system 2 automatically performs a part of the driving control among the steering control, the brake control, and the accelerator control, and the driver drives the vehicle 1 under the driving support of the vehicle system 2. On the other hand, in the manual operation mode, the vehicle system 2 does not automatically perform the traveling control, and the driver drives the vehicle 1 without driving assistance from the vehicle system 2.

また、車両1の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両1の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両1の運転モードは、自動運転車の走行が可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両1の運転モードを切り替える。さらに、車両1の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両1の運転モードを切り替えてもよい。   Further, the operation mode of the vehicle 1 may be switched by operating an operation mode changeover switch. In this case, the vehicle control unit 3 changes the driving mode of the vehicle 1 into four driving modes (fully automatic driving mode, advanced driving support mode, driving support mode, manual driving mode) according to the driver's operation on the driving mode changeover switch. ). In addition, the driving mode of the vehicle 1 is automatically set based on information on a travelable section where an autonomous driving vehicle can travel, a travel prohibition section where traveling of an autonomous driving vehicle is prohibited, or information on external weather conditions. It may be switched to. In this case, the vehicle control unit 3 switches the operation mode of the vehicle 1 based on these pieces of information. Furthermore, the driving mode of the vehicle 1 may be automatically switched by using a seating sensor, a face direction sensor, or the like. In this case, the vehicle control unit 3 may switch the driving mode of the vehicle 1 based on output signals from the seating sensor and the face direction sensor.

次に、図3を参照することで、本実施形態における制御部40aの機能について以下に説明する。図3は、第1実施形態における照明システム4aの制御部40aの機能ブロックを示す図である。図3に示すように、制御部40aは、照明ユニット42aと、カメラ43aと、LiDARユニット44aと、ミリ波レーダ45aの動作をそれぞれ制御するように構成されている。特に、制御部40aは、照明制御部410aと、カメラ制御部420aと、LiDAR制御部430aと、ミリ波レーダ制御部440aと、周辺環境情報融合部450aとを備える。   Next, the function of the control unit 40a in this embodiment will be described below with reference to FIG. FIG. 3 is a diagram illustrating functional blocks of the control unit 40a of the illumination system 4a according to the first embodiment. As shown in FIG. 3, the control unit 40a is configured to control operations of the illumination unit 42a, the camera 43a, the LiDAR unit 44a, and the millimeter wave radar 45a, respectively. In particular, the control unit 40a includes an illumination control unit 410a, a camera control unit 420a, a LiDAR control unit 430a, a millimeter wave radar control unit 440a, and a surrounding environment information fusion unit 450a.

照明制御部410aは、照明ユニット42aが所定の配光パターンを車両1の前方領域に向けて出射するように照明ユニット42aを制御するように構成されている。さらに、照明制御部410aは、所定のレート(第2レート)で照明ユニット42aを点灯制御するように構成されている。本実施形態では、照明ユニット42aの点灯レート(Hz)は、カメラ43aによって取得された画像データのフレームレート(fps)と同一であることが好ましい。また、照明制御部410aは、照明ユニット42aの点灯タイミングを制御するように構成されている。ここで、照明ユニット42aの点灯タイミングとは、照明ユニット42aの点灯開始タイミング(点灯開始時刻)と、点灯終了タイミング(点灯終了時刻)を含む概念である。   The illumination control unit 410 a is configured to control the illumination unit 42 a so that the illumination unit 42 a emits a predetermined light distribution pattern toward the front area of the vehicle 1. Furthermore, the illumination control unit 410a is configured to control lighting of the illumination unit 42a at a predetermined rate (second rate). In the present embodiment, the lighting rate (Hz) of the lighting unit 42a is preferably the same as the frame rate (fps) of the image data acquired by the camera 43a. Moreover, the illumination control part 410a is comprised so that the lighting timing of the illumination unit 42a may be controlled. Here, the lighting timing of the lighting unit 42a is a concept including a lighting start timing (lighting start time) and a lighting end timing (lighting end time) of the lighting unit 42a.

カメラ制御部420aは、カメラ43aの動作を制御するように構成されている。特に、カメラ制御部420aは、所定のフレームレート(第1レート)で画像データを取得するようにカメラ43aを制御するように構成されている。さらに、カメラ制御部420aは、照明ユニット42aの点灯タイミングに関連する情報に基づいて、画像データの各フレームの取得タイミングを制御するように構成されている。ここで、フレームの取得タイミングとは、フレーム取得開始タイミング(フレーム取得開始時刻)と、フレーム取得終了タイミング(フレーム取得終了時刻)を含む概念である。   The camera control unit 420a is configured to control the operation of the camera 43a. In particular, the camera control unit 420a is configured to control the camera 43a so as to acquire image data at a predetermined frame rate (first rate). Furthermore, the camera control unit 420a is configured to control the acquisition timing of each frame of the image data based on information related to the lighting timing of the lighting unit 42a. Here, the frame acquisition timing is a concept including a frame acquisition start timing (frame acquisition start time) and a frame acquisition end timing (frame acquisition end time).

また、カメラ制御部420aは、カメラ43aから出力された画像データに基づいて、カメラ43aの検出領域における車両1の周辺環境情報を生成するように構成されている。この点において、カメラ制御部420aは、画像データの1フレームごとに周辺環境情報を生成するように構成されている。   The camera control unit 420a is configured to generate the surrounding environment information of the vehicle 1 in the detection area of the camera 43a based on the image data output from the camera 43a. In this regard, the camera control unit 420a is configured to generate surrounding environment information for each frame of image data.

LiDAR制御部430aは、LiDARユニット44aの動作を制御するように構成されている。特に、LiDAR制御部430aは、所定のフレームレートで3Dマッピングデータを取得するようにLiDARユニット44aを制御するように構成されている。さらに、LiDAR制御部430aは、3Dマッピングデータの各フレームの取得タイミングを制御するように構成されている。また、LiDAR制御部430aは、LiDARユニット44aから出力された3Dマッピングデータに基づいて、LiDARユニット44aの検出領域における車両1の周辺環境情報を生成するように構成されている。この点において、LiDAR制御部430aは、3Dマッピングデータの1フレームごとに周辺環境情報を生成するように構成されている。   The LiDAR control unit 430a is configured to control the operation of the LiDAR unit 44a. In particular, the LiDAR control unit 430a is configured to control the LiDAR unit 44a so as to acquire 3D mapping data at a predetermined frame rate. Furthermore, the LiDAR control unit 430a is configured to control the acquisition timing of each frame of 3D mapping data. In addition, the LiDAR control unit 430a is configured to generate the surrounding environment information of the vehicle 1 in the detection area of the LiDAR unit 44a based on the 3D mapping data output from the LiDAR unit 44a. In this regard, the LiDAR control unit 430a is configured to generate surrounding environment information for each frame of 3D mapping data.

ミリ波レーダ制御部440aは、ミリ波レーダ45aの動作を制御すると共に、ミリ波レーダ45aから出力された検出データに基づいて、ミリ波レーダ45aの検出領域における車両1の周辺環境情報を生成するように構成されている。   The millimeter wave radar control unit 440a controls the operation of the millimeter wave radar 45a, and generates ambient environment information of the vehicle 1 in the detection area of the millimeter wave radar 45a based on the detection data output from the millimeter wave radar 45a. It is configured as follows.

周辺環境情報融合部450aは、カメラ制御部420aから取得された周辺環境情報と、LiDAR制御部430aから取得された周辺環境情報と、ミリ波レーダ制御部440aから取得された周辺環境情報を融合すると共に、融合された周辺環境情報を車両制御部3に送信するように構成されている。   The surrounding environment information fusion unit 450a fuses the surrounding environment information acquired from the camera control unit 420a, the surrounding environment information acquired from the LiDAR control unit 430a, and the surrounding environment information acquired from the millimeter wave radar control unit 440a. At the same time, the integrated surrounding environment information is transmitted to the vehicle control unit 3.

また、制御部40b,40c,40dも制御部40aと同様の機能を有してもよい。つまり、制御部40b〜40dの各々は、照明制御部と、カメラ制御部と、LiDAR制御部と、ミリ波レーダ制御部と、周辺環境情報融合部とを備えてもよい。   Also, the control units 40b, 40c, and 40d may have the same function as the control unit 40a. That is, each of the control units 40b to 40d may include an illumination control unit, a camera control unit, a LiDAR control unit, a millimeter wave radar control unit, and a surrounding environment information fusion unit.

次に、カメラ43aの画像データの取得タイミングを決定する処理について図4〜図6を参照して説明する。図4は、互いに対向する車両1Aと車両1B(第2車両の一例)を示す図である。図5は、カメラ43aの画像データの各フレームの取得タイミングを決定する処理を説明するためのフローチャートである。図6(a)は、車両1Aにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの各フレームの取得タイミングとの関係を説明するための図である。図6(b)は、車両1Bにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの各フレームの取得タイミングとの関係を説明するための図である。   Next, processing for determining the acquisition timing of the image data of the camera 43a will be described with reference to FIGS. FIG. 4 is a diagram illustrating a vehicle 1A and a vehicle 1B (an example of a second vehicle) facing each other. FIG. 5 is a flowchart for explaining processing for determining the acquisition timing of each frame of image data of the camera 43a. FIG. 6A is a diagram for explaining the relationship between the lighting timing of the lighting unit 42a in the vehicle 1A and the acquisition timing of each frame of the image data of the camera 43a. FIG. 6B is a diagram for explaining the relationship between the lighting timing of the lighting unit 42a in the vehicle 1B and the acquisition timing of each frame of the image data of the camera 43a.

本実施形態における前提条件について以下に説明する。
最初に、車両1A,1Bは、車両1と同様な構成を有する。つまり、車両1A,1Bは、図2に示す車両システム2を有するものとする。次に、説明の便宜上、車両1Aにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの取得タイミングとの間の関係について説明すると共に、車両1Bにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの取得タイミングとの間の関係について説明する。この点において、照明ユニット42bは、照明ユニット42aと同一の点灯タイミングで点灯すると共に、カメラ43bは、カメラ43aと同一の取得タイミングで画像データを取得するものとするため、照明ユニット42bとカメラ43bについては特に以下では言及しない。また、説明の簡略化の観点より、LiDARユニット44aの3Dマッピングデータの取得タイミングやミリ波レーダの検出データの取得タイミングについても特に言及しない。さらに、以下の説明では、図5に示す処理は、車両1Aによって実行されるものとする。一方、図5に示す処理は、車両1Bによっても実行される点に留意されたい。
The preconditions in this embodiment will be described below.
First, the vehicles 1 </ b> A and 1 </ b> B have the same configuration as the vehicle 1. That is, the vehicles 1A and 1B are assumed to have the vehicle system 2 shown in FIG. Next, for convenience of explanation, the relationship between the lighting timing of the lighting unit 42a in the vehicle 1A and the acquisition timing of the image data of the camera 43a will be described, and the lighting timing of the lighting unit 42a in the vehicle 1B and the image data of the camera 43a. The relationship between the acquisition timing and the acquisition timing will be described. In this respect, the illumination unit 42b is turned on at the same lighting timing as the lighting unit 42a, and the camera 43b acquires image data at the same acquisition timing as the camera 43a. Is not specifically mentioned below. Further, from the viewpoint of simplifying the description, the acquisition timing of the 3D mapping data of the LiDAR unit 44a and the acquisition timing of the detection data of the millimeter wave radar are not particularly mentioned. Furthermore, in the following description, the process shown in FIG. 5 shall be performed by vehicle 1A. On the other hand, it should be noted that the process shown in FIG. 5 is also executed by the vehicle 1B.

図5に示すように、ステップS1において、車両1Aの無線通信部10は、標準時刻を示す標準時刻信号を受信する。例えば、無線通信部10は、標準電波送信所から標準電波(標準時刻信号の一例)を受信してもよい。また、無線通信部10は、通信ネットワーク上に配置されたNTP(Network Time Protocol)サーバから標準時刻信号を受信してもよい。標準時刻は、例えば、一以上の原子時計によって決定されてもよい。   As shown in FIG. 5, in step S1, the wireless communication unit 10 of the vehicle 1A receives a standard time signal indicating a standard time. For example, the wireless communication unit 10 may receive a standard radio wave (an example of a standard time signal) from a standard radio wave transmission station. The wireless communication unit 10 may receive a standard time signal from an NTP (Network Time Protocol) server arranged on the communication network. The standard time may be determined by one or more atomic clocks, for example.

次に、ステップS2において、車両制御部3(内部時刻調整部の一例)は、無線通信部10により受信された標準時刻信号に基づいて、車両1Aの内部時刻が標準時刻に一致するように内部時刻を調整する。この時点より、車両1Aは、調整された内部時刻に基づいて各車両制御処理を実行する。例えば、車両1Aの制御部40aは、調整された内部時刻に基づいて、照明ユニット42a、カメラ43a、LiDARユニット44a及びミリ波レーダ45aの動作タイミングを制御する。   Next, in step S2, the vehicle control unit 3 (an example of an internal time adjustment unit) is configured so that the internal time of the vehicle 1A matches the standard time based on the standard time signal received by the wireless communication unit 10. Adjust the time. From this time point, the vehicle 1A executes each vehicle control process based on the adjusted internal time. For example, the control unit 40a of the vehicle 1A controls the operation timing of the illumination unit 42a, the camera 43a, the LiDAR unit 44a, and the millimeter wave radar 45a based on the adjusted internal time.

次に、ステップS3において、照明制御部410a(図3参照)は、照明ユニット42aの点灯タイミングを決定する。特に、照明制御部410aは、照明ユニット42aの点灯開始タイミング(点灯開始時刻)を決定する。図6(a)に示すように、車両1Aの点灯期間ΔTc及び点灯周期T2(又は点灯レートF2=1/T2)は予め定められているため、照明ユニット42aの点灯開始タイミングtc1が決定されることで、点灯終了タイミング(点灯終了時刻)tc2と、点灯開始タイミングtc1より後の点灯開始タイミング(例えば、点灯開始タイミングtc3)と、点灯終了タイミングtc2より後の点灯終了タイミングとが自動的に決定される。特に、点灯終了タイミングtc2は、tc2=tc1+ΔTcにより定められる一方、点灯開始タイミングtc3は、tc3=tc1+T2により定められる。   Next, in step S3, the illumination control unit 410a (see FIG. 3) determines the lighting timing of the illumination unit 42a. In particular, the illumination control unit 410a determines the lighting start timing (lighting start time) of the lighting unit 42a. As shown to Fig.6 (a), since the lighting period (DELTA) Tc and lighting period T2 (or lighting rate F2 = 1 / T2) of the vehicle 1A are predetermined, the lighting start timing tc1 of the illumination unit 42a is determined. Thus, the lighting end timing (lighting end time) tc2, the lighting start timing after the lighting start timing tc1 (for example, the lighting start timing tc3), and the lighting end timing after the lighting end timing tc2 are automatically determined. Is done. In particular, the lighting end timing tc2 is determined by tc2 = tc1 + ΔTc, while the lighting start timing tc3 is determined by tc3 = tc1 + T2.

点灯開始タイミングtc1の決定手法としては以下が挙げられる。例えば、照明制御部410aは、標準時刻信号の一例である標準電波を受信してから所定期間経過後に照明ユニット42aの点灯を開始する。換言すれば、照明制御部410aは、点灯開始タイミングtc1を、標準電波を受信してから所定期間経過後の時刻に設定する。ここで、所定期間は、車両間において予め設定されてもよい。また、照明制御部410aは、点灯開始タイミングtc1を所定の時刻に設定してもよい。例えば、点灯開始タイミングtc1がX時Y分0ミリ秒に設定されてもよい(X,Yは任意の値)。ここで、所定の時刻は、車両間において予め設定されてもよい。   The following is mentioned as a method for determining the lighting start timing tc1. For example, the illumination control unit 410a starts to turn on the illumination unit 42a after a predetermined period has elapsed after receiving a standard radio wave that is an example of a standard time signal. In other words, the illumination control unit 410a sets the lighting start timing tc1 to a time after a predetermined period has elapsed after receiving the standard radio wave. Here, the predetermined period may be set in advance between the vehicles. The illumination control unit 410a may set the lighting start timing tc1 to a predetermined time. For example, the lighting start timing tc1 may be set to X hour Y minute 0 millisecond (X and Y are arbitrary values). Here, the predetermined time may be set in advance between the vehicles.

次に、ステップS4において、カメラ制御部420aは、照明ユニット42aの点灯タイミングに関連する情報(点灯開始タイミング及び/又は点灯終了タイミング)に基づいて、カメラ43aの画像データの各フレームの取得タイミングを決定する。特に、カメラ制御部420aは、上記情報に基づいて、カメラ43aの画像データの各フレームの取得開始タイミング(取得開始時刻)を決定する。図6(a)に示すように、各フレームの取得期間ΔTa及びフレーム周期T1(又は、フレームレートF1=1/T1)は予め定められているため、フレームFa1の取得開始タイミングta1が決定されることで、フレームFa1の取得終了タイミング(取得終了時刻)ta2と、フレームFa1より後のフレームの取得開始タイミング(例えば、フレームFa2の取得開始タイミングta3)と、フレームFa1より後のフレームの取得終了タイミング(例えば、フレームFa2の取得終了タイミングta4)とが自動的に決定される。特に、取得終了タイミングta2は、ta2=ta1+ΔTaにより定められる一方で、取得開始タイミングta3は、ta3=ta1+T1により定められる。尚、画像データの1フレームの取得期間ΔTaは、画像データの1フレームを形成するために必要な露光時間(換言すれば、画像データの1フレームを形成する光を取り込む時間)に相当する。尚、CCDやCMOS等のイメージセンサーから出力された電気信号を処理する時間は、取得期間ΔTaには含まれていない。   Next, in step S4, the camera control unit 420a determines the acquisition timing of each frame of the image data of the camera 43a based on information related to the lighting timing of the lighting unit 42a (lighting start timing and / or lighting end timing). decide. In particular, the camera control unit 420a determines the acquisition start timing (acquisition start time) of each frame of the image data of the camera 43a based on the above information. As shown in FIG. 6A, since the acquisition period ΔTa and the frame period T1 (or frame rate F1 = 1 / T1) of each frame are predetermined, the acquisition start timing ta1 of the frame Fa1 is determined. Thus, the acquisition end timing (acquisition end time) ta2 of the frame Fa1, the acquisition start timing of the frame after the frame Fa1 (for example, the acquisition start timing ta3 of the frame Fa2), and the acquisition end timing of the frame after the frame Fa1 (For example, the acquisition end timing ta4 of the frame Fa2) is automatically determined. In particular, the acquisition end timing ta2 is determined by ta2 = ta1 + ΔTa, while the acquisition start timing ta3 is determined by ta3 = ta1 + T1. Note that the acquisition period ΔTa of one frame of image data corresponds to an exposure time necessary for forming one frame of image data (in other words, a time for capturing light that forms one frame of image data). The time for processing the electrical signal output from the image sensor such as a CCD or CMOS is not included in the acquisition period ΔTa.

フレームFa1の取得開始タイミングta1の決定手法としては以下が挙げられる。例えば、カメラ制御部420aは、点灯開始タイミングtc1及び/又は点灯終了タイミングtc2に基づいて、点灯期間ΔTcと取得期間ΔTaが互いに重複しないように、取得開始タイミングta1を決定する。特に、カメラ制御部420aは、取得開始タイミングta1及び取得終了タイミングta2が点灯終了タイミングtc2と点灯開始タイミングtc3との間の非点灯期間に設定されるように、取得開始タイミングta1を決定する。   The following is a method for determining the acquisition start timing ta1 of the frame Fa1. For example, the camera control unit 420a determines the acquisition start timing ta1 based on the lighting start timing tc1 and / or the lighting end timing tc2 so that the lighting period ΔTc and the acquisition period ΔTa do not overlap each other. In particular, the camera control unit 420a determines the acquisition start timing ta1 so that the acquisition start timing ta1 and the acquisition end timing ta2 are set to a non-lighting period between the lighting end timing tc2 and the lighting start timing tc3.

このように、図5に示す各処理を通じて、車両1Aにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの取得タイミングが決定される。   As described above, the lighting timing of the lighting unit 42a and the acquisition timing of the image data of the camera 43a in the vehicle 1A are determined through the processes shown in FIG.

一方、図5に示す各処理は、車両1Aだけでなく対向車である車両1Bを含む全走行車両で実行される。特に、図5に示す各処理が車両1A,1Bにより実行されることで、車両1Aの照明ユニット42aの点灯タイミングと車両1Bの照明ユニット42aの点灯タイミングが互いに一致する。具体的には、図6に示すように、車両1Aの照明ユニット42aの点灯開始タイミングtc1と車両1Bの照明ユニット42aの点灯開始タイミングte1は互いに一致する。さらに、車両間において点灯期間ΔTc=点灯期間ΔTe及び点灯周期T2=点灯周期T4となることが前提となる。このため、点灯開始タイミングtc1=点灯開始タイミングte1が成立することで、点灯終了タイミングtc2=点灯終了タイミングte2であると共に、点灯開始タイミングtc3=点灯開始タイミングte3が成立する。   On the other hand, each process shown in FIG. 5 is executed not only by the vehicle 1A but also by all traveling vehicles including the vehicle 1B that is an oncoming vehicle. In particular, the processing shown in FIG. 5 is executed by the vehicles 1A and 1B, so that the lighting timing of the lighting unit 42a of the vehicle 1A and the lighting timing of the lighting unit 42a of the vehicle 1B coincide with each other. Specifically, as shown in FIG. 6, the lighting start timing tc1 of the lighting unit 42a of the vehicle 1A and the lighting start timing te1 of the lighting unit 42a of the vehicle 1B coincide with each other. Further, it is assumed that the lighting period ΔTc = lighting period ΔTe and the lighting period T2 = lighting period T4 between vehicles. Therefore, when the lighting start timing tc1 = lighting start timing te1 is established, the lighting end timing tc2 = lighting end timing te2 and the lighting start timing tc3 = lighting start timing te3 are established.

上記したように、点灯開始タイミングの決定手法の一例として、車両1Aの照明制御部410aは、点灯開始タイミングtc1を、標準電波を受信してから所定期間Δt1経過後の時刻に設定する。一方、車両1Bの照明制御部410aも同様に、点灯開始タイミングte1を、標準電波を受信してから所定期間Δt2経過後の時刻に設定する。ここで、本実施形態では、所定期間Δt1,Δt2が所定期間Δt1=所定期間Δt2となるように予め車両間において設定されているため、点灯開始タイミングtc1と点灯開始タイミングte1が互いに一致する。また、点灯開始タイミングの決定手法の他の一例として、車両1Aの照明制御部410aは、点灯開始タイミングtc1を所定の時刻(X時Y分0ミリ秒)に設定する。一方、車両1Bの照明制御部410aも同様に、点灯開始タイミングte1を所定の時刻(X時Y分0ミリ秒)に設定する。このように、点灯開始タイミングtc1と点灯開始タイミングte1が互いに一致する。   As described above, as an example of the lighting start timing determination method, the lighting control unit 410a of the vehicle 1A sets the lighting start timing tc1 to a time after a predetermined period Δt1 has elapsed since the reception of the standard radio wave. On the other hand, the lighting control unit 410a of the vehicle 1B similarly sets the lighting start timing te1 to a time after a predetermined period Δt2 has elapsed since the reception of the standard radio wave. Here, in this embodiment, since the predetermined periods Δt1 and Δt2 are set in advance between the vehicles such that the predetermined period Δt1 = the predetermined period Δt2, the lighting start timing tc1 and the lighting start timing te1 coincide with each other. As another example of the lighting start timing determination method, the lighting control unit 410a of the vehicle 1A sets the lighting start timing tc1 to a predetermined time (X hour Y minute 0 millisecond). On the other hand, the lighting control unit 410a of the vehicle 1B similarly sets the lighting start timing te1 to a predetermined time (X hour Y minute 0 millisecond). In this way, the lighting start timing tc1 and the lighting start timing te1 coincide with each other.

また、ステップS4において、車両1Bのカメラ制御部420aは、照明ユニット42aの点灯タイミングに関連する情報に基づいて、カメラ43aの画像データの各フレームの取得タイミングを決定する。例えば、カメラ制御部420aは、点灯開始タイミングte1及び/又は点灯終了タイミングte2に基づいて、点灯期間ΔTeと取得期間ΔTbが互いに重複しないように、取得開始タイミングtb1を決定する。さらに、各フレームの取得期間ΔTb及びフレーム周期T3は予め定められているため、フレームFb1の取得開始タイミングtb1が決定されることで、フレームFb1の取得終了タイミングtb2と、フレームFb1より後のフレームの取得開始タイミング(例えば、フレームFb2の取得開始タイミングtb3)と、フレームFa1より後のフレームの取得終了タイミング(例えば、フレームFb2の取得終了タイミング)とが自動的に決定される。特に、取得終了タイミングtb2は、tb2=tb1+ΔTbにより定められる一方で、取得開始タイミングtb3は、tb3=tb1+T3により定められる。   In step S4, the camera control unit 420a of the vehicle 1B determines the acquisition timing of each frame of the image data of the camera 43a based on information related to the lighting timing of the lighting unit 42a. For example, the camera control unit 420a determines the acquisition start timing tb1 based on the lighting start timing te1 and / or the lighting end timing te2 so that the lighting period ΔTe and the acquisition period ΔTb do not overlap each other. Furthermore, since the acquisition period ΔTb and the frame period T3 of each frame are determined in advance, the acquisition start timing tb1 of the frame Fb1 is determined, so that the acquisition end timing tb2 of the frame Fb1 and the frames after the frame Fb1 The acquisition start timing (for example, the acquisition start timing tb3 of the frame Fb2) and the acquisition end timing of the frame after the frame Fa1 (for example, the acquisition end timing of the frame Fb2) are automatically determined. In particular, the acquisition end timing tb2 is determined by tb2 = tb1 + ΔTb, while the acquisition start timing tb3 is determined by tb3 = tb1 + T3.

本実施形態によれば、車両1Aの照明ユニット42aの点灯タイミングと車両1Bの照明ユニット42aの点灯タイミングが互いに一致する。さらに、点灯期間ΔTcと取得期間ΔTaが互いに重複しないと共に、点灯期間ΔTeと取得期間ΔTbが互いに重複しない。このため、車両1Aの取得期間ΔTaは、車両1Bの点灯期間ΔTeと重複しないと共に、車両1Bの取得期間ΔTbは、車両1Aの点灯期間ΔTcと重複しない。このように、車両1Bの照明ユニット42aから出射された光(配光パターン)によって車両1Aのカメラ43aにより取得された各フレームの画像データにハレーションが生じることを確実に防止することが可能となる。同様に、車両1Aの照明ユニット42aから出射された光によって車両1Bのカメラ43aにより取得された各フレームの画像データにハレーションが生じることを確実に防止することが可能となる。したがって、車両の周辺環境の認知精度を向上させることが可能な車両システム2及び車両を提供することができる。   According to this embodiment, the lighting timing of the lighting unit 42a of the vehicle 1A and the lighting timing of the lighting unit 42a of the vehicle 1B coincide with each other. Further, the lighting period ΔTc and the acquisition period ΔTa do not overlap each other, and the lighting period ΔTe and the acquisition period ΔTb do not overlap each other. For this reason, the acquisition period ΔTa of the vehicle 1A does not overlap with the lighting period ΔTe of the vehicle 1B, and the acquisition period ΔTb of the vehicle 1B does not overlap with the lighting period ΔTc of the vehicle 1A. In this way, it is possible to reliably prevent halation from occurring in the image data of each frame acquired by the camera 43a of the vehicle 1A due to the light (light distribution pattern) emitted from the lighting unit 42a of the vehicle 1B. . Similarly, it is possible to reliably prevent halation from occurring in the image data of each frame acquired by the camera 43a of the vehicle 1B due to the light emitted from the lighting unit 42a of the vehicle 1A. Therefore, the vehicle system 2 and the vehicle that can improve the recognition accuracy of the surrounding environment of the vehicle can be provided.

尚、本実施形態では、車両1Aのカメラ制御部420aは、点灯期間ΔTcと取得期間ΔTaが互いに重複しないように取得開始タイミングta1が決定されているが、本実施形態はこれには限定されない。例えば、図7(a)に示すように、車両1Aのカメラ制御部420aは、取得期間ΔTaが点灯期間ΔTcと部分的に重複するように取得開始タイミングta1を決定してもよい。この場合、カメラ制御部420aは、フレームの画像データにハレーションが生じない程度に、取得期間ΔTaを点灯期間ΔTcに部分的に重複させる。同様に、車両1Bのカメラ制御部420aは、取得期間ΔTbが点灯期間ΔTeと部分的に重複するように取得開始タイミングtb1を決定してもよい。   In the present embodiment, the camera control unit 420a of the vehicle 1A determines the acquisition start timing ta1 so that the lighting period ΔTc and the acquisition period ΔTa do not overlap each other, but the present embodiment is not limited to this. For example, as illustrated in FIG. 7A, the camera control unit 420a of the vehicle 1A may determine the acquisition start timing ta1 so that the acquisition period ΔTa partially overlaps the lighting period ΔTc. In this case, the camera control unit 420a partially overlaps the acquisition period ΔTa with the lighting period ΔTc to the extent that halation does not occur in the image data of the frame. Similarly, the camera control unit 420a of the vehicle 1B may determine the acquisition start timing tb1 so that the acquisition period ΔTb partially overlaps the lighting period ΔTe.

(第2実施形態)
次に、本発明の第2実施形態に係る車両システムについて図9を参照して以下に説明する。図9は、第2実施形態における照明システム400aの制御部140aの機能ブロックを示す図である。第2実施形態に係る車両システムは、2つのカメラ(第1カメラ143aと第2カメラ243a)を備える点で第1実施形態に係る車両システム2(図2参照)とは主に相違する。以下では、第1実施形態で既に説明された構成要素については繰り返し説明を行なわず、車両システム2と第2実施形態に係る車両システムとの間の相違点についてのみ説明を行う。
(Second Embodiment)
Next, a vehicle system according to a second embodiment of the present invention will be described below with reference to FIG. FIG. 9 is a diagram illustrating functional blocks of the control unit 140a of the illumination system 400a according to the second embodiment. The vehicle system according to the second embodiment is mainly different from the vehicle system 2 according to the first embodiment (see FIG. 2) in that it includes two cameras (a first camera 143a and a second camera 243a). Hereinafter, the components already described in the first embodiment will not be described repeatedly, and only differences between the vehicle system 2 and the vehicle system according to the second embodiment will be described.

図9に示すように、第1カメラ143aは、第1フレームレートで車両の周辺環境を示す第1画像データを取得するように構成されている。第2カメラ243aは、第1フレームレートよりも高い第2フレームレートで車両の周辺環境を示す第2画像データを取得するように構成されている。例えば、第1カメラ143aの第1フレームレートは、60fpsであると共に、第2カメラ243aの第2フレームレートは、280fpsである。   As shown in FIG. 9, the first camera 143a is configured to acquire first image data indicating a surrounding environment of the vehicle at a first frame rate. The second camera 243a is configured to acquire second image data indicating the surrounding environment of the vehicle at a second frame rate higher than the first frame rate. For example, the first frame rate of the first camera 143a is 60 fps, and the second frame rate of the second camera 243a is 280 fps.

制御部140aは、照明制御部410aと、カメラ制御部421aと、LiDAR制御部430aと、ミリ波レーダ制御部440aと、周辺環境情報融合部450aとを備える。カメラ制御部421aは、第1カメラ143aと第2カメラ243aの動作を制御するように構成されている。カメラ制御部421aは、第1カメラ143aから出力された第1画像データに基づいて、第1カメラ143aの検出領域における周辺環境情報を生成するように構成されている。さらに、カメラ制御部421aは、第2カメラ243aから出力された第2画像データに基づいて、第2カメラ243aの検出領域における周辺環境情報を生成するように構成されている。   The control unit 140a includes an illumination control unit 410a, a camera control unit 421a, a LiDAR control unit 430a, a millimeter wave radar control unit 440a, and a surrounding environment information fusion unit 450a. The camera control unit 421a is configured to control operations of the first camera 143a and the second camera 243a. The camera control unit 421a is configured to generate the surrounding environment information in the detection area of the first camera 143a based on the first image data output from the first camera 143a. Furthermore, the camera control unit 421a is configured to generate the surrounding environment information in the detection area of the second camera 243a based on the second image data output from the second camera 243a.

次に、第1カメラ143aにより取得される第1画像データの取得タイミングを決定する処理について図8〜図10を参照して説明する。図8は、第2実施形態に係る第1画像データの各フレームの取得タイミングを決定する処理を説明するためのフローチャートである。図10(a)は、車両1Aの第1カメラ143aにより取得される第1画像データの各フレームの取得タイミングを示す図である。図10(b)は、車両1Bの照明ユニット42aの点灯タイミングを示す図である。   Next, processing for determining the acquisition timing of the first image data acquired by the first camera 143a will be described with reference to FIGS. FIG. 8 is a flowchart for explaining processing for determining the acquisition timing of each frame of the first image data according to the second embodiment. FIG. 10A is a diagram illustrating the acquisition timing of each frame of the first image data acquired by the first camera 143a of the vehicle 1A. FIG.10 (b) is a figure which shows the lighting timing of the illumination unit 42a of the vehicle 1B.

本実施形態の前提条件として、図4に示す車両1A,1Bは、第2実施形態に係る車両システムを有するものとする。さらに、説明の便宜上、車両1Aの第1カメラ143aにより取得される画像データの取得タイミングと車両1Bの照明ユニット42aの点灯タイミングとの間の関係について説明する。また、第1カメラ143aの第1フレームレートは、車両1Bの照明ユニット42aの点灯レートと同一であるものとする。さらに、車両1Bの照明ユニット42bの点灯タイミングは、車両1Bの照明ユニット42aの点灯タイミングと同一であることを前提とするため、車両1Bの照明ユニット42bの点灯タイミングについては特に言及しない。   As a precondition of the present embodiment, the vehicles 1A and 1B shown in FIG. 4 have the vehicle system according to the second embodiment. Furthermore, for convenience of explanation, the relationship between the acquisition timing of image data acquired by the first camera 143a of the vehicle 1A and the lighting timing of the lighting unit 42a of the vehicle 1B will be described. The first frame rate of the first camera 143a is assumed to be the same as the lighting rate of the lighting unit 42a of the vehicle 1B. Furthermore, since it is assumed that the lighting timing of the lighting unit 42b of the vehicle 1B is the same as the lighting timing of the lighting unit 42a of the vehicle 1B, no particular mention is made of the lighting timing of the lighting unit 42b of the vehicle 1B.

図8に示すように、ステップS10において、車両1Aの車両制御部3(図2参照)は、車両1Aの周辺環境を示す周辺環境情報に基づいて、車両1Bの存在を検出する。次に、ステップS11において、第2カメラ243aは、車両1Aの周辺環境を示す第2画像データを取得する。ここで、第2カメラ243aの検出領域に車両1Bが存在するため、第2画像データから車両1Bの存在が特定される。次に、車両1Aのカメラ制御部421aは、第2画像データに基づいて、車両1B(第2車両の一例)に設けられた照明ユニット42aの点灯タイミングを特定する(ステップS12)。   As shown in FIG. 8, in step S10, the vehicle control unit 3 (see FIG. 2) of the vehicle 1A detects the presence of the vehicle 1B based on the surrounding environment information indicating the surrounding environment of the vehicle 1A. Next, in step S11, the second camera 243a acquires second image data indicating the surrounding environment of the vehicle 1A. Here, since the vehicle 1B exists in the detection area of the second camera 243a, the presence of the vehicle 1B is specified from the second image data. Next, the camera control unit 421a of the vehicle 1A specifies the lighting timing of the illumination unit 42a provided in the vehicle 1B (an example of the second vehicle) based on the second image data (step S12).

この点において、第2カメラ243aの第2フレームレートは、第1カメラ143aの第1フレームレート及び車両1Bの照明ユニット42aの点灯レートより非常に高い。このため、カメラ制御部421aは、第2画像データに基づいて、車両1Bの照明ユニット42aの点灯開始タイミング及び点灯終了タイミングを特定することができる。例えば、図10(b)に示すように、照明ユニット42aの点灯開始タイミングte1と点灯終了タイミングte2が特定されることで、照明ユニット42aの点灯期間ΔTeが特定可能となる。さらに、点灯開始タイミングte1と次の点灯開始タイミングte3が特定されることで、点灯周期T4が特定可能となる。さらに、点灯周期T4が特定されることで、点灯開始タイミングte1より後の点灯開始タイミング及び点灯終了タイミングte2より後の点灯終了タイミングが特定可能となる。このように、カメラ制御部421aは、第2画像データに基づいて車両1Bの照明ユニット42aの点灯タイミングを特定することができる。   In this regard, the second frame rate of the second camera 243a is much higher than the first frame rate of the first camera 143a and the lighting rate of the lighting unit 42a of the vehicle 1B. Therefore, the camera control unit 421a can specify the lighting start timing and lighting end timing of the lighting unit 42a of the vehicle 1B based on the second image data. For example, as shown in FIG. 10B, the lighting period ΔTe of the lighting unit 42a can be specified by specifying the lighting start timing te1 and the lighting end timing te2 of the lighting unit 42a. Furthermore, the lighting cycle T4 can be specified by specifying the lighting start timing te1 and the next lighting start timing te3. Furthermore, by specifying the lighting cycle T4, it is possible to specify the lighting start timing after the lighting start timing te1 and the lighting end timing after the lighting end timing te2. Thus, the camera control unit 421a can specify the lighting timing of the lighting unit 42a of the vehicle 1B based on the second image data.

次に、ステップS13において、車両1Aのカメラ制御部421aは、車両1Bの照明ユニット42aの点灯タイミングに関連する情報に基づいて、第1カメラ143aにより取得される第1画像データの各フレームの取得タイミングを決定する。特に、カメラ制御部421aは、取得期間ΔTaと点灯期間ΔTeが互いに重複しないように各フレームの取得タイミングを決定する。例えば、カメラ制御部421aは、点灯開始タイミングte1及び/又は点灯終了タイミングte2に基づいて、点灯期間ΔTeと取得期間ΔTaが互いに重複しないように、取得開始タイミングta1を決定する。さらに、各フレームの取得期間ΔTa及びフレーム周期T1は予め定められているため、フレームFa1の取得開始タイミングta1が決定されることで、フレームFa1の取得終了タイミングta2と、フレームFa1より後のフレームの取得開始タイミング(例えば、フレームFa2の取得開始タイミングta3)と、フレームFa1より後のフレームの取得終了タイミング(例えば、フレームFa2の取得終了タイミングta4)とが自動的に決定される。   Next, in step S13, the camera control unit 421a of the vehicle 1A acquires each frame of the first image data acquired by the first camera 143a based on information related to the lighting timing of the lighting unit 42a of the vehicle 1B. Determine timing. In particular, the camera control unit 421a determines the acquisition timing of each frame so that the acquisition period ΔTa and the lighting period ΔTe do not overlap each other. For example, the camera control unit 421a determines the acquisition start timing ta1 based on the lighting start timing te1 and / or the lighting end timing te2 so that the lighting period ΔTe and the acquisition period ΔTa do not overlap each other. Furthermore, since the acquisition period ΔTa and the frame period T1 of each frame are determined in advance, the acquisition start timing ta1 of the frame Fa1 is determined, so that the acquisition end timing ta2 of the frame Fa1 and the frames after the frame Fa1 are determined. The acquisition start timing (for example, the acquisition start timing ta3 of the frame Fa2) and the acquisition end timing (for example, the acquisition end timing ta4 of the frame Fa2) after the frame Fa1 are automatically determined.

本実施形態によれば、車両1Aの第1カメラ143aの取得期間ΔTaと車両1Bの照明ユニット42aの点灯期間ΔTeが互いに重複しないため、車両1Bの照明ユニット42aから出射された光(配光パターン)によって車両1Aの第1カメラ143aにより取得された各フレームの画像データにハレーションが生じることを確実に防止することが可能となる。したがって、車両1Aの周辺環境の認知精度を向上させることが可能な車両システムを提供することができる。   According to this embodiment, since the acquisition period ΔTa of the first camera 143a of the vehicle 1A and the lighting period ΔTe of the illumination unit 42a of the vehicle 1B do not overlap each other, light emitted from the illumination unit 42a of the vehicle 1B (light distribution pattern) ) Can surely prevent halation from occurring in the image data of each frame acquired by the first camera 143a of the vehicle 1A. Therefore, it is possible to provide a vehicle system that can improve the recognition accuracy of the surrounding environment of the vehicle 1A.

尚、本実施形態では、カメラ制御部421aは、取得期間ΔTaと点灯期間ΔTeが互いに重複しないように各フレームの取得タイミングを決定しているが、本実施形態はこれに限定されるものではない。例えば、カメラ制御部421aは、取得期間ΔTaが点灯期間ΔTeに部分的に重複するように各フレームの取得タイミングを決定してもよい。この点において、画像データにハレーションが生じない程度に取得期間ΔTaが点灯期間ΔTeに部分的に重複することが好ましい。   In the present embodiment, the camera control unit 421a determines the acquisition timing of each frame so that the acquisition period ΔTa and the lighting period ΔTe do not overlap each other, but the present embodiment is not limited to this. . For example, the camera control unit 421a may determine the acquisition timing of each frame so that the acquisition period ΔTa partially overlaps the lighting period ΔTe. In this respect, it is preferable that the acquisition period ΔTa partially overlaps the lighting period ΔTe so that halation does not occur in the image data.

以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。   Although the embodiment of the present invention has been described above, it goes without saying that the technical scope of the present invention should not be construed in a limited manner by the description of this embodiment. This embodiment is merely an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.

本実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードの区分は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。   In the present embodiment, the driving mode of the vehicle has been described as including the fully automatic driving mode, the advanced driving support mode, the driving support mode, and the manual driving mode. However, the driving mode of the vehicle includes these four modes. Should not be limited to. The classification of the driving mode of the vehicle may be changed as appropriate in accordance with laws and regulations concerning automatic driving in each country. Similarly, the definitions of “fully automated driving mode”, “advanced driving support mode”, and “driving support mode” described in the description of the present embodiment are merely examples, and laws or regulations relating to automatic driving in each country or In accordance with the rules, these definitions may be changed as appropriate.

1,1A,1B:車両
2:車両システム
3:車両制御部
4a:左前照明システム(照明システム)
4b:右前照明システム(照明システム)
4c:左後照明システム(照明システム)
4d:右後照明システム(照明システム)
5:センサ
10:無線通信部
11:記憶装置
12:ステアリングアクチュエータ
13:ステアリング装置
14:ブレーキアクチュエータ
15:ブレーキ装置
16:アクセルアクチュエータ
17:アクセル装置
22a,22b,22c,22d:透光カバー
24a,24b,24c,24d:ハウジング
40a,40b,40c,40d:制御部
42a,42b,42c,42d:照明ユニット
43a,43b,43c,43d:カメラ
44a,44b,44c,44d:LiDARユニット
45a,45b,45c,45d:ミリ波レーダ
140a:制御部
143a:第1カメラ
243a:第2カメラ
410a:照明制御部
420a,421a:カメラ制御部
430a:LiDAR制御部
440a:ミリ波レーダ制御部
450a:周辺環境情報融合部
1, 1A, 1B: Vehicle 2: Vehicle system 3: Vehicle control unit 4a: Front left illumination system (illumination system)
4b: Front right lighting system (lighting system)
4c: Left rear lighting system (lighting system)
4d: Right rear lighting system (lighting system)
5: Sensor 10: Wireless communication unit 11: Storage device 12: Steering actuator 13: Steering device 14: Brake actuator 15: Brake device 16: Accelerator actuator 17: Accelerator devices 22a, 22b, 22c, 22d: Translucent covers 24a, 24b , 24c, 24d: Housings 40a, 40b, 40c, 40d: Control units 42a, 42b, 42c, 42d: Lighting units 43a, 43b, 43c, 43d: Cameras 44a, 44b, 44c, 44d: LiDAR units 45a, 45b, 45c 45d: Millimeter wave radar 140a: Control unit 143a: First camera 243a: Second camera 410a: Illumination control unit 420a, 421a: Camera control unit 430a: LiDAR control unit 440a: Millimeter wave radar control unit 450a: Ambient environment information Fusion part

Claims (2)

自動運転モードで走行可能な車両に設けられた車両システムであって、
第1レートで前記車両の周辺環境を示す画像データを取得するように構成されたカメラと、
前記カメラの動作を制御するように構成されたカメラ制御部と、
前記車両の外部に向けて光を出射するように構成された照明ユニットと、
第2レートで前記照明ユニットを点灯制御するように構成された照明制御部と、
標準時刻を示す標準時刻信号を受信するように構成された無線通信部と、
前記標準時刻信号に基づいて、前記車両の内部時刻が前記標準時刻に一致するように前記内部時刻を調整するように構成された内部時刻調整部と、
を備え、
前記照明ユニットの点灯タイミングと前記車両の外部に存在する第2車両に設けられた第2照明ユニットの点灯タイミングが互いに一致し、
前記カメラ制御部は、前記照明ユニットの点灯タイミングに関連する情報に基づいて、前記画像データの各フレームの取得タイミングを決定する、
車両システム。
A vehicle system provided in a vehicle capable of traveling in an automatic driving mode,
A camera configured to acquire image data indicating the surrounding environment of the vehicle at a first rate;
A camera controller configured to control the operation of the camera;
A lighting unit configured to emit light toward the outside of the vehicle;
An illumination controller configured to control lighting of the illumination unit at a second rate;
A wireless communication unit configured to receive a standard time signal indicating the standard time;
Based on the standard time signal, an internal time adjustment unit configured to adjust the internal time so that the internal time of the vehicle matches the standard time;
With
The lighting timing of the lighting unit and the lighting timing of the second lighting unit provided in the second vehicle existing outside the vehicle coincide with each other,
The camera control unit determines the acquisition timing of each frame of the image data based on information related to the lighting timing of the lighting unit.
Vehicle system.
自動運転モードで走行可能な車両に設けられた車両システムであって、
第1レートで前記車両の周辺環境を示す第1画像データを取得するように構成された第1カメラと、
前記第1レートよりも高い第2レートで前記車両の周辺環境を示す第2画像データを取得するように構成された第2カメラと、
前記第1カメラ及び前記第2カメラの動作を制御するように構成されたカメラ制御部と、
を備え、
前記カメラ制御部は、
前記第2画像データに基づいて、前記車両の外部に存在する第2車両に設けられた第2照明ユニットの点灯タイミングに関連する点灯タイミング情報を特定し、
前記特定された点灯タイミング情報に基づいて、前記第1画像データの各フレームの取得タイミングを決定するように構成される、
車両システム。
A vehicle system provided in a vehicle capable of traveling in an automatic driving mode,
A first camera configured to obtain first image data indicating a surrounding environment of the vehicle at a first rate;
A second camera configured to acquire second image data indicating a surrounding environment of the vehicle at a second rate higher than the first rate;
A camera control unit configured to control operations of the first camera and the second camera;
With
The camera control unit
Based on the second image data, identifying lighting timing information related to the lighting timing of the second lighting unit provided in the second vehicle existing outside the vehicle,
Configured to determine an acquisition timing of each frame of the first image data based on the specified lighting timing information;
Vehicle system.
JP2018045301A 2018-03-13 2018-03-13 Vehicle system Pending JP2019159772A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018045301A JP2019159772A (en) 2018-03-13 2018-03-13 Vehicle system
CN201910184045.1A CN110271480B (en) 2018-03-13 2019-03-12 Vehicle system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018045301A JP2019159772A (en) 2018-03-13 2018-03-13 Vehicle system

Publications (1)

Publication Number Publication Date
JP2019159772A true JP2019159772A (en) 2019-09-19

Family

ID=67959186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018045301A Pending JP2019159772A (en) 2018-03-13 2018-03-13 Vehicle system

Country Status (2)

Country Link
JP (1) JP2019159772A (en)
CN (1) CN110271480B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111098777A (en) * 2019-12-30 2020-05-05 北京海纳川汽车部件股份有限公司 Control method and system of vehicle lamp and vehicle

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5137981B2 (en) * 2010-02-01 2013-02-06 株式会社ビートソニック In-vehicle surveillance camera
DE102011077038A1 (en) * 2011-06-07 2012-12-13 Robert Bosch Gmbh Method and device for detecting objects in an environment of a vehicle
JP2015009570A (en) * 2013-06-26 2015-01-19 富士重工業株式会社 Headlight control device
CN104575006B (en) * 2014-12-25 2017-01-18 北京凌云光技术有限责任公司 Image shooting moment determining method and system as well as vehicle speed detection method and system
AT516848B1 (en) * 2015-04-27 2016-09-15 Zizala Lichtsysteme Gmbh Method for driving a light scanner in a headlight for vehicles and headlights
JP6200481B2 (en) * 2015-11-25 2017-09-20 株式会社Subaru Outside environment recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111098777A (en) * 2019-12-30 2020-05-05 北京海纳川汽车部件股份有限公司 Control method and system of vehicle lamp and vehicle

Also Published As

Publication number Publication date
CN110271480A (en) 2019-09-24
CN110271480B (en) 2023-05-02

Similar Documents

Publication Publication Date Title
US12077187B2 (en) Sensing system and vehicle
JP7235659B2 (en) Vehicle lighting system and vehicle
US10602331B2 (en) Inter-vehicle communication system, vehicle system, vehicle illumination system and vehicle
US20210403015A1 (en) Vehicle lighting system, vehicle system, and vehicle
JP7045880B2 (en) Vehicle lighting system and vehicle
US12083957B2 (en) Vehicle display system and vehicle
JP6970612B2 (en) Vehicle lighting system and vehicle
US11597316B2 (en) Vehicle display system and vehicle
US12005832B2 (en) Vehicle display system, vehicle system, and vehicle
EP4039519B1 (en) Vehicular display system and vehicle
CN110271480B (en) Vehicle system
US20250020304A1 (en) Road surface drawing lamp and road surface drawing lamp system
US20230184902A1 (en) Vehicular light source system, vehicular sensing system, and vehicle
US20240069335A1 (en) Head-up display
WO2022102374A1 (en) Vehicular display system
WO2021002297A1 (en) Vehicular lighting system, vehicle system and vehicle