JP2019159772A - Vehicle system - Google Patents
Vehicle system Download PDFInfo
- Publication number
- JP2019159772A JP2019159772A JP2018045301A JP2018045301A JP2019159772A JP 2019159772 A JP2019159772 A JP 2019159772A JP 2018045301 A JP2018045301 A JP 2018045301A JP 2018045301 A JP2018045301 A JP 2018045301A JP 2019159772 A JP2019159772 A JP 2019159772A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- lighting
- camera
- unit
- timing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 claims abstract description 22
- 238000005286 illumination Methods 0.000 claims description 72
- 238000000034 method Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 13
- 238000013507 mapping Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 230000004927 fusion Effects 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 101001093748 Homo sapiens Phosphatidylinositol N-acetylglucosaminyltransferase subunit P Proteins 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/04—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
- B60Q1/06—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
- B60Q1/08—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
- B60Q1/085—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2300/00—Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
- B60Q2300/40—Indexing codes relating to other road users or special conditions
- B60Q2300/45—Special conditions, e.g. pedestrians, road signs or potential dangers
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本開示は、車両システムに関する。特に、本開示は、自動運転モードで走行可能な車両に設けられた車両システムに関する。 The present disclosure relates to a vehicle system. In particular, the present disclosure relates to a vehicle system provided in a vehicle that can travel in an automatic driving mode.
現在、自動車の自動運転技術の研究が各国で盛んに行われており、自動運転モードで車両(以下、「車両」は自動車のことを指す。)が公道を走行することができるための法整備が各国で検討されている。ここで、自動運転モードでは、車両システムが車両の走行を自動的に制御する。具体的には、自動運転モードでは、車両システムは、カメラ、レーダ(例えば、レーザレーダやミリ波レーダ)等のセンサから得られる車両の周辺環境を示す情報(周辺環境情報)に基づいてステアリング制御(車両の進行方向の制御)、ブレーキ制御及びアクセル制御(車両の制動、加減速の制御)のうちの少なくとも1つを自動的に行う。一方、以下に述べる手動運転モードでは、従来型の車両の多くがそうであるように、運転者が車両の走行を制御する。具体的には、手動運転モードでは、運転者の操作(ステアリング操作、ブレーキ操作、アクセル操作)に従って車両の走行が制御され、車両システムはステアリング制御、ブレーキ制御及びアクセル制御を自動的に行わない。尚、車両の運転モードとは、一部の車両のみに存在する概念ではなく、自動運転機能を有さない従来型の車両も含めた全ての車両において存在する概念であって、例えば、車両制御方法等に応じて分類される。 Currently, there is a lot of research on autonomous driving technology in various countries, and legislation to enable vehicles (hereinafter referred to as “vehicles” to refer to automobiles) on public roads in autonomous driving mode. Are being studied in various countries. Here, in the automatic operation mode, the vehicle system automatically controls the traveling of the vehicle. Specifically, in the automatic driving mode, the vehicle system performs steering control based on information (surrounding environment information) indicating the surrounding environment of the vehicle obtained from a sensor such as a camera or a radar (for example, a laser radar or a millimeter wave radar). At least one of (control of the traveling direction of the vehicle), brake control and accelerator control (vehicle braking, acceleration / deceleration control) is automatically performed. On the other hand, in the manual driving mode described below, the driver controls the traveling of the vehicle, as is the case with many conventional vehicles. Specifically, in the manual operation mode, vehicle travel is controlled in accordance with driver operations (steering operation, brake operation, accelerator operation), and the vehicle system does not automatically perform steering control, brake control, and accelerator control. The vehicle driving mode is not a concept that exists only in some vehicles, but a concept that exists in all vehicles including conventional vehicles that do not have an automatic driving function. It is classified according to the method.
このように、将来において、公道上では自動運転モードで走行中の車両(以下、適宜、「自動運転車」という。)と手動運転モードで走行中の車両(以下、適宜、「手動運転車」という。)が混在することが予想される。 Thus, in the future, on the public road, a vehicle running in the automatic driving mode (hereinafter referred to as “automatic driving vehicle” as appropriate) and a vehicle running in the manual driving mode (hereinafter referred to as “manual driving vehicle” as appropriate). Is expected to be mixed.
自動運転技術の一例として、特許文献1には、先行車に後続車が自動追従走行した自動追従走行システムが開示されている。当該自動追従走行システムでは、先行車と後続車の各々が照明システムを備えており、先行車と後続車との間に他車が割り込むことを防止するための文字情報が先行車の照明システムに表示されると共に、自動追従走行である旨を示す文字情報が後続車の照明システムに表示される。
As an example of the automatic driving technique,
ところで、自動運転技術の発展において、車両の周辺環境の認知精度を飛躍的に向上させることが課題となっている。この点において、車両の周辺環境を示す周辺環境情報は、車両に搭載されたカメラにより取得された画像データに基づいて生成されるため、画像データの信頼性は、周辺環境情報の信頼性に大きく影響を与える。一方、夜間において車両が走行中の場合、対向車の照明ユニットから出射されたハイビーム等のグレア光が画像データの信頼性に悪影響を及ぼす可能性がある。より具体的には、対向車の照明ユニットから出射された光によって画像データにハレーションが生じるため、当該車両は、周辺環境情報(特に、他車両の存在)を正確に特定することができない虞がある。 By the way, in the development of automatic driving technology, it has been a challenge to dramatically improve the recognition accuracy of the surrounding environment of the vehicle. In this respect, since the surrounding environment information indicating the surrounding environment of the vehicle is generated based on the image data acquired by the camera mounted on the vehicle, the reliability of the image data is largely the reliability of the surrounding environment information. Influence. On the other hand, when the vehicle is traveling at night, glare light such as a high beam emitted from the lighting unit of the oncoming vehicle may adversely affect the reliability of the image data. More specifically, since the image data is halated by the light emitted from the lighting unit of the oncoming vehicle, the vehicle may not be able to accurately specify the surrounding environment information (particularly, the presence of other vehicles). is there.
本開示は、車両の周辺環境の認知精度を向上させることが可能な車両システムを提供することを目的とする。 An object of the present disclosure is to provide a vehicle system capable of improving the recognition accuracy of the surrounding environment of the vehicle.
本開示の一態様に係る車両システムは、自動運転モードで走行可能な車両に設けられている。
車両システムは、
第1レートで前記車両の周辺環境を示す画像データを取得するように構成されたカメラと、
前記カメラの動作を制御するように構成されたカメラ制御部と、
前記車両の外部に向けて光を出射するように構成された照明ユニットと、
第2レートで前記照明ユニットを点灯制御するように構成された照明制御部と、
標準時刻を示す標準時刻信号を受信するように構成された無線通信部と、
前記標準時刻信号に基づいて、前記車両の内部時刻が前記標準時刻に一致するように前記内部時刻を調整するように構成された内部時刻調整部と、
を備える。
前記照明ユニットの点灯タイミングと前記車両の外部に存在する第2車両に設けられた第2照明ユニットの点灯タイミングが互いに一致する。
前記カメラ制御部は、前記照明ユニットの点灯タイミングに関連する情報に基づいて、前記画像データの各フレームの取得タイミングを決定する。
A vehicle system according to an aspect of the present disclosure is provided in a vehicle that can travel in an automatic driving mode.
The vehicle system
A camera configured to acquire image data indicating the surrounding environment of the vehicle at a first rate;
A camera controller configured to control the operation of the camera;
A lighting unit configured to emit light toward the outside of the vehicle;
An illumination controller configured to control lighting of the illumination unit at a second rate;
A wireless communication unit configured to receive a standard time signal indicating the standard time;
Based on the standard time signal, an internal time adjustment unit configured to adjust the internal time so that the internal time of the vehicle matches the standard time;
Is provided.
The lighting timing of the lighting unit and the lighting timing of the second lighting unit provided in the second vehicle existing outside the vehicle coincide with each other.
The camera control unit determines acquisition timing of each frame of the image data based on information related to lighting timing of the lighting unit.
上記構成によれば、照明ユニットの点灯タイミングと第2照明ユニットの点灯タイミングが互いに一致すると共に、画像データの各フレームの取得タイミングは、照明ユニットの点灯タイミングに関連する情報に基づいて決定される。このように、各フレームの取得タイミングは、第2照明ユニットの点灯タイミングに基づいて決定されるため、第2照明ユニットから出射された光によって画像データの各フレームにハレーションが生じることを好適に防止することが可能となる。このように、車両の周辺環境の認知精度を向上させることが可能な車両システムを提供することができる。 According to the above configuration, the lighting timing of the lighting unit and the lighting timing of the second lighting unit coincide with each other, and the acquisition timing of each frame of the image data is determined based on information related to the lighting timing of the lighting unit. . Thus, since the acquisition timing of each frame is determined based on the lighting timing of the second lighting unit, it is preferable to prevent halation from occurring in each frame of the image data due to the light emitted from the second lighting unit. It becomes possible to do. Thus, the vehicle system which can improve the recognition accuracy of the surrounding environment of a vehicle can be provided.
本開示の別の態様に係る車両システムは、自動運転モードで走行可能な車両に設けられている。
車両システムは、
第1レートで前記車両の周辺環境を示す第1画像データを取得するように構成された第1カメラと、
前記第1レートよりも高い第2レートで前記車両の周辺環境を示す第2画像データを取得するように構成された第2カメラと、
前記第1カメラ及び前記第2カメラの動作を制御するように構成されたカメラ制御部と、
を備える。
前記カメラ制御部は、
前記第2画像データに基づいて、前記車両の外部に存在する第2車両に設けられた第2照明ユニットの点灯タイミングに関連する点灯タイミング情報を特定し、
前記特定された点灯タイミング情報に基づいて、前記第1画像データの各フレームの取得タイミングを決定するように構成される。
A vehicle system according to another aspect of the present disclosure is provided in a vehicle that can travel in an automatic operation mode.
The vehicle system
A first camera configured to obtain first image data indicating a surrounding environment of the vehicle at a first rate;
A second camera configured to acquire second image data indicating a surrounding environment of the vehicle at a second rate higher than the first rate;
A camera control unit configured to control operations of the first camera and the second camera;
Is provided.
The camera control unit
Based on the second image data, identifying lighting timing information related to the lighting timing of the second lighting unit provided in the second vehicle existing outside the vehicle,
The acquisition timing of each frame of the first image data is determined based on the specified lighting timing information.
本開示によれば、車両の周辺環境の認知精度を向上させることが可能な車両システムを提供することができる。 According to the present disclosure, it is possible to provide a vehicle system capable of improving the recognition accuracy of the surrounding environment of the vehicle.
(第1実施形態)
以下、第1実施形態について図面を参照しながら説明する。第1実施形態の説明では、説明の便宜上、「左右方向」、「前後方向」について適宜言及する。これらの方向は、図1に示す車両1について設定された相対的な方向である。ここで、「前後方向」は、「前方向」及び「後方向」を含む方向である。「左右方向」は、「左方向」及び「右方向」を含む方向である。
(First embodiment)
Hereinafter, the first embodiment will be described with reference to the drawings. In the description of the first embodiment, for the convenience of description, the “left-right direction” and the “front-rear direction” are referred to as appropriate. These directions are relative directions set for the
最初に、図1を参照して本実施形態に係る車両1について説明する。図1は、車両システム2を備える車両1の上面図を示す模式図である。図1に示すように、車両1は、自動運転モードで走行可能な車両(自動車)であって、車両システム2を備える。車両システム2は、車両制御部3と、左前照明システム4a(以下、単に「照明システム4a」という。)と、右前照明システム4b(以下、単に「照明システム4b」という。)と、左後照明システム4c(以下、単に「照明システム4c」という。)と、右後照明システム4d(以下、単に「照明システム4d」という。)を少なくとも備える。
First, the
照明システム4aは、車両1の左前側に設けられる。特に、照明システム4aは、車両1の左前側に設置されたハウジング24aと、ハウジング24aに取り付けられた透光カバー22aとを備える。照明システム4bは、車両1の右前側に設けられる。特に、照明システム4bは、車両1の右前側に設置されたハウジング24bと、ハウジング24bに取り付けられた透光カバー22bとを備える。照明システム4cは、車両1の左後側に設けられる。特に、照明システム4cは、車両1の左後側に設置されたハウジング24cと、ハウジング24cに取り付けられた透光カバー22cとを備える。照明システム4dは、車両1の右後側に設けられる。特に、照明システム4dは、車両1の右後側に設置されたハウジング24dと、ハウジング24dに取り付けられた透光カバー22dとを備える。
The
次に、図2を参照することで、図1に示す車両システム2を具体的に説明する。図2は、車両システム2を示すブロック図である。図2に示すように、車両システム2は、車両制御部3と、照明システム4a〜4dと、センサ5と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11とを備える。さらに、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。また、車両システム2は、電力を供給するように構成されたバッテリー(図示せず)を備えてもよい。
Next, the
車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及びTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。
The
例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラムである。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。 For example, the vehicle control program may include an artificial intelligence (AI) program for automatic driving. The AI program is a program constructed by supervised or unsupervised machine learning (particularly deep learning) using a multilayer neural network. The RAM may temporarily store a vehicle control program, vehicle control data, and / or surrounding environment information indicating the surrounding environment of the vehicle. The processor may be configured to expand a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field−Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。 In addition, the computer system may be configured by a non-Neumann computer such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array). Furthermore, the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.
照明システム4aは、制御部40aと、照明ユニット42aと、カメラ43aと、LiDAR(Light Detection and Ranging)ユニット44a(レーザーレーダの一例)と、ミリ波レーダ45aとをさらに備える。制御部40aと、照明ユニット42aと、カメラ43aと、LiDARユニット44aと、ミリ波レーダ45aは、図1に示すように、ハウジング24aと透光カバー22aによって形成される空間Sa内(灯室内)に配置される。尚、制御部40aは、空間Sa以外の車両1の所定の場所に配置されてもよい。例えば、制御部40aは、車両制御部3と一体的に構成されてもよい。
The
制御部40aは、例えば、少なくとも一つの電子制御ユニット(ECU)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU、MPU、GPU及びTPUのうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROMと、RAMを含む。ROMには、車両1の周辺環境を特定するための周辺環境特定プログラムが記憶されてもよい。
The
例えば、周辺環境特定プログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラムである。RAMには、周辺環境特定プログラム、カメラ43aに取得された画像データ、LiDARユニット44aによって取得された3次元マッピングデータ(点群データ)及びミリ波レーダ45aによって取得された検出データ等が一時的に記憶されてもよい。プロセッサは、ROMに記憶された周辺環境特定プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。
For example, the surrounding environment specifying program is a program constructed by supervised or unsupervised machine learning (particularly deep learning) using a multilayer neural network. The RAM temporarily stores a surrounding environment specifying program, image data acquired by the
また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。 The computer system may be configured by a non-Neumann computer such as an ASIC or FPGA. Furthermore, the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.
照明ユニット42aは、車両1の外部(前方)に向けて光を出射することによって、配光パターンを形成するように構成されている。照明ユニット42aは、光を出射する光源と、光学系とを有する。光源は、例えば、マトリックス状(例えば、N行×M列、N>1、M>1)に配列された複数の発光素子によって構成されてもよい。発光素子は、例えば、LED(Light Emitting Diode)、LD(Laser Diode)又は有機EL素子である。光学系は、光源から出射された光を照明ユニット42aの前方に向けて反射するように構成されたリフレクタと、光源から直接出射された光又はリフレクタによって反射された光を屈折するように構成されたレンズとのうちの少なくとも一方を含む。車両1の運転モードが手動運転モード又は運転支援モードである場合に、照明ユニット42aは、運転者用の配光パターン(例えば、ロービーム用配光パターンやハイビーム用配光パターン)を車両1の前方に形成するように構成されている。このように、照明ユニット42aは、左側ヘッドランプユニットとして機能する。一方、車両1の運転モードが高度運転支援モード又は完全自動運転モードである場合に、照明ユニット42aは、カメラ用の配光パターンを車両1の前方に形成するように構成されてもよい。
The
制御部40aは、照明ユニット42aに設けられた複数の発光素子の各々に電気信号(例えば、PWM(Pulse Width Modulation)信号)を個別に供給するように構成されていてもよい。この場合、制御部40aは、電気信号が供給される発光素子を個別に選択することができると共に、発光素子毎に電気信号のDuty比を調整することができる。つまり、制御部40aは、マトリックス状に配列された複数の発光素子のうち、点灯又は消灯すべき発光素子を選択することができると共に、点灯している各発光素子の輝度を決定することができる。このため、制御部40aは、照明ユニット42aから前方に向けて出射される配光パターンの形状及び明るさを変更することができる。
The
カメラ43aは、車両1の周辺環境を検出するように構成されている。特に、カメラ43aは、所定のフレームレートで車両1の周辺環境を示す画像データを取得した上で、当該画像データを制御部40aに送信するように構成されている。制御部40aは、送信された画像データに基づいて、周辺環境情報を特定する。ここで、周辺環境情報は、車両1の外部に存在する対象物に関する情報を含んでもよい。例えば、周辺環境情報は、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の相対的位置関係に関する情報とを含んでもよい。
The
カメラ43aは、例えば、CCD(Charge−Coupled Device)やCMOS(相補型MOS:Metal Oxide Semiconductor)等の撮像素子によって構成される。カメラ43aは、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。カメラ43aがステレオカメラの場合、制御部40aは、視差を利用することで、ステレオカメラによって取得された2以上の画像データに基づいて、車両1と車両1の外部に存在する対象物(例えば、歩行者等)との間の距離を特定することができる。また、本実施形態では、1つのカメラ43aが照明システム4aに設けられているが、2以上のカメラ43aが照明システム4aに設けられてもよい。
The
LiDARユニット44a(レーザーレーダの一例)は、車両1の周辺環境を検出するように構成されている。特に、LiDARユニット44aは、所定のフレームレートで車両1の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを制御部40aに送信するように構成されている。制御部40aは、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。ここで、周辺環境情報は、車両1の外部に存在する対象物に関する情報を含んでもよい。例えば、周辺環境情報は、例えば、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の相対的位置関係に関する情報とを含んでもよい。
The
より具体的には、LiDARユニット44aは、レーザ光の各出射角度(水平角度θ、垂直角度φ)におけるレーザ光(光パルス)の飛行時間(TOF:Time of Flight)ΔT1に関する情報を取得した上で、飛行時間ΔT1に関する情報に基づいて、各出射角度(水平角度θ、垂直角度φ)におけるLiDARユニット44a(車両1)と車両1の外部に存在する物体との間の距離Dに関する情報を取得することができる。ここで、飛行時間ΔT1は、例えば、以下のように算出することができる。
飛行時間ΔT1=t1−t0
t1:レーザ光(光パルス)がLiDARユニットに戻ってきた時刻
t0:LiDARユニットがレーザ光(光パルス)を出射した時刻
このように、LiDARユニット44aは、車両1の周辺環境を示す3Dマッピングデータを取得することができる。
More specifically, the
Flight time ΔT1 = t1-t0
t1: Time when laser light (light pulse) returns to the LiDAR unit t0: Time when LiDAR unit emits laser light (light pulse)
Thus, the
また、LiDARユニット44aは、例えば、レーザ光を出射するように構成されたレーザ光源と、レーザ光を水平方向及び垂直方向に走査させるように構成された光偏向器と、レンズ等の光学系と、物体によって反射されたレーザ光を受光するように構成された受光部とを備える。レーザ光源から出射されるレーザ光の中心波長は特に限定されない。例えば、レーザ光は、中心波長が900nm付近である非可視光であってもよい。光偏向器は、例えば、MEMS(Micro Electro Mechanical Systems)ミラーであってもよい。受光部は、例えば、フォトダイオードである。尚、LIDARユニット44aは、光偏向器によってレーザ光を走査せずに、3Dマッピングデータを取得してもよい。例えば、LiDARユニット44aは、フェイズドアレイ方式又はフラッシュ方式で3Dマッピングデータを取得してもよい。また、本実施形態では、1つのLiDARユニット44aが照明システム4aに設けられているが、2以上のLiDARユニット44aが照明システム4aに設けられてもよい。例えば、2つのLiDARユニット44aが照明システム4aに設けられている場合、一方のLiDARユニット44aが車両1の前方領域における周辺環境を検出するように構成されると共に、他方のLiDARユニット44aが車両1の側方領域における周辺環境を検出するように構成されてもよい。
The
ミリ波レーダ45aは、車両1の周辺環境を検出するように構成されている。特に、ミリ波レーダ45aは、車両1の周辺環境を示す検出データを取得した上で、当該検出データを制御部40aに送信するように構成されている。制御部40aは、送信された検出データに基づいて、周辺環境情報を特定する。ここで、周辺環境情報は、車両1の外部に存在する対象物に関する情報を含んでもよい。周辺環境情報は、例えば、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の位置に関する情報と、車両1に対する対象物の速度に関する情報を含んでもよい。
The
例えば、ミリ波レーダ45aは、パルス変調方式、FM−CW(Frequency Moduleted−Continuous Wave)方式又は2周波CW方式で、ミリ波レーダ45a(車両1)と車両1の外部に存在する物体との間の距離Dを取得することができる。パルス変調方式を用いる場合、ミリ波レーダ45aは、ミリ波の各出射角度におけるミリ波の飛行時間ΔT2に関する情報を取得した上で、飛行時間ΔT2に関する情報に基づいて、各出射角度におけるミリ波レーダ45a(車両1)と車両1の外部に存在する物体との間の距離Dに関する情報を取得することができる。ここで、飛行時間ΔT2は、例えば、以下のように算出することができる。
飛行時間ΔT2=t3−t2
t3:ミリ波がミリ波レーダに戻ってきた時刻
t2:ミリ波レーダがミリ波を出射した時刻
また、ミリ波レーダ45aは、ミリ波レーダ45aから出射されたミリ波の周波数f0とミリ波レーダ45aに戻ってきたミリ波の周波数f1に基づいて、ミリ波レーダ45a(車両1)に対する車両1の外部に存在する物体の相対速度Vに関する情報を取得することができる。
For example, the
Flight time ΔT2 = t3−t2
t3: Time when millimeter wave returns to millimeter wave radar t2: Time when millimeter wave radar emits millimeter wave
Also, the
また、本実施形態では、1つのミリ波レーダ45aが照明システム4aに設けられているが、2以上のミリ波レーダ45aが照明システム4aに設けられてもよい。例えば、照明システム4aは、短距離用のミリ波レーダ45aと、中距離用のミリ波レーダ45aと、長距離用のミリ波レーダ45aを有してもよい。
In the present embodiment, one
照明システム4bは、制御部40bと、照明ユニット42bと、カメラ43bと、LiDARユニット44bと、ミリ波レーダ45bとをさらに備える。制御部40bと、照明ユニット42bと、カメラ43bと、LiDARユニット44bと、ミリ波レーダ45bは、図1に示すように、ハウジング24bと透光カバー22bによって形成される空間Sb内(灯室内)に配置される。尚、制御部40bは、空間Sb以外の車両1の所定の場所に配置されてもよい。例えば、制御部40bは、車両制御部3と一体的に構成されてもよい。制御部40bは、制御部40aと同様な機能及び構成を有してもよい。照明ユニット42bは、照明ユニット42aと同様な機能及び構成を有してもよい。この点において、照明ユニット42bは、右側ヘッドランプユニットとして機能する。カメラ43bは、カメラ43aと同様な機能及び構成を有してもよい。LiDARユニット44bは、LiDARユニット44aと同様な機能及び構成を有してもよい。ミリ波レーダ45bは、ミリ波レーダ45aと同様な機能及び構成を有してもよい。
The
照明システム4cは、制御部40cと、照明ユニット42cと、カメラ43cと、LiDARユニット44cと、ミリ波レーダ45cとをさらに備える。制御部40cと、照明ユニット42cと、カメラ43cと、LiDARユニット44cと、ミリ波レーダ45cは、図1に示すように、ハウジング24cと透光カバー22cによって形成される空間Sc内(灯室内)に配置される。尚、制御部40cは、空間Sc以外の車両1の所定の場所に配置されてもよい。例えば、制御部40cは、車両制御部3と一体的に構成されてもよい。制御部40cは、制御部40aと同様な機能及び構成を有してもよい。
The
照明ユニット42cは、車両1の外部(後方)に向けて光を出射することによって、配光パターンを形成するように構成されている。照明ユニット42cは、光を出射する光源と、光学系とを有する。光源は、例えば、マトリックス状(例えば、N行×M列、N>1、M>1)に配列された複数の発光素子によって構成されてもよい。発光素子は、例えば、LED、LD又は有機EL素子である。光学系は、光源から出射された光を照明ユニット42cの前方に向けて反射するように構成されたリフレクタと、光源から直接出射された光又はリフレクタによって反射された光を屈折するように構成されたレンズとのうちの少なくとも一方を含んでもよい。車両1の運転モードが手動運転モード又は運転支援モードである場合に、照明ユニット42cは消灯してもよい。一方、車両1の運転モードが高度運転支援モード又は完全自動運転モードである場合に、照明ユニット42cは、カメラ用の配光パターンを車両1の後方に形成するように構成されてもよい。
The
カメラ43cは、カメラ43aと同様な機能及び構成を有してもよい。LiDARユニット44cは、LiDARユニット44cと同様な機能及び構成を有してもよい。ミリ波レーダ45cは、ミリ波レーダ45aと同様な機能及び構成を有してもよい。
The
照明システム4dは、制御部40dと、照明ユニット42dと、カメラ43dと、LiDARユニット44dと、ミリ波レーダ45dとを更に備える。制御部40dと、照明ユニット42dと、カメラ43dと、LiDARユニット44dと、ミリ波レーダ45dは、図1に示すように、ハウジング24dと透光カバー22dによって形成される空間Sd内(灯室内)に配置される。尚、制御部40dは、空間Sd以外の車両1の所定の場所に配置されてもよい。例えば、制御部40dは、車両制御部3と一体的に構成されてもよい。制御部40dは、制御部40cと同様な機能及び構成を有してもよい。照明ユニット42dは、照明ユニット42cと同様な機能及び構成を有してもよい。カメラ43dは、カメラ43cと同様な機能及び構成を有してもよい。LiDARユニット44dは、LiDARユニット44cと同様な機能及び構成を有してもよい。ミリ波レーダ45dは、ミリ波レーダ45cと同様な機能及び構成を有してもよい。
The
センサ5は、加速度センサ、速度センサ及びジャイロセンサ等を有してもよい。センサ5は、車両1の走行状態を検出して、車両1の走行状態を示す走行状態情報を車両制御部3に出力するように構成されている。また、センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。さらに、センサ5は、車両1の周辺環境の明るさ(照度等)を検出するように構成された照度センサを備えてもよい。照度センサは、例えば、フォトダイオードから出力される光電流の大きさに応じて周辺環境の明るさを決定してもよい。
The
HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイである。GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。
The
無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1は、他車両、インフラ設備又は携帯型電子機器とアドホックモードにより直接通信してもよいし、アクセスポイントを介して通信してもよい。また、無線通信部10は、標準時刻を示す標準時刻信号(例えば、標準電波)を受信するように構成されている。さらに、車両1は、図示しない通信ネットワークを介して他車両、インフラ設備又は携帯型電子機器と通信してもよい。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及び無線アクセスネットワーク(RAN)のうちの少なくとも一つを含む。無線通信規格は、例えば、Wi−Fi(登録商標),Bluetooth(登録商標),ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi−Fiである。また、車両1は、他車両、インフラ設備又は携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。
The
記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2D又は3Dの地図情報及び/又は車両制御プログラムが記憶されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部10とインターネット等の通信ネットワークを介して更新されてもよい。
The
車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報及び/又は地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
When the
一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に応じて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
On the other hand, when the
次に、車両1の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御のうちの一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2からの運転支援なしに運転者が車両1を運転する。
Next, the operation mode of the
また、車両1の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両1の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両1の運転モードは、自動運転車の走行が可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両1の運転モードを切り替える。さらに、車両1の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両1の運転モードを切り替えてもよい。
Further, the operation mode of the
次に、図3を参照することで、本実施形態における制御部40aの機能について以下に説明する。図3は、第1実施形態における照明システム4aの制御部40aの機能ブロックを示す図である。図3に示すように、制御部40aは、照明ユニット42aと、カメラ43aと、LiDARユニット44aと、ミリ波レーダ45aの動作をそれぞれ制御するように構成されている。特に、制御部40aは、照明制御部410aと、カメラ制御部420aと、LiDAR制御部430aと、ミリ波レーダ制御部440aと、周辺環境情報融合部450aとを備える。
Next, the function of the
照明制御部410aは、照明ユニット42aが所定の配光パターンを車両1の前方領域に向けて出射するように照明ユニット42aを制御するように構成されている。さらに、照明制御部410aは、所定のレート(第2レート)で照明ユニット42aを点灯制御するように構成されている。本実施形態では、照明ユニット42aの点灯レート(Hz)は、カメラ43aによって取得された画像データのフレームレート(fps)と同一であることが好ましい。また、照明制御部410aは、照明ユニット42aの点灯タイミングを制御するように構成されている。ここで、照明ユニット42aの点灯タイミングとは、照明ユニット42aの点灯開始タイミング(点灯開始時刻)と、点灯終了タイミング(点灯終了時刻)を含む概念である。
The
カメラ制御部420aは、カメラ43aの動作を制御するように構成されている。特に、カメラ制御部420aは、所定のフレームレート(第1レート)で画像データを取得するようにカメラ43aを制御するように構成されている。さらに、カメラ制御部420aは、照明ユニット42aの点灯タイミングに関連する情報に基づいて、画像データの各フレームの取得タイミングを制御するように構成されている。ここで、フレームの取得タイミングとは、フレーム取得開始タイミング(フレーム取得開始時刻)と、フレーム取得終了タイミング(フレーム取得終了時刻)を含む概念である。
The
また、カメラ制御部420aは、カメラ43aから出力された画像データに基づいて、カメラ43aの検出領域における車両1の周辺環境情報を生成するように構成されている。この点において、カメラ制御部420aは、画像データの1フレームごとに周辺環境情報を生成するように構成されている。
The
LiDAR制御部430aは、LiDARユニット44aの動作を制御するように構成されている。特に、LiDAR制御部430aは、所定のフレームレートで3Dマッピングデータを取得するようにLiDARユニット44aを制御するように構成されている。さらに、LiDAR制御部430aは、3Dマッピングデータの各フレームの取得タイミングを制御するように構成されている。また、LiDAR制御部430aは、LiDARユニット44aから出力された3Dマッピングデータに基づいて、LiDARユニット44aの検出領域における車両1の周辺環境情報を生成するように構成されている。この点において、LiDAR制御部430aは、3Dマッピングデータの1フレームごとに周辺環境情報を生成するように構成されている。
The
ミリ波レーダ制御部440aは、ミリ波レーダ45aの動作を制御すると共に、ミリ波レーダ45aから出力された検出データに基づいて、ミリ波レーダ45aの検出領域における車両1の周辺環境情報を生成するように構成されている。
The millimeter wave
周辺環境情報融合部450aは、カメラ制御部420aから取得された周辺環境情報と、LiDAR制御部430aから取得された周辺環境情報と、ミリ波レーダ制御部440aから取得された周辺環境情報を融合すると共に、融合された周辺環境情報を車両制御部3に送信するように構成されている。
The surrounding environment
また、制御部40b,40c,40dも制御部40aと同様の機能を有してもよい。つまり、制御部40b〜40dの各々は、照明制御部と、カメラ制御部と、LiDAR制御部と、ミリ波レーダ制御部と、周辺環境情報融合部とを備えてもよい。
Also, the
次に、カメラ43aの画像データの取得タイミングを決定する処理について図4〜図6を参照して説明する。図4は、互いに対向する車両1Aと車両1B(第2車両の一例)を示す図である。図5は、カメラ43aの画像データの各フレームの取得タイミングを決定する処理を説明するためのフローチャートである。図6(a)は、車両1Aにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの各フレームの取得タイミングとの関係を説明するための図である。図6(b)は、車両1Bにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの各フレームの取得タイミングとの関係を説明するための図である。
Next, processing for determining the acquisition timing of the image data of the
本実施形態における前提条件について以下に説明する。
最初に、車両1A,1Bは、車両1と同様な構成を有する。つまり、車両1A,1Bは、図2に示す車両システム2を有するものとする。次に、説明の便宜上、車両1Aにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの取得タイミングとの間の関係について説明すると共に、車両1Bにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの取得タイミングとの間の関係について説明する。この点において、照明ユニット42bは、照明ユニット42aと同一の点灯タイミングで点灯すると共に、カメラ43bは、カメラ43aと同一の取得タイミングで画像データを取得するものとするため、照明ユニット42bとカメラ43bについては特に以下では言及しない。また、説明の簡略化の観点より、LiDARユニット44aの3Dマッピングデータの取得タイミングやミリ波レーダの検出データの取得タイミングについても特に言及しない。さらに、以下の説明では、図5に示す処理は、車両1Aによって実行されるものとする。一方、図5に示す処理は、車両1Bによっても実行される点に留意されたい。
The preconditions in this embodiment will be described below.
First, the
図5に示すように、ステップS1において、車両1Aの無線通信部10は、標準時刻を示す標準時刻信号を受信する。例えば、無線通信部10は、標準電波送信所から標準電波(標準時刻信号の一例)を受信してもよい。また、無線通信部10は、通信ネットワーク上に配置されたNTP(Network Time Protocol)サーバから標準時刻信号を受信してもよい。標準時刻は、例えば、一以上の原子時計によって決定されてもよい。
As shown in FIG. 5, in step S1, the
次に、ステップS2において、車両制御部3(内部時刻調整部の一例)は、無線通信部10により受信された標準時刻信号に基づいて、車両1Aの内部時刻が標準時刻に一致するように内部時刻を調整する。この時点より、車両1Aは、調整された内部時刻に基づいて各車両制御処理を実行する。例えば、車両1Aの制御部40aは、調整された内部時刻に基づいて、照明ユニット42a、カメラ43a、LiDARユニット44a及びミリ波レーダ45aの動作タイミングを制御する。
Next, in step S2, the vehicle control unit 3 (an example of an internal time adjustment unit) is configured so that the internal time of the vehicle 1A matches the standard time based on the standard time signal received by the
次に、ステップS3において、照明制御部410a(図3参照)は、照明ユニット42aの点灯タイミングを決定する。特に、照明制御部410aは、照明ユニット42aの点灯開始タイミング(点灯開始時刻)を決定する。図6(a)に示すように、車両1Aの点灯期間ΔTc及び点灯周期T2(又は点灯レートF2=1/T2)は予め定められているため、照明ユニット42aの点灯開始タイミングtc1が決定されることで、点灯終了タイミング(点灯終了時刻)tc2と、点灯開始タイミングtc1より後の点灯開始タイミング(例えば、点灯開始タイミングtc3)と、点灯終了タイミングtc2より後の点灯終了タイミングとが自動的に決定される。特に、点灯終了タイミングtc2は、tc2=tc1+ΔTcにより定められる一方、点灯開始タイミングtc3は、tc3=tc1+T2により定められる。
Next, in step S3, the
点灯開始タイミングtc1の決定手法としては以下が挙げられる。例えば、照明制御部410aは、標準時刻信号の一例である標準電波を受信してから所定期間経過後に照明ユニット42aの点灯を開始する。換言すれば、照明制御部410aは、点灯開始タイミングtc1を、標準電波を受信してから所定期間経過後の時刻に設定する。ここで、所定期間は、車両間において予め設定されてもよい。また、照明制御部410aは、点灯開始タイミングtc1を所定の時刻に設定してもよい。例えば、点灯開始タイミングtc1がX時Y分0ミリ秒に設定されてもよい(X,Yは任意の値)。ここで、所定の時刻は、車両間において予め設定されてもよい。
The following is mentioned as a method for determining the lighting start timing tc1. For example, the
次に、ステップS4において、カメラ制御部420aは、照明ユニット42aの点灯タイミングに関連する情報(点灯開始タイミング及び/又は点灯終了タイミング)に基づいて、カメラ43aの画像データの各フレームの取得タイミングを決定する。特に、カメラ制御部420aは、上記情報に基づいて、カメラ43aの画像データの各フレームの取得開始タイミング(取得開始時刻)を決定する。図6(a)に示すように、各フレームの取得期間ΔTa及びフレーム周期T1(又は、フレームレートF1=1/T1)は予め定められているため、フレームFa1の取得開始タイミングta1が決定されることで、フレームFa1の取得終了タイミング(取得終了時刻)ta2と、フレームFa1より後のフレームの取得開始タイミング(例えば、フレームFa2の取得開始タイミングta3)と、フレームFa1より後のフレームの取得終了タイミング(例えば、フレームFa2の取得終了タイミングta4)とが自動的に決定される。特に、取得終了タイミングta2は、ta2=ta1+ΔTaにより定められる一方で、取得開始タイミングta3は、ta3=ta1+T1により定められる。尚、画像データの1フレームの取得期間ΔTaは、画像データの1フレームを形成するために必要な露光時間(換言すれば、画像データの1フレームを形成する光を取り込む時間)に相当する。尚、CCDやCMOS等のイメージセンサーから出力された電気信号を処理する時間は、取得期間ΔTaには含まれていない。
Next, in step S4, the
フレームFa1の取得開始タイミングta1の決定手法としては以下が挙げられる。例えば、カメラ制御部420aは、点灯開始タイミングtc1及び/又は点灯終了タイミングtc2に基づいて、点灯期間ΔTcと取得期間ΔTaが互いに重複しないように、取得開始タイミングta1を決定する。特に、カメラ制御部420aは、取得開始タイミングta1及び取得終了タイミングta2が点灯終了タイミングtc2と点灯開始タイミングtc3との間の非点灯期間に設定されるように、取得開始タイミングta1を決定する。
The following is a method for determining the acquisition start timing ta1 of the frame Fa1. For example, the
このように、図5に示す各処理を通じて、車両1Aにおける照明ユニット42aの点灯タイミングとカメラ43aの画像データの取得タイミングが決定される。
As described above, the lighting timing of the
一方、図5に示す各処理は、車両1Aだけでなく対向車である車両1Bを含む全走行車両で実行される。特に、図5に示す各処理が車両1A,1Bにより実行されることで、車両1Aの照明ユニット42aの点灯タイミングと車両1Bの照明ユニット42aの点灯タイミングが互いに一致する。具体的には、図6に示すように、車両1Aの照明ユニット42aの点灯開始タイミングtc1と車両1Bの照明ユニット42aの点灯開始タイミングte1は互いに一致する。さらに、車両間において点灯期間ΔTc=点灯期間ΔTe及び点灯周期T2=点灯周期T4となることが前提となる。このため、点灯開始タイミングtc1=点灯開始タイミングte1が成立することで、点灯終了タイミングtc2=点灯終了タイミングte2であると共に、点灯開始タイミングtc3=点灯開始タイミングte3が成立する。
On the other hand, each process shown in FIG. 5 is executed not only by the vehicle 1A but also by all traveling vehicles including the
上記したように、点灯開始タイミングの決定手法の一例として、車両1Aの照明制御部410aは、点灯開始タイミングtc1を、標準電波を受信してから所定期間Δt1経過後の時刻に設定する。一方、車両1Bの照明制御部410aも同様に、点灯開始タイミングte1を、標準電波を受信してから所定期間Δt2経過後の時刻に設定する。ここで、本実施形態では、所定期間Δt1,Δt2が所定期間Δt1=所定期間Δt2となるように予め車両間において設定されているため、点灯開始タイミングtc1と点灯開始タイミングte1が互いに一致する。また、点灯開始タイミングの決定手法の他の一例として、車両1Aの照明制御部410aは、点灯開始タイミングtc1を所定の時刻(X時Y分0ミリ秒)に設定する。一方、車両1Bの照明制御部410aも同様に、点灯開始タイミングte1を所定の時刻(X時Y分0ミリ秒)に設定する。このように、点灯開始タイミングtc1と点灯開始タイミングte1が互いに一致する。
As described above, as an example of the lighting start timing determination method, the
また、ステップS4において、車両1Bのカメラ制御部420aは、照明ユニット42aの点灯タイミングに関連する情報に基づいて、カメラ43aの画像データの各フレームの取得タイミングを決定する。例えば、カメラ制御部420aは、点灯開始タイミングte1及び/又は点灯終了タイミングte2に基づいて、点灯期間ΔTeと取得期間ΔTbが互いに重複しないように、取得開始タイミングtb1を決定する。さらに、各フレームの取得期間ΔTb及びフレーム周期T3は予め定められているため、フレームFb1の取得開始タイミングtb1が決定されることで、フレームFb1の取得終了タイミングtb2と、フレームFb1より後のフレームの取得開始タイミング(例えば、フレームFb2の取得開始タイミングtb3)と、フレームFa1より後のフレームの取得終了タイミング(例えば、フレームFb2の取得終了タイミング)とが自動的に決定される。特に、取得終了タイミングtb2は、tb2=tb1+ΔTbにより定められる一方で、取得開始タイミングtb3は、tb3=tb1+T3により定められる。
In step S4, the
本実施形態によれば、車両1Aの照明ユニット42aの点灯タイミングと車両1Bの照明ユニット42aの点灯タイミングが互いに一致する。さらに、点灯期間ΔTcと取得期間ΔTaが互いに重複しないと共に、点灯期間ΔTeと取得期間ΔTbが互いに重複しない。このため、車両1Aの取得期間ΔTaは、車両1Bの点灯期間ΔTeと重複しないと共に、車両1Bの取得期間ΔTbは、車両1Aの点灯期間ΔTcと重複しない。このように、車両1Bの照明ユニット42aから出射された光(配光パターン)によって車両1Aのカメラ43aにより取得された各フレームの画像データにハレーションが生じることを確実に防止することが可能となる。同様に、車両1Aの照明ユニット42aから出射された光によって車両1Bのカメラ43aにより取得された各フレームの画像データにハレーションが生じることを確実に防止することが可能となる。したがって、車両の周辺環境の認知精度を向上させることが可能な車両システム2及び車両を提供することができる。
According to this embodiment, the lighting timing of the
尚、本実施形態では、車両1Aのカメラ制御部420aは、点灯期間ΔTcと取得期間ΔTaが互いに重複しないように取得開始タイミングta1が決定されているが、本実施形態はこれには限定されない。例えば、図7(a)に示すように、車両1Aのカメラ制御部420aは、取得期間ΔTaが点灯期間ΔTcと部分的に重複するように取得開始タイミングta1を決定してもよい。この場合、カメラ制御部420aは、フレームの画像データにハレーションが生じない程度に、取得期間ΔTaを点灯期間ΔTcに部分的に重複させる。同様に、車両1Bのカメラ制御部420aは、取得期間ΔTbが点灯期間ΔTeと部分的に重複するように取得開始タイミングtb1を決定してもよい。
In the present embodiment, the
(第2実施形態)
次に、本発明の第2実施形態に係る車両システムについて図9を参照して以下に説明する。図9は、第2実施形態における照明システム400aの制御部140aの機能ブロックを示す図である。第2実施形態に係る車両システムは、2つのカメラ(第1カメラ143aと第2カメラ243a)を備える点で第1実施形態に係る車両システム2(図2参照)とは主に相違する。以下では、第1実施形態で既に説明された構成要素については繰り返し説明を行なわず、車両システム2と第2実施形態に係る車両システムとの間の相違点についてのみ説明を行う。
(Second Embodiment)
Next, a vehicle system according to a second embodiment of the present invention will be described below with reference to FIG. FIG. 9 is a diagram illustrating functional blocks of the
図9に示すように、第1カメラ143aは、第1フレームレートで車両の周辺環境を示す第1画像データを取得するように構成されている。第2カメラ243aは、第1フレームレートよりも高い第2フレームレートで車両の周辺環境を示す第2画像データを取得するように構成されている。例えば、第1カメラ143aの第1フレームレートは、60fpsであると共に、第2カメラ243aの第2フレームレートは、280fpsである。
As shown in FIG. 9, the
制御部140aは、照明制御部410aと、カメラ制御部421aと、LiDAR制御部430aと、ミリ波レーダ制御部440aと、周辺環境情報融合部450aとを備える。カメラ制御部421aは、第1カメラ143aと第2カメラ243aの動作を制御するように構成されている。カメラ制御部421aは、第1カメラ143aから出力された第1画像データに基づいて、第1カメラ143aの検出領域における周辺環境情報を生成するように構成されている。さらに、カメラ制御部421aは、第2カメラ243aから出力された第2画像データに基づいて、第2カメラ243aの検出領域における周辺環境情報を生成するように構成されている。
The
次に、第1カメラ143aにより取得される第1画像データの取得タイミングを決定する処理について図8〜図10を参照して説明する。図8は、第2実施形態に係る第1画像データの各フレームの取得タイミングを決定する処理を説明するためのフローチャートである。図10(a)は、車両1Aの第1カメラ143aにより取得される第1画像データの各フレームの取得タイミングを示す図である。図10(b)は、車両1Bの照明ユニット42aの点灯タイミングを示す図である。
Next, processing for determining the acquisition timing of the first image data acquired by the
本実施形態の前提条件として、図4に示す車両1A,1Bは、第2実施形態に係る車両システムを有するものとする。さらに、説明の便宜上、車両1Aの第1カメラ143aにより取得される画像データの取得タイミングと車両1Bの照明ユニット42aの点灯タイミングとの間の関係について説明する。また、第1カメラ143aの第1フレームレートは、車両1Bの照明ユニット42aの点灯レートと同一であるものとする。さらに、車両1Bの照明ユニット42bの点灯タイミングは、車両1Bの照明ユニット42aの点灯タイミングと同一であることを前提とするため、車両1Bの照明ユニット42bの点灯タイミングについては特に言及しない。
As a precondition of the present embodiment, the
図8に示すように、ステップS10において、車両1Aの車両制御部3(図2参照)は、車両1Aの周辺環境を示す周辺環境情報に基づいて、車両1Bの存在を検出する。次に、ステップS11において、第2カメラ243aは、車両1Aの周辺環境を示す第2画像データを取得する。ここで、第2カメラ243aの検出領域に車両1Bが存在するため、第2画像データから車両1Bの存在が特定される。次に、車両1Aのカメラ制御部421aは、第2画像データに基づいて、車両1B(第2車両の一例)に設けられた照明ユニット42aの点灯タイミングを特定する(ステップS12)。
As shown in FIG. 8, in step S10, the vehicle control unit 3 (see FIG. 2) of the vehicle 1A detects the presence of the
この点において、第2カメラ243aの第2フレームレートは、第1カメラ143aの第1フレームレート及び車両1Bの照明ユニット42aの点灯レートより非常に高い。このため、カメラ制御部421aは、第2画像データに基づいて、車両1Bの照明ユニット42aの点灯開始タイミング及び点灯終了タイミングを特定することができる。例えば、図10(b)に示すように、照明ユニット42aの点灯開始タイミングte1と点灯終了タイミングte2が特定されることで、照明ユニット42aの点灯期間ΔTeが特定可能となる。さらに、点灯開始タイミングte1と次の点灯開始タイミングte3が特定されることで、点灯周期T4が特定可能となる。さらに、点灯周期T4が特定されることで、点灯開始タイミングte1より後の点灯開始タイミング及び点灯終了タイミングte2より後の点灯終了タイミングが特定可能となる。このように、カメラ制御部421aは、第2画像データに基づいて車両1Bの照明ユニット42aの点灯タイミングを特定することができる。
In this regard, the second frame rate of the
次に、ステップS13において、車両1Aのカメラ制御部421aは、車両1Bの照明ユニット42aの点灯タイミングに関連する情報に基づいて、第1カメラ143aにより取得される第1画像データの各フレームの取得タイミングを決定する。特に、カメラ制御部421aは、取得期間ΔTaと点灯期間ΔTeが互いに重複しないように各フレームの取得タイミングを決定する。例えば、カメラ制御部421aは、点灯開始タイミングte1及び/又は点灯終了タイミングte2に基づいて、点灯期間ΔTeと取得期間ΔTaが互いに重複しないように、取得開始タイミングta1を決定する。さらに、各フレームの取得期間ΔTa及びフレーム周期T1は予め定められているため、フレームFa1の取得開始タイミングta1が決定されることで、フレームFa1の取得終了タイミングta2と、フレームFa1より後のフレームの取得開始タイミング(例えば、フレームFa2の取得開始タイミングta3)と、フレームFa1より後のフレームの取得終了タイミング(例えば、フレームFa2の取得終了タイミングta4)とが自動的に決定される。
Next, in step S13, the
本実施形態によれば、車両1Aの第1カメラ143aの取得期間ΔTaと車両1Bの照明ユニット42aの点灯期間ΔTeが互いに重複しないため、車両1Bの照明ユニット42aから出射された光(配光パターン)によって車両1Aの第1カメラ143aにより取得された各フレームの画像データにハレーションが生じることを確実に防止することが可能となる。したがって、車両1Aの周辺環境の認知精度を向上させることが可能な車両システムを提供することができる。
According to this embodiment, since the acquisition period ΔTa of the
尚、本実施形態では、カメラ制御部421aは、取得期間ΔTaと点灯期間ΔTeが互いに重複しないように各フレームの取得タイミングを決定しているが、本実施形態はこれに限定されるものではない。例えば、カメラ制御部421aは、取得期間ΔTaが点灯期間ΔTeに部分的に重複するように各フレームの取得タイミングを決定してもよい。この点において、画像データにハレーションが生じない程度に取得期間ΔTaが点灯期間ΔTeに部分的に重複することが好ましい。
In the present embodiment, the
以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。 Although the embodiment of the present invention has been described above, it goes without saying that the technical scope of the present invention should not be construed in a limited manner by the description of this embodiment. This embodiment is merely an example, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. The technical scope of the present invention should be determined based on the scope of the invention described in the claims and the equivalents thereof.
本実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードの区分は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。 In the present embodiment, the driving mode of the vehicle has been described as including the fully automatic driving mode, the advanced driving support mode, the driving support mode, and the manual driving mode. However, the driving mode of the vehicle includes these four modes. Should not be limited to. The classification of the driving mode of the vehicle may be changed as appropriate in accordance with laws and regulations concerning automatic driving in each country. Similarly, the definitions of “fully automated driving mode”, “advanced driving support mode”, and “driving support mode” described in the description of the present embodiment are merely examples, and laws or regulations relating to automatic driving in each country or In accordance with the rules, these definitions may be changed as appropriate.
1,1A,1B:車両
2:車両システム
3:車両制御部
4a:左前照明システム(照明システム)
4b:右前照明システム(照明システム)
4c:左後照明システム(照明システム)
4d:右後照明システム(照明システム)
5:センサ
10:無線通信部
11:記憶装置
12:ステアリングアクチュエータ
13:ステアリング装置
14:ブレーキアクチュエータ
15:ブレーキ装置
16:アクセルアクチュエータ
17:アクセル装置
22a,22b,22c,22d:透光カバー
24a,24b,24c,24d:ハウジング
40a,40b,40c,40d:制御部
42a,42b,42c,42d:照明ユニット
43a,43b,43c,43d:カメラ
44a,44b,44c,44d:LiDARユニット
45a,45b,45c,45d:ミリ波レーダ
140a:制御部
143a:第1カメラ
243a:第2カメラ
410a:照明制御部
420a,421a:カメラ制御部
430a:LiDAR制御部
440a:ミリ波レーダ制御部
450a:周辺環境情報融合部
1, 1A, 1B: Vehicle 2: Vehicle system 3:
4b: Front right lighting system (lighting system)
4c: Left rear lighting system (lighting system)
4d: Right rear lighting system (lighting system)
5: Sensor 10: Wireless communication unit 11: Storage device 12: Steering actuator 13: Steering device 14: Brake actuator 15: Brake device 16: Accelerator actuator 17:
Claims (2)
第1レートで前記車両の周辺環境を示す画像データを取得するように構成されたカメラと、
前記カメラの動作を制御するように構成されたカメラ制御部と、
前記車両の外部に向けて光を出射するように構成された照明ユニットと、
第2レートで前記照明ユニットを点灯制御するように構成された照明制御部と、
標準時刻を示す標準時刻信号を受信するように構成された無線通信部と、
前記標準時刻信号に基づいて、前記車両の内部時刻が前記標準時刻に一致するように前記内部時刻を調整するように構成された内部時刻調整部と、
を備え、
前記照明ユニットの点灯タイミングと前記車両の外部に存在する第2車両に設けられた第2照明ユニットの点灯タイミングが互いに一致し、
前記カメラ制御部は、前記照明ユニットの点灯タイミングに関連する情報に基づいて、前記画像データの各フレームの取得タイミングを決定する、
車両システム。 A vehicle system provided in a vehicle capable of traveling in an automatic driving mode,
A camera configured to acquire image data indicating the surrounding environment of the vehicle at a first rate;
A camera controller configured to control the operation of the camera;
A lighting unit configured to emit light toward the outside of the vehicle;
An illumination controller configured to control lighting of the illumination unit at a second rate;
A wireless communication unit configured to receive a standard time signal indicating the standard time;
Based on the standard time signal, an internal time adjustment unit configured to adjust the internal time so that the internal time of the vehicle matches the standard time;
With
The lighting timing of the lighting unit and the lighting timing of the second lighting unit provided in the second vehicle existing outside the vehicle coincide with each other,
The camera control unit determines the acquisition timing of each frame of the image data based on information related to the lighting timing of the lighting unit.
Vehicle system.
第1レートで前記車両の周辺環境を示す第1画像データを取得するように構成された第1カメラと、
前記第1レートよりも高い第2レートで前記車両の周辺環境を示す第2画像データを取得するように構成された第2カメラと、
前記第1カメラ及び前記第2カメラの動作を制御するように構成されたカメラ制御部と、
を備え、
前記カメラ制御部は、
前記第2画像データに基づいて、前記車両の外部に存在する第2車両に設けられた第2照明ユニットの点灯タイミングに関連する点灯タイミング情報を特定し、
前記特定された点灯タイミング情報に基づいて、前記第1画像データの各フレームの取得タイミングを決定するように構成される、
車両システム。 A vehicle system provided in a vehicle capable of traveling in an automatic driving mode,
A first camera configured to obtain first image data indicating a surrounding environment of the vehicle at a first rate;
A second camera configured to acquire second image data indicating a surrounding environment of the vehicle at a second rate higher than the first rate;
A camera control unit configured to control operations of the first camera and the second camera;
With
The camera control unit
Based on the second image data, identifying lighting timing information related to the lighting timing of the second lighting unit provided in the second vehicle existing outside the vehicle,
Configured to determine an acquisition timing of each frame of the first image data based on the specified lighting timing information;
Vehicle system.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018045301A JP2019159772A (en) | 2018-03-13 | 2018-03-13 | Vehicle system |
| CN201910184045.1A CN110271480B (en) | 2018-03-13 | 2019-03-12 | Vehicle system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018045301A JP2019159772A (en) | 2018-03-13 | 2018-03-13 | Vehicle system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019159772A true JP2019159772A (en) | 2019-09-19 |
Family
ID=67959186
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018045301A Pending JP2019159772A (en) | 2018-03-13 | 2018-03-13 | Vehicle system |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2019159772A (en) |
| CN (1) | CN110271480B (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111098777A (en) * | 2019-12-30 | 2020-05-05 | 北京海纳川汽车部件股份有限公司 | Control method and system of vehicle lamp and vehicle |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5137981B2 (en) * | 2010-02-01 | 2013-02-06 | 株式会社ビートソニック | In-vehicle surveillance camera |
| DE102011077038A1 (en) * | 2011-06-07 | 2012-12-13 | Robert Bosch Gmbh | Method and device for detecting objects in an environment of a vehicle |
| JP2015009570A (en) * | 2013-06-26 | 2015-01-19 | 富士重工業株式会社 | Headlight control device |
| CN104575006B (en) * | 2014-12-25 | 2017-01-18 | 北京凌云光技术有限责任公司 | Image shooting moment determining method and system as well as vehicle speed detection method and system |
| AT516848B1 (en) * | 2015-04-27 | 2016-09-15 | Zizala Lichtsysteme Gmbh | Method for driving a light scanner in a headlight for vehicles and headlights |
| JP6200481B2 (en) * | 2015-11-25 | 2017-09-20 | 株式会社Subaru | Outside environment recognition device |
-
2018
- 2018-03-13 JP JP2018045301A patent/JP2019159772A/en active Pending
-
2019
- 2019-03-12 CN CN201910184045.1A patent/CN110271480B/en active Active
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111098777A (en) * | 2019-12-30 | 2020-05-05 | 北京海纳川汽车部件股份有限公司 | Control method and system of vehicle lamp and vehicle |
Also Published As
| Publication number | Publication date |
|---|---|
| CN110271480A (en) | 2019-09-24 |
| CN110271480B (en) | 2023-05-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12077187B2 (en) | Sensing system and vehicle | |
| JP7235659B2 (en) | Vehicle lighting system and vehicle | |
| US10602331B2 (en) | Inter-vehicle communication system, vehicle system, vehicle illumination system and vehicle | |
| US20210403015A1 (en) | Vehicle lighting system, vehicle system, and vehicle | |
| JP7045880B2 (en) | Vehicle lighting system and vehicle | |
| US12083957B2 (en) | Vehicle display system and vehicle | |
| JP6970612B2 (en) | Vehicle lighting system and vehicle | |
| US11597316B2 (en) | Vehicle display system and vehicle | |
| US12005832B2 (en) | Vehicle display system, vehicle system, and vehicle | |
| EP4039519B1 (en) | Vehicular display system and vehicle | |
| CN110271480B (en) | Vehicle system | |
| US20250020304A1 (en) | Road surface drawing lamp and road surface drawing lamp system | |
| US20230184902A1 (en) | Vehicular light source system, vehicular sensing system, and vehicle | |
| US20240069335A1 (en) | Head-up display | |
| WO2022102374A1 (en) | Vehicular display system | |
| WO2021002297A1 (en) | Vehicular lighting system, vehicle system and vehicle |