JP2018206094A - Observation device and vehicle control system - Google Patents
Observation device and vehicle control system Download PDFInfo
- Publication number
- JP2018206094A JP2018206094A JP2017111279A JP2017111279A JP2018206094A JP 2018206094 A JP2018206094 A JP 2018206094A JP 2017111279 A JP2017111279 A JP 2017111279A JP 2017111279 A JP2017111279 A JP 2017111279A JP 2018206094 A JP2018206094 A JP 2018206094A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- unit
- ground
- irradiation
- projection pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】低コストでかつ簡易な構成で地面の状態を観測することができる観測装置および車両制御システムを提供する。【解決手段】車両1の周辺の地面Gに向けて投影パターンを照射するパターン照射部4a〜4dと、パターン照射部4a〜4dによる投影パターン6a〜6dの照射を制御する照射制御部13と、パターン照射部4a〜4dから離隔して配置され、パターン照射部4a〜4dによって照射された投影パターン6a〜6dを撮像する撮像部5a〜5dと、平坦面における投影パターン6a〜6dの画像と車両1の周辺の地面に照射された投影パターン6a〜6dを撮像部5a〜5dが撮像した画像とを比較して差異を算出する演算部14とを備える。【選択図】図3An observation apparatus and a vehicle control system capable of observing the state of the ground with a simple configuration at low cost. SOLUTION: Pattern irradiation units 4a to 4d that irradiate a projection pattern toward a ground G around a vehicle 1, an irradiation control unit 13 that controls irradiation of projection patterns 6a to 6d by the pattern irradiation units 4a to 4d, and Imaging units 5a to 5d that are arranged separately from the pattern irradiation units 4a to 4d and that capture the projection patterns 6a to 6d irradiated by the pattern irradiation units 4a to 4d, and images of the projection patterns 6a to 6d on a flat surface and the vehicle And an arithmetic unit 14 that calculates a difference by comparing the projection patterns 6a to 6d irradiated to the ground around one with images captured by the imaging units 5a to 5d. [Selection] Figure 3
Description
この発明は、車両周辺に照射した投影パターンに基づいて地面の状態を観測する観測装置およびこれを備えた車両制御システムに関する。 The present invention relates to an observation apparatus that observes a ground state based on a projection pattern irradiated to the periphery of a vehicle, and a vehicle control system including the observation apparatus.
従来から、外界センサを用いて車両周辺の地表を観測する技術が提案されている。
例えば、特許文献1には、レーザ光、ミリ波、超音波などをプローブとした外界センサを用いて車両周辺の地表を観測する技術が記載されている。
Conventionally, a technique for observing the ground surface around a vehicle using an external sensor has been proposed.
For example, Patent Document 1 describes a technique for observing the ground surface around a vehicle using an external sensor that uses laser light, millimeter waves, ultrasonic waves, or the like as a probe.
しかしながら、外界センサを用いた観測では、外界センサで検出された情報から地面の状態を解析する必要があり、低コストで簡易な構成で地面の状態を観測することは困難になるという課題があった。 However, in observation using an external sensor, it is necessary to analyze the state of the ground from information detected by the external sensor, which makes it difficult to observe the state of the ground with a low-cost and simple configuration. It was.
この発明は上記課題を解決するもので、低コストでかつ簡易な構成で地面の状態を観測することができる観測装置および車両制御システムを得ることを目的とする。 This invention solves the said subject, and it aims at obtaining the observation apparatus and vehicle control system which can observe the state of the ground with a low-cost and simple structure.
この発明に係る観測装置は、照射部、照射制御部、撮像部および演算部を備える。
照射部は、車両周辺の地面に向けて投影パターンを照射する。照射制御部は、照射部による投影パターンの照射を制御する。撮像部は、照射部から離隔して配置され、照射部によって照射された投影パターンを撮像する。演算部は、平坦面における投影パターンの画像と照射部によって車両周辺の地面に照射された投影パターンを撮像部が撮像した画像とを比較して差異を算出する。
An observation apparatus according to the present invention includes an irradiation unit, an irradiation control unit, an imaging unit, and a calculation unit.
The irradiation unit irradiates the projection pattern toward the ground around the vehicle. The irradiation control unit controls irradiation of the projection pattern by the irradiation unit. The imaging unit is arranged separately from the irradiation unit, and images the projection pattern irradiated by the irradiation unit. The calculation unit calculates a difference by comparing the image of the projection pattern on the flat surface with the image captured by the imaging unit of the projection pattern irradiated on the ground around the vehicle by the irradiation unit.
この発明によれば、撮像部が照射部から離隔して配置されているので、平坦面における投影パターンの画像と車両周辺の地面に照射された投影パターンの撮像画像との間に、車両周辺の地面の状態に応じた差異が発生する。この差異を地面の状態の観測値として利用することで、低コストで簡易な構成で地面の状態を観測することができる。 According to this invention, since the imaging unit is arranged separately from the irradiating unit, between the image of the projection pattern on the flat surface and the captured image of the projection pattern irradiated to the ground around the vehicle, Differences occur according to the ground conditions. By using this difference as an observation value of the ground state, it is possible to observe the ground state with a simple configuration at a low cost.
実施の形態1.
図1は、この発明の実施の形態1に係る車両制御システムの構成を示す要部平面図である。図2は、実施の形態1に係る車両制御システムの構成を示す要部側面図である。
車両1は、あらかじめ設定された地点に向けて自律走行する車両であり、駆動輪2a,2bおよび従動輪3a,3bを備える。駆動輪2a,2bは、図示しない電動機からの駆動力が伝達されて回転駆動する。駆動輪2aと駆動輪2bとを互いに独立して駆動制御することで、車両1が任意の方向に走行する。従動輪3a,3bは、駆動輪2a,2bの旋回動作を妨げないように鉛直方向の軸周りに回動可能に車両下部に支持されている。
Embodiment 1 FIG.
1 is a main part plan view showing the configuration of a vehicle control system according to Embodiment 1 of the present invention. FIG. 2 is a side view of the main part showing the configuration of the vehicle control system according to the first embodiment.
The vehicle 1 is a vehicle that autonomously travels toward a preset point, and includes
パターン照射部4a〜4dは、地面Gに向けて投影パターンを照射する照射部である。例えば、パターン照射部4a〜4dは、プロジェクションランプあるいはレーザを用いて構成され、地面Gに可視光の投影パターンを照射する。投影パターンとは、車両1の周辺の地面に照射された光のパターンであり、任意の形状の図形パターンあるいはこれに文字パターンを組み合わせたパターンで実現される。例えば、投影パターンは、地面の凹凸に応じたパターンの歪みが視認しやすい方形格子状のパターンが好ましい。
なお、投影パターンは、可視光に限定されるものではなく、赤外光、紫外光などの不可視光であってもよく、この場合、撮像部5a〜5dを投影パターンの光の波長に対応したカメラで実現すればよい。
The
The projection pattern is not limited to visible light, and may be invisible light such as infrared light or ultraviolet light. In this case, the
図1および図2において、パターン照射部4aは、車両1の右側面方向の地面Gに投影パターンを照射し、パターン照射部4bは、車両1の左側面方向の地面Gに投影パターンを照射する。また、パターン照射部4cは、車両1の前面方向の地面Gに投影パターンを照射し、パターン照射部4dは、車両1の背面方向の地面Gに投影パターンを照射する。
1 and 2, the
撮像部5a〜5dは、パターン照射部4a〜4dから離隔して配置され、パターン照射部4a〜4dによって照射された投影パターンを撮像する撮像部である。すなわち、撮像部5a〜5dは、車両1の筐体における、パターン照射部4a〜4dとは異なる位置から露出している。なお、撮像部5a〜5dには、レーザレンジファインダよりも安価な光学カメラを用いることできる。
The
図1および図2において、撮像部5aは、パターン照射部4aから離隔して配置され、車両1の右側面方向の地面Gに照射された投影パターンを撮像する。撮像部5bは、パターン照射部4bから離隔して配置され、車両1の左側面方向の地面Gに照射された投影パターンを撮像する。撮像部5cは、パターン照射部4cから離隔して配置され、車両1の前面方向の地面Gに照射された投影パターンを撮像する。撮像部5dは、パターン照射部4dから離隔して配置され、車両1の背面方向の地面Gに照射された投影パターンを撮像する。
1 and 2, the
図3は、実施の形態1に係る車両制御システムの構成を示すブロック図である。図3において、図1および図2と同一の構成要素には同一符号を付して説明を省略する。図3に示す車両制御システムは、遠隔操作端末8の遠隔操作によって車両1の走行を制御する。遠隔操作端末8は、送受信部9との間で無線通信または有線通信を行う端末であり、オペレータaの入力操作に対応する操作情報を送受信部9に送信し、送受信部9からの情報を受信する。
FIG. 3 is a block diagram illustrating a configuration of the vehicle control system according to the first embodiment. In FIG. 3, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals, and description thereof is omitted. The vehicle control system shown in FIG. 3 controls traveling of the vehicle 1 by remote operation of the
図3に示す車両制御システムは、送受信部9、走行制御部10、外界センサ11、内界センサ12および観測装置Aを備える。送受信部9は、遠隔操作端末8との間で無線通信または有線通信を行って、遠隔操作端末8から受信した操作情報を走行制御部10に出力する。外界センサ11は、車両周辺の状況を検出するセンサであり、例えば、車両周辺の3次元形状を検出するか、または、車両周辺の映像を撮像する。内界センサ12は、車両1の挙動を検出するセンサであって、例えば、車両1の走行速度、加速度、角速度および傾斜角を検出する。
The vehicle control system shown in FIG. 3 includes a transmission / reception unit 9, a
観測装置Aは、パターン照射部4a〜4d、撮像部5a〜5d、照射制御部13および演算部14を備える。照射制御部13は、パターン照射部4a〜4dによる投影パターンの照射を制御する。演算部14は、平坦面における投影パターンの画像とパターン照射部4a〜4dによって車両周辺の地面に照射された投影パターンを撮像部5a〜5dが撮像した画像とを比較して差異を算出する。
平坦面における投影パターンの画像は、平坦面における投影パターンを撮像画像と同じ座標系に変換して得られる画像であり、例えば、演算部14に予め設定されている。
The observation apparatus A includes
The image of the projection pattern on the flat surface is an image obtained by converting the projection pattern on the flat surface into the same coordinate system as the captured image, and is set in advance in, for example, the
図4Aは、観測装置Aの機能を実現するハードウェア構成を示すブロック図である。図4Aにおいて、処理回路100は発光装置101およびカメラ102と接続されている。図4Bは、観測装置Aの機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図4Bにおいて、プロセッサ103およびメモリ104は、発光装置101およびカメラ102と接続されている。観測装置Aのパターン照射部4a〜4dは発光装置101であり、例えば、プロジェクションランプまたはレーザである。観測装置Aの撮像部5a〜5dはカメラ102である。
FIG. 4A is a block diagram illustrating a hardware configuration for realizing the function of the observation apparatus A. In FIG. 4A, the
観測装置Aにおける照射制御部13および演算部14の各機能は、処理回路により実現される。すなわち、観測装置Aは、平坦面における投影パターンの画像と車両周辺の地面に照射された投影パターンの撮像画像とを比較し、車両周辺の地面の状態に応じた両画像間の差異を算出するまでの一連の処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであっても、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
Each function of the
処理回路が図4Aに示す専用のハードウェアである場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)またはこれらを組み合わせたものが該当する。
照射制御部13および演算部14のそれぞれの機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。
When the processing circuit is the dedicated hardware shown in FIG. 4A, the
The functions of the
処理回路が図4Bに示すプロセッサ103である場合、照射制御部13および演算部14の各機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ104に記憶される。
プロセッサ103は、メモリ104に記憶されたプログラムを読み出して実行することにより各部の機能を実現する。すなわち、観測装置Aは、プロセッサ103によって実行されるとき、前述した一連の処理が結果的に実行されるプログラムを記憶するためのメモリ104を備える。これらのプログラムは、照射制御部13および演算部14の手順または方法を、コンピュータに実行させるものである。
When the processing circuit is the
The
メモリ104には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically−EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
The
照射制御部13および演算部14の各機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
例えば、照射制御部13については、専用のハードウェアとしての処理回路100がその機能を実現し、演算部14については、プロセッサ103がメモリ104に記憶されたプログラムを読み出して実行することによってその機能を実現してもよい。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって上記機能のそれぞれを実現することができる。
A part of each function of the
For example, the
Thus, the processing circuit can realize each of the above functions by hardware, software, firmware, or a combination thereof.
次に動作について説明する。
送受信部9は、遠隔操作端末8から送信されたオペレータaの操作情報を受信すると、走行制御部10に出力する。走行制御部10は、操作情報に基づいて、駆動輪2a,2bの回転駆動を制御することにより、車両1が走行する。外界センサ11は、車両1の周辺の映像などの車両外の情報を取得し、内界センサ12は、車両1の走行速度などの車両内の情報を検出する。外界センサ11および内界センサ12によって検出された車両内外の情報は、送受信部9に出力される。
Next, the operation will be described.
When the transmission / reception unit 9 receives the operation information of the operator a transmitted from the
送受信部9は、車両内外の情報を遠隔操作端末8に送信する。遠隔操作端末8は、送受信部9から受信した車両内外の情報をオペレータaに提示する。オペレータaは、車両1側から受信した車両内外の情報を参照しながら、車両1の遠隔操作を行うことができる。
送受信部9は、遠隔操作端末8から地面観測の操作情報を受信すると、この操作情報を照射制御部13に出力する。
The transmission / reception unit 9 transmits information inside and outside the vehicle to the
When the transmission / reception unit 9 receives ground observation operation information from the
照射制御部13は、送受信部9から入力した操作情報に従って、車両1の周辺の地面に投影パターン6a〜6dを照射するようにパターン照射部4a〜4dを制御し、投影パターン6a〜6dが照射された地面を撮像するように撮像部5a〜5dに指示する。
パターン照射部4a〜4dは、照射制御部13の制御によって、車両1の周辺の地面に投影パターン6a〜6dを照射する。照射処理に同期して、撮像部5a〜5dは、パターン照射部4a〜4dによって投影パターン6a〜6dが照射された地面を撮像する。
The
The
ここで、撮像部5a〜5dは、パターン照射部4a〜4dから離隔して配置されているので、平坦面における投影パターン6a〜6dの画像と、投影パターン6a〜6dが照射された車両周辺の地面の撮像画像との間に、地面の状態に応じた差異が発生する。演算部14は、これらの撮像画像を比較して上記差異を算出する。送受信部9は、演算部14によって算出された上記差異を示す情報を遠隔操作端末8に送信する。
遠隔操作端末8は、観測装置Aによって生成された上記差異を示す情報を視覚化して、オペレータaに提示する。オペレータaは、遠隔操作端末8から提示された情報に基づいて、車両1が走行している地面の状態を把握することができる。
Here, since the
The
投影パターン6a〜6dとしては、格子状のパターン、あるいは、光点によるグリッドパターンが挙げられる。演算部14は、例えば、撮像画像上の格子の交点またはグリッドの光点を特徴点として、特徴点の座標の差異、すなわち投影パターンの歪みが生じた位置の座標を算出する。
また、遠隔操作端末8は、演算部14によって算出された差異を、例えば、色彩または明度によるコンター表示で視覚化するか、あるいは、等高線表示で視覚化する。さらに、遠隔操作端末8は、視覚化した情報に加えて、投影パターン6a〜6dが照射された地面の撮像画像を表示してもよい。これにより、オペレータaは、直感的に地面の状態を把握することができる。
Examples of the
Further, the
次に、地面の凹凸を観測する原理について説明する。
図5は、観測装置Aの観測原理を示す側面視概念図であり、パターン照射部4cにより投影パターンを車両前方の地面Gにおける平面と凸面とに照射し、撮像部5cによって撮像した場合を示している。また、図6は、観測装置Aの観測原理を示す別の側面視概念図であり、パターン照射部4cにより投影パターンを車両前方の地面Gにおける平面と凹面とに照射し、撮像部5cによって撮像した場合を示している。
Next, the principle of observing unevenness on the ground will be described.
FIG. 5 is a side view conceptual diagram showing the observation principle of the observation apparatus A, and shows a case where the
図5において、地面Gの平面は、A−C−Bという直線で表すことができる。
点Dのパターン照射部4cから照射されて光軸中心を進む光は、点Eで地面Gの平面に照射される。点Eで反射した光は、点Fで撮像部5cに入射される。
一方、図5において、地面Gの凸面は、A−C−Hという曲線で表すことができる。
点Dのパターン照射部4cから照射されて光軸中心を進む光は、点Jで地面Gの凸面に照射される。点Jで反射した光は、点Fで撮像部5cに入射される。図5に示すように、地面Gの凸面は、地面Gの平面での反射光E−Fに比べて角度θだけy軸方向の車両に近い側に変位して見える。
In FIG. 5, the plane of the ground G can be represented by a straight line A-C-B.
The light irradiated from the
On the other hand, in FIG. 5, the convex surface of the ground G can be represented by a curve of A-C-H.
The light irradiated from the
図6において、地面Gの平面は、図5と同様に、A−C−Bという直線で表される。
点Dのパターン照射部4cから照射されて光軸中心を進む光は、点Eで地面Gの平面に照射される。点Eで反射した光は、点Fで撮像部5cに入射される。
一方、図6において、地面Gの凹面は、A−C−Kという折れ線で表すことができる。
点Dのパターン照射部4cから照射されて光軸中心を進む光は、点Lで地面Gの凹面に照射される。点Lで反射した光は、点Fで撮像部5cに入射される。図6に示すように、地面Gの凹面は、地面Gの平面での反射光E−Fに比べて角度γだけy軸方向の車両から遠い側に変位して見える。
In FIG. 6, the plane of the ground G is represented by a straight line A-C-B as in FIG. 5.
The light irradiated from the
On the other hand, in FIG. 6, the concave surface of the ground G can be represented by a polygonal line A-C-K.
The light irradiated from the
図7は、車両周辺への投影パターン6a〜6cの照射例を示す図であり、車両1の周囲にある平坦な地面に投影パターン6a〜6dを照射した状態を示している。図8は、平坦面における投影パターン6cの画像を示す図である。図9は、凹凸がある地面への投影パターン6cの照射例を示す図であり、車両前方の凹凸がある地面に照射された投影パターン6cの撮像画像を示している。
FIG. 7 is a diagram illustrating an irradiation example of the
車両1の周囲が平坦な地面である場合、照射制御部13は、車両1の右側方、左側方、前方、後方の地面Gに向けて投影パターン6a〜6dを照射するように、パターン照射部4a〜4dを制御する。図7の例では、パターン照射部4a〜4dによって方形格子状の投影パターン6a〜6dが平坦面に照射されている。撮像部5a〜5dは、投影パターン6a〜6dの照射に合わせて車両1の右側方、左側方、前方、後方の地面Gを撮像する。これにより、車両前方の撮像画像として、図8に示す画像を得ることができる。
When the periphery of the vehicle 1 is a flat ground, the
車両1の周囲に凹凸がある場合、照射制御部13は、上記と同様に、車両1の右側方、左側方、前方、後方の地面Gに向けて投影パターン6a〜6dを照射するようにパターン照射部4a〜4dを制御する。図9の例では、パターン照射部4cによって、方形格子状の投影パターン6cが、凹凸がある面に照射されている。なお、図9において、投影パターン6a,6b,6dの記載を省略している。
When there is unevenness around the vehicle 1, the
地面Gの凹凸を示すために、等高線20a〜20h,21a〜21cを記載している。地面Gは、等高線20aの位置で最も低く、等高線20hに向かうにつれて高くなり、等高線20hの位置で最も高くなっている。等高線21a〜21cは、地面Gの凹部を表しており、等高線21aから等高線21cに向かうにつれて地面Gが低くなっている。
In order to show the unevenness | corrugation of the ground G, the
パターン照射部4cから車両前方の地面Gに照射された投影パターン6cは、地面Gの凹部および凸部によって、図9に示すように歪みが生じている。
すなわち、図5および図6に示したように、図9の投影パターン6cを撮像した画像では、地面Gの凸部が平坦な面に比べてy軸方向の車両1に近い側に撮像され、地面Gの凹部が平坦な面に比べてy軸方向の車両1から遠い側に撮像される。なお、x軸方向にも同様な変位が生じるが、ここでは説明を省略する。
The
That is, as shown in FIGS. 5 and 6, in the image obtained by imaging the
図10は、図8の平坦な地面Gに照射された投影パターン6cの撮像画像と、図9の凹凸がある地面Gに照射された投影パターン6c’の撮影画像とを示す図である。図10において、投影パターン6cと投影パターン6c’と記載したが、両者は照射対象の地面が異なるだけで、同じパターン照射部4cから車両前方の地面Gに照射された投影パターン6cである。両撮像画像には、図10に示すように、地面Gの状態に応じた差異が発生する。演算部14は、これらの撮像画像を比較して上記差異を算出する。送受信部9は、演算部14によって算出された上記差異を示す情報を遠隔操作端末8に送信する。
FIG. 10 is a diagram showing a captured image of the
遠隔操作端末8は、上記差異を示す情報を図10のように視覚化してオペレータaに提示する。この提示情報に基づいて、オペレータaは、車両1が走行している地面Gの凹凸を把握することができる。例えば、オペレータaは、遠隔操作端末8で車両1の走行を制御することにより、地面Gの凹凸を回避する経路で走行させることができる。
The
従来の遠隔操作車両において、オペレータは、外界センサによって取得された車両周辺の画像のみから地面の状態を把握しなければならず、地面の凹凸が分かり難かった。
これに対して、実施の形態1に係る車両制御システムでは、観測装置Aによって地面の状態を示す情報が得られるため、オペレータが、地面の凹凸を直感的に把握することができる。
In a conventional remotely operated vehicle, the operator has to grasp the state of the ground only from the image around the vehicle acquired by the external sensor, and the unevenness of the ground is difficult to understand.
On the other hand, in the vehicle control system according to the first embodiment, since the information indicating the state of the ground is obtained by the observation device A, the operator can intuitively grasp the unevenness of the ground.
さらに、演算部14が、上記差異から地面の状態に関する情報を生成してもよい。
例えば、演算部14が、凹凸がある地面Gを、色彩または明度を用いたコンター表示の画像情報を生成してもよく、また等高線表示した画像を生成してもよい。このように表示することで、オペレータは、地面Gの凹凸を直感的に把握しやすくなる。
Furthermore, the
For example, the
地面Gの凹凸を観測する場合を示したが、平坦な地面G上にある障害物による凹凸であっても、同様な観測が可能である。すなわち、障害物がある地面Gに照射された投影パターンの撮像画像も、平坦な地面Gに照射された投影パターンの撮像画像との間で、図5と図6に示した差異が発生する。従って、演算部14が当該差異を算出することで、観測装置Aは、障害物による凹凸も観測することが可能である。
Although the case where the unevenness | corrugation of the ground G was observed was shown, the same observation is possible even if it is the unevenness | corrugation by the obstruction on the flat ground G. That is, the difference shown in FIG. 5 and FIG. 6 occurs between the captured image of the projection pattern irradiated to the ground G with the obstacle and the captured image of the projection pattern irradiated to the flat ground G. Therefore, when the
以上のように、実施の形態1に係る観測装置Aは、パターン照射部4a〜4d、照射制御部13、撮像部5a〜5dおよび演算部14を備える。この構成において、撮像部5a〜5dは、パターン照射部4a〜4dから離隔して配置されているので、平坦面における投影パターンの撮像画像と車両周辺の地面Gに照射された投影パターンの撮像画像との間に車両周辺の地面Gの状態に応じた差異が発生する。この差異を地面Gの状態の観測値として利用することで、低コストで簡易な構成で地面Gの状態を観測することができる。
As described above, the observation apparatus A according to Embodiment 1 includes the
また、実施の形態1に係る観測装置Aにおいて、演算部14が、上記撮像画像間の差異から地面Gの状態を示す情報を生成する。これにより、地面Gの状態が分かりやすい情報を得ることができる。
In the observation apparatus A according to Embodiment 1, the
実施の形態2.
図11は、この発明の実施の形態2に係る車両制御システムの構成を示すブロック図である。図11において、図3と同一の構成要素には同一符号を付して説明を省略する。
図11に示す車両制御システムは、自律制御で走行する車両1Aに搭載されたシステムであり、走行制御部10A、外界センサ11、内界センサ12、入力部15、走行経路設定部16および観測装置Bを備える。車両1Aには、図1および図2に示した車両1と同様に、パターン照射部4a〜4d、撮像部5a〜5d、外界センサ11および内界センサ12が搭載されている。
FIG. 11 is a block diagram showing the configuration of the vehicle control system according to
The vehicle control system shown in FIG. 11 is a system mounted on a
走行経路設定部16は、車両1Aを走行させる経路を設定する。例えば、走行経路設定部16は、入力部15によって受け付けられた中継地点、目的地点、障害物の位置および地図情報に基づいて、障害物を回避しながら中継地点を通って目的地点に至る経路を算出する。走行制御部10Aは、走行経路設定部16から設定された経路に沿って車両1Aが走行するように、図1および図2に示した駆動輪2a,2bの回転駆動を制御する。
The travel
観測装置Bは、パターン照射部4a〜4d、撮像部5a〜5d、照射制御部13および演算部14Aを備える。演算部14Aは、平坦な面に照射された投影パターンを撮像部5a〜5dが撮像した画像と車両周辺の地面に照射された投影パターンを撮像部5a〜5dが撮像した画像とを比較して差異を算出し、この差異から車両周辺の地面の状態に関する情報を生成する。車両周辺の地面の状態に関する情報は、例えば、地面の凹凸がある領域の位置を示す情報である。走行経路設定部16は、演算部14Aによって生成された上記情報に基づいて車両1Aの走行経路を算出する。
The observation apparatus B includes
図11に示した車両制御システムにおける、走行制御部10A、照射制御部13、演算部14Aおよび走行経路設定部16の各機能は、処理回路によって実現される。
すなわち、車両制御システムは、これらの機能を実行するための処理回路を備える。
処理回路は、図4Aに示したような専用のハードウェアであってもよく、図4Bに示したような、メモリに格納されるプログラムを実行するプロセッサであってもよい。
In the vehicle control system shown in FIG. 11, the functions of the
That is, the vehicle control system includes a processing circuit for executing these functions.
The processing circuit may be dedicated hardware as shown in FIG. 4A, or may be a processor that executes a program stored in a memory as shown in FIG. 4B.
次に動作について説明する。
演算部14Aは、実施の形態1と同様にして、車両1Aの周辺の地面Gの凹凸に応じた撮像画像の差異を算出する。さらに、演算部14Aは、例えば、算出した上記差異から、車両1Aが回避すべき地面Gの凹凸がある位置の実空間(車両1Aが走行している3次元空間)における座標値を算出し、車両1Aの周辺の地面Gの状態に関する情報として走行経路設定部16に出力する。
Next, the operation will be described.
The
走行経路設定部16は、車両1Aの位置、地図情報および演算部14Aによって算出された上記情報に基づいて、地面Gの凹凸を回避する走行経路を算出する。走行制御部10Aは、走行経路設定部16によって算出された経路に従って車両1Aの走行を制御する。これにより、地面Gの凹凸に車両1Aが進入して転倒または障害物に衝突することを回避できる。
The travel
以上のように、実施の形態2に係る車両制御システムは、観測装置Bに加え、演算部14Aによって生成された情報に基づいて車両1Aの走行経路を算出する走行経路設定部16と、走行経路設定部16によって算出された走行経路に従って車両1Aの走行を制御する走行制御部10Aとを備える。これらの構成を有することで、車両1Aの周辺の地面の凹凸に応じた車両1Aの走行制御が可能である。
As described above, the vehicle control system according to the second embodiment includes the travel
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, any combination of each embodiment, any component of each embodiment can be modified, or any component can be omitted in each embodiment. .
1,1A 車両、2a,2b 駆動輪、3a,3b 従動輪、4a〜4d パターン照射部、5a〜5d 撮像部、6a〜6d 投影パターン、8 遠隔操作端末、9 送受信部、10,10A 走行制御部、11 外界センサ、12 内界センサ、13 照射制御部、14,14A 演算部、15 入力部、16 走行経路設定部、20a〜20h,21a〜21c 等高線、100 処理回路、101 発光装置、102 カメラ、103 プロセッサ、104 メモリ。
1, 1A vehicle, 2a, 2b driving wheel, 3a, 3b driven wheel, 4a-4d pattern irradiation unit, 5a-5d imaging unit, 6a-6d projection pattern, 8 remote control terminal, 9 transmission / reception unit, 10,
この発明に係る観測装置は、遠隔操作端末からの遠隔操作によって走行する車両に搭載され、照射部、照射制御部、撮像部および演算部を備える。照射部は、車両周辺の地面に向けて投影パターンを照射する。照射制御部は、照射部による投影パターンの照射を制御する。撮像部は、照射部から離隔して配置され、照射部によって照射された投影パターンを撮像する。演算部は、平坦面における投影パターンの画像と照射部によって車両の周辺の地面に照射された投影パターンを撮像部が撮像した画像とを比較して、パターンの形状の差異を算出する。この構成において、遠隔操作端末が、演算部によって算出された差異を示す情報を表示することを特徴とする。 An observation apparatus according to the present invention is mounted on a vehicle that travels by remote control from a remote control terminal, and includes an irradiation unit, an irradiation control unit, an imaging unit, and a calculation unit. The irradiation unit irradiates the projection pattern toward the ground around the vehicle. The irradiation control unit controls irradiation of the projection pattern by the irradiation unit. The imaging unit is arranged separately from the irradiation unit, and images the projection pattern irradiated by the irradiation unit. Calculation unit, a projection pattern which has been irradiated to the ground near the vehicle by the image and the irradiation portion of the projection pattern on the flat surface by comparing the image capturing section is captured, calculates a difference in the shape of the pattern. In this configuration, the remote operation terminal displays information indicating the difference calculated by the calculation unit.
Claims (3)
前記照射部による投影パターンの照射を制御する照射制御部と、
前記照射部から離隔して配置され、前記照射部によって照射された投影パターンを撮像する撮像部と、
平坦面における投影パターンの画像と前記照射部によって車両周辺の地面に照射された投影パターンを前記撮像部が撮像した画像とを比較して差異を算出する演算部と
を備えたことを特徴とする観測装置。 An irradiation unit that irradiates a projection pattern toward the ground around the vehicle;
An irradiation control unit that controls irradiation of the projection pattern by the irradiation unit;
An imaging unit that is arranged apart from the irradiation unit and images a projection pattern irradiated by the irradiation unit;
An arithmetic unit that calculates a difference by comparing an image of a projection pattern on a flat surface with an image captured by the imaging unit of a projection pattern irradiated on the ground around the vehicle by the irradiation unit. Observation device.
を特徴とする請求項1記載の観測装置。 The observation device according to claim 1, wherein the calculation unit generates information on a ground state from the difference.
前記照射部による投影パターンの照射を制御する照射制御部と、
前記照射部から離隔して配置され、前記照射部によって照射された投影パターンを撮像する撮像部と、
平坦面における投影パターンの画像と前記照射部によって車両周辺の地面に照射された投影パターンを前記撮像部が撮像した画像とを比較して差異を算出し、前記差異から車両周辺の地面の状態に関する情報を生成する演算部と、
前記演算部によって生成された情報に基づいて車両の走行経路を算出する走行経路設定部と、
前記走行経路設定部によって算出された走行経路に従って車両の走行を制御する走行制御部と
を備えたことを特徴とする車両制御システム。 An irradiation unit that irradiates a projection pattern toward the ground around the vehicle;
An irradiation control unit that controls irradiation of the projection pattern by the irradiation unit;
An imaging unit that is arranged apart from the irradiation unit and images a projection pattern irradiated by the irradiation unit;
A difference between the image of the projection pattern on the flat surface and the image captured by the imaging unit with respect to the projection pattern irradiated on the ground around the vehicle by the illuminating unit is calculated, and the state of the ground around the vehicle is calculated from the difference. An arithmetic unit for generating information;
A travel route setting unit that calculates a travel route of the vehicle based on the information generated by the arithmetic unit;
A vehicle control system comprising: a travel control unit that controls the travel of the vehicle according to the travel route calculated by the travel route setting unit.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017111279A JP2018206094A (en) | 2017-06-06 | 2017-06-06 | Observation device and vehicle control system |
| PCT/JP2017/036978 WO2018225282A1 (en) | 2017-06-06 | 2017-10-12 | Observation device and vehicle control system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017111279A JP2018206094A (en) | 2017-06-06 | 2017-06-06 | Observation device and vehicle control system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018206094A true JP2018206094A (en) | 2018-12-27 |
Family
ID=64566165
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017111279A Pending JP2018206094A (en) | 2017-06-06 | 2017-06-06 | Observation device and vehicle control system |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2018206094A (en) |
| WO (1) | WO2018225282A1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023030904A (en) * | 2021-08-24 | 2023-03-08 | 株式会社Subaru | Road surface condition detection device and road surface condition notification device |
| JP2023101629A (en) * | 2019-06-29 | 2023-07-21 | 株式会社三洋物産 | game machine |
| WO2025205450A1 (en) * | 2024-03-29 | 2025-10-02 | 株式会社ニコン | Image processing device, imaging device, and image processing method |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01131589A (en) * | 1987-11-17 | 1989-05-24 | Hitachi Ltd | 3D topographic map display device |
| JPH0643935A (en) * | 1992-07-24 | 1994-02-18 | Mutoh Ind Ltd | Obstacle detection device for traveling robot |
| JPH09237400A (en) * | 1996-03-01 | 1997-09-09 | Kokusai Electric Co Ltd | Digital map system, aircraft obstacle detection method |
| JP2002251618A (en) * | 2001-02-23 | 2002-09-06 | Pasuko:Kk | Image map, device and method for producing the same |
| JP2005343391A (en) * | 2004-06-04 | 2005-12-15 | Koden Kk | Remotely-controlled unmanned boat and remote-controlled device |
| JP2012083892A (en) * | 2010-10-08 | 2012-04-26 | Mitsubishi Heavy Ind Ltd | Autonomous travel control device and autonomous travel vehicle with the device |
| WO2016076319A1 (en) * | 2014-11-13 | 2016-05-19 | ヤンマー株式会社 | Operation terminal |
| JP2016166853A (en) * | 2015-03-04 | 2016-09-15 | パナソニックIpマネジメント株式会社 | Position estimation apparatus and position estimation method |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE3760900D1 (en) * | 1987-05-09 | 1989-12-07 | Schenck Ag Carl | Method for detecting changes in the driving range of an unmanned vehicle |
| US9840003B2 (en) * | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
-
2017
- 2017-06-06 JP JP2017111279A patent/JP2018206094A/en active Pending
- 2017-10-12 WO PCT/JP2017/036978 patent/WO2018225282A1/en not_active Ceased
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01131589A (en) * | 1987-11-17 | 1989-05-24 | Hitachi Ltd | 3D topographic map display device |
| JPH0643935A (en) * | 1992-07-24 | 1994-02-18 | Mutoh Ind Ltd | Obstacle detection device for traveling robot |
| JPH09237400A (en) * | 1996-03-01 | 1997-09-09 | Kokusai Electric Co Ltd | Digital map system, aircraft obstacle detection method |
| JP2002251618A (en) * | 2001-02-23 | 2002-09-06 | Pasuko:Kk | Image map, device and method for producing the same |
| JP2005343391A (en) * | 2004-06-04 | 2005-12-15 | Koden Kk | Remotely-controlled unmanned boat and remote-controlled device |
| JP2012083892A (en) * | 2010-10-08 | 2012-04-26 | Mitsubishi Heavy Ind Ltd | Autonomous travel control device and autonomous travel vehicle with the device |
| WO2016076319A1 (en) * | 2014-11-13 | 2016-05-19 | ヤンマー株式会社 | Operation terminal |
| JP2016166853A (en) * | 2015-03-04 | 2016-09-15 | パナソニックIpマネジメント株式会社 | Position estimation apparatus and position estimation method |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023101629A (en) * | 2019-06-29 | 2023-07-21 | 株式会社三洋物産 | game machine |
| JP2023030904A (en) * | 2021-08-24 | 2023-03-08 | 株式会社Subaru | Road surface condition detection device and road surface condition notification device |
| JP7701836B2 (en) | 2021-08-24 | 2025-07-02 | 株式会社Subaru | Road surface condition detection device and road surface condition notification device |
| WO2025205450A1 (en) * | 2024-03-29 | 2025-10-02 | 株式会社ニコン | Image processing device, imaging device, and image processing method |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2018225282A1 (en) | 2018-12-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6784295B2 (en) | Distance measurement system, distance measurement method and program | |
| JP6381807B2 (en) | Display control device, display device, and display control method | |
| JP5267727B2 (en) | Image position adjustment device | |
| JP6559253B2 (en) | Method for displaying the surroundings of a vehicle | |
| JP5455124B2 (en) | Camera posture parameter estimation device | |
| JP2020024234A (en) | Distance sensor | |
| WO2012086070A1 (en) | Road surface shape recognition apparatus and autonomous mobile apparatus utilizing same | |
| JP6877247B2 (en) | Presentation device | |
| CN111741872B (en) | snowmobile | |
| JP5875232B2 (en) | Object detection apparatus and object detection method | |
| US20180031834A1 (en) | Vehicle display device | |
| US20180178650A1 (en) | Projection type display device and projection control method | |
| US20190322210A1 (en) | Apparatus and method for notifying expected motion of vehicle | |
| JP2018206094A (en) | Observation device and vehicle control system | |
| JPWO2018193609A1 (en) | Distance measuring device and moving object | |
| CN112805180A (en) | Method for controlling a module for projecting a pixelated light beam of a vehicle | |
| JP2020144048A (en) | Light source device and distance measurement device | |
| JP6874769B2 (en) | Vehicle display device | |
| JP6516241B2 (en) | Gesture input device | |
| JP7298562B2 (en) | Vehicle peripheral detection device | |
| JP6501805B2 (en) | Image processing apparatus and image processing method | |
| JP6376991B2 (en) | Display system | |
| KR20140005516A (en) | Shape measuring apparatus | |
| JP4032053B2 (en) | Vehicle periphery monitoring device | |
| JP2017058142A (en) | Projection device and projection system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181218 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190214 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190709 |