[go: up one dir, main page]

JP2018206094A - Observation device and vehicle control system - Google Patents

Observation device and vehicle control system Download PDF

Info

Publication number
JP2018206094A
JP2018206094A JP2017111279A JP2017111279A JP2018206094A JP 2018206094 A JP2018206094 A JP 2018206094A JP 2017111279 A JP2017111279 A JP 2017111279A JP 2017111279 A JP2017111279 A JP 2017111279A JP 2018206094 A JP2018206094 A JP 2018206094A
Authority
JP
Japan
Prior art keywords
vehicle
unit
ground
irradiation
projection pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017111279A
Other languages
Japanese (ja)
Inventor
敬 春日
Takashi Kasuga
敬 春日
松原 勉
Tsutomu Matsubara
勉 松原
礼子 坂田
Reiko Sakata
礼子 坂田
新作 福▲高▼
Shinsaku Fukutaka
新作 福▲高▼
隆明 加瀬
Takaaki Kase
隆明 加瀬
寛 矢野
Hiroshi Yano
寛 矢野
竜太郎 森園
Ryutaro Morizono
竜太郎 森園
潤子 八田
Junko Hatta
潤子 八田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Tokki Systems Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Tokki Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Tokki Systems Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017111279A priority Critical patent/JP2018206094A/en
Priority to PCT/JP2017/036978 priority patent/WO2018225282A1/en
Publication of JP2018206094A publication Critical patent/JP2018206094A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】低コストでかつ簡易な構成で地面の状態を観測することができる観測装置および車両制御システムを提供する。【解決手段】車両1の周辺の地面Gに向けて投影パターンを照射するパターン照射部4a〜4dと、パターン照射部4a〜4dによる投影パターン6a〜6dの照射を制御する照射制御部13と、パターン照射部4a〜4dから離隔して配置され、パターン照射部4a〜4dによって照射された投影パターン6a〜6dを撮像する撮像部5a〜5dと、平坦面における投影パターン6a〜6dの画像と車両1の周辺の地面に照射された投影パターン6a〜6dを撮像部5a〜5dが撮像した画像とを比較して差異を算出する演算部14とを備える。【選択図】図3An observation apparatus and a vehicle control system capable of observing the state of the ground with a simple configuration at low cost. SOLUTION: Pattern irradiation units 4a to 4d that irradiate a projection pattern toward a ground G around a vehicle 1, an irradiation control unit 13 that controls irradiation of projection patterns 6a to 6d by the pattern irradiation units 4a to 4d, and Imaging units 5a to 5d that are arranged separately from the pattern irradiation units 4a to 4d and that capture the projection patterns 6a to 6d irradiated by the pattern irradiation units 4a to 4d, and images of the projection patterns 6a to 6d on a flat surface and the vehicle And an arithmetic unit 14 that calculates a difference by comparing the projection patterns 6a to 6d irradiated to the ground around one with images captured by the imaging units 5a to 5d. [Selection] Figure 3

Description

この発明は、車両周辺に照射した投影パターンに基づいて地面の状態を観測する観測装置およびこれを備えた車両制御システムに関する。   The present invention relates to an observation apparatus that observes a ground state based on a projection pattern irradiated to the periphery of a vehicle, and a vehicle control system including the observation apparatus.

従来から、外界センサを用いて車両周辺の地表を観測する技術が提案されている。
例えば、特許文献1には、レーザ光、ミリ波、超音波などをプローブとした外界センサを用いて車両周辺の地表を観測する技術が記載されている。
Conventionally, a technique for observing the ground surface around a vehicle using an external sensor has been proposed.
For example, Patent Document 1 describes a technique for observing the ground surface around a vehicle using an external sensor that uses laser light, millimeter waves, ultrasonic waves, or the like as a probe.

特開2016−71564号公報Japanese Patent Laid-Open No. 2006-71564

しかしながら、外界センサを用いた観測では、外界センサで検出された情報から地面の状態を解析する必要があり、低コストで簡易な構成で地面の状態を観測することは困難になるという課題があった。   However, in observation using an external sensor, it is necessary to analyze the state of the ground from information detected by the external sensor, which makes it difficult to observe the state of the ground with a low-cost and simple configuration. It was.

この発明は上記課題を解決するもので、低コストでかつ簡易な構成で地面の状態を観測することができる観測装置および車両制御システムを得ることを目的とする。   This invention solves the said subject, and it aims at obtaining the observation apparatus and vehicle control system which can observe the state of the ground with a low-cost and simple structure.

この発明に係る観測装置は、照射部、照射制御部、撮像部および演算部を備える。
照射部は、車両周辺の地面に向けて投影パターンを照射する。照射制御部は、照射部による投影パターンの照射を制御する。撮像部は、照射部から離隔して配置され、照射部によって照射された投影パターンを撮像する。演算部は、平坦面における投影パターンの画像と照射部によって車両周辺の地面に照射された投影パターンを撮像部が撮像した画像とを比較して差異を算出する。
An observation apparatus according to the present invention includes an irradiation unit, an irradiation control unit, an imaging unit, and a calculation unit.
The irradiation unit irradiates the projection pattern toward the ground around the vehicle. The irradiation control unit controls irradiation of the projection pattern by the irradiation unit. The imaging unit is arranged separately from the irradiation unit, and images the projection pattern irradiated by the irradiation unit. The calculation unit calculates a difference by comparing the image of the projection pattern on the flat surface with the image captured by the imaging unit of the projection pattern irradiated on the ground around the vehicle by the irradiation unit.

この発明によれば、撮像部が照射部から離隔して配置されているので、平坦面における投影パターンの画像と車両周辺の地面に照射された投影パターンの撮像画像との間に、車両周辺の地面の状態に応じた差異が発生する。この差異を地面の状態の観測値として利用することで、低コストで簡易な構成で地面の状態を観測することができる。   According to this invention, since the imaging unit is arranged separately from the irradiating unit, between the image of the projection pattern on the flat surface and the captured image of the projection pattern irradiated to the ground around the vehicle, Differences occur according to the ground conditions. By using this difference as an observation value of the ground state, it is possible to observe the ground state with a simple configuration at a low cost.

この発明の実施の形態1に係る車両制御システムの構成を示す要部平面図である。It is a principal part top view which shows the structure of the vehicle control system which concerns on Embodiment 1 of this invention. 実施の形態1に係る車両制御システムの構成を示す要部側面図である。It is a principal part side view which shows the structure of the vehicle control system which concerns on Embodiment 1. FIG. 実施の形態1に係る車両制御システムの構成を示すブロック図である。1 is a block diagram showing a configuration of a vehicle control system according to Embodiment 1. FIG. 図4Aは、実施の形態1に係る観測装置の機能を実現するハードウェア構成を示すブロック図である。図4Bは、実施の形態1に係る観測装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。FIG. 4A is a block diagram showing a hardware configuration for realizing the functions of the observation apparatus according to Embodiment 1. FIG. 4B is a block diagram showing a hardware configuration for executing software that implements the functions of the observation apparatus according to Embodiment 1. 実施の形態1に係る観測装置の観測原理を示す側面視概念図である。3 is a conceptual side view showing an observation principle of the observation apparatus according to Embodiment 1. FIG. 実施の形態1に係る観測装置の観測原理を示す別の側面視概念図である。It is another side view conceptual diagram which shows the observation principle of the observation apparatus which concerns on Embodiment 1. FIG. 車両周辺への投影パターンの照射例を示す図である。It is a figure which shows the example of irradiation of the projection pattern to the vehicle periphery. 平坦面における投影パターンの画像を示す図である。It is a figure which shows the image of the projection pattern in a flat surface. 凹凸がある地面への投影パターンの照射例を示す図である。It is a figure which shows the example of irradiation of the projection pattern to the ground with an unevenness | corrugation. 平坦面における投影パターンの画像と凹凸がある地面に照射された投影パターンの撮影画像とを示す図である。It is a figure which shows the image of the projection pattern in a flat surface, and the picked-up image of the projection pattern irradiated to the ground with an unevenness | corrugation. この発明の実施の形態2に係る車両制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle control system which concerns on Embodiment 2 of this invention.

実施の形態1.
図1は、この発明の実施の形態1に係る車両制御システムの構成を示す要部平面図である。図2は、実施の形態1に係る車両制御システムの構成を示す要部側面図である。
車両1は、あらかじめ設定された地点に向けて自律走行する車両であり、駆動輪2a,2bおよび従動輪3a,3bを備える。駆動輪2a,2bは、図示しない電動機からの駆動力が伝達されて回転駆動する。駆動輪2aと駆動輪2bとを互いに独立して駆動制御することで、車両1が任意の方向に走行する。従動輪3a,3bは、駆動輪2a,2bの旋回動作を妨げないように鉛直方向の軸周りに回動可能に車両下部に支持されている。
Embodiment 1 FIG.
1 is a main part plan view showing the configuration of a vehicle control system according to Embodiment 1 of the present invention. FIG. 2 is a side view of the main part showing the configuration of the vehicle control system according to the first embodiment.
The vehicle 1 is a vehicle that autonomously travels toward a preset point, and includes driving wheels 2a and 2b and driven wheels 3a and 3b. The driving wheels 2a and 2b are driven to rotate by receiving a driving force from an electric motor (not shown). The vehicle 1 travels in an arbitrary direction by controlling the driving wheels 2a and 2b independently of each other. The driven wheels 3a and 3b are supported on the lower part of the vehicle so as to be rotatable around a vertical axis so as not to hinder the turning operation of the drive wheels 2a and 2b.

パターン照射部4a〜4dは、地面Gに向けて投影パターンを照射する照射部である。例えば、パターン照射部4a〜4dは、プロジェクションランプあるいはレーザを用いて構成され、地面Gに可視光の投影パターンを照射する。投影パターンとは、車両1の周辺の地面に照射された光のパターンであり、任意の形状の図形パターンあるいはこれに文字パターンを組み合わせたパターンで実現される。例えば、投影パターンは、地面の凹凸に応じたパターンの歪みが視認しやすい方形格子状のパターンが好ましい。
なお、投影パターンは、可視光に限定されるものではなく、赤外光、紫外光などの不可視光であってもよく、この場合、撮像部5a〜5dを投影パターンの光の波長に対応したカメラで実現すればよい。
The pattern irradiation units 4a to 4d are irradiation units that irradiate the projection pattern toward the ground G. For example, the pattern irradiation units 4 a to 4 d are configured using a projection lamp or a laser, and irradiate the ground G with a projection pattern of visible light. The projection pattern is a pattern of light applied to the ground around the vehicle 1 and is realized as a figure pattern having an arbitrary shape or a pattern in which a character pattern is combined therewith. For example, the projection pattern is preferably a square lattice pattern in which distortion of the pattern according to the unevenness of the ground is easily visible.
The projection pattern is not limited to visible light, and may be invisible light such as infrared light or ultraviolet light. In this case, the imaging units 5a to 5d correspond to the wavelength of light of the projection pattern. This can be achieved with a camera.

図1および図2において、パターン照射部4aは、車両1の右側面方向の地面Gに投影パターンを照射し、パターン照射部4bは、車両1の左側面方向の地面Gに投影パターンを照射する。また、パターン照射部4cは、車両1の前面方向の地面Gに投影パターンを照射し、パターン照射部4dは、車両1の背面方向の地面Gに投影パターンを照射する。   1 and 2, the pattern irradiation unit 4 a irradiates the projection pattern onto the ground G in the right side surface direction of the vehicle 1, and the pattern irradiation unit 4 b irradiates the ground pattern in the left side surface direction of the vehicle 1. . The pattern irradiation unit 4 c irradiates the projection pattern on the ground G in the front direction of the vehicle 1, and the pattern irradiation unit 4 d irradiates the projection pattern on the ground G in the rear direction of the vehicle 1.

撮像部5a〜5dは、パターン照射部4a〜4dから離隔して配置され、パターン照射部4a〜4dによって照射された投影パターンを撮像する撮像部である。すなわち、撮像部5a〜5dは、車両1の筐体における、パターン照射部4a〜4dとは異なる位置から露出している。なお、撮像部5a〜5dには、レーザレンジファインダよりも安価な光学カメラを用いることできる。   The imaging units 5a to 5d are imaging units that are arranged separately from the pattern irradiation units 4a to 4d and that capture the projection patterns irradiated by the pattern irradiation units 4a to 4d. That is, the imaging units 5a to 5d are exposed from positions different from the pattern irradiation units 4a to 4d in the housing of the vehicle 1. Note that an optical camera that is less expensive than a laser range finder can be used for the imaging units 5a to 5d.

図1および図2において、撮像部5aは、パターン照射部4aから離隔して配置され、車両1の右側面方向の地面Gに照射された投影パターンを撮像する。撮像部5bは、パターン照射部4bから離隔して配置され、車両1の左側面方向の地面Gに照射された投影パターンを撮像する。撮像部5cは、パターン照射部4cから離隔して配置され、車両1の前面方向の地面Gに照射された投影パターンを撮像する。撮像部5dは、パターン照射部4dから離隔して配置され、車両1の背面方向の地面Gに照射された投影パターンを撮像する。   1 and 2, the imaging unit 5 a is arranged separately from the pattern irradiation unit 4 a and images a projection pattern irradiated on the ground G in the right side surface direction of the vehicle 1. The imaging unit 5b is arranged separately from the pattern irradiating unit 4b, and images the projection pattern irradiated to the ground G in the left side direction of the vehicle 1. The imaging unit 5 c is arranged separately from the pattern irradiation unit 4 c and images a projection pattern irradiated to the ground G in the front direction of the vehicle 1. The imaging unit 5d is arranged separately from the pattern irradiating unit 4d, and images the projection pattern irradiated to the ground G in the back direction of the vehicle 1.

図3は、実施の形態1に係る車両制御システムの構成を示すブロック図である。図3において、図1および図2と同一の構成要素には同一符号を付して説明を省略する。図3に示す車両制御システムは、遠隔操作端末8の遠隔操作によって車両1の走行を制御する。遠隔操作端末8は、送受信部9との間で無線通信または有線通信を行う端末であり、オペレータaの入力操作に対応する操作情報を送受信部9に送信し、送受信部9からの情報を受信する。   FIG. 3 is a block diagram illustrating a configuration of the vehicle control system according to the first embodiment. In FIG. 3, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals, and description thereof is omitted. The vehicle control system shown in FIG. 3 controls traveling of the vehicle 1 by remote operation of the remote operation terminal 8. The remote operation terminal 8 is a terminal that performs wireless communication or wired communication with the transmission / reception unit 9, transmits operation information corresponding to the input operation of the operator a to the transmission / reception unit 9, and receives information from the transmission / reception unit 9. To do.

図3に示す車両制御システムは、送受信部9、走行制御部10、外界センサ11、内界センサ12および観測装置Aを備える。送受信部9は、遠隔操作端末8との間で無線通信または有線通信を行って、遠隔操作端末8から受信した操作情報を走行制御部10に出力する。外界センサ11は、車両周辺の状況を検出するセンサであり、例えば、車両周辺の3次元形状を検出するか、または、車両周辺の映像を撮像する。内界センサ12は、車両1の挙動を検出するセンサであって、例えば、車両1の走行速度、加速度、角速度および傾斜角を検出する。   The vehicle control system shown in FIG. 3 includes a transmission / reception unit 9, a travel control unit 10, an external sensor 11, an internal sensor 12, and an observation device A. The transmission / reception unit 9 performs wireless communication or wired communication with the remote operation terminal 8 and outputs the operation information received from the remote operation terminal 8 to the travel control unit 10. The external sensor 11 is a sensor that detects a situation around the vehicle, and detects, for example, a three-dimensional shape around the vehicle or captures an image around the vehicle. The inner world sensor 12 is a sensor that detects the behavior of the vehicle 1 and detects, for example, the traveling speed, acceleration, angular velocity, and inclination angle of the vehicle 1.

観測装置Aは、パターン照射部4a〜4d、撮像部5a〜5d、照射制御部13および演算部14を備える。照射制御部13は、パターン照射部4a〜4dによる投影パターンの照射を制御する。演算部14は、平坦面における投影パターンの画像とパターン照射部4a〜4dによって車両周辺の地面に照射された投影パターンを撮像部5a〜5dが撮像した画像とを比較して差異を算出する。
平坦面における投影パターンの画像は、平坦面における投影パターンを撮像画像と同じ座標系に変換して得られる画像であり、例えば、演算部14に予め設定されている。
The observation apparatus A includes pattern irradiation units 4a to 4d, imaging units 5a to 5d, an irradiation control unit 13, and a calculation unit 14. The irradiation control unit 13 controls irradiation of the projection pattern by the pattern irradiation units 4a to 4d. The calculation unit 14 compares the projected pattern image on the flat surface with the images captured by the imaging units 5a to 5d of the projection pattern irradiated to the ground around the vehicle by the pattern irradiation units 4a to 4d, and calculates the difference.
The image of the projection pattern on the flat surface is an image obtained by converting the projection pattern on the flat surface into the same coordinate system as the captured image, and is set in advance in, for example, the calculation unit 14.

図4Aは、観測装置Aの機能を実現するハードウェア構成を示すブロック図である。図4Aにおいて、処理回路100は発光装置101およびカメラ102と接続されている。図4Bは、観測装置Aの機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図4Bにおいて、プロセッサ103およびメモリ104は、発光装置101およびカメラ102と接続されている。観測装置Aのパターン照射部4a〜4dは発光装置101であり、例えば、プロジェクションランプまたはレーザである。観測装置Aの撮像部5a〜5dはカメラ102である。   FIG. 4A is a block diagram illustrating a hardware configuration for realizing the function of the observation apparatus A. In FIG. 4A, the processing circuit 100 is connected to the light emitting device 101 and the camera 102. FIG. 4B is a block diagram illustrating a hardware configuration for executing software that implements the functions of the observation apparatus A. In FIG. 4B, the processor 103 and the memory 104 are connected to the light emitting device 101 and the camera 102. The pattern irradiation units 4a to 4d of the observation device A are light emitting devices 101, for example, projection lamps or lasers. The imaging units 5 a to 5 d of the observation apparatus A are cameras 102.

観測装置Aにおける照射制御部13および演算部14の各機能は、処理回路により実現される。すなわち、観測装置Aは、平坦面における投影パターンの画像と車両周辺の地面に照射された投影パターンの撮像画像とを比較し、車両周辺の地面の状態に応じた両画像間の差異を算出するまでの一連の処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであっても、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。   Each function of the irradiation control unit 13 and the calculation unit 14 in the observation apparatus A is realized by a processing circuit. That is, the observation apparatus A compares the image of the projection pattern on the flat surface with the captured image of the projection pattern irradiated on the ground around the vehicle, and calculates the difference between the two images according to the state of the ground around the vehicle. A processing circuit for executing the series of processes up to is provided. The processing circuit may be dedicated hardware or a CPU (Central Processing Unit) that executes a program stored in the memory.

処理回路が図4Aに示す専用のハードウェアである場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)またはこれらを組み合わせたものが該当する。
照射制御部13および演算部14のそれぞれの機能を別々の処理回路で実現してもよいし、これらの機能をまとめて1つの処理回路で実現してもよい。
When the processing circuit is the dedicated hardware shown in FIG. 4A, the processing circuit 100 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (FPGA). Field-Programmable Gate Array) or a combination thereof.
The functions of the irradiation control unit 13 and the calculation unit 14 may be realized by separate processing circuits, or these functions may be realized by a single processing circuit.

処理回路が図4Bに示すプロセッサ103である場合、照射制御部13および演算部14の各機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ104に記憶される。
プロセッサ103は、メモリ104に記憶されたプログラムを読み出して実行することにより各部の機能を実現する。すなわち、観測装置Aは、プロセッサ103によって実行されるとき、前述した一連の処理が結果的に実行されるプログラムを記憶するためのメモリ104を備える。これらのプログラムは、照射制御部13および演算部14の手順または方法を、コンピュータに実行させるものである。
When the processing circuit is the processor 103 shown in FIG. 4B, each function of the irradiation control unit 13 and the calculation unit 14 is realized by software, firmware, or a combination of software and firmware. Software or firmware is written as a program and stored in the memory 104.
The processor 103 reads out and executes the program stored in the memory 104, thereby realizing the functions of the respective units. That is, the observation apparatus A includes a memory 104 for storing a program that, when executed by the processor 103, results from the series of processes described above. These programs cause a computer to execute the procedures or methods of the irradiation control unit 13 and the calculation unit 14.

メモリ104には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically−EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。   The memory 104 includes, for example, a nonvolatile or volatile semiconductor such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), or an EEPROM (Electrically-EPROM). Magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs, and the like are applicable.

照射制御部13および演算部14の各機能について一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。
例えば、照射制御部13については、専用のハードウェアとしての処理回路100がその機能を実現し、演算部14については、プロセッサ103がメモリ104に記憶されたプログラムを読み出して実行することによってその機能を実現してもよい。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって上記機能のそれぞれを実現することができる。
A part of each function of the irradiation control unit 13 and the calculation unit 14 may be realized by dedicated hardware, and a part may be realized by software or firmware.
For example, the processing circuit 100 as dedicated hardware realizes the function of the irradiation controller 13, and the function of the arithmetic unit 14 by the processor 103 reading and executing the program stored in the memory 104. May be realized.
Thus, the processing circuit can realize each of the above functions by hardware, software, firmware, or a combination thereof.

次に動作について説明する。
送受信部9は、遠隔操作端末8から送信されたオペレータaの操作情報を受信すると、走行制御部10に出力する。走行制御部10は、操作情報に基づいて、駆動輪2a,2bの回転駆動を制御することにより、車両1が走行する。外界センサ11は、車両1の周辺の映像などの車両外の情報を取得し、内界センサ12は、車両1の走行速度などの車両内の情報を検出する。外界センサ11および内界センサ12によって検出された車両内外の情報は、送受信部9に出力される。
Next, the operation will be described.
When the transmission / reception unit 9 receives the operation information of the operator a transmitted from the remote operation terminal 8, the transmission / reception unit 9 outputs the operation information to the travel control unit 10. The travel control unit 10 controls the rotational driving of the drive wheels 2a and 2b based on the operation information, so that the vehicle 1 travels. The external sensor 11 acquires information outside the vehicle such as a video around the vehicle 1, and the internal sensor 12 detects information in the vehicle such as the traveling speed of the vehicle 1. Information on the inside and outside of the vehicle detected by the outside sensor 11 and the inside sensor 12 is output to the transmission / reception unit 9.

送受信部9は、車両内外の情報を遠隔操作端末8に送信する。遠隔操作端末8は、送受信部9から受信した車両内外の情報をオペレータaに提示する。オペレータaは、車両1側から受信した車両内外の情報を参照しながら、車両1の遠隔操作を行うことができる。
送受信部9は、遠隔操作端末8から地面観測の操作情報を受信すると、この操作情報を照射制御部13に出力する。
The transmission / reception unit 9 transmits information inside and outside the vehicle to the remote operation terminal 8. The remote operation terminal 8 presents information on the inside and outside of the vehicle received from the transmission / reception unit 9 to the operator a. The operator a can remotely operate the vehicle 1 while referring to the information inside and outside the vehicle received from the vehicle 1 side.
When the transmission / reception unit 9 receives ground observation operation information from the remote operation terminal 8, the transmission / reception unit 9 outputs the operation information to the irradiation control unit 13.

照射制御部13は、送受信部9から入力した操作情報に従って、車両1の周辺の地面に投影パターン6a〜6dを照射するようにパターン照射部4a〜4dを制御し、投影パターン6a〜6dが照射された地面を撮像するように撮像部5a〜5dに指示する。
パターン照射部4a〜4dは、照射制御部13の制御によって、車両1の周辺の地面に投影パターン6a〜6dを照射する。照射処理に同期して、撮像部5a〜5dは、パターン照射部4a〜4dによって投影パターン6a〜6dが照射された地面を撮像する。
The irradiation control unit 13 controls the pattern irradiation units 4 a to 4 d to irradiate the projection patterns 6 a to 6 d to the ground around the vehicle 1 according to the operation information input from the transmission / reception unit 9, and the projection patterns 6 a to 6 d are irradiated. The imaging units 5a to 5d are instructed to take an image of the ground.
The pattern irradiation units 4 a to 4 d irradiate the projection patterns 6 a to 6 d to the ground around the vehicle 1 under the control of the irradiation control unit 13. In synchronization with the irradiation process, the imaging units 5a to 5d image the ground on which the projection patterns 6a to 6d are irradiated by the pattern irradiation units 4a to 4d.

ここで、撮像部5a〜5dは、パターン照射部4a〜4dから離隔して配置されているので、平坦面における投影パターン6a〜6dの画像と、投影パターン6a〜6dが照射された車両周辺の地面の撮像画像との間に、地面の状態に応じた差異が発生する。演算部14は、これらの撮像画像を比較して上記差異を算出する。送受信部9は、演算部14によって算出された上記差異を示す情報を遠隔操作端末8に送信する。
遠隔操作端末8は、観測装置Aによって生成された上記差異を示す情報を視覚化して、オペレータaに提示する。オペレータaは、遠隔操作端末8から提示された情報に基づいて、車両1が走行している地面の状態を把握することができる。
Here, since the imaging units 5a to 5d are arranged apart from the pattern irradiation units 4a to 4d, images of the projection patterns 6a to 6d on the flat surface and the periphery of the vehicle irradiated with the projection patterns 6a to 6d A difference according to the state of the ground occurs between the captured image of the ground. The computing unit 14 compares these captured images and calculates the difference. The transmission / reception unit 9 transmits information indicating the difference calculated by the calculation unit 14 to the remote operation terminal 8.
The remote operation terminal 8 visualizes the information indicating the difference generated by the observation apparatus A and presents it to the operator a. The operator a can grasp the state of the ground on which the vehicle 1 is traveling based on the information presented from the remote operation terminal 8.

投影パターン6a〜6dとしては、格子状のパターン、あるいは、光点によるグリッドパターンが挙げられる。演算部14は、例えば、撮像画像上の格子の交点またはグリッドの光点を特徴点として、特徴点の座標の差異、すなわち投影パターンの歪みが生じた位置の座標を算出する。
また、遠隔操作端末8は、演算部14によって算出された差異を、例えば、色彩または明度によるコンター表示で視覚化するか、あるいは、等高線表示で視覚化する。さらに、遠隔操作端末8は、視覚化した情報に加えて、投影パターン6a〜6dが照射された地面の撮像画像を表示してもよい。これにより、オペレータaは、直感的に地面の状態を把握することができる。
Examples of the projection patterns 6a to 6d include a lattice pattern or a grid pattern with light spots. For example, the calculation unit 14 calculates a coordinate difference of the feature point, that is, a coordinate of the position where the distortion of the projection pattern occurs, using the intersection of the grid or the light point of the grid on the captured image as the feature point.
Further, the remote operation terminal 8 visualizes the difference calculated by the computing unit 14 by, for example, contour display by color or brightness, or by contour display. Further, the remote operation terminal 8 may display captured images of the ground irradiated with the projection patterns 6a to 6d in addition to the visualized information. Thereby, the operator a can grasp | ascertain the state of the ground intuitively.

次に、地面の凹凸を観測する原理について説明する。
図5は、観測装置Aの観測原理を示す側面視概念図であり、パターン照射部4cにより投影パターンを車両前方の地面Gにおける平面と凸面とに照射し、撮像部5cによって撮像した場合を示している。また、図6は、観測装置Aの観測原理を示す別の側面視概念図であり、パターン照射部4cにより投影パターンを車両前方の地面Gにおける平面と凹面とに照射し、撮像部5cによって撮像した場合を示している。
Next, the principle of observing unevenness on the ground will be described.
FIG. 5 is a side view conceptual diagram showing the observation principle of the observation apparatus A, and shows a case where the pattern irradiation unit 4c irradiates the projection surface with a plane and a convex surface on the ground G in front of the vehicle, and images the image by the imaging unit 5c. ing. FIG. 6 is another conceptual side view showing the observation principle of the observation apparatus A. The pattern irradiation unit 4c irradiates the projection pattern onto the plane and the concave surface on the ground G in front of the vehicle, and the imaging unit 5c captures the image. Shows the case.

図5において、地面Gの平面は、A−C−Bという直線で表すことができる。
点Dのパターン照射部4cから照射されて光軸中心を進む光は、点Eで地面Gの平面に照射される。点Eで反射した光は、点Fで撮像部5cに入射される。
一方、図5において、地面Gの凸面は、A−C−Hという曲線で表すことができる。
点Dのパターン照射部4cから照射されて光軸中心を進む光は、点Jで地面Gの凸面に照射される。点Jで反射した光は、点Fで撮像部5cに入射される。図5に示すように、地面Gの凸面は、地面Gの平面での反射光E−Fに比べて角度θだけy軸方向の車両に近い側に変位して見える。
In FIG. 5, the plane of the ground G can be represented by a straight line A-C-B.
The light irradiated from the pattern irradiation unit 4 c at the point D and traveling along the center of the optical axis is irradiated to the plane of the ground G at the point E. The light reflected at the point E is incident on the imaging unit 5c at the point F.
On the other hand, in FIG. 5, the convex surface of the ground G can be represented by a curve of A-C-H.
The light irradiated from the pattern irradiation unit 4 c at the point D and traveling along the center of the optical axis is irradiated onto the convex surface of the ground G at the point J. The light reflected at the point J is incident on the imaging unit 5c at the point F. As shown in FIG. 5, the convex surface of the ground G appears to be displaced closer to the vehicle in the y-axis direction by an angle θ than the reflected light EF on the plane of the ground G.

図6において、地面Gの平面は、図5と同様に、A−C−Bという直線で表される。
点Dのパターン照射部4cから照射されて光軸中心を進む光は、点Eで地面Gの平面に照射される。点Eで反射した光は、点Fで撮像部5cに入射される。
一方、図6において、地面Gの凹面は、A−C−Kという折れ線で表すことができる。
点Dのパターン照射部4cから照射されて光軸中心を進む光は、点Lで地面Gの凹面に照射される。点Lで反射した光は、点Fで撮像部5cに入射される。図6に示すように、地面Gの凹面は、地面Gの平面での反射光E−Fに比べて角度γだけy軸方向の車両から遠い側に変位して見える。
In FIG. 6, the plane of the ground G is represented by a straight line A-C-B as in FIG. 5.
The light irradiated from the pattern irradiation unit 4 c at the point D and traveling along the center of the optical axis is irradiated to the plane of the ground G at the point E. The light reflected at the point E is incident on the imaging unit 5c at the point F.
On the other hand, in FIG. 6, the concave surface of the ground G can be represented by a polygonal line A-C-K.
The light irradiated from the pattern irradiation unit 4 c at the point D and traveling along the center of the optical axis is irradiated to the concave surface of the ground G at the point L. The light reflected at the point L enters the imaging unit 5c at the point F. As shown in FIG. 6, the concave surface of the ground G appears to be displaced to the far side from the vehicle in the y-axis direction by an angle γ as compared with the reflected light EF on the plane of the ground G.

図7は、車両周辺への投影パターン6a〜6cの照射例を示す図であり、車両1の周囲にある平坦な地面に投影パターン6a〜6dを照射した状態を示している。図8は、平坦面における投影パターン6cの画像を示す図である。図9は、凹凸がある地面への投影パターン6cの照射例を示す図であり、車両前方の凹凸がある地面に照射された投影パターン6cの撮像画像を示している。   FIG. 7 is a diagram illustrating an irradiation example of the projection patterns 6 a to 6 c around the vehicle, and illustrates a state in which the projection patterns 6 a to 6 d are irradiated on the flat ground around the vehicle 1. FIG. 8 is a diagram showing an image of the projection pattern 6c on the flat surface. FIG. 9 is a diagram illustrating an irradiation example of the projection pattern 6c on the ground with unevenness, and shows a captured image of the projection pattern 6c irradiated on the ground with unevenness in front of the vehicle.

車両1の周囲が平坦な地面である場合、照射制御部13は、車両1の右側方、左側方、前方、後方の地面Gに向けて投影パターン6a〜6dを照射するように、パターン照射部4a〜4dを制御する。図7の例では、パターン照射部4a〜4dによって方形格子状の投影パターン6a〜6dが平坦面に照射されている。撮像部5a〜5dは、投影パターン6a〜6dの照射に合わせて車両1の右側方、左側方、前方、後方の地面Gを撮像する。これにより、車両前方の撮像画像として、図8に示す画像を得ることができる。   When the periphery of the vehicle 1 is a flat ground, the irradiation control unit 13 irradiates the projection patterns 6 a to 6 d toward the ground G on the right side, left side, front, and rear of the vehicle 1. 4a to 4d are controlled. In the example of FIG. 7, the flat lattice-shaped projection patterns 6 a to 6 d are irradiated on the flat surface by the pattern irradiation units 4 a to 4 d. The imaging units 5a to 5d image the ground G on the right side, left side, front, and rear of the vehicle 1 in accordance with the irradiation of the projection patterns 6a to 6d. Thereby, the image shown in FIG. 8 can be obtained as a captured image in front of the vehicle.

車両1の周囲に凹凸がある場合、照射制御部13は、上記と同様に、車両1の右側方、左側方、前方、後方の地面Gに向けて投影パターン6a〜6dを照射するようにパターン照射部4a〜4dを制御する。図9の例では、パターン照射部4cによって、方形格子状の投影パターン6cが、凹凸がある面に照射されている。なお、図9において、投影パターン6a,6b,6dの記載を省略している。   When there is unevenness around the vehicle 1, the irradiation control unit 13 irradiates the projection patterns 6 a to 6 d toward the ground G on the right side, left side, front, and rear of the vehicle 1 in the same manner as described above. The irradiation units 4a to 4d are controlled. In the example of FIG. 9, the pattern irradiating unit 4c irradiates a surface with projections and depressions with a rectangular grid-like projection pattern 6c. In FIG. 9, the description of the projection patterns 6a, 6b, 6d is omitted.

地面Gの凹凸を示すために、等高線20a〜20h,21a〜21cを記載している。地面Gは、等高線20aの位置で最も低く、等高線20hに向かうにつれて高くなり、等高線20hの位置で最も高くなっている。等高線21a〜21cは、地面Gの凹部を表しており、等高線21aから等高線21cに向かうにつれて地面Gが低くなっている。   In order to show the unevenness | corrugation of the ground G, the contour lines 20a-20h and 21a-21c are described. The ground G is lowest at the position of the contour line 20a, becomes higher toward the contour line 20h, and is highest at the position of the contour line 20h. The contour lines 21a to 21c represent the concave portions of the ground G, and the ground G becomes lower from the contour line 21a toward the contour line 21c.

パターン照射部4cから車両前方の地面Gに照射された投影パターン6cは、地面Gの凹部および凸部によって、図9に示すように歪みが生じている。
すなわち、図5および図6に示したように、図9の投影パターン6cを撮像した画像では、地面Gの凸部が平坦な面に比べてy軸方向の車両1に近い側に撮像され、地面Gの凹部が平坦な面に比べてy軸方向の車両1から遠い側に撮像される。なお、x軸方向にも同様な変位が生じるが、ここでは説明を省略する。
The projection pattern 6c irradiated from the pattern irradiation unit 4c onto the ground G in front of the vehicle is distorted as shown in FIG.
That is, as shown in FIGS. 5 and 6, in the image obtained by imaging the projection pattern 6 c of FIG. 9, the convex portion of the ground G is imaged closer to the vehicle 1 in the y-axis direction than the flat surface, The concave portion of the ground G is imaged on the side farther from the vehicle 1 in the y-axis direction than the flat surface. A similar displacement occurs in the x-axis direction, but the description is omitted here.

図10は、図8の平坦な地面Gに照射された投影パターン6cの撮像画像と、図9の凹凸がある地面Gに照射された投影パターン6c’の撮影画像とを示す図である。図10において、投影パターン6cと投影パターン6c’と記載したが、両者は照射対象の地面が異なるだけで、同じパターン照射部4cから車両前方の地面Gに照射された投影パターン6cである。両撮像画像には、図10に示すように、地面Gの状態に応じた差異が発生する。演算部14は、これらの撮像画像を比較して上記差異を算出する。送受信部9は、演算部14によって算出された上記差異を示す情報を遠隔操作端末8に送信する。   FIG. 10 is a diagram showing a captured image of the projection pattern 6c irradiated on the flat ground G in FIG. 8 and a captured image of the projection pattern 6c ′ irradiated on the ground G with unevenness in FIG. In FIG. 10, although the projection pattern 6c and the projection pattern 6c 'are described, they are the projection patterns 6c irradiated on the ground G in front of the vehicle from the same pattern irradiation unit 4c, except that the irradiation target ground is different. As shown in FIG. 10, a difference according to the state of the ground G occurs between the two captured images. The computing unit 14 compares these captured images and calculates the difference. The transmission / reception unit 9 transmits information indicating the difference calculated by the calculation unit 14 to the remote operation terminal 8.

遠隔操作端末8は、上記差異を示す情報を図10のように視覚化してオペレータaに提示する。この提示情報に基づいて、オペレータaは、車両1が走行している地面Gの凹凸を把握することができる。例えば、オペレータaは、遠隔操作端末8で車両1の走行を制御することにより、地面Gの凹凸を回避する経路で走行させることができる。   The remote operation terminal 8 visualizes the information indicating the difference as shown in FIG. 10 and presents it to the operator a. Based on this presentation information, the operator a can grasp the unevenness of the ground G on which the vehicle 1 is traveling. For example, the operator a can travel on a route that avoids the unevenness of the ground G by controlling the travel of the vehicle 1 by the remote operation terminal 8.

従来の遠隔操作車両において、オペレータは、外界センサによって取得された車両周辺の画像のみから地面の状態を把握しなければならず、地面の凹凸が分かり難かった。
これに対して、実施の形態1に係る車両制御システムでは、観測装置Aによって地面の状態を示す情報が得られるため、オペレータが、地面の凹凸を直感的に把握することができる。
In a conventional remotely operated vehicle, the operator has to grasp the state of the ground only from the image around the vehicle acquired by the external sensor, and the unevenness of the ground is difficult to understand.
On the other hand, in the vehicle control system according to the first embodiment, since the information indicating the state of the ground is obtained by the observation device A, the operator can intuitively grasp the unevenness of the ground.

さらに、演算部14が、上記差異から地面の状態に関する情報を生成してもよい。
例えば、演算部14が、凹凸がある地面Gを、色彩または明度を用いたコンター表示の画像情報を生成してもよく、また等高線表示した画像を生成してもよい。このように表示することで、オペレータは、地面Gの凹凸を直感的に把握しやすくなる。
Furthermore, the calculation part 14 may produce | generate the information regarding the state of the ground from the said difference.
For example, the computing unit 14 may generate contour display image information using the color or brightness of the uneven ground G, or may generate an image displaying contour lines. By displaying in this way, the operator can easily grasp the unevenness of the ground G intuitively.

地面Gの凹凸を観測する場合を示したが、平坦な地面G上にある障害物による凹凸であっても、同様な観測が可能である。すなわち、障害物がある地面Gに照射された投影パターンの撮像画像も、平坦な地面Gに照射された投影パターンの撮像画像との間で、図5と図6に示した差異が発生する。従って、演算部14が当該差異を算出することで、観測装置Aは、障害物による凹凸も観測することが可能である。   Although the case where the unevenness | corrugation of the ground G was observed was shown, the same observation is possible even if it is the unevenness | corrugation by the obstruction on the flat ground G. That is, the difference shown in FIG. 5 and FIG. 6 occurs between the captured image of the projection pattern irradiated to the ground G with the obstacle and the captured image of the projection pattern irradiated to the flat ground G. Therefore, when the calculation unit 14 calculates the difference, the observation apparatus A can observe unevenness due to the obstacle.

以上のように、実施の形態1に係る観測装置Aは、パターン照射部4a〜4d、照射制御部13、撮像部5a〜5dおよび演算部14を備える。この構成において、撮像部5a〜5dは、パターン照射部4a〜4dから離隔して配置されているので、平坦面における投影パターンの撮像画像と車両周辺の地面Gに照射された投影パターンの撮像画像との間に車両周辺の地面Gの状態に応じた差異が発生する。この差異を地面Gの状態の観測値として利用することで、低コストで簡易な構成で地面Gの状態を観測することができる。   As described above, the observation apparatus A according to Embodiment 1 includes the pattern irradiation units 4a to 4d, the irradiation control unit 13, the imaging units 5a to 5d, and the calculation unit 14. In this configuration, since the imaging units 5a to 5d are arranged separately from the pattern irradiation units 4a to 4d, the captured image of the projection pattern on the flat surface and the captured image of the projection pattern irradiated to the ground G around the vehicle. A difference in accordance with the state of the ground G around the vehicle occurs. By utilizing this difference as an observation value of the state of the ground G, the state of the ground G can be observed with a simple configuration at a low cost.

また、実施の形態1に係る観測装置Aにおいて、演算部14が、上記撮像画像間の差異から地面Gの状態を示す情報を生成する。これにより、地面Gの状態が分かりやすい情報を得ることができる。   In the observation apparatus A according to Embodiment 1, the calculation unit 14 generates information indicating the state of the ground G from the difference between the captured images. Thereby, information in which the state of the ground G is easy to understand can be obtained.

実施の形態2.
図11は、この発明の実施の形態2に係る車両制御システムの構成を示すブロック図である。図11において、図3と同一の構成要素には同一符号を付して説明を省略する。
図11に示す車両制御システムは、自律制御で走行する車両1Aに搭載されたシステムであり、走行制御部10A、外界センサ11、内界センサ12、入力部15、走行経路設定部16および観測装置Bを備える。車両1Aには、図1および図2に示した車両1と同様に、パターン照射部4a〜4d、撮像部5a〜5d、外界センサ11および内界センサ12が搭載されている。
Embodiment 2. FIG.
FIG. 11 is a block diagram showing the configuration of the vehicle control system according to Embodiment 2 of the present invention. In FIG. 11, the same components as those of FIG.
The vehicle control system shown in FIG. 11 is a system mounted on a vehicle 1A that travels by autonomous control, and includes a travel control unit 10A, an external sensor 11, an internal sensor 12, an input unit 15, a travel route setting unit 16, and an observation device. B is provided. Similar to the vehicle 1 shown in FIGS. 1 and 2, the pattern irradiation units 4 a to 4 d, the imaging units 5 a to 5 d, the external sensor 11, and the internal sensor 12 are mounted on the vehicle 1 </ b> A.

走行経路設定部16は、車両1Aを走行させる経路を設定する。例えば、走行経路設定部16は、入力部15によって受け付けられた中継地点、目的地点、障害物の位置および地図情報に基づいて、障害物を回避しながら中継地点を通って目的地点に至る経路を算出する。走行制御部10Aは、走行経路設定部16から設定された経路に沿って車両1Aが走行するように、図1および図2に示した駆動輪2a,2bの回転駆動を制御する。   The travel route setting unit 16 sets a route for traveling the vehicle 1A. For example, the travel route setting unit 16 determines a route from the relay point to the destination point while avoiding the obstacle based on the relay point, the destination point, the position of the obstacle, and the map information received by the input unit 15. calculate. The traveling control unit 10A controls the rotational driving of the drive wheels 2a and 2b shown in FIGS. 1 and 2 so that the vehicle 1A travels along the route set by the traveling route setting unit 16.

観測装置Bは、パターン照射部4a〜4d、撮像部5a〜5d、照射制御部13および演算部14Aを備える。演算部14Aは、平坦な面に照射された投影パターンを撮像部5a〜5dが撮像した画像と車両周辺の地面に照射された投影パターンを撮像部5a〜5dが撮像した画像とを比較して差異を算出し、この差異から車両周辺の地面の状態に関する情報を生成する。車両周辺の地面の状態に関する情報は、例えば、地面の凹凸がある領域の位置を示す情報である。走行経路設定部16は、演算部14Aによって生成された上記情報に基づいて車両1Aの走行経路を算出する。   The observation apparatus B includes pattern irradiation units 4a to 4d, imaging units 5a to 5d, an irradiation control unit 13, and a calculation unit 14A. The computing unit 14A compares the image captured by the imaging units 5a to 5d with the projection pattern irradiated on the flat surface and the image captured by the imaging units 5a to 5d with the projection pattern irradiated to the ground around the vehicle. The difference is calculated, and information regarding the state of the ground around the vehicle is generated from the difference. The information regarding the state of the ground around the vehicle is, for example, information indicating the position of an area where the ground is uneven. The travel route setting unit 16 calculates the travel route of the vehicle 1A based on the information generated by the calculation unit 14A.

図11に示した車両制御システムにおける、走行制御部10A、照射制御部13、演算部14Aおよび走行経路設定部16の各機能は、処理回路によって実現される。
すなわち、車両制御システムは、これらの機能を実行するための処理回路を備える。
処理回路は、図4Aに示したような専用のハードウェアであってもよく、図4Bに示したような、メモリに格納されるプログラムを実行するプロセッサであってもよい。
In the vehicle control system shown in FIG. 11, the functions of the travel control unit 10A, the irradiation control unit 13, the calculation unit 14A, and the travel route setting unit 16 are realized by a processing circuit.
That is, the vehicle control system includes a processing circuit for executing these functions.
The processing circuit may be dedicated hardware as shown in FIG. 4A, or may be a processor that executes a program stored in a memory as shown in FIG. 4B.

次に動作について説明する。
演算部14Aは、実施の形態1と同様にして、車両1Aの周辺の地面Gの凹凸に応じた撮像画像の差異を算出する。さらに、演算部14Aは、例えば、算出した上記差異から、車両1Aが回避すべき地面Gの凹凸がある位置の実空間(車両1Aが走行している3次元空間)における座標値を算出し、車両1Aの周辺の地面Gの状態に関する情報として走行経路設定部16に出力する。
Next, the operation will be described.
The calculation unit 14A calculates the difference between the captured images according to the unevenness of the ground G around the vehicle 1A in the same manner as in the first embodiment. Furthermore, the calculation unit 14A calculates, for example, the coordinate value in the real space (the three-dimensional space in which the vehicle 1A is traveling) of the position where the unevenness of the ground G that the vehicle 1A should avoid from the calculated difference, The information about the state of the ground G around the vehicle 1 </ b> A is output to the travel route setting unit 16.

走行経路設定部16は、車両1Aの位置、地図情報および演算部14Aによって算出された上記情報に基づいて、地面Gの凹凸を回避する走行経路を算出する。走行制御部10Aは、走行経路設定部16によって算出された経路に従って車両1Aの走行を制御する。これにより、地面Gの凹凸に車両1Aが進入して転倒または障害物に衝突することを回避できる。   The travel route setting unit 16 calculates a travel route that avoids the unevenness of the ground G based on the position of the vehicle 1A, the map information, and the information calculated by the calculation unit 14A. The travel control unit 10 </ b> A controls the travel of the vehicle 1 </ b> A according to the route calculated by the travel route setting unit 16. Thereby, it can avoid that vehicle 1A approachs the unevenness | corrugation of the ground G, falls, or collides with an obstruction.

以上のように、実施の形態2に係る車両制御システムは、観測装置Bに加え、演算部14Aによって生成された情報に基づいて車両1Aの走行経路を算出する走行経路設定部16と、走行経路設定部16によって算出された走行経路に従って車両1Aの走行を制御する走行制御部10Aとを備える。これらの構成を有することで、車両1Aの周辺の地面の凹凸に応じた車両1Aの走行制御が可能である。   As described above, the vehicle control system according to the second embodiment includes the travel route setting unit 16 that calculates the travel route of the vehicle 1A based on the information generated by the calculation unit 14A, in addition to the observation device B, and the travel route. A travel control unit 10A that controls the travel of the vehicle 1A according to the travel route calculated by the setting unit 16; By having these configurations, it is possible to control the traveling of the vehicle 1A according to the unevenness of the ground around the vehicle 1A.

なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, any combination of each embodiment, any component of each embodiment can be modified, or any component can be omitted in each embodiment. .

1,1A 車両、2a,2b 駆動輪、3a,3b 従動輪、4a〜4d パターン照射部、5a〜5d 撮像部、6a〜6d 投影パターン、8 遠隔操作端末、9 送受信部、10,10A 走行制御部、11 外界センサ、12 内界センサ、13 照射制御部、14,14A 演算部、15 入力部、16 走行経路設定部、20a〜20h,21a〜21c 等高線、100 処理回路、101 発光装置、102 カメラ、103 プロセッサ、104 メモリ。   1, 1A vehicle, 2a, 2b driving wheel, 3a, 3b driven wheel, 4a-4d pattern irradiation unit, 5a-5d imaging unit, 6a-6d projection pattern, 8 remote control terminal, 9 transmission / reception unit, 10, 10A traveling control 11, external sensor, 12 internal sensor, 13 irradiation control unit, 14, 14 A calculation unit, 15 input unit, 16 travel route setting unit, 20 a to 20 h, 21 a to 21 c contour lines, 100 processing circuit, 101 light emitting device, 102 Camera, 103 processor, 104 memory.

この発明に係る観測装置は、遠隔操作端末からの遠隔操作によって走行する車両に搭載され、照射部、照射制御部、撮像部および演算部を備える。照射部は、車両周辺の地面に向けて投影パターンを照射する。照射制御部は、照射部による投影パターンの照射を制御する。撮像部は、照射部から離隔して配置され、照射部によって照射された投影パターンを撮像する。演算部は、平坦面における投影パターンの画像と照射部によって車両周辺の地面に照射された投影パターンを撮像部が撮像した画像とを比較して、パターンの形状の差異を算出する。この構成において、遠隔操作端末が、演算部によって算出された差異を示す情報を表示することを特徴とする。 An observation apparatus according to the present invention is mounted on a vehicle that travels by remote control from a remote control terminal, and includes an irradiation unit, an irradiation control unit, an imaging unit, and a calculation unit. The irradiation unit irradiates the projection pattern toward the ground around the vehicle. The irradiation control unit controls irradiation of the projection pattern by the irradiation unit. The imaging unit is arranged separately from the irradiation unit, and images the projection pattern irradiated by the irradiation unit. Calculation unit, a projection pattern which has been irradiated to the ground near the vehicle by the image and the irradiation portion of the projection pattern on the flat surface by comparing the image capturing section is captured, calculates a difference in the shape of the pattern. In this configuration, the remote operation terminal displays information indicating the difference calculated by the calculation unit.

Claims (3)

車両周辺の地面に向けて投影パターンを照射する照射部と、
前記照射部による投影パターンの照射を制御する照射制御部と、
前記照射部から離隔して配置され、前記照射部によって照射された投影パターンを撮像する撮像部と、
平坦面における投影パターンの画像と前記照射部によって車両周辺の地面に照射された投影パターンを前記撮像部が撮像した画像とを比較して差異を算出する演算部と
を備えたことを特徴とする観測装置。
An irradiation unit that irradiates a projection pattern toward the ground around the vehicle;
An irradiation control unit that controls irradiation of the projection pattern by the irradiation unit;
An imaging unit that is arranged apart from the irradiation unit and images a projection pattern irradiated by the irradiation unit;
An arithmetic unit that calculates a difference by comparing an image of a projection pattern on a flat surface with an image captured by the imaging unit of a projection pattern irradiated on the ground around the vehicle by the irradiation unit. Observation device.
前記演算部は、前記差異から地面の状態に関する情報を生成すること
を特徴とする請求項1記載の観測装置。
The observation device according to claim 1, wherein the calculation unit generates information on a ground state from the difference.
車両周辺の地面に向けて投影パターンを照射する照射部と、
前記照射部による投影パターンの照射を制御する照射制御部と、
前記照射部から離隔して配置され、前記照射部によって照射された投影パターンを撮像する撮像部と、
平坦面における投影パターンの画像と前記照射部によって車両周辺の地面に照射された投影パターンを前記撮像部が撮像した画像とを比較して差異を算出し、前記差異から車両周辺の地面の状態に関する情報を生成する演算部と、
前記演算部によって生成された情報に基づいて車両の走行経路を算出する走行経路設定部と、
前記走行経路設定部によって算出された走行経路に従って車両の走行を制御する走行制御部と
を備えたことを特徴とする車両制御システム。
An irradiation unit that irradiates a projection pattern toward the ground around the vehicle;
An irradiation control unit that controls irradiation of the projection pattern by the irradiation unit;
An imaging unit that is arranged apart from the irradiation unit and images a projection pattern irradiated by the irradiation unit;
A difference between the image of the projection pattern on the flat surface and the image captured by the imaging unit with respect to the projection pattern irradiated on the ground around the vehicle by the illuminating unit is calculated, and the state of the ground around the vehicle is calculated from the difference. An arithmetic unit for generating information;
A travel route setting unit that calculates a travel route of the vehicle based on the information generated by the arithmetic unit;
A vehicle control system comprising: a travel control unit that controls the travel of the vehicle according to the travel route calculated by the travel route setting unit.
JP2017111279A 2017-06-06 2017-06-06 Observation device and vehicle control system Pending JP2018206094A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017111279A JP2018206094A (en) 2017-06-06 2017-06-06 Observation device and vehicle control system
PCT/JP2017/036978 WO2018225282A1 (en) 2017-06-06 2017-10-12 Observation device and vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017111279A JP2018206094A (en) 2017-06-06 2017-06-06 Observation device and vehicle control system

Publications (1)

Publication Number Publication Date
JP2018206094A true JP2018206094A (en) 2018-12-27

Family

ID=64566165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017111279A Pending JP2018206094A (en) 2017-06-06 2017-06-06 Observation device and vehicle control system

Country Status (2)

Country Link
JP (1) JP2018206094A (en)
WO (1) WO2018225282A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023030904A (en) * 2021-08-24 2023-03-08 株式会社Subaru Road surface condition detection device and road surface condition notification device
JP2023101629A (en) * 2019-06-29 2023-07-21 株式会社三洋物産 game machine
WO2025205450A1 (en) * 2024-03-29 2025-10-02 株式会社ニコン Image processing device, imaging device, and image processing method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01131589A (en) * 1987-11-17 1989-05-24 Hitachi Ltd 3D topographic map display device
JPH0643935A (en) * 1992-07-24 1994-02-18 Mutoh Ind Ltd Obstacle detection device for traveling robot
JPH09237400A (en) * 1996-03-01 1997-09-09 Kokusai Electric Co Ltd Digital map system, aircraft obstacle detection method
JP2002251618A (en) * 2001-02-23 2002-09-06 Pasuko:Kk Image map, device and method for producing the same
JP2005343391A (en) * 2004-06-04 2005-12-15 Koden Kk Remotely-controlled unmanned boat and remote-controlled device
JP2012083892A (en) * 2010-10-08 2012-04-26 Mitsubishi Heavy Ind Ltd Autonomous travel control device and autonomous travel vehicle with the device
WO2016076319A1 (en) * 2014-11-13 2016-05-19 ヤンマー株式会社 Operation terminal
JP2016166853A (en) * 2015-03-04 2016-09-15 パナソニックIpマネジメント株式会社 Position estimation apparatus and position estimation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3760900D1 (en) * 1987-05-09 1989-12-07 Schenck Ag Carl Method for detecting changes in the driving range of an unmanned vehicle
US9840003B2 (en) * 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01131589A (en) * 1987-11-17 1989-05-24 Hitachi Ltd 3D topographic map display device
JPH0643935A (en) * 1992-07-24 1994-02-18 Mutoh Ind Ltd Obstacle detection device for traveling robot
JPH09237400A (en) * 1996-03-01 1997-09-09 Kokusai Electric Co Ltd Digital map system, aircraft obstacle detection method
JP2002251618A (en) * 2001-02-23 2002-09-06 Pasuko:Kk Image map, device and method for producing the same
JP2005343391A (en) * 2004-06-04 2005-12-15 Koden Kk Remotely-controlled unmanned boat and remote-controlled device
JP2012083892A (en) * 2010-10-08 2012-04-26 Mitsubishi Heavy Ind Ltd Autonomous travel control device and autonomous travel vehicle with the device
WO2016076319A1 (en) * 2014-11-13 2016-05-19 ヤンマー株式会社 Operation terminal
JP2016166853A (en) * 2015-03-04 2016-09-15 パナソニックIpマネジメント株式会社 Position estimation apparatus and position estimation method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023101629A (en) * 2019-06-29 2023-07-21 株式会社三洋物産 game machine
JP2023030904A (en) * 2021-08-24 2023-03-08 株式会社Subaru Road surface condition detection device and road surface condition notification device
JP7701836B2 (en) 2021-08-24 2025-07-02 株式会社Subaru Road surface condition detection device and road surface condition notification device
WO2025205450A1 (en) * 2024-03-29 2025-10-02 株式会社ニコン Image processing device, imaging device, and image processing method

Also Published As

Publication number Publication date
WO2018225282A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6784295B2 (en) Distance measurement system, distance measurement method and program
JP6381807B2 (en) Display control device, display device, and display control method
JP5267727B2 (en) Image position adjustment device
JP6559253B2 (en) Method for displaying the surroundings of a vehicle
JP5455124B2 (en) Camera posture parameter estimation device
JP2020024234A (en) Distance sensor
WO2012086070A1 (en) Road surface shape recognition apparatus and autonomous mobile apparatus utilizing same
JP6877247B2 (en) Presentation device
CN111741872B (en) snowmobile
JP5875232B2 (en) Object detection apparatus and object detection method
US20180031834A1 (en) Vehicle display device
US20180178650A1 (en) Projection type display device and projection control method
US20190322210A1 (en) Apparatus and method for notifying expected motion of vehicle
JP2018206094A (en) Observation device and vehicle control system
JPWO2018193609A1 (en) Distance measuring device and moving object
CN112805180A (en) Method for controlling a module for projecting a pixelated light beam of a vehicle
JP2020144048A (en) Light source device and distance measurement device
JP6874769B2 (en) Vehicle display device
JP6516241B2 (en) Gesture input device
JP7298562B2 (en) Vehicle peripheral detection device
JP6501805B2 (en) Image processing apparatus and image processing method
JP6376991B2 (en) Display system
KR20140005516A (en) Shape measuring apparatus
JP4032053B2 (en) Vehicle periphery monitoring device
JP2017058142A (en) Projection device and projection system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190709