[go: up one dir, main page]

JP2009092383A - Obstacle detection sensor mounting simulation apparatus, obstacle detection sensor mounting simulation method, and obstacle detection sensor mounting simulation program - Google Patents

Obstacle detection sensor mounting simulation apparatus, obstacle detection sensor mounting simulation method, and obstacle detection sensor mounting simulation program Download PDF

Info

Publication number
JP2009092383A
JP2009092383A JP2007260143A JP2007260143A JP2009092383A JP 2009092383 A JP2009092383 A JP 2009092383A JP 2007260143 A JP2007260143 A JP 2007260143A JP 2007260143 A JP2007260143 A JP 2007260143A JP 2009092383 A JP2009092383 A JP 2009092383A
Authority
JP
Japan
Prior art keywords
obstacle detection
detection sensor
sensor
simulated object
sonar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007260143A
Other languages
Japanese (ja)
Inventor
Nobuyuki Ishihara
暢幸 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007260143A priority Critical patent/JP2009092383A/en
Publication of JP2009092383A publication Critical patent/JP2009092383A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/82Elements for improving aerodynamics

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

【課題】障害物検出センサ搭載シミュレーション装置において、実際に車両に障害物検知センサを搭載する前に、障害物検知センサの配置状態の良否を判断可能とするための手段を提供することである。
【解決手段】障害物検知センサ搭載シミュレーション装置10は、データ取得手段20と、模擬物体配置手段26と、表示手段32と、ディスプレイ16とを備える。データ取得手段20は、障害物検知センサであるソナーの位置及び検知エリアを表すセンサデータと、輪止め模擬体の形状及び寸法を表す模擬物体データとを取得する。模擬物体配置手段26は、仮想三次元空間上に、ソナーに対する位置及び方向が予め設定された関係にあるように、輪止め模擬体を配置する。表示手段32は、仮想三次元空間上に検知エリアを表す検知エリア形状と輪止め模擬体とを配置した画像を、ディスプレイ16に表示させる。
【選択図】図1
An object of the present invention is to provide means for enabling judgment of the quality of an obstacle detection sensor before actually mounting an obstacle detection sensor on a vehicle in an obstacle detection sensor-mounted simulation apparatus.
An obstacle detection sensor-equipped simulation apparatus includes a data acquisition unit, a simulated object arrangement unit, a display unit, and a display. The data acquisition means 20 acquires sensor data representing the position and detection area of a sonar that is an obstacle detection sensor, and simulated object data representing the shape and dimensions of the wheel stopper simulated body. The simulated object arranging means 26 arranges the ring stop simulated body in the virtual three-dimensional space so that the position and direction with respect to the sonar are in a preset relationship. The display unit 32 causes the display 16 to display an image in which the detection area shape representing the detection area and the ring stopper simulated body are arranged on the virtual three-dimensional space.
[Selection] Figure 1

Description

本発明は、車両に搭載される障害物検知センサの搭載位置の良否を判定するための障害物検知センサ搭載シミュレーション装置と、障害物検知センサ搭載シミュレーション方法と、障害物検知センサ搭載シミュレーションプログラムに関する。   The present invention relates to an obstacle detection sensor mounting simulation apparatus, an obstacle detection sensor mounting simulation method, and an obstacle detection sensor mounting simulation program for determining whether or not an obstacle detection sensor mounted on a vehicle is good.

従来から、例えば、自動車等の車両の前側、または後側のバンパーに、クリアランスソナーと呼ばれる障害物検知センサを取り付けることにより、車両に障害物検知センサを搭載して、車両の駐車時や走行時等に、壁等の障害物がある範囲以上に接近した場合に、ブザー音、音声、表示等で運転者に接近を知らせることが考えられている。運転者は、このような障害物検知センサにより、車両の運転操作を行いやすくなる。障害物検知センサは、例えば、超音波を送信し、障害物で反射した超音波を受信することにより、障害物を検知可能とする。   Conventionally, for example, by mounting an obstacle detection sensor called a clearance sonar on a bumper on the front side or rear side of a vehicle such as an automobile, the vehicle is equipped with an obstacle detection sensor so that the vehicle can be parked or traveled. For example, when an obstacle such as a wall approaches a certain range, it is considered to notify the driver of the approach by a buzzer sound, sound, display, or the like. Such an obstacle detection sensor makes it easier for the driver to drive the vehicle. The obstacle detection sensor can detect an obstacle, for example, by transmitting ultrasonic waves and receiving ultrasonic waves reflected by the obstacles.

特許文献1には、自動車の後部バンパーに取り付けられて、自動車の後方へ超音波を発信し、障害物により反射された超音波を受信して、障害物の有無を検出するための超音波送受信装置が記載されている。また、超音波センサのケースに形成したテーパの端部位置を前後させて、障害物検知範囲を広げたり、狭めたりすることにより、適切なものとすることができるとされている。   Patent Document 1 discloses an ultrasonic wave transmission / reception device that is attached to a rear bumper of an automobile, transmits ultrasonic waves to the rear of the automobile, receives ultrasonic waves reflected by an obstacle, and detects the presence or absence of the obstacle. An apparatus is described. Further, it is said that the end position of the taper formed in the case of the ultrasonic sensor is moved back and forth to widen or narrow the obstacle detection range, thereby making it appropriate.

特開2001−289939号公報JP 2001-289939 A

障害物検知センサは、上記のように障害物を検知可能とするが、障害物検知センサの検知エリアが過度に下側に位置すると、路面上に配置される検知の必要がない、低い路面上配置物、例えば駐車場に配置される車輪止めブロック等まで検知するという、誤検知を生じる可能性がある。このため、車両に障害物検知センサを搭載する場合には、このような誤検知を防止できる位置に、障害物検知センサを配置する必要がある。   The obstacle detection sensor can detect an obstacle as described above. However, if the detection area of the obstacle detection sensor is excessively located on the lower side, there is no need to detect the obstacle on the road surface. There is a possibility that an erroneous detection of detecting even an arrangement object, for example, a wheel stop block arranged in a parking lot, may occur. For this reason, when an obstacle detection sensor is mounted on a vehicle, the obstacle detection sensor needs to be arranged at a position where such erroneous detection can be prevented.

これに対して、従来から、車両に障害物検知センサを搭載する場合に、実際に車両を造った後に、障害物検知センサを車両の種々の位置に仮配置し、障害物検知センサが車輪止めブロック等の路面上配置物を誤検知しないか否かを試験して、障害物検知センサの搭載位置の良否を確認することが考えられている。ただし、このように実際に造られた車両において、障害物検知センサの配置状態の良否を判断することは、障害物検知センサ配置状態の検討に要する時間が長くなる原因となり、また最適な障害物検知センサの配置状態を見つけるのは困難である。また、設計時に、障害物検知センサの位置または検知エリアが変更された場合に、障害物検知センサの配置状態の良否を設計段階で確認できないため、設計作業を効率よく行えるようにする面から改良の余地がある。   In contrast to this, conventionally, when an obstacle detection sensor is mounted on a vehicle, the obstacle detection sensor is temporarily placed at various positions of the vehicle after the vehicle is actually built, and the obstacle detection sensor is stopped by the wheel. It has been considered to test whether or not an object on the road surface such as a block is erroneously detected and confirm whether the position of the obstacle detection sensor is good. However, in a vehicle actually built in this way, judging whether the obstacle detection sensor arrangement state is good or not causes a long time for the examination of the obstacle detection sensor arrangement state, and the optimal obstacle. It is difficult to find the arrangement state of the detection sensor. In addition, when the position or detection area of the obstacle detection sensor is changed at the time of design, the quality of the obstacle detection sensor cannot be confirmed at the design stage, so the design work can be performed efficiently. There is room for.

これに対して、特許文献1には、実際に車両に障害物検知センサを搭載する前に、障害物検知センサの配置状態の良否を判断可能とする手段は開示されていない。   On the other hand, Patent Document 1 does not disclose a means for making it possible to determine whether or not the obstacle detection sensor is in an arrangement state before actually mounting the obstacle detection sensor on the vehicle.

本発明の目的は、障害物検知センサ搭載シミュレーション装置、障害物検知センサ搭載シミュレーション方法及び障害物検知センサ搭載シミュレーションプログラムにおいて、実際に車両に障害物検知センサを搭載する前に、障害物検知センサの配置状態の良否を判断可能とするための手段を提供することを目的とする。   An object of the present invention is to provide an obstacle detection sensor mounting simulation apparatus, an obstacle detection sensor mounting simulation method, and an obstacle detection sensor mounting simulation program. It is an object of the present invention to provide means for making it possible to determine the quality of the arrangement state.

本発明に係る障害物検知センサ搭載シミュレーション装置は、車両に搭載される障害物検知センサの搭載位置の良否を判定するための障害物検知センサ搭載シミュレーション装置であって、障害物検知センサの位置及び検知エリアを表すセンサデータを取得するセンサデータ取得手段と、路面上に配置される物体と検知エリアとのユーザによる干渉防止検討のために、仮想三次元空間上に模擬的に配置する路面上模擬物体の形状及び寸法を表す模擬物体データを取得する模擬物体データ取得手段と、仮想三次元空間上に、障害物検知センサに対する位置及び方向が予め設定された関係にあるように、路面上模擬物体を配置する模擬物体配置手段と、仮想三次元空間上に検知エリアを表す検知エリア形状と路面上模擬物体とを配置した画像を出力部に表示させる表示手段とを備えることを特徴とする障害物検知センサ搭載シミュレーション装置である。   An obstacle detection sensor-mounted simulation device according to the present invention is an obstacle detection sensor-mounted simulation device for determining whether or not an obstacle detection sensor mounted on a vehicle is good, and the position of the obstacle detection sensor and Sensor data acquisition means for acquiring sensor data representing a detection area, and simulation on a road surface that is placed in a virtual three-dimensional space in order to investigate interference between the object placed on the road surface and the detection area by the user Simulated object data acquisition means for acquiring simulated object data representing the shape and dimensions of the object, and the simulated object on the road surface so that the position and direction with respect to the obstacle detection sensor are set in advance in the virtual three-dimensional space. A simulated object placement means for placing the object, a detection area shape representing the detection area in the virtual three-dimensional space, and a simulated object on the road surface. It is obstacle detecting sensor mounting simulation device, characterized in that it comprises a display means for displaying the part.

また、好ましくは、障害物検知センサを配置する車体部品の形状及び位置を表す車体部品データを取得する車体部品データ取得手段と、センサ配置手段と、を備え、センサデータ取得手段は、障害物検知センサの車両幅方向位置または車両前後方向に対する角度、高さ位置、及び検知エリアを表すセンサデータを取得し、センサ配置手段は、障害物検知センサの車両幅方向位置または車両前後方向に対する角度、及び高さ位置と、車体部品の形状及び位置とに基づいて、車体部品に障害物検知センサを配置し、模擬物体配置手段は、仮想三次元空間上に、障害物検知センサの位置の真下に対応する位置から、障害物検知センサの向きに対応する方向に向くように、路面上模擬物体を配置し、表示手段は、仮想三次元空間上に、障害物検知センサに対応する検知エリア形状と、車体部品及び路面上模擬物体とを配置した画像を出力部に表示させる。   Preferably, the apparatus further comprises body part data obtaining means for obtaining body part data representing the shape and position of the body part on which the obstacle detection sensor is placed, and sensor placement means, wherein the sensor data obtaining means comprises obstacle detection. Sensor data representing an angle, a height position, and a detection area with respect to the vehicle width direction position or the vehicle front-rear direction of the sensor is acquired, and the sensor placement means includes an angle of the obstacle detection sensor with respect to the vehicle width direction position or the vehicle front-rear direction, and Based on the height position and the shape and position of the body part, an obstacle detection sensor is placed on the body part, and the simulated object placement means corresponds to the position directly below the obstacle detection sensor in the virtual three-dimensional space. The simulated object is arranged on the road surface so as to face the direction corresponding to the direction of the obstacle detection sensor from the position where the obstacle is detected, and the display means displays the obstacle detection sensor in the virtual three-dimensional space. And detection area shape corresponding to, is displayed on the output section an image obtained by arranging the body part and the road surface on the simulated object.

また、より好ましくは、センサデータ取得手段は、障害物検知センサの必要隙を有する必要隙形状を表す必要隙データを取得し、表示手段は、仮想三次元空間上に、障害物検知センサの配置位置に対応する必要隙形状を配置した画像を出力部に表示させる。   More preferably, the sensor data acquisition means acquires necessary gap data representing a necessary gap shape having the necessary gap of the obstacle detection sensor, and the display means arranges the obstacle detection sensor in the virtual three-dimensional space. An image in which a necessary gap shape corresponding to the position is arranged is displayed on the output unit.

また、より好ましくは、センサデータ取得手段は、複数の障害物検知センサの車両幅方向位置または車両前後方向に対する角度、高さ位置、及び検知エリアを表すセンサデータを取得し、センサ配置手段は、複数の障害物検知センサの車両幅方向位置または車両前後方向に対する角度、及び高さ位置と、車体部品の形状及び位置とに基づいて、車体部品に複数の障害物検知センサを配置し、表示手段は、仮想三次元空間上に、複数の障害物検知センサに対応する検知エリア形状と、車体部品とを配置した画像を出力部に表示させる。   More preferably, the sensor data acquisition means acquires sensor data representing an angle, a height position, and a detection area with respect to the vehicle width direction position or the vehicle front-rear direction of the plurality of obstacle detection sensors, and the sensor arrangement means includes: A plurality of obstacle detection sensors are arranged on the body part based on the angle and height position of the plurality of obstacle detection sensors with respect to the vehicle width direction position or the vehicle longitudinal direction, and the shape and position of the body part, and display means Causes the output unit to display an image in which detection area shapes corresponding to a plurality of obstacle detection sensors and vehicle body parts are arranged in a virtual three-dimensional space.

また、より好ましくは、出力部に画像を表示させる際の視点位置及び視線方向を含む表示条件を表す表示条件データを取得する表示条件データ取得手段を備え、表示手段は、表示条件に基づいて、三次元データで規定された形状を、二次元の投影面に投影して出力部に表示させる。   More preferably, it comprises display condition data acquisition means for acquiring display condition data representing display conditions including a viewpoint position and a line-of-sight direction when displaying an image on the output unit, and the display means is based on the display conditions, The shape defined by the three-dimensional data is projected onto a two-dimensional projection surface and displayed on the output unit.

また、本発明に係る障害物検知センサ搭載シミュレーション方法は、車両に搭載される障害物検知センサの搭載位置の良否を判定するための障害物検知センサ搭載シミュレーション方法であって、コンピュータに、障害物検知センサの位置及び検知エリアを表す障害物検知センサデータを取得するセンサデータ取得ステップと、路面上に配置される物体と検知エリアとのユーザによる干渉防止検討のために、仮想三次元空間上に模擬的に配置する路面上模擬物体の形状及び寸法を表す模擬物体データを取得する模擬物体データ取得ステップと、仮想三次元空間上に、障害物検知センサに対する位置及び方向が予め設定された関係にあるように、路面上模擬物体を配置する模擬物体配置ステップと、仮想三次元空間上に検知エリアを表す検知エリア形状と路面上模擬物体とを配置した画像を出力部に表示させる表示ステップと、を実行させることを特徴とする障害物検知センサ搭載シミュレーション方法である。   An obstacle detection sensor mounting simulation method according to the present invention is an obstacle detection sensor mounting simulation method for determining whether the mounting position of an obstacle detection sensor mounted on a vehicle is good. A sensor data acquisition step for acquiring obstacle detection sensor data representing the position and detection area of the detection sensor, and a virtual three-dimensional space for examination of interference between the object placed on the road surface and the detection area by the user. The simulated object data acquisition step for acquiring simulated object data representing the shape and size of the simulated object on the road surface to be simulated, and the position and direction with respect to the obstacle detection sensor are set in advance in the virtual three-dimensional space. As shown, a simulated object placement step for placing a simulated object on the road surface and a detection area that represents a detection area in a virtual three-dimensional space. Are obstacle detecting sensor mounting simulation method characterized by executing a display step of displaying on the output section of the image disposed a A shape and a road surface on the simulated object, the.

また、本発明に係る障害物検知センサ搭載シミュレーションプログラムは、車両に搭載される障害物検知センサの搭載位置の良否を判定するための障害物検知センサ搭載シミュレーションプログラムであって、障害物検知センサの位置及び検知エリアを表す障害物検知センサデータを取得するセンサデータ取得手順と、路面上に配置される物体と検知エリアとのユーザによる干渉防止検討のために、仮想三次元空間上に模擬的に配置する路面上模擬物体の形状及び寸法を表す模擬物体データを取得する模擬物体データ取得手順と、仮想三次元空間上に、障害物検知センサに対する位置及び方向が予め設定された関係にあるように、路面上模擬物体を配置する模擬物体配置手順と、仮想三次元空間上に検知エリアを表す検知エリア形状と路面上模擬物体とを配置した画像を出力部に表示させる表示手順と、をコンピュータにおいて実行可能とすることを特徴とする障害物検知センサ搭載シミュレーションプログラムである。   An obstacle detection sensor mounting simulation program according to the present invention is an obstacle detection sensor mounting simulation program for determining whether the mounting position of an obstacle detection sensor mounted on a vehicle is good. Simulated in virtual three-dimensional space for sensor data acquisition procedure for acquiring obstacle detection sensor data representing position and detection area, and for studying prevention of interference between object and detection area placed on road surface by user The simulated object data acquisition procedure for acquiring simulated object data representing the shape and dimensions of the simulated object on the road surface to be placed, and the position and direction with respect to the obstacle detection sensor are in a preset relationship on the virtual three-dimensional space , Place the simulated object on the road surface, place the simulated object on the road surface A display procedure for displaying on the output section images were arranged and 擬物 body, are obstacle detecting sensor mounting simulation program, characterized in that executable in a computer.

本発明に係る障害物検知センサ搭載シミュレーション装置と障害物検知センサ搭載シミュレーション方法と障害物検知センサ搭載シミュレーションプログラムによれば、出力部に、障害物検知センサに対する位置及び方向が予め設定された関係にある路面上模擬物体と、検知エリアを表す検知エリア形状とを仮想三次元空間上に配置した画像が表示される。このため、実際に車両に障害物検知センサを搭載する前に、検知エリアと路面上模擬物体との位置関係を、設計者等のユーザがシミュレーションで容易に把握できる。したがって、実際に車両に障害物検知センサを搭載する前に、障害物検知センサの配置状態の良否をユーザが判断することが可能となる。また、障害物検知センサ配置の良否の検討に要する時間を短くできるとともに、最適な障害物検知センサの配置状態を見つけやすくできる。   According to the obstacle detection sensor mounting simulation apparatus, the obstacle detection sensor mounting simulation method, and the obstacle detection sensor mounting simulation program according to the present invention, the position and direction with respect to the obstacle detection sensor are set in advance in the output unit. An image in which a simulated object on a road surface and a detection area shape representing a detection area are arranged in a virtual three-dimensional space is displayed. For this reason, before the obstacle detection sensor is actually mounted on the vehicle, a user such as a designer can easily grasp the positional relationship between the detection area and the simulated object on the road surface by simulation. Therefore, before the obstacle detection sensor is actually mounted on the vehicle, the user can determine whether the arrangement state of the obstacle detection sensor is good or bad. Further, it is possible to shorten the time required for examining the quality of the obstacle detection sensor arrangement, and to easily find the optimum arrangement state of the obstacle detection sensor.

また、センサデータ取得手段は、障害物検知センサの必要隙を有する必要隙形状を表す必要隙データを取得し、表示手段は、仮想三次元空間上に、障害物検知センサの配置位置に対応する必要隙形状を配置した画像を出力部に表示させる構成によれば、表示手段により、出力部に必要隙形状とともに、障害物検知センサの周辺部品を表示させる等により、必要隙形状に周辺部品が干渉しているか否かをユーザが判断でき、ユーザが、障害物検知センサ配置の良否をより有効に判断することが可能となる。   The sensor data acquisition means acquires necessary gap data representing the necessary gap shape having the necessary gap of the obstacle detection sensor, and the display means corresponds to the arrangement position of the obstacle detection sensor in the virtual three-dimensional space. According to the configuration in which the image in which the required gap shape is arranged is displayed on the output unit, the peripheral part is displayed in the required gap shape by displaying the peripheral part of the obstacle detection sensor together with the required gap shape on the output unit. The user can determine whether there is interference, and the user can more effectively determine the quality of the obstacle detection sensor arrangement.

また、センサデータ取得手段は、複数の障害物検知センサの車両幅方向位置または車両前後方向に対する角度、高さ位置、及び検知エリアを表すセンサデータを取得し、センサ配置手段は、複数の障害物検知センサの車両幅方向位置または車両前後方向に対する角度、及び高さ位置と、車体部品の形状及び位置とに基づいて、車体部品に複数の障害物検知センサを配置し、表示手段は、仮想三次元空間上に、複数の障害物検知センサに対応する検知エリア形状と、車体部品とを配置した画像を出力部に表示させる構成によれば、出力部に複数の障害物検知センサに対応する検知エリア形状が配置された画像が表示されるため、ユーザが、複数の検知エリア形状同士の間に検知できないエリアがあるか否かをより容易に判断できる。このため、ユーザが、障害物検知センサ配置の良否をより有効に判断することが可能となる。   The sensor data acquisition means acquires sensor data representing an angle, a height position, and a detection area with respect to a vehicle width direction position or a vehicle front-rear direction of the plurality of obstacle detection sensors, and the sensor arrangement means includes a plurality of obstacles. A plurality of obstacle detection sensors are arranged on the vehicle body part based on the angle and height position of the detection sensor with respect to the vehicle width direction position or the vehicle longitudinal direction, and the shape and position of the vehicle body part. According to the configuration in which an image in which a detection area shape corresponding to a plurality of obstacle detection sensors and body parts are arranged on the original space is displayed on the output unit, the detection corresponding to the plurality of obstacle detection sensors is performed on the output unit. Since the image in which the area shape is arranged is displayed, the user can more easily determine whether there is an area that cannot be detected between the plurality of detection area shapes. For this reason, it becomes possible for a user to judge the quality of an obstacle detection sensor arrangement | positioning more effectively.

以下において、図面を用いて本発明に係る実施の形態につき詳細に説明する。図1から図22は、本発明の実施の形態の1例を示している。図1は、本実施の形態の障害物検知センサ搭載シミュレーション装置を示す基本構成図である。図2は、データ取得手段が取得する複数の要素を示す図である。図3は、本実施の形態の障害物検知センサ搭載シミュレーション方法を示すフローチャートである。図4は、(a)が前側バンパーを配置した仮想三次元空間上に前側グランドライン平面を作成した状態を示す斜視図であり、(b)が後側バンパーを配置した仮想三次元空間上に後側グランドライン平面を作成した状態を示す斜視図である。図5は、(a)が前側中央寄りソナーを前側バンパーに配置した状態を前方から後方に見た図であり、(b)が同じく幅方向に見た図である。図6は、(a)が後側中央寄りソナーを後側バンパーに配置した状態を後方から前方に見た図であり、(b)が同じく幅方向に見た図である。図7は、(a)が前側角部ソナーを前側バンパーに配置した状態を上方から下方に見た図であり、(b)が同じく幅方向に見た図である。図8は、(a)が後側角部ソナーを後側バンパーに配置した状態を後方から前方に見た図であり、(b)が同じく幅方向に見た図である。図9は、前側グランドライン平面に前側中央寄りソナー及び前側角部ソナーを投影した状態を示す斜視図である。図10は、前側グランドライン平面に輪止め模擬体を配置した状態を示す図である。図11は、図10を車両幅方向に見た図である。図12は、前側バンパーに搭載したソナーに対応して、検知エリア形状を配置した状態を示す斜視図である。図13は、前側中央寄りソナーまたは後側中央寄りソナーに対応する、近距離検知ラインを配置した状態を示す斜視図である。図14は、前側角部ソナーまたは後側角部ソナーに対応する、近距離検知ラインを配置した状態を示す斜視図である。図15は、車両前後方向と前側中央寄りソナーの向きとのなす角度をディスプレイに表示する画像の1例を示す図である。図16は、前側グランドライン平面と前側中央寄りソナーの向きとのなす角度をディスプレイに表示する画像の1例を示す図である。図17は、車両前後方向と前側角部ソナーの向きとのなす角度をディスプレイに表示する画像の1例を示す図である。図18は、前側グランドライン平面と前側角部ソナーの向きとのなす角度をディスプレイに表示する画像の1例を示す図である。図19は、前側中央寄りソナーの検知エリア形状の下端と輪止め模擬体上面との間の距離を表示する画像の1例を示す図である。図20は、前側角部ソナーの検知エリア形状の下端と輪止め模擬体上面との間の距離を表示する画像の1例を示す図である。図21は、車両前側の複数のソナーに対応する検知エリア形状と、輪止め模擬体との関係を表す画像の1例を示す図である。図22は、図21の構成要素を上方から見た画像の1例を示す図である。   Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings. 1 to 22 show an example of an embodiment of the present invention. FIG. 1 is a basic configuration diagram showing an obstacle detection sensor mounting simulation apparatus according to the present embodiment. FIG. 2 is a diagram showing a plurality of elements acquired by the data acquisition means. FIG. 3 is a flowchart showing the obstacle detection sensor mounting simulation method of the present embodiment. 4A is a perspective view showing a state in which a front ground line plane is created on a virtual three-dimensional space in which a front bumper is disposed, and FIG. 4B is a virtual three-dimensional space in which a rear bumper is disposed. It is a perspective view which shows the state which created the back side ground line plane. FIG. 5A is a view of the state in which the front center sonar is disposed on the front bumper as viewed from the front to the rear, and FIG. 5B is a view of the same in the width direction. FIG. 6A is a view in which the rear center sonar is disposed on the rear bumper as viewed from the rear in the forward direction, and FIG. 6B is a view in the same width direction. FIG. 7A is a view of the state in which the front corner sonar is disposed on the front bumper as viewed from above, and FIG. 7B is a view of the same in the width direction. FIG. 8A is a view in which the rear corner sonar is disposed on the rear bumper as viewed from the rear to the front, and FIG. 8B is also a view in the width direction. FIG. 9 is a perspective view showing a state in which the front center sonar and the front corner sonar are projected onto the front ground line plane. FIG. 10 is a diagram showing a state in which a ring stopper simulated body is arranged on the front ground line plane. FIG. 11 is a view of FIG. 10 viewed in the vehicle width direction. FIG. 12 is a perspective view showing a state in which detection area shapes are arranged corresponding to the sonar mounted on the front bumper. FIG. 13 is a perspective view showing a state in which short-distance detection lines corresponding to the front center sonar or the rear center sonar are arranged. FIG. 14 is a perspective view showing a state in which a short-distance detection line corresponding to the front corner sonar or the rear corner sonar is arranged. FIG. 15 is a diagram illustrating an example of an image displayed on the display of an angle formed by the vehicle front-rear direction and the front center sonar direction. FIG. 16 is a diagram illustrating an example of an image displayed on the display of an angle formed by the front ground line plane and the direction of the front center side sonar. FIG. 17 is a diagram illustrating an example of an image that displays on the display an angle formed by the vehicle longitudinal direction and the direction of the front corner sonar. FIG. 18 is a diagram illustrating an example of an image displayed on the display of an angle formed by the front ground line plane and the direction of the front corner sonar. FIG. 19 is a diagram showing an example of an image displaying the distance between the lower end of the detection area shape of the front center side sonar and the upper surface of the ring stopper simulated body. FIG. 20 is a diagram illustrating an example of an image displaying the distance between the lower end of the detection area shape of the front corner sonar and the upper surface of the ring-stop simulated body. FIG. 21 is a diagram illustrating an example of an image representing a relationship between a detection area shape corresponding to a plurality of sonars on the front side of the vehicle and a ring stopper simulated body. FIG. 22 is a diagram showing an example of an image of the components shown in FIG. 21 as viewed from above.

図1に示すように、本実施の形態の障害物検知センサ搭載シミュレーション装置10は、コンピュータであり、処理部12と、入力部14と、出力部であるディスプレイ16と、記憶部18とを備える。入力部14は、キーボード、マウス等である。処理部12は、CPU、メモリ等から構成され、データ取得手段20と、グランドライン平面作成手段22と、センサ配置手段24と、模擬物体配置手段26と、検知エリア配置手段28と、センサ配置情報計算手段30と、表示手段32と、三次元CADシステム34とを備える。また、データ取得手段20は、センサデータ取得手段36と、車体部品データ取得手段38と、模擬物体データ取得手段40と、表示条件データ取得手段42とを備える。   As shown in FIG. 1, the obstacle detection sensor-mounted simulation apparatus 10 according to the present embodiment is a computer, and includes a processing unit 12, an input unit 14, a display 16 that is an output unit, and a storage unit 18. . The input unit 14 is a keyboard, a mouse, or the like. The processing unit 12 includes a CPU, a memory, and the like, and includes a data acquisition unit 20, a ground line plane creation unit 22, a sensor arrangement unit 24, a simulated object arrangement unit 26, a detection area arrangement unit 28, and sensor arrangement information. The calculation means 30, the display means 32, and the three-dimensional CAD system 34 are provided. The data acquisition unit 20 includes a sensor data acquisition unit 36, a body part data acquisition unit 38, a simulated object data acquisition unit 40, and a display condition data acquisition unit 42.

障害物検知センサ搭載シミュレーション装置10は、設計支援部として機能する三次元CADシステム34により、仮想三次元空間上に対象物を設計する際の補助を行う。すなわち、三次元CADシステム34は、ユーザにより入力部14からのデータの入力を受け付け、受け付けたデータに基づいて、対象物の形状の作成と、ディスプレイ16における三次元または二次元上の形状の画面表示とを可能とする。三次元CADシステム34で作成した対象物の形状データは、記憶部18、処理部12内のメモリ等で記憶する。記憶部18は、外部記憶装置としてのハードディスク、または、CD−ROM、フロッピーディスク(登録商標)等の記録媒体とする。また、記憶部18は、回線により接続された遠隔場所にあるデータベース等としてもよい。   The obstacle detection sensor mounting simulation apparatus 10 assists in designing an object in a virtual three-dimensional space by a three-dimensional CAD system 34 functioning as a design support unit. That is, the three-dimensional CAD system 34 receives input of data from the input unit 14 by the user, creates a shape of the object based on the received data, and displays a three-dimensional or two-dimensional shape screen on the display 16. Display. The shape data of the object created by the three-dimensional CAD system 34 is stored in the storage unit 18, the memory in the processing unit 12, or the like. The storage unit 18 is a hard disk as an external storage device, or a recording medium such as a CD-ROM or a floppy disk (registered trademark). The storage unit 18 may be a database or the like at a remote location connected by a line.

特に、本実施の形態の障害物検知センサ搭載シミュレーション装置10は、自動車等の車両の設計時等の、実際の車両に障害物検知センサを搭載する前の段階において、車両に配置される障害物検知センサの搭載位置の良否を判定、すなわち判断可能とする手段を提供することを目的とする。すなわち、(1)車両の前側バンパーと後側バンパーとのそれぞれで4個所ずつ合計8個所に障害物検知センサを搭載する構成において、障害物検知センサの検知エリアと、車輪止めブロックの模擬物体とが干渉するか否かのユーザによる判断を可能とすることを目的とする。   In particular, the obstacle detection sensor mounting simulation apparatus 10 according to the present embodiment is an obstacle placed on a vehicle in a stage before mounting the obstacle detection sensor on an actual vehicle, such as when designing a vehicle such as an automobile. It is an object of the present invention to provide means for determining whether or not the mounting position of the detection sensor is good, that is, enabling determination. That is, (1) in a configuration in which obstacle detection sensors are mounted at a total of eight places, four at each of the front bumper and the rear bumper of the vehicle, the detection area of the obstacle detection sensor, the simulated object of the wheel stop block, It is an object to enable a user to determine whether or not interference occurs.

また、(2)同じ構成において、各障害物検知センサの周辺部の隙形状を十分に確保できるか否かのユーザによる判断を可能とすることも目的とする。また、(3)同じ構成において、前側バンパー側と後側バンパー側とのそれぞれで、障害物検知センサの検知エリアが隙間なく重なるか否かのユーザによる判断を可能とすることも目的とする。   Another object of the present invention is to enable the user to determine whether or not the gap shape of the peripheral portion of each obstacle detection sensor can be sufficiently secured in the same configuration. Another object of the present invention is to enable the user to determine whether or not the detection areas of the obstacle detection sensors overlap with each other on the front bumper side and the rear bumper side in the same configuration.

このような(1)から(3)の目的のために、障害物検知センサ搭載シミュレーション装置10は、障害物検知センサであるソナーの検知エリアと、車輪止めブロックの模擬物体である、輪止め模擬体との配置状態をシミュレーションする、すなわち、演算し、ディスプレイ16(図1)に表示させる。ソナーは、クリアランスソナーとも呼ばれるもので、車両に搭載して、車両の駐車時や走行時等に、壁等の障害物がある範囲以上に接近した場合に、検知信号を出力し、車両が備える制御部が、検知信号を入力されることにより、ブザー音、音声、表示等で運転者に接近を知らせるための信号を出力するようにするために使用する。   For such purposes (1) to (3), the obstacle detection sensor-mounted simulation apparatus 10 is a simulation of a wheel stopper, which is a sonar detection area of an obstacle detection sensor and a simulated object of a wheel stopper block. The state of arrangement with the body is simulated, that is, calculated and displayed on the display 16 (FIG. 1). A sonar is also called a clearance sonar that is installed in a vehicle and outputs a detection signal when the vehicle approaches or exceeds an obstacle such as a wall when parking or running. The control unit is used to output a signal for notifying the driver of an approach by a buzzer sound, sound, display, or the like when a detection signal is input.

車両がこのようなソナーを備えることにより、運転者は、車両の運転操作を行いやすくなる。ソナーは、例えば、超音波を送信し、障害物で反射した超音波を受信して、障害物を検知可能とする。本実施の形態では、図2に示すように、ソナーとして、前側バンパー44の車両幅方向中央寄りに搭載する前側中央寄りソナー46、同じく角部に搭載する前側角部ソナー48、後側バンパー50の車両幅方向中央寄りに搭載する後側中央寄りソナー52、同じく角部に搭載する後側角部ソナー54の、それぞれの配置状態をシミュレーションする。なお、本明細書全体で、前側、後側は、それぞれ車両前後方向に関する前側、後側をいう。   When the vehicle includes such a sonar, the driver can easily perform the driving operation of the vehicle. The sonar, for example, transmits an ultrasonic wave and receives an ultrasonic wave reflected by the obstacle so that the obstacle can be detected. In the present embodiment, as shown in FIG. 2, as the sonar, a front center sonar 46 mounted near the center of the front bumper 44 in the vehicle width direction, a front corner sonar 48 mounted on the corner, and a rear bumper 50 are also mounted. The rear side center sonar 52 mounted near the center of the vehicle width direction and the rear side corner sonar 54 mounted on the corner are also simulated. In the entire specification, the front side and the rear side refer to the front side and the rear side in the vehicle front-rear direction, respectively.

また、このようなシミュレーションを行うために、図1に示すデータ取得手段20は、次のようなデータを取得する。図2は、データ取得手段20が取得するデータが表す要素の形状を示している。すなわち、図1に示すデータ取得手段20のうち、センサデータ取得手段36は、図2に示す、前側中央寄りソナー46の形状及び必要隙形状を表す中央寄りソナー形状データと、前側角部ソナー48の形状及び必要隙形状を表す角部ソナー形状データとを取得する。このような各ソナー形状データは、各ソナー46,48の必要隙を有する必要隙形状を表す必要隙データを含む。   Moreover, in order to perform such a simulation, the data acquisition means 20 shown in FIG. 1 acquires the following data. FIG. 2 shows the shape of the element represented by the data acquired by the data acquisition means 20. That is, among the data acquisition means 20 shown in FIG. 1, the sensor data acquisition means 36 includes a center sonar shape data representing the shape of the front center sonar 46 and the required gap shape and a front corner sonar 48 shown in FIG. 2. Corner shape sonar shape data representing the shape and the necessary gap shape. Each sonar shape data includes necessary gap data representing a necessary gap shape having the necessary gaps of the respective sonars 46 and 48.

また、中央寄りソナー形状データと、角部ソナー形状データとは、図2に示すような、三次元データで表される意匠面データである。必要隙形状は、それぞれのソナー46,48の周囲の大部分を囲むような略箱形状の箱形部56,58であり、箱形部56,58内面とソナー46,48外面との間の空間部分が必要隙部分となる。すなわち、実際に車両にソナー46,48を配置する場合には、この必要隙部分にソナー46,48の周辺部品が干渉しないようにすることが必要になる。   Further, the center sonar shape data and the corner sonar shape data are design surface data represented by three-dimensional data as shown in FIG. The required gap shape is a box-shaped portion 56 or 58 having a substantially box shape so as to surround most of the periphery of each of the sonars 46 and 48, and between the inner surfaces of the box-shaped portions 56 and 58 and the outer surfaces of the sonar 46 and 48. The space part becomes the necessary gap part. That is, when the sonars 46 and 48 are actually arranged in the vehicle, it is necessary to prevent the peripheral parts of the sonars 46 and 48 from interfering with the necessary gap portions.

また、前側中央寄りソナー46の形状及び箱形部56(図2)は、後側中央寄りソナー52の形状及び必要隙形状である箱形部と同じである。また、前側角部ソナー48の形状及び箱形部58(図2)は、後側角部ソナー54の形状及び必要隙形状である箱形部と同じである。   The shape of the front center sonar 46 and the box-shaped portion 56 (FIG. 2) are the same as the shape of the rear center sonar 52 and the box-shaped portion that is the necessary gap shape. Further, the shape of the front corner sonar 48 and the box-shaped portion 58 (FIG. 2) are the same as the shape of the rear corner sonar 54 and the box-shaped portion which is a necessary gap shape.

また、図1に示すセンサデータ取得手段36は、図2に示すような、前側中央寄りソナー46の検知エリア形状60と、前側角部ソナー48の検知エリア形状62とを表す検知エリアデータを取得する。各検知エリア形状60(または62)は、互いに直交する2平面のそれぞれに形成された閉曲線状ライン68,70(または72,74)により構成するもので、両方の閉曲線状ライン68,70(または72,74)を外周縁の一部とする図示しない閉空間部分により検知エリアが定義される。すなわち各検知エリア形状60,62は、検知エリアを表す。また、前側中央寄りソナー46に対応する2平面の両方は、矩形状平面である。また、前側角部ソナー48に対応する2平面は、矩形状平面と、略半円形平面とである。また、後側中央寄りソナー52及び後側角部ソナー54の検知エリア形状60,62は、後側中央寄りソナー52及び後側角部ソナー54の検知エリア形状60,62とそれぞれ同じである。   Also, the sensor data acquisition means 36 shown in FIG. 1 acquires detection area data representing the detection area shape 60 of the front center sonar 46 and the detection area shape 62 of the front corner sonar 48 as shown in FIG. To do. Each detection area shape 60 (or 62) is constituted by closed curved lines 68 and 70 (or 72 and 74) formed on two mutually orthogonal planes, and both closed curved lines 68 and 70 (or 72, 74) is defined by a closed space portion (not shown) having a part of the outer peripheral edge. That is, each detection area shape 60, 62 represents a detection area. Further, both of the two planes corresponding to the front center side sonar 46 are rectangular planes. The two planes corresponding to the front corner sonar 48 are a rectangular plane and a substantially semicircular plane. The detection area shapes 60 and 62 of the rear center sonar 52 and the rear corner sonar 54 are the same as the detection area shapes 60 and 62 of the rear center sonar 52 and the rear corner sonar 54, respectively.

また、センサデータ取得手段36(図1)は、各ソナー46,48,52,54の車両幅方向位置または車両前後方向に対する角度、及び高さ位置を表す位置データを取得する。上記の中央寄りソナー形状データと、角部ソナー形状データと、検知エリアデータと、位置データとが、請求項に記載したセンサデータを構成する。   Further, the sensor data acquisition means 36 (FIG. 1) acquires position data representing the angle and height position of each sonar 46, 48, 52, 54 with respect to the vehicle width direction position or the vehicle longitudinal direction. The center sonar shape data, corner sonar shape data, detection area data, and position data constitute the sensor data recited in the claims.

また、検知エリアデータは、対応するソナー46,48,52,54の音軸、またはx軸と呼ばれる、ソナー46,48,52,54の向きと一致する、検知軸を表すデータも含む。なお、図示は省略するが、各中央寄りソナー46,52の検知エリア形状60を構成する閉曲線状ライン68,70をそれぞれ含む2個の矩形状平面には、格子状の複数の直線部が形成される。また、同様に図示は省略するが、各角部ソナー48,54の検知エリア形状62を構成する閉曲線状ライン72,74をそれぞれ含む矩形状平面には、格子状の複数の直線部が形成され、略半円形平面には、複数の円弧及び放射状の直線が形成される。   The detection area data also includes data representing the detection axis that matches the direction of the sonar 46, 48, 52, 54, which is called the sound axis of the corresponding sonar 46, 48, 52, 54 or the x-axis. Although not shown in the drawing, a plurality of grid-like straight line portions are formed on two rectangular planes including closed curved lines 68 and 70 constituting the detection area shape 60 of each of the center sonars 46 and 52, respectively. Is done. Similarly, although not shown in the figure, a plurality of grid-like straight line portions are formed on a rectangular plane including closed curved lines 72 and 74 constituting the detection area shape 62 of each corner sonar 48 and 54. In the substantially semicircular plane, a plurality of arcs and radial straight lines are formed.

また、センサデータ取得手段36(図1)は、各ソナー46,48,52,54の近距離検知ライン半径R1、R2(図13、図14)を表す近距離検知ラインデータを取得する。近距離検知ライン半径R1、R2は、ソナー46,48,52,54の検知部からの距離であり、近距離検知エリアを規定するために利用される。近距離検知エリアは、ソナー46,48,52,54の検知部からの距離がある距離である、部分球体状のエリアである。近距離検知エリアは、近距離検知ライン76,78,80,82(図13、図14)により構成し、近距離検知ライン76,78,80,82は、互いに直交する2平面上に形成される円弧であり、同じ近距離検知エリアを構成する円弧同士で、同じ半径R1(またはR2)を有する。   The sensor data acquisition means 36 (FIG. 1) acquires short-distance detection line data representing the short-distance detection line radii R1 and R2 (FIGS. 13 and 14) of the sonars 46, 48, 52, and 54, respectively. The short distance detection line radii R1 and R2 are distances from the detection portions of the sonars 46, 48, 52, and 54, and are used to define a short distance detection area. The short distance detection area is a partial spherical area that is a distance from the detection unit of the sonars 46, 48, 52, and 54. The short distance detection area is configured by short distance detection lines 76, 78, 80, and 82 (FIGS. 13 and 14), and the short distance detection lines 76, 78, 80, and 82 are formed on two planes orthogonal to each other. Arcs that constitute the same short-range detection area and have the same radius R1 (or R2).

ソナー46,48,52,54(図2)は、検知エリアの範囲において、近距離検知エリア内に検知対象が位置する、すなわち近距離に検知対象が位置することを検知すると、近距離検知信号を出力する。そして、車両に設けた図示しない制御部が、近距離検知信号の入力に対応して、検知エリア内の近距離検知エリア外である位置に検知対象が位置する場合に対して、ブザー音、音声、表示等を変えることにより、運転者に障害物が近距離に接近したことを知らせることを可能とする。本実施の形態では、センサデータ取得手段36が、このような近距離検知ライン半径R1,R2(図13、図14)を、センサデータとして取得する。   When the sonars 46, 48, 52, and 54 (FIG. 2) detect that the detection target is located in the short-range detection area within the detection area, that is, the detection target is positioned at a short distance, Is output. Then, a control unit (not shown) provided in the vehicle responds to the input of the short distance detection signal with respect to the case where the detection target is located outside the short distance detection area within the detection area. By changing the display, etc., it is possible to notify the driver that an obstacle has approached a short distance. In the present embodiment, the sensor data acquisition unit 36 acquires such short distance detection line radii R1 and R2 (FIGS. 13 and 14) as sensor data.

また、図1に示す車体部品データ取得手段38は、図2に示す様な、それぞれ車体部品である、前側バンパー44と後側バンパー50との仮想三次元空間上の位置及び形状を表す意匠面データである、車体部品データを取得する。   Further, the vehicle body part data acquisition means 38 shown in FIG. 1 is a design surface representing the position and shape of the front bumper 44 and the rear bumper 50 in the virtual three-dimensional space, which are vehicle body parts, as shown in FIG. Acquire body part data, which is data.

また、図1に示す模擬物体データ取得手段40は、路面上模擬物体であり、駐車場の路面上に配置される輪止めブロックの模擬体である、輪止め模擬体84(図10)の形状及び寸法を表す模擬物体データを取得する。このような輪止め模擬体84は、路面上に配置される物体である輪止めブロックと、各ソナー46,48,52,54(図2)の検知エリアとの、ユーザによる干渉防止検討のために、仮想三次元空間上に模擬的に配置する、直方体状の物体である。   Moreover, the simulated object data acquisition means 40 shown in FIG. 1 is a simulated object on the road surface, and the shape of the wheel stopper simulated body 84 (FIG. 10), which is a simulated body of the wheel stopper block arranged on the road surface of the parking lot. And simulated object data representing dimensions. Such a ring stopper simulated body 84 is for the purpose of investigating interference prevention by the user between the wheel stopper block, which is an object placed on the road surface, and the detection areas of the sonar 46, 48, 52, and 54 (FIG. 2). Further, it is a rectangular parallelepiped object that is arranged in a virtual three-dimensional space in a simulated manner.

また、図1に示す表示条件データ取得手段42は、ディスプレイ16に画像を表示させる際の視点位置及び視線方向を含む表示条件を表す表示条件データを取得する。視点位置は、仮想三次元空間上の形状を二次元の投影面に投影して、画像を表示する際の基準点となる位置であり、視線方向は、投影方向に対応する方向である。   Further, the display condition data acquisition unit 42 illustrated in FIG. 1 acquires display condition data representing display conditions including a viewpoint position and a line-of-sight direction when an image is displayed on the display 16. The viewpoint position is a position serving as a reference point when an image is displayed by projecting a shape in a virtual three-dimensional space onto a two-dimensional projection plane, and the line-of-sight direction is a direction corresponding to the projection direction.

また、図示は省略するが、データ取得手段20(図1)は、グランドライン平面作成用データ取得手段を備える。グランドライン平面作成用データ取得手段は、例えば、地面と一致し、ある有限の大きさを有する水平面である、任意の大きさの前側グランドライン平面86(図4)及び後側グランドライン平面88(図4)を作成するための、任意のグランドライン平面点x1、x2(図4)の三次元空間上の位置座標を表す点座標データを取得する。   Although not shown, the data acquisition unit 20 (FIG. 1) includes a ground line plane creation data acquisition unit. The ground line plane creation data acquisition means is, for example, a front side ground line plane 86 (FIG. 4) and a rear side ground line plane 88 (which are horizontal planes that coincide with the ground and have a finite size). Point coordinate data representing the position coordinates in the three-dimensional space of arbitrary ground line plane points x1 and x2 (FIG. 4) for creating FIG. 4) is acquired.

このようにデータ取得手段20(図1)で取得される複数のデータは、ユーザが操作する入力部14(図1)から直接データを受け取って、データ取得手段20で取得するようにしてもよく、また、ユーザの入力部14の操作に応じて、メモリ、記憶部18(図1)で記憶された形状データ等のデータを読み出し、データ取得手段20で取得するようにしてもよい。   As described above, a plurality of data acquired by the data acquisition unit 20 (FIG. 1) may be acquired by the data acquisition unit 20 by directly receiving data from the input unit 14 (FIG. 1) operated by the user. In addition, in accordance with the operation of the input unit 14 by the user, data such as shape data stored in the memory and the storage unit 18 (FIG. 1) may be read and acquired by the data acquisition unit 20.

また、図1に示す処理部12は、上記のように、グランドライン平面作成手段22と、センサ配置手段24と、模擬物体配置手段26と、検知エリア配置手段28と、センサ配置情報計算手段30と、表示手段32とを備える。グランドライン平面作成手段22は、グランドライン平面作成用データ取得手段により取得した、任意のグランドライン平面点x1、x2(図4)の点座標データに基づいて、グランドライン平面点x1、x2を通る、任意の大きさの前側グランドライン平面86(図4)及び後側グランドライン平面88(図4)を作成する。前側グランドライン平面86、後側グランドライン平面88は、それぞれ前側バンパー44(図2)下側と、後側バンパー50(図2)下側とに位置する。   Further, as described above, the processing unit 12 shown in FIG. 1 includes the ground line plane creation means 22, the sensor placement means 24, the simulated object placement means 26, the detection area placement means 28, and the sensor placement information calculation means 30. And a display means 32. The ground line plane creation means 22 passes through the ground line plane points x1 and x2 based on the point coordinate data of arbitrary ground line plane points x1 and x2 (FIG. 4) acquired by the data acquisition means for ground line plane creation. Then, a front ground line plane 86 (FIG. 4) and a rear ground line plane 88 (FIG. 4) having an arbitrary size are created. The front-side ground line plane 86 and the rear-side ground line plane 88 are respectively positioned below the front bumper 44 (FIG. 2) and below the rear bumper 50 (FIG. 2).

また、図1に示すセンサ配置手段24は、センサデータ取得手段36により取得した、各ソナー46,48,52,54(図2)の車両幅方向位置または車両前後方向に対する角度、及び高さ位置と、車体部品データ取得手段38(図1)により取得した、前側バンパー44(図2)及び後側バンパー50(図2)の形状及び位置とに基づいて、各バンパー44,50に対応する中央寄りソナー46,52(図2)及び角部ソナー48,54(図2)を配置する。   Further, the sensor arrangement means 24 shown in FIG. 1 has the sonar 46, 48, 52, 54 (FIG. 2) acquired by the sensor data acquisition means 36, the angle with respect to the vehicle width direction position or the vehicle longitudinal direction, and the height position. And the center corresponding to each bumper 44, 50 based on the shape and position of the front bumper 44 (FIG. 2) and the rear bumper 50 (FIG. 2) acquired by the body part data acquisition means 38 (FIG. 1). Side sonars 46 and 52 (FIG. 2) and corner sonars 48 and 54 (FIG. 2) are arranged.

また、図1に示す模擬物体配置手段26は、仮想三次元空間上に、各ソナー46,48,52,54(図2)に対する位置及び方向が予め設定された関係にあるように、輪止め模擬体84(図10)を配置する。   Further, the simulated object placement means 26 shown in FIG. 1 is locked so that the position and direction with respect to each of the sonars 46, 48, 52, 54 (FIG. 2) are set in advance in the virtual three-dimensional space. A simulated body 84 (FIG. 10) is arranged.

また、図1に示す検知エリア配置手段28は、仮想三次元空間上に、前側バンパー44(図2)及び後側バンパー50(図2)のそれぞれに配置した各ソナー46,48,52,54(図2)に対応して、検知エリア形状60,62(図2)と近距離検知ライン76,78,80,82(図13、図14)とを配置する。また、図1に示すセンサ配置情報計算手段30は、各ソナー46,48,52,54に対応して、予め設定された角度及び距離を計算する。   Moreover, the detection area arrangement | positioning means 28 shown in FIG. 1 is each sonar 46,48,52,54 arrange | positioned to each of the front side bumper 44 (FIG. 2) and the rear side bumper 50 (FIG. 2) on virtual three-dimensional space. Corresponding to (FIG. 2), detection area shapes 60 and 62 (FIG. 2) and short-distance detection lines 76, 78, 80 and 82 (FIGS. 13 and 14) are arranged. 1 calculates a preset angle and distance corresponding to each of the sonar 46, 48, 52, and 54.

また、図1に示す表示手段32は、後述する図21、図22に示すように、仮想三次元空間上に各ソナー46,48,52,54(図2)に対応する検知エリア形状60,62及び近距離検知ライン76,78,80,82(図13、図14)と、グランドライン平面86(または88(図4(b)))及びバンパー44(または50(図4(b)))と、各輪止め模擬体84とを配置した画像を、ディスプレイ16(図1)に表示させる。この際、表示手段32は、表示条件に基づいて、三次元データで規定された形状を、二次元の投影面に投影してディスプレイ16に表示させる。   Further, as shown in FIGS. 21 and 22, which will be described later, the display means 32 shown in FIG. 1 has a detection area shape 60, corresponding to each of the sonar 46, 48, 52, and 54 (FIG. 2) in the virtual three-dimensional space. 62 and short-distance detection lines 76, 78, 80, 82 (FIGS. 13 and 14), a ground line plane 86 (or 88 (FIG. 4B)), and a bumper 44 (or 50 (FIG. 4B)). ) And each wheel stopper simulated body 84 are displayed on the display 16 (FIG. 1). At this time, the display means 32 projects the shape defined by the three-dimensional data on the two-dimensional projection surface based on the display condition, and displays it on the display 16.

また、表示手段32は、ユーザの操作に基づいて、センサ配置情報計算手段30により計算された上記の角度及び距離のうち、少なくとも1の角度または1の距離を表す画像をディスプレイ16に表示させる機能も有する。また、表示手段32は、ユーザの操作に基づいて、仮想三次元空間上に、各ソナー46,48,52,54(図2)の配置位置に対応する必要隙形状である箱形部56,58(図2)を配置した画像を、ディスプレイ16に表示させる機能も有する。   Further, the display unit 32 has a function of causing the display 16 to display an image representing at least one angle or one of the angles and distances calculated by the sensor arrangement information calculation unit 30 based on a user operation. Also have. Moreover, the display means 32 is a box-shaped part 56 which is a required gap shape corresponding to the arrangement position of each sonar 46,48,52,54 (FIG. 2) on virtual three-dimensional space based on a user's operation. It also has a function of causing the display 16 to display an image in which 58 (FIG. 2) is arranged.

次に、図3に示すフローチャートを用いて、本実施の形態の障害物検知センサ搭載シミュレーション方法と、処理部12(図1)の構成とを、詳しく説明する。なお、以下の説明においては、図1から図2に付した符号を各要素に付して説明する。本実施の形態の障害物検知センサ搭載シミュレーション方法は、障害物検知センサ搭載シミュレーション装置10により実行するもので、まず、図3のステップS1において、ユーザの入力部14による入力に基づいて、データ取得手段20により、センサデータと、車体部品データと、模擬物体データと、表示条件データと、点座標データとを取得するデータ取得ステップを行う。データ取得ステップは、センサデータ取得手段36によりセンサデータを取得するセンサデータ取得ステップと、模擬物体データ取得手段40により模擬物体データを取得する模擬物体データ取得ステップとを含む。   Next, the obstacle detection sensor mounting simulation method of the present embodiment and the configuration of the processing unit 12 (FIG. 1) will be described in detail with reference to the flowchart shown in FIG. In the following description, the reference numerals assigned in FIG. 1 to FIG. The obstacle detection sensor mounting simulation method according to the present embodiment is executed by the obstacle detection sensor mounting simulation apparatus 10. First, in step S 1 of FIG. 3, data acquisition is performed based on the input by the user input unit 14. The means 20 performs a data acquisition step for acquiring sensor data, body part data, simulated object data, display condition data, and point coordinate data. The data acquisition step includes a sensor data acquisition step of acquiring sensor data by the sensor data acquisition means 36 and a simulated object data acquisition step of acquiring simulated object data by the simulated object data acquisition means 40.

次に、図3のステップS2において、グランドライン平面作成手段22により、点座標データに基づいて、図4(a)(b)に示すような前側グランドライン平面86及び後側グランドライン平面88を作成する、グランドライン平面作成ステップを行う。すなわち、グランドライン平面作成手段22は、ユーザにより任意に設定されたグランドライン平面点x1、x2の座標を表す点座標データに基づいて、グランドライン平面点x1、x2点の前方、後方、車両幅方向両側にそれぞれ予め設定された長さを有する任意の大きさの前側グランドライン平面86及び後側グランドライン平面88を作成する。各グランドライン平面86、88は、車両前後方向であるL方向、及び、車両幅方向であるW方向に平行な外周縁を有する。また、各グランドライン平面86,88を作成する仮想三次元空間上には、車体部品データに基づいて、各グランドライン平面86,88に対応する前側バンパー44または後側バンパー50が配置されている。なお、図4(a)(b)に示すH方向は、高さ方向である。L方向、W方向、H方向の定義は後述する図21でも同じである。   Next, in step S2 of FIG. 3, the ground line plane creating means 22 creates the front ground line plane 86 and the rear ground line plane 88 as shown in FIGS. 4 (a) and 4 (b) based on the point coordinate data. Create the ground line plane creation step. That is, the ground line plane creation means 22 is based on the point coordinate data representing the coordinates of the ground line plane points x1 and x2 arbitrarily set by the user, forward, rearward, and vehicle width of the ground line plane points x1 and x2. A front side ground line plane 86 and a rear side ground line plane 88 having arbitrary lengths on both sides in the direction are created. Each of the ground line planes 86 and 88 has an outer peripheral edge parallel to the L direction that is the vehicle front-rear direction and the W direction that is the vehicle width direction. Further, on the virtual three-dimensional space in which the ground line planes 86 and 88 are created, the front bumper 44 or the rear bumper 50 corresponding to the ground line planes 86 and 88 is arranged based on the body part data. . In addition, the H direction shown to Fig.4 (a) (b) is a height direction. The definitions of the L direction, the W direction, and the H direction are the same in FIG.

また、点座標データは、ユーザにより、キーボードを用いて三次元空間上の位置座標を入力したり、または、マウスを用いて三次元空間上の位置座標をクリックする等により、データ取得手段20で取得することもできる。また、ユーザの操作に基づいて、グランドライン平面点x1、x2を通る、各グランドライン平面86,88の大きさを任意に設定可能とすることもできる。   Also, the point coordinate data is obtained by the data acquisition means 20 by the user inputting position coordinates in the three-dimensional space using a keyboard, or by clicking the position coordinates in the three-dimensional space using a mouse. It can also be acquired. Also, the size of each ground line plane 86, 88 passing through the ground line plane points x1, x2 can be arbitrarily set based on the user's operation.

次に、図1に示すセンサ配置手段24は、センサデータ取得手段36により取得したセンサデータに基づいて、各ソナー46,48,52,54の車両幅方向位置または車両前後方向に対する角度、及び高さ位置と、前側バンパー44及び後側バンパー50の形状及び位置とに基づいて、各バンパー44,50に対応するソナー46,48,52,54を配置する、センサ配置ステップを行う。すなわち、図3のステップS3で、センサ配置手段24は、図5(a)(b)に示すように、前側バンパー44の前面において、車両幅方向中央寄りの2個所位置に前側中央寄りソナー46を配置する(図5(a)(b)ではそれぞれ前側中央寄りソナー46を1個のみ図示している。)。また、図5(a)(b)では、前側中央寄りソナー46の、取得された車両幅方向位置と高さ位置とに基づいて、前側バンパー44に前側中央寄りソナー46を配置している。前側中央寄りソナー46は、前側バンパー44の表面の意匠面形状に対し直交する方向に検知軸が向くように、前側バンパー44に配置される。   Next, the sensor placement means 24 shown in FIG. 1 is configured to determine the angle of each sonar 46, 48, 52, 54 with respect to the vehicle width direction position or the vehicle longitudinal direction based on the sensor data acquired by the sensor data acquisition means 36, and the height Based on the position and the shapes and positions of the front bumper 44 and the rear bumper 50, a sensor placement step of placing the sonars 46, 48, 52, 54 corresponding to the bumpers 44, 50 is performed. That is, in step S3 of FIG. 3, the sensor arrangement means 24 is arranged so that the front center sonar 46 is located at two positions near the center in the vehicle width direction on the front surface of the front bumper 44, as shown in FIGS. (In FIGS. 5 (a) and 5 (b), only one front-side sonar 46 is shown). 5A and 5B, the front center sonar 46 is disposed on the front bumper 44 based on the acquired vehicle width direction position and height position of the front center sonar 46. The front center side sonar 46 is disposed on the front bumper 44 so that the detection axis faces in a direction orthogonal to the design surface shape of the surface of the front bumper 44.

なお、図5(a)に示す一点鎖線W0は、車両幅方向中央を含む鉛直方向に平行な中央仮想平面を表している。W0の定義は、以下同じである。図5(a)に示す例では、センサデータ取得手段36は、中央仮想平面W0からの前側中央寄りソナー46の車両幅方向距離Waを、前側中央寄りソナー46の車両幅方向位置として取得している。また、図5(b)に示す例では、センサデータ取得手段36は、前側グランドライン平面86から前側中央寄りソナー46の高さである、距離Haを、前側中央寄りソナー46の高さ位置として取得している。   In addition, the dashed-dotted line W0 shown to Fig.5 (a) represents the center virtual plane parallel to the perpendicular direction including the vehicle width direction center. The definition of W0 is the same below. In the example shown in FIG. 5A, the sensor data acquisition unit 36 acquires the vehicle width direction distance Wa of the front center sonar 46 from the central virtual plane W0 as the vehicle width direction position of the front center sonar 46. Yes. In the example shown in FIG. 5B, the sensor data acquisition means 36 uses the distance Ha, which is the height of the front center sonar 46 from the front ground line plane 86, as the height position of the front center sonar 46. Have acquired.

また、センサ配置手段24は、図6(a)(b)に示すように、後側バンパー50の後面において、車両幅方向中央寄りの2個所位置に後側中央寄りソナー52を配置する(図6(a)(b)ではそれぞれ後側中央寄りソナー52を1個のみ図示している。)。図6(a)(b)でも、前側中央寄りソナー46(図5)の場合と同様に、後側中央寄りソナー52を、車両幅方向位置と高さ位置とに基づいて後側バンパー50に配置している。後側中央寄りソナー52も、後側バンパー50の表面の意匠面形状に対し直交する方向に検知軸が向くように、後側バンパー50に配置する。また、図6(a)に示す例では、センサデータ取得手段36は、中央仮想平面W0からの後側中央寄りソナー52の車両幅方向距離Wbを、後側中央寄りソナー52の車両幅方向位置として取得している。また、図6(b)に示す例では、センサデータ取得手段36は、後側グランドライン平面88から後側中央寄りソナー52の高さである、距離Hbを、後側中央寄りソナー52の高さ位置として取得している。   Further, as shown in FIGS. 6A and 6B, the sensor arrangement means 24 arranges the rear center sonar 52 at two positions near the center in the vehicle width direction on the rear surface of the rear bumper 50 (see FIG. 6). 6 (a) and 6 (b) each show only one rear center sonar 52). 6A and 6B, as in the case of the front center sonar 46 (FIG. 5), the rear center sonar 52 is placed on the rear bumper 50 based on the vehicle width direction position and the height position. It is arranged. The rear center sonar 52 is also arranged on the rear bumper 50 so that the detection axis faces in a direction orthogonal to the design surface shape of the surface of the rear bumper 50. In the example shown in FIG. 6A, the sensor data acquisition means 36 uses the vehicle width direction distance Wb of the rear center sonar 52 from the central virtual plane W0 as the vehicle width direction position of the rear center sonar 52. Is getting as. Further, in the example shown in FIG. 6B, the sensor data acquisition unit 36 sets the distance Hb, which is the height of the rear center sonar 52 from the rear ground line plane 88, to the height of the rear center sonar 52. The position is acquired.

また、センサ配置手段24は、図7(a)(b)に示すように、前側バンパー44の車両幅方向両端部角部側面の2個所位置に前側角部ソナー48を配置する(図7(a)(b)ではそれぞれ前側角部ソナー48を1個のみ図示している。)。また、図7(a)(b)に示す例では、前側角部ソナー48を、車両を上方から下方に見た場合の、車両前後方向に対する検知軸方向の角度αと、高さ位置とに基づいて、前側バンパー44に前側角部ソナー48を配置している。例えば、図7(a)では、角度αを45度とする。また、図7(b)に示す例では、センサデータ取得手段36は、前側グランドライン平面86からの前側角部ソナー48の高さである、距離Hcを、前側角部ソナー48の高さ位置として取得している。   Further, as shown in FIGS. 7A and 7B, the sensor arrangement means 24 arranges the front corner sonar 48 at two positions on the side surfaces of the front bumper 44 at both ends in the vehicle width direction (FIG. 7 ( (a) (b) shows only one front corner sonar 48). In the example shown in FIGS. 7A and 7B, the front corner sonar 48 is set to an angle α in the detection axis direction with respect to the vehicle longitudinal direction and the height position when the vehicle is viewed from above. Based on this, a front corner sonar 48 is arranged on the front bumper 44. For example, in FIG. 7A, the angle α is 45 degrees. Further, in the example shown in FIG. 7B, the sensor data acquisition unit 36 sets the distance Hc, which is the height of the front corner sonar 48 from the front ground line plane 86, to the height position of the front corner sonar 48. Is getting as.

また、センサ配置手段24は、図8(a)(b)に示すように、後側バンパー50の車両幅方向両端部角部側面の2個所位置に後側角部ソナー54を配置する(図8(a)(b)ではそれぞれ後側角部ソナー54を1個のみ図示している。)。図8(a)(b)に示す例では、後側角部ソナー54を、車両幅方向位置と高さ位置とに基づいて後側バンパー50に配置している。また、後側角部ソナー54は、後側バンパー50の表面の意匠面形状に対し直交する方向に検知軸が向くように、後側バンパー50に配置する。また、図8(a)に示す例では、センサデータ取得手段36は、中央仮想平面W0からの後側角部ソナー54の車両幅方向距離Wdを、後側角部ソナー54の車両幅方向位置として取得している。また、図8(b)に示す例では、センサデータ取得手段36は、後側グランドライン平面88からの後側角部ソナー54の高さである、距離Hdを、後側角部ソナー54の高さ位置として取得している。   Further, as shown in FIGS. 8 (a) and 8 (b), the sensor arrangement means 24 arranges the rear corner sonar 54 at two positions on the side surfaces of the corners of both ends of the rear bumper 50 (see FIG. 8). 8 (a) and 8 (b) each show only one rear corner sonar 54). In the example shown in FIGS. 8A and 8B, the rear corner sonar 54 is disposed on the rear bumper 50 based on the vehicle width direction position and the height position. Further, the rear corner sonar 54 is disposed on the rear bumper 50 so that the detection axis faces in a direction orthogonal to the design surface shape of the surface of the rear bumper 50. In the example shown in FIG. 8A, the sensor data acquisition means 36 uses the vehicle width direction distance Wd of the rear corner sonar 54 from the central virtual plane W0 as the vehicle width direction position of the rear corner sonar 54. Is getting as. Further, in the example shown in FIG. 8B, the sensor data acquisition unit 36 calculates the distance Hd, which is the height of the rear corner sonar 54 from the rear ground line plane 88, of the rear corner sonar 54. Acquired as the height position.

なお、図5、図6、図8に示した、前側中央寄りソナー46、後側中央寄りソナー52、後側角部ソナー54は、図7に示した前側角部ソナー48の場合と同様に、車両上方から下方に見た場合の、車両前後方向に対する検知軸方向の角度と、高さ位置とに基づいて、対応するバンパー44,50に配置することもできる。また、図7に示した前側角部ソナー48は、図5、図6、図8に示した、前側中央寄りソナー46、後側中央寄りソナー52、及び後側角部ソナー54の場合と同様に、車両幅方向位置と高さ位置とに基づいて、前側バンパー44に配置することもできる。   5, 6, and 8, the front center sonar 46, the rear center sonar 52, and the rear corner sonar 54 are the same as the front corner sonar 48 shown in FIG. 7. Further, when viewed from the top to the bottom of the vehicle, the bumpers 44 and 50 can be disposed on the corresponding bumpers 44 and 50 based on the angle in the detection axis direction relative to the vehicle longitudinal direction and the height position. Further, the front corner sonar 48 shown in FIG. 7 is the same as the case of the front center sonar 46, the rear center sonar 52, and the rear corner sonar 54 shown in FIGS. In addition, the front bumper 44 can be arranged based on the vehicle width direction position and the height position.

次に、図1に示す模擬物体配置手段26は、仮想三次元空間上に、各ソナー46,48,52,54(図5から図8)に対する位置及び方向が予め設定された関係にあるように、図10、図11に示すような輪止め模擬体84を配置する、模擬物体配置ステップを行う。すなわち、模擬物体配置手段26は、仮想三次元空間上において、各バンパー44,50に配置した複数のソナー46,48,52,54の位置の真下に対応する位置、すなわち真下の、対応するグランドライン平面86,88上の位置から、複数のソナー46,48,52,54の検知軸の向きに対応する方向、すなわち複数のソナー46,48,52,54の検知軸をグランドライン平面86,88上に投影した場合の投影検知軸の向きに向くように、取得された輪止め模擬体84を、対応するグランドライン平面86,88上に配置する。   Next, the simulated object placement means 26 shown in FIG. 1 seems to have a preset relationship with respect to the sonar 46, 48, 52, 54 (FIGS. 5 to 8) in the virtual three-dimensional space. Next, a simulated object placement step of placing a ring stopper simulated body 84 as shown in FIGS. 10 and 11 is performed. That is, the simulated object placement unit 26 corresponds to a position corresponding to a position directly below the positions of the plurality of sonars 46, 48, 52, 54 arranged in the bumpers 44, 50 in the virtual three-dimensional space, that is, a corresponding ground directly below. From the position on the line planes 86, 88, the direction corresponding to the direction of the detection axes of the plurality of sonars 46, 48, 52, 54, that is, the detection axes of the plurality of sonars 46, 48, 52, 54 are set to the ground line planes 86, The obtained ring stop simulated body 84 is arranged on the corresponding ground line planes 86 and 88 so as to face the direction of the projection detection axis when projected onto the plane 88.

次に、これを図9から図11を用いて、前側グランドライン平面86上に配置する輪止め模擬体84(図10)により代表して、より詳しく説明する。すなわち、模擬物体配置手段26は、図3のステップS4において、図9に示すように、前側グランドライン平面86上に、前側中央寄りソナー46及び前側角部ソナー48の検知部中心と検知軸とを投影することにより、投影検知部中心t1、t2と投影検知軸u1、u2とをL。そして、模擬物体配置手段26は、投影検知部中心t1、t2及び投影検知軸u1、u2と、取得された輪止め模擬体84の形状及び寸法とに基づいて、図10、図11に示すように、各ソナー46,48に対応する複数(図示の例では4個)の輪止め模擬体84を前側グランドライン平面86上に配置する。この場合、前側グランドライン平面86上において、投影検知部中心t1、t2(図9)位置から、各ソナー46,48の投影検知軸u1、u2(図9)方向に向くように、輪止め模擬体84を配置する。また、模擬物体データ取得手段40で取得される模擬物体データが表す寸法等を変更することにより、輪止め模擬体84の寸法等は変更可能である。例えば、輪止め模擬体84の幅S(図10)は300mmで、高さT(図10)は150mmとする。また、図示は省略するが、後側グランドライン平面88(図4(b))にも、前側グランドライン平面86に配置する輪止め模擬体84と同様に、後側中央寄りソナー52(図6)及び後側角部ソナー54(図8)に対応して、4個の輪止め模擬体84を配置する。   Next, this will be described in more detail by using FIG. 9 to FIG. 11 as a representative of the ring stopper simulated body 84 (FIG. 10) disposed on the front ground line plane 86. That is, in step S4 of FIG. 3, the simulated object placement means 26, as shown in FIG. 9, on the front ground line plane 86, the detection center of the front center sonar 46 and the front corner sonar 48 and the detection axis. , The projection detection unit centers t1 and t2 and the projection detection axes u1 and u2 are set to L. Then, the simulated object placement means 26, as shown in FIGS. 10 and 11, is based on the projection detection unit centers t1 and t2 and the projection detection axes u1 and u2 and the acquired shape and dimensions of the ring stop simulation body 84. In addition, a plurality (four in the illustrated example) of ring stopper simulated bodies 84 corresponding to the sonars 46 and 48 are arranged on the front ground line plane 86. In this case, on the front ground line plane 86, the ring stop simulation is performed so as to face the projection detection axes u1, u2 (FIG. 9) of the sonar 46, 48 from the positions of the projection detection unit centers t1, t2 (FIG. 9). The body 84 is arranged. In addition, by changing the dimension or the like represented by the simulated object data acquired by the simulated object data acquisition unit 40, the dimension or the like of the ring stopper simulated body 84 can be changed. For example, the width S (FIG. 10) of the ring stopper simulated body 84 is 300 mm, and the height T (FIG. 10) is 150 mm. Although not shown, the rear center sonar 52 (FIG. 6B) is also applied to the rear ground line plane 88 (FIG. 4B) similarly to the ring stopper simulated body 84 arranged on the front ground line plane 86. ) And the rear corner sonar 54 (FIG. 8), the four ring stopper simulated bodies 84 are arranged.

次に、図1に示す検知エリア配置手段28は、仮想三次元空間上に、各バンパー44,50(図2)に配置した各ソナー46,48,52,54(図2)に対応して、検知エリア形状60,62(図2)と近距離検知ライン76,78,80,82(図13、図14)とを配置する、検知エリア配置ステップを行う。すなわち、検知エリア配置手段28は、図3のステップS5において、図12に示すように、前側バンパー44に配置した各ソナー46,48(48は図7(a)(b)参照)に対応する、複数の検知エリア形状60,62を仮想三次元空間上に配置する。例えば、各検知エリア形状60,62を含む直交する2個の平面の交差線は、対応するソナー46,48の検知軸方向と一致している。なお、図示は省略するが、検知エリア配置手段28は、後側バンパー50に配置した各ソナー52,54に対応する複数の検知エリア形状60,62も、同様にして仮想三次元空間上に配置する。   Next, the detection area arrangement means 28 shown in FIG. 1 corresponds to the sonars 46, 48, 52, 54 (FIG. 2) arranged in the bumpers 44, 50 (FIG. 2) in the virtual three-dimensional space. Then, the detection area arrangement step of arranging the detection area shapes 60 and 62 (FIG. 2) and the short distance detection lines 76, 78, 80, and 82 (FIGS. 13 and 14) is performed. That is, the detection area arrangement means 28 corresponds to each of the sonars 46 and 48 (48 refer to FIGS. 7A and 7B) arranged on the front bumper 44 in step S5 of FIG. 3, as shown in FIG. A plurality of detection area shapes 60 and 62 are arranged in a virtual three-dimensional space. For example, the intersecting lines of two orthogonal planes including the detection area shapes 60 and 62 coincide with the detection axis directions of the corresponding sonars 46 and 48. Although illustration is omitted, the detection area arranging means 28 similarly arranges a plurality of detection area shapes 60 and 62 corresponding to the sonars 52 and 54 arranged in the rear bumper 50 in the virtual three-dimensional space. To do.

また、検知エリア配置手段28は、図13、図14に示すように、前側バンパー44に配置した各前側中央寄りソナー46及び各前側角部ソナー48に対応して、仮想三次元空間上に近距離検知ライン76,78,80,82を配置する。近距離検知ライン76,78,80,82は、互いに直交する2個ずつの平面上に形成された円弧であり、それぞれ各前側中央寄りソナー46または各前側角部ソナー48の検知部中心からの距離である曲率半径が、取得された近距離検知ライン半径R1,R2で規定されている。   Further, as shown in FIGS. 13 and 14, the detection area arranging means 28 is close to the virtual three-dimensional space corresponding to each front center sonar 46 and each front corner sonar 48 arranged on the front bumper 44. Distance detection lines 76, 78, 80, 82 are arranged. The short distance detection lines 76, 78, 80, 82 are circular arcs formed on two planes orthogonal to each other, respectively from the center of the detection part of each front side center sonar 46 or each front side corner sonar 48. A radius of curvature, which is a distance, is defined by the acquired short-distance detection line radii R1 and R2.

なお、センサデータ取得手段36は、各ソナー46,48,52,54の近距離検知ライン半径R1,R2を表す近距離検知ラインデータを取得しないようにして、その代わりに、近距離検知ライン半径R1,R2を予め記憶部18、処理部12のメモリ等で記憶させておき、検知エリア配置手段28がこの記憶した近距離検知ライン半径R1,R2を読み出して使用することもできる。また、検知エリア配置手段28は、同様にして、後側バンパー50に配置した各後側中央寄りソナー52及び各後側角部ソナー54に対応して、仮想三次元空間上に、複数の近距離検知ライン76,78,80,82を配置する。   The sensor data acquisition means 36 does not acquire the short distance detection line data representing the short distance detection line radii R1, R2 of the sonars 46, 48, 52, 54, and instead, the short distance detection line radius. R1 and R2 may be stored in advance in the memory 18 and the memory of the processing unit 12, and the detection area placement unit 28 may read and use the stored short distance detection line radii R1 and R2. Similarly, the detection area arranging means 28 corresponds to each rear center sonar 52 and each rear corner sonar 54 arranged on the rear bumper 50, in the virtual three-dimensional space. Distance detection lines 76, 78, 80, 82 are arranged.

次に、図1に示すセンサ配置情報計算手段30は、各ソナー46,48,52,54に対応して、予め設定された角度及び距離を計算する、センサ配置情報計算ステップを行う。すなわち、センサ配置情報計算手段30は、図3のステップS6において、車両を上方から下方に見た場合の、各ソナー46,48,52,54の検知軸が向く方向と、車両前後方向とのなす角度、車両を幅方向に見た場合の、各ソナー46,48,52,54の検知軸が向く方向と、グランドライン平面86,88とのなす角度、車両を幅方向に見た場合の、各ソナー46,48,52,54の検知エリア形状60,62の下端と輪止め模擬体84(図10)の上面との間の距離をそれぞれ計算する。そして、図1に示す表示手段32は、図3のステップS7において、センサ配置情報計算手段30により計算された上記の角度及び距離のうち、少なくとも1の角度または1の距離を表す画像をディスプレイ16に表示させる、表示ステップを行う。   Next, the sensor arrangement information calculation unit 30 shown in FIG. 1 performs a sensor arrangement information calculation step for calculating a preset angle and distance corresponding to each of the sonars 46, 48, 52, and 54. That is, the sensor arrangement information calculation means 30 determines in step S6 in FIG. 3 between the direction in which the detection axis of each sonar 46, 48, 52, 54 faces and the vehicle longitudinal direction when the vehicle is viewed from above. When the vehicle is viewed in the width direction, when the detection axis of each sonar 46, 48, 52, 54 faces and the angle formed by the ground line planes 86, 88, when the vehicle is viewed in the width direction The distances between the lower ends of the detection area shapes 60 and 62 of the sonars 46, 48, 52, and 54 and the upper surface of the ring stopper simulated body 84 (FIG. 10) are calculated. The display unit 32 shown in FIG. 1 displays an image representing at least one angle or one of the angles and distances calculated by the sensor arrangement information calculation unit 30 in step S7 of FIG. The display step to display is performed.

図15から図20は、上記の角度及び距離のうちの1がディスプレイ16に表示された表示画像の1例を、それぞれ示している。まず、図15は、車両を上方から下方に見た場合の、前側バンパー44に配置した前側中央寄りソナー46の検知軸が向く方向と、車両前後方向とのなす角度βを表す画像の1例を示している。また、図16は、車両を幅方向に見た場合の、前側中央寄りソナー46の検知軸が向く方向と、前側グランドライン平面86とのなす角度γを表す画像の1例を示している。また、図17は、車両を上方から下方に見た場合の、前側バンパー44に配置した前側角部ソナー48の検知軸が向く方向と、車両前後方向とのなす角度を表す画像の1例を示している。また、図18は、車両を幅方向に見た場合の、前側角部ソナー48の検知軸が向く方向と、前側グランドライン平面86とのなす角度を表す画像の1例を示している。   FIGS. 15 to 20 show examples of display images in which one of the above angles and distances is displayed on the display 16. First, FIG. 15 shows an example of an image representing an angle β formed by the direction in which the detection axis of the front center sonar 46 disposed on the front bumper 44 faces and the vehicle longitudinal direction when the vehicle is viewed from above. Is shown. FIG. 16 shows an example of an image representing an angle γ formed between the direction in which the detection axis of the front center sonar 46 faces and the front ground line plane 86 when the vehicle is viewed in the width direction. FIG. 17 shows an example of an image representing the angle formed between the direction in which the detection axis of the front corner sonar 48 arranged on the front bumper 44 faces and the vehicle front-rear direction when the vehicle is viewed from above. Show. FIG. 18 shows an example of an image representing an angle formed between the direction in which the detection axis of the front corner sonar 48 faces and the front ground line plane 86 when the vehicle is viewed in the width direction.

また、図19は、車両を幅方向に見た場合の、前側中央寄りソナー46の検知エリア形状60の下端と、輪止め模擬体84の上面との間の距離H1を表す画像の1例を示している。また、図20は、車両を幅方向に見た場合の、前側角部ソナー48の検知エリア形状62の下端と、輪止め模擬体84の上面との間の距離H2を表す画像の1例を示している。なお、図15から図20において、角度または距離を表すβ、γ、α、δ、H1、H2を除いて、符号は説明の明瞭化のために付したもので、実際の画像には表示されない。また、実際には、角度β、γ、α、δ、H1、H2部分に実際に計算された角度及び距離の数値が表示される。角度β、γ、α、δは、前側バンパー44に配置した各ソナー46,48の配置位置と、基準となる車両幅方向中央線W0及び前側グランドライン平面86の位置とから計算される。また、距離H1、H2は、前側バンパー44に配置した各ソナー46,48の検知エリア形状60,62の下端位置と、輪止め模擬体84の形状及び位置とから計算される。   FIG. 19 shows an example of an image representing the distance H1 between the lower end of the detection area shape 60 of the front center side sonar 46 and the upper surface of the wheel stopper simulated body 84 when the vehicle is viewed in the width direction. Show. FIG. 20 shows an example of an image representing the distance H2 between the lower end of the detection area shape 62 of the front corner sonar 48 and the upper surface of the wheel stopper simulated body 84 when the vehicle is viewed in the width direction. Show. In FIG. 15 to FIG. 20, the reference numerals are given for the sake of clarity, except for β, γ, α, δ, H1, and H2, which represent angles or distances, and are not displayed in an actual image. . In practice, numerical values of the actually calculated angles and distances are displayed in the angles β, γ, α, δ, H1, and H2. The angles β, γ, α, and δ are calculated from the positions of the sonars 46 and 48 disposed on the front bumper 44 and the positions of the reference vehicle width direction center line W0 and the front ground line plane 86. The distances H1 and H2 are calculated from the lower end positions of the detection area shapes 60 and 62 of the sonars 46 and 48 disposed on the front bumper 44 and the shape and position of the ring stopper simulated body 84.

また、図示は省略するが、センサ配置情報計算手段30(図1)は、同様にして、車両を上方から下方に見た場合の、後側中央寄りソナー52及び後側角部ソナー54の検知軸が向く方向と、車両前後方向とのなす角度、車両を幅方向に見た場合の、後側中央寄りソナー52及び後側角部ソナー54の検知軸が向く方向と、後側グランドライン平面88(図4(b)とのなす角度、後側中央寄りソナー52及び後側角部ソナー54の検知エリア形状60,62の下端と、輪止め模擬体84の上面との間の距離をそれぞれ計算する。そして、表示手段32は、後側中央寄りソナー52及び後側角部ソナー54に関する上記の角度及び距離の少なくとも1を表す画像を、ディスプレイ16に表示させる。さらに、表示手段32は、センサ配置情報計算手段30により計算した角度または距離を表す画像のうち、ディスプレイ16に表示させる画像を、ユーザの操作に基づいて選択可能とする。   Although not shown, the sensor arrangement information calculation unit 30 (FIG. 1) similarly detects the rear center sonar 52 and the rear corner sonar 54 when the vehicle is viewed from above. The angle between the direction of the axis and the longitudinal direction of the vehicle, the direction of the detection axis of the rear center sonar 52 and the rear corner sonar 54 when the vehicle is viewed in the width direction, and the rear ground line plane 88 (the angle between FIG. 4B and the distance between the lower end of the detection area shapes 60 and 62 of the rear center sonar 52 and the rear corner sonar 54 and the upper surface of the ring stopper simulated body 84, respectively. Then, the display means 32 causes the display 16 to display an image representing at least one of the angles and distances related to the rear center sonar 52 and the rear corner sonar 54. Further, the display means 32 includes: Sensor placement information Of the image representing the calculated angle or distance by calculation means 30, an image to be displayed on the display 16, and can be selected on the basis of the operation of the user.

また、図1に示す表示手段32は、図21、図22に示すように、仮想三次元空間上に前側の各ソナー46,48に対応する、検知エリア形状60,62及び近距離検知ライン76,78,80,82と、前側グランドライン平面86及び前側バンパー44と、前側の輪止め模擬体84とを配置した画像を、ディスプレイ16に表示させる、表示ステップを行う。なお、図21では、近距離検知ライン76,78,80,82(図22)の図示を省略している。また、図22では、検知エリア形状60,62を構成する閉曲線状ライン68,70,72,74をそれぞれ含む、互いに直交する2個ずつの平面、及び、近距離検知ライン76,78,80,82をそれぞれ含む、互いに直交する2個ずつの平面のそれぞれの図示を省略している。また、図21、図22では、説明の明瞭化のために符号を付しているが、実際の画像には符号は表示されない。   Further, as shown in FIGS. 21 and 22, the display means 32 shown in FIG. 1 includes detection area shapes 60 and 62 and short-distance detection lines 76 corresponding to the front sonar 46 and 48 in the virtual three-dimensional space. , 78, 80, 82, the front ground line plane 86 and the front bumper 44, and an image in which the front wheel stopper simulated body 84 is arranged is displayed on the display 16. In FIG. 21, the short-distance detection lines 76, 78, 80, and 82 (FIG. 22) are not shown. In FIG. 22, two planes orthogonal to each other including closed curved lines 68, 70, 72, and 74 constituting the detection area shapes 60 and 62, and short-distance detection lines 76, 78, 80, and so on, respectively. Each of two planes orthogonal to each other including 82 is omitted. In FIGS. 21 and 22, reference numerals are assigned for the sake of clarity, but no reference numerals are displayed in actual images.

また、表示手段32は、表示条件に基づいて、三次元データで規定された形状を、二次元の投影面に投影してディスプレイ16に表示させる。例えば、表示手段32は、図21に示すように、車両の斜め前側上方に視点位置を設定して、視点位置から前側バンパー44周辺部に向かう視線方向に見た画像をディスプレイ16に表示させたり、図22に示すように、車両の前側上方に視点位置を設定して、下方に向かう視線方向に見た画像をディスプレイ16に表示させることができ、任意の方向から見た画像を選択可能としている。例えば、図22に示すような画像によれば、上方から見た場合の前側のソナー46,48に対応する複数の検知エリア形状60,62が一部で重なるか否かを、ユーザが確認することが可能となる。   Further, the display means 32 projects the shape defined by the three-dimensional data on the two-dimensional projection surface based on the display conditions, and displays it on the display 16. For example, as shown in FIG. 21, the display unit 32 sets the viewpoint position obliquely upward on the front side of the vehicle and causes the display 16 to display an image viewed in the line-of-sight direction from the viewpoint position toward the periphery of the front bumper 44. As shown in FIG. 22, a viewpoint position can be set on the upper front side of the vehicle, and an image viewed in a downward line-of-sight direction can be displayed on the display 16, and an image viewed from an arbitrary direction can be selected. Yes. For example, according to the image as shown in FIG. 22, the user confirms whether or not the plurality of detection area shapes 60 and 62 corresponding to the front sonar 46 and 48 when viewed from above partially overlap. It becomes possible.

また、同様にして、表示手段32は、仮想三次元空間上に後側のソナー52,54に対応する検知エリア形状60,62及び近距離検知ライン76,78,80,82と、後側グランドライン88(図4(b))及び後側バンパー50と、後側の輪止め模擬体84(図10)とを配置した画像を、ディスプレイ16に表示させる。また、表示手段32は、ユーザの操作に基づいて、前側のソナー46,48に対応する検知エリア形状60,62と、輪止め模擬体84とを含む画像をディスプレイ16に表示させるか、または、後側のソナー52,54に対応する検知エリア形状60,62と、輪止め模擬体84とを含む画像をディスプレイ16に表示させるかを選択可能とする。   Similarly, the display means 32 includes a detection area shape 60, 62 and a short distance detection line 76, 78, 80, 82 corresponding to the rear sonar 52, 54 in the virtual three-dimensional space, and a rear ground. An image in which the line 88 (FIG. 4B), the rear bumper 50, and the rear wheel stopper simulated body 84 (FIG. 10) are arranged is displayed on the display 16. Further, the display means 32 displays an image including the detection area shapes 60 and 62 corresponding to the front sonars 46 and 48 on the display 16 on the display 16 based on the user's operation, or It is possible to select whether an image including the detection area shapes 60 and 62 corresponding to the rear sonars 52 and 54 and the wheel stopper simulated body 84 is displayed on the display 16.

また、表示手段32によりディスプレイ16に表示させる画像が、各ソナー46,48,52,54の少なくとも1の形状を含む場合に、必要隙形状である箱形部56,58を含むようにすることもできる。また、ディスプレイ16に表示させる画像は、上記のように、ユーザの入力に基づいて任意に設定される視点位置から見た、すなわち、設定した二次元平面に投影した画像として表示させることもできるが、ディスプレイ16に表示させる場合の視点位置を予め設定して、記憶部18、メモリ等で記憶させておき、表示させる際に読み出すこともできる。   Further, when the image displayed on the display 16 by the display means 32 includes at least one shape of each of the sonars 46, 48, 52, 54, the box-shaped portions 56, 58 which are necessary gap shapes are included. You can also. Further, as described above, the image displayed on the display 16 can be displayed as an image viewed from a viewpoint position arbitrarily set based on a user input, that is, projected on a set two-dimensional plane. The viewpoint position for display on the display 16 can be set in advance, stored in the storage unit 18, memory, etc., and read when displayed.

また、本実施の形態の障害物検知センサ搭載シミュレーションプログラムは、本実施の形態の障害物検知センサ搭載シミュレーション方法を実行するための、コンピュータ読み取り可能なプログラムである。障害物検知センサ搭載シミュレーションプログラムは、センサデータ取得手順と、模擬物体データ取得手順と、模擬物体配置手順と、表示手順とを備え、各手順を、コンピュータである障害物検知センサ搭載シミュレーション装置10において実行可能とする。   Moreover, the obstacle detection sensor mounting simulation program of this embodiment is a computer-readable program for executing the obstacle detection sensor mounting simulation method of this embodiment. The obstacle detection sensor-mounted simulation program includes a sensor data acquisition procedure, a simulated object data acquisition procedure, a simulated object placement procedure, and a display procedure. Each procedure is executed by the obstacle detection sensor-mounted simulation device 10 which is a computer. Make it executable.

センサデータ取得手順は、各ソナー46,48,52,54の位置及び検知エリアを表すセンサデータを取得する。また、模擬物体データ取得手順は、路面上模擬物体である輪止め模擬体84の形状及び寸法を表す模擬物体データを取得する。また、模擬物体配置手順は、仮想三次元空間上に、各ソナー46,48,52,54に対する位置及び方向が予め設定された関係にあるように、輪止め模擬体84を配置する。また、表示手順は、仮想三次元空間上に検知エリアを表す検知エリア形状60,62と輪止め模擬体84とを配置した画像をディスプレイ16に表示させる。   The sensor data acquisition procedure acquires sensor data representing the position and detection area of each sonar 46, 48, 52, 54. In the simulated object data acquisition procedure, simulated object data representing the shape and dimensions of the ring stop simulated body 84 that is a simulated object on the road surface is acquired. Further, in the simulated object placement procedure, the wheel stopper simulated body 84 is placed in the virtual three-dimensional space so that the positions and directions with respect to the sonar 46, 48, 52, and 54 are set in advance. In the display procedure, the display 16 displays an image in which the detection area shapes 60 and 62 representing the detection area on the virtual three-dimensional space and the ring stopper simulated body 84 are arranged.

プログラムは、三次元CADシステム34を備える障害物検知センサ搭載シミュレーション装置10で実行されることにより、本実施の形態の障害物検知センサ搭載シミュレーション方法を実行する。プログラムは、記憶部18、処理部12内のメモリ等で記憶し、処理部12により記憶部18、メモリ等から読み出されることにより実行される。   The program is executed by the obstacle detection sensor mounting simulation apparatus 10 including the three-dimensional CAD system 34, thereby executing the obstacle detection sensor mounting simulation method of the present embodiment. The program is stored in the storage unit 18 and the memory in the processing unit 12 and is executed by being read from the storage unit 18 and the memory by the processing unit 12.

このような本実施の形態によれば、ディスプレイ16に、各ソナー46,48,52,54に対する位置及び方向が予め設定された関係にある輪止め模擬体84と、検知エリアを表す検知エリア形状60,62とを仮想三次元空間上に配置した画像が表示される。このため、実際に車両に各ソナー46,48,52,54を搭載する前に、検知エリアと輪止め模擬体84との位置関係を、設計者等のユーザがシミュレーションで容易に把握できる。すなわち、ユーザが、各検知エリア形状60,62の下端と、対応する輪止め模擬体84との間の隙間が十分であるか否かを、シミュレーションで確認することが可能になる。このため、実際に車両にソナー46,48,52,54を搭載する前に、ソナー46,48,52,54の配置状態の良否をユーザが判断することが可能となる。また、ソナー46,48,52,54配置の良否の検討に要する時間を短くできるとともに、最適なソナー46,48,52,54の配置状態を見つけやすくできる。したがって、上記の(1)の目的を達成できる。   According to the present embodiment as described above, the display 16 is provided with the ring stop simulated body 84 in which the position and direction with respect to each of the sonar 46, 48, 52, and 54 are set in advance, and the detection area shape representing the detection area. An image in which 60 and 62 are arranged in the virtual three-dimensional space is displayed. For this reason, before actually mounting each sonar 46, 48, 52, 54 on the vehicle, a user such as a designer can easily grasp the positional relationship between the detection area and the wheel stopper simulated body 84 by simulation. That is, it becomes possible for the user to confirm by simulation whether or not the gap between the lower end of each detection area shape 60, 62 and the corresponding ring stopper simulated body 84 is sufficient. For this reason, before actually mounting the sonar 46, 48, 52, 54 on the vehicle, the user can determine whether the arrangement state of the sonar 46, 48, 52, 54 is good. Further, it is possible to shorten the time required for examining the quality of the arrangement of the sonar 46, 48, 52, and 54 and to easily find the optimum arrangement state of the sonar 46, 48, 52, and 54. Therefore, the object (1) can be achieved.

また、センサデータ取得手段36は、ソナー46,48,52,54の必要隙を有する必要隙形状を表す必要隙データを取得し、表示手段32は、仮想三次元空間上に、ソナー46,48,52,54の配置位置に対応する必要隙形状である、箱形部56,58を配置した画像をディスプレイ16に表示させることもでき、この構成によれば、表示手段32により、ディスプレイ16に箱形部56,58とともに、ソナー46,48,52,54の周辺部品を表示させる等により、箱形部56,58に周辺部品が干渉しているか否かをユーザが判断でき、ユーザが、ソナー46,48,52,54配置の良否をより有効に判断することが可能となる。したがって、上記の(2)の目的を達成できる。   The sensor data acquisition means 36 acquires necessary gap data representing the necessary gap shape having the necessary gaps of the sonars 46, 48, 52, 54, and the display means 32 displays the sonar 46, 48 in the virtual three-dimensional space. , 52, 54 can be displayed on the display 16 with an image in which the box-shaped portions 56, 58, which are necessary gap shapes corresponding to the arrangement positions of the display unit 32, are arranged. By displaying the peripheral parts of the sonar 46, 48, 52, 54 together with the box-shaped parts 56, 58, the user can determine whether the peripheral parts are interfering with the box-shaped parts 56, 58. It becomes possible to determine the quality of the sonar 46, 48, 52, and 54 more effectively. Therefore, the object (2) can be achieved.

また、センサデータ取得手段36は、複数のソナー46,48,52,54の車両幅方向位置または車両前後方向に対する角度、高さ位置、及び検知エリアを表すセンサデータを取得し、センサ配置手段24は、複数のソナー46,48,52,54の車両幅方向位置または車両前後方向に対する角度、高さ位置と、バンパー44,50の形状及び位置とに基づいて、バンパー44,50に複数のソナー46,48,52,54を配置する。また、表示手段32は、仮想三次元空間上に、複数のソナー46,48,52,54に対応する検知エリア形状60,62と、バンパー44,50とを配置した画像をディスプレイ16に表示させる。このため、例えば、上記の図22に示したように、ディスプレイ16に複数のソナー46,48に対応する検知エリア形状60,62が配置された画像が表示されるため、ユーザが、複数の検知エリア形状60,62同士の間に検知できないエリアがあるか否かをより容易に判断できる。このため、ユーザが、ソナー46,48,52,54配置の良否をより有効に判断することが可能となる。したがって、上記の(3)の目的を達成できる。   The sensor data acquisition means 36 acquires sensor data representing the angle, height position, and detection area with respect to the vehicle width direction position or the vehicle front-rear direction of the plurality of sonars 46, 48, 52, 54, and the sensor placement means 24. The plurality of sonars 46, 48, 52, 54 has a plurality of sonars on the bumpers 44, 50 based on the angle and height position with respect to the vehicle width direction position or the vehicle front-rear direction and the shape and position of the bumpers 44, 50 46, 48, 52 and 54 are arranged. Further, the display means 32 displays on the display 16 an image in which the detection area shapes 60 and 62 corresponding to the plural sonars 46, 48, 52 and 54 and the bumpers 44 and 50 are arranged on the virtual three-dimensional space. . For this reason, for example, as shown in FIG. 22 above, an image in which the detection area shapes 60 and 62 corresponding to the plurality of sonars 46 and 48 are arranged is displayed on the display 16. It can be determined more easily whether there is an area that cannot be detected between the area shapes 60 and 62. For this reason, it becomes possible for a user to judge the quality of sonar 46,48,52,54 arrangement | positioning more effectively. Therefore, the object (3) can be achieved.

また、本実施の形態では、障害物検知センサ搭載シミュレーション装置10は、三次元CADシステム34を備えるが、障害物検知センサ搭載シミュレーション装置10を、CADシステムとは別に設けて、CADシステム用の画面とは別の画面に、シミュレーションにより生成した画像を表示させることもできる。なお、本実施の形態では、路面上模擬物体を輪止め模擬体84としたが、本発明は、これ以外の路面上配置物の模擬物体でもよい。例えば、路面上模擬物体を縁石の模擬物体である縁石模擬体とすることもできる。   In the present embodiment, the obstacle detection sensor mounting simulation apparatus 10 includes the three-dimensional CAD system 34. However, the obstacle detection sensor mounting simulation apparatus 10 is provided separately from the CAD system, and the screen for the CAD system is provided. An image generated by simulation can be displayed on a different screen. In the present embodiment, the simulated road object is the ring stop simulated body 84. However, the present invention may be a simulated object of other arrangement on the road surface. For example, the simulated object on the road surface may be a curb simulated object that is a simulated curb object.

また、本実施の形態では、前側バンパー44側と後側バンパー50側とに搭載するソナー46,48,52,54の配置状態をシミュレーションする場合について説明したが、前側バンパー44側のみ、または後側バンパー50側のみに搭載するソナー46,48(または52,54)の配置状態についてシミュレーションすることもできる。この場合には、データ取得手段は、前側バンパー44側のみ、または後側バンパー50側のみに対応する、センサデータ、車体部品データ、模擬物体データを、それぞれ取得すればよい。また、ソナー46,48,52,54を配置する車体部品をバンパー44,50以外の部品とすることもできる。   Further, in the present embodiment, the case of simulating the arrangement state of the sonars 46, 48, 52, 54 mounted on the front bumper 44 side and the rear bumper 50 side has been described, but only the front bumper 44 side or the rear It is also possible to simulate the arrangement state of the sonars 46 and 48 (or 52 and 54) mounted only on the side bumper 50 side. In this case, the data acquisition unit may acquire sensor data, body part data, and simulated object data corresponding to only the front bumper 44 side or only the rear bumper 50 side. Further, the vehicle body parts on which the sonars 46, 48, 52, 54 are arranged can be parts other than the bumpers 44, 50.

本発明の実施の形態の1例の障害物検知センサ搭載シミュレーション装置を示す基本構成図である。It is a basic lineblock diagram showing an obstacle detection sensor loading simulation device of an example of an embodiment of the invention. データ取得手段が取得する複数の要素を示す図である。It is a figure which shows the several element which a data acquisition means acquires. 実施の形態の1例の障害物検知センサ搭載シミュレーション方法を示すフローチャートである。It is a flowchart which shows the obstacle detection sensor mounting simulation method of an example of embodiment. (a)が前側バンパーを配置した仮想三次元空間上に前側グランドライン平面を作成した状態を示す斜視図であり、(b)が後側バンパーを配置した仮想三次元空間上に後側グランドライン平面を作成した状態を示す斜視図である。(A) is a perspective view which shows the state which created the front side ground line plane on the virtual three-dimensional space which has arrange | positioned the front side bumper, (b) is the rear side ground line on the virtual three-dimensional space which has arranged the back side bumper. It is a perspective view which shows the state which created the plane. (a)が前側中央寄りソナーを前側バンパーに配置した状態を前方から後方に見た図であり、(b)が同じく幅方向に見た図である。(A) is the figure which looked at the state which has arrange | positioned the front center side sonar on the front bumper from the front to the back, and (b) is the figure which looked in the width direction similarly. (a)が後側中央寄りソナーを後側バンパーに配置した状態を後方から前方に見た図であり、(b)が同じく幅方向に見た図である。(A) is the figure which looked at the state which has arrange | positioned the rear side center side sonar to the rear side bumper from the back to the front, and (b) is the figure which looked similarly in the width direction. (a)が前側角部ソナーを前側バンパーに配置した状態を上方から下方に見た図であり、(b)が同じく幅方向に見た図である。(A) is the figure which looked at the state which has arrange | positioned the front corner | angular part sonar to the front bumper from the upper direction to the downward | lower direction, (b) is the figure similarly seen in the width direction. (a)が後側角部ソナーを後側バンパーに配置した状態を後方から前方に見た図であり、(b)が同じく幅方向に見た図である。(A) is the figure which looked at the state which has arrange | positioned the rear corner | angular part sonar to the rear bumper from the back from the front, (b) is the figure which looked at the width direction similarly. 前側グランドライン平面に前側中央寄りソナー及び前側角部ソナーを投影した状態を示す斜視図である。It is a perspective view which shows the state which projected the front side center side sonar and the front side corner | angular sonar on the front side ground line plane. 前側グランドライン平面に輪止め模擬体を配置した状態を示す図である。It is a figure which shows the state which has arrange | positioned the ring stop simulated body to the front side ground line plane. 図10を車両幅方向に見た図である。It is the figure which looked at FIG. 10 in the vehicle width direction. 前側バンパーに搭載したソナーに対応して、検知エリア形状を配置した状態を示す斜視図である。It is a perspective view which shows the state which has arrange | positioned the detection area shape corresponding to the sonar mounted in the front side bumper. 前側中央寄りソナーまたは後側中央寄りソナーに対応する、近距離検知ラインを配置した状態を示す斜視図である。It is a perspective view which shows the state which has arrange | positioned the short distance detection line corresponding to a front side center side sonar or a back side center side sonar. 前側角部ソナーまたは後側角部ソナーに対応する、近距離検知ラインを配置した状態を示す斜視図である。It is a perspective view which shows the state which has arrange | positioned the short distance detection line corresponding to a front side corner | angular sonar or a rear side corner | angular sonar. 車両前後方向と前側中央寄りソナーの向きとのなす角度をディスプレイに表示する画像の1例を示す図である。It is a figure which shows an example of the image which displays on a display the angle which a vehicle front-back direction and the direction of the front side center side sonar show. 前側グランドライン平面と前側中央寄りソナーの向きとのなす角度をディスプレイに表示する画像の1例を示す図である。It is a figure which shows an example of the image which displays on the display the angle which the front side ground line plane and the direction of the front side center side sonar have. 車両前後方向と前側角部ソナーの向きとのなす角度をディスプレイに表示する画像の1例を示す図である。It is a figure which shows an example of the image which displays on the display the angle which the vehicle front-back direction and the direction of a front side corner | angular part sonar show. 前側グランドライン平面と前側角部ソナーの向きとのなす角度をディスプレイに表示する画像の1例を示す図である。It is a figure which shows an example of the image which displays the angle which the front side ground line plane and the direction of the front side corner | angular part sonar display on a display. 前側中央寄りソナーの検知エリア形状の下端と輪止め模擬体上面との間の距離を表示する画像の1例を示す図である。It is a figure which shows an example of the image which displays the distance between the lower end of the detection area shape of front side center side sonar, and a ring stop simulated body upper surface. 前側角部ソナーの検知エリア形状の下端と輪止め模擬体上面との間の距離を表示する画像の1例を示す図である。It is a figure which shows an example of the image which displays the distance between the lower end of the detection area shape of a front side corner | angular part sonar, and a ring stop simulated body upper surface. 車両前側の複数のソナーに対応する検知エリア形状と、輪止め模擬体との関係を表す画像の1例を示す図である。It is a figure which shows an example of the image showing the relationship between the detection area shape corresponding to the some sonar of a vehicle front, and a wheel stop simulated body. 図21の構成要素を上方から見た画像の1例を示す図である。It is a figure which shows an example of the image which looked at the component of FIG. 21 from upper direction.

符号の説明Explanation of symbols

10 障害物検知センサ搭載シミュレーション装置、12 処理部、14 入力部、16 ディスプレイ、18 記憶部、20 データ取得手段、22 グランドライン平面作成手段、24 センサ配置手段、26 模擬物体配置手段、28 検知エリア配置手段、30 センサ配置情報計算手段、32 表示手段、34 三次元CADシステム、36 センサデータ取得手段、38 車体部品データ取得手段、40 模擬物体データ取得手段、42 表示条件データ取得手段、44 前側バンパー、46 前側中央寄りソナー、48 前側角部ソナー、50 後側バンパー、52 後側中央寄りソナー、54 後側角部ソナー、56,58 箱形部、60,62 検知エリア形状、68,70,72,74 閉曲線状ライン、76,78,80,82 近距離検知ライン、84 輪止め模擬体、86 前側グランドライン平面、88 後側グランドライン平面。   DESCRIPTION OF SYMBOLS 10 Obstacle detection sensor mounting simulation apparatus, 12 processing part, 14 input part, 16 display, 18 memory | storage part, 20 data acquisition means, 22 ground line plane preparation means, 24 sensor arrangement means, 26 simulated object arrangement means, 28 detection area Arrangement means, 30 Sensor arrangement information calculation means, 32 Display means, 34 Three-dimensional CAD system, 36 Sensor data acquisition means, 38 Vehicle body part data acquisition means, 40 Simulated object data acquisition means, 42 Display condition data acquisition means, 44 Front bumper 46, front center sonar, 48 front corner sonar, 50 rear bumper, 52 rear center sonar, 54 rear corner sonar, 56, 58 box, 60, 62 detection area shape, 68, 70, 72, 74 Closed curve line, 76, 78, 80, 82 Short distance Intellectual line, 84-wheel stop mimics, 86 front-side ground line plane, 88 rear-side ground line plane.

Claims (7)

車両に搭載される障害物検知センサの搭載位置の良否を判定するための障害物検知センサ搭載シミュレーション装置であって、
障害物検知センサの位置及び検知エリアを表すセンサデータを取得するセンサデータ取得手段と、
路面上に配置される物体と検知エリアとのユーザによる干渉防止検討のために、仮想三次元空間上に模擬的に配置する路面上模擬物体の形状及び寸法を表す模擬物体データを取得する模擬物体データ取得手段と、
仮想三次元空間上に、障害物検知センサに対する位置及び方向が予め設定された関係にあるように、路面上模擬物体を配置する模擬物体配置手段と、
仮想三次元空間上に検知エリアを表す検知エリア形状と路面上模擬物体とを配置した画像を出力部に表示させる表示手段とを備えることを特徴とする障害物検知センサ搭載シミュレーション装置。
An obstacle detection sensor mounting simulation device for determining whether the mounting position of an obstacle detection sensor mounted on a vehicle is good or bad,
Sensor data acquisition means for acquiring sensor data representing the position and detection area of the obstacle detection sensor;
Simulated object that obtains simulated object data representing the shape and dimensions of a simulated object on the road surface that is placed in a virtual three-dimensional space in order to investigate interference prevention between the object placed on the road surface and the detection area by the user Data acquisition means;
Simulated object placement means for placing a simulated object on the road surface so that the position and direction with respect to the obstacle detection sensor are in a preset relationship on the virtual three-dimensional space;
An obstacle detection sensor-mounted simulation apparatus comprising: a display unit configured to display an image in which a detection area shape representing a detection area and a simulated object on a road surface are arranged in a virtual three-dimensional space on an output unit.
請求項1に記載の障害物検知センサ搭載シミュレーション装置において、
障害物検知センサを配置する車体部品の形状及び位置を表す車体部品データを取得する車体部品データ取得手段と、
センサ配置手段と、を備え、
センサデータ取得手段は、障害物検知センサの車両幅方向位置または車両前後方向に対する角度、高さ位置、及び検知エリアを表すセンサデータを取得し、
センサ配置手段は、障害物検知センサの車両幅方向位置または車両前後方向に対する角度、及び高さ位置と、車体部品の形状及び位置とに基づいて、車体部品に障害物検知センサを配置し、
模擬物体配置手段は、仮想三次元空間上に、障害物検知センサの位置の真下に対応する位置から、障害物検知センサの向きに対応する方向に向くように、路面上模擬物体を配置し、
表示手段は、仮想三次元空間上に、障害物検知センサに対応する検知エリア形状と、車体部品及び路面上模擬物体とを配置した画像を出力部に表示させることを特徴とする障害物検知センサ搭載シミュレーション装置。
In the obstacle detection sensor mounting simulation apparatus according to claim 1,
Body part data acquisition means for acquiring body part data representing the shape and position of the body part on which the obstacle detection sensor is disposed;
Sensor placement means,
The sensor data acquisition means acquires sensor data representing an angle, a height position, and a detection area with respect to the vehicle width direction position or the vehicle front-rear direction of the obstacle detection sensor,
The sensor arrangement means arranges the obstacle detection sensor on the vehicle body part based on the position and height position of the obstacle detection sensor in the vehicle width direction or the vehicle front-rear direction, and the shape and position of the vehicle body part,
The simulated object placement means arranges the simulated object on the road surface in the virtual three-dimensional space so as to face in the direction corresponding to the direction of the obstacle detection sensor from the position corresponding to the position immediately below the position of the obstacle detection sensor.
The display means displays on the output unit an image in which a detection area shape corresponding to the obstacle detection sensor and a vehicle body part and a simulated object on the road surface are arranged on the virtual three-dimensional space. On-board simulation device.
請求項1または請求項2に記載の障害物検知センサ搭載シミュレーション装置において、
センサデータ取得手段は、障害物検知センサの必要隙を有する必要隙形状を表す必要隙データを取得し、
表示手段は、仮想三次元空間上に、障害物検知センサの配置位置に対応する必要隙形状を配置した画像を出力部に表示させることを特徴とする障害物検知センサ搭載シミュレーション装置。
In the obstacle detection sensor mounting simulation apparatus according to claim 1 or 2,
The sensor data acquisition means acquires necessary gap data representing a necessary gap shape having a necessary gap of the obstacle detection sensor,
An obstacle detection sensor-mounted simulation apparatus, wherein the display means displays an image in which a necessary gap shape corresponding to an arrangement position of the obstacle detection sensor is arranged on the virtual three-dimensional space on the output unit.
請求項2または請求項3に記載の障害物検知センサ搭載シミュレーション装置において、
センサデータ取得手段は、複数の障害物検知センサの車両幅方向位置または車両前後方向に対する角度、高さ位置、及び検知エリアを表すセンサデータを取得し、
センサ配置手段は、複数の障害物検知センサの車両幅方向位置または車両前後方向に対する角度、及び高さ位置と、車体部品の形状及び位置とに基づいて、車体部品に複数の障害物検知センサを配置し、
表示手段は、仮想三次元空間上に、複数の障害物検知センサに対応する検知エリア形状と、車体部品とを配置した画像を出力部に表示させることを特徴とする障害物検知センサ搭載シミュレーション装置。
In the obstacle detection sensor mounted simulation apparatus according to claim 2 or claim 3,
The sensor data acquisition means acquires sensor data representing an angle, a height position, and a detection area with respect to a vehicle width direction position or a vehicle longitudinal direction of a plurality of obstacle detection sensors,
The sensor placement means includes a plurality of obstacle detection sensors on the vehicle body part based on the angle and height position of the plurality of obstacle detection sensors with respect to the vehicle width direction position or the vehicle longitudinal direction, and the shape and position of the vehicle body part. Place and
The display means displays an image in which detection area shapes corresponding to a plurality of obstacle detection sensors and body parts are arranged in a virtual three-dimensional space on an output unit, and the obstacle detection sensor-mounted simulation device .
請求項1から請求項4のいずれか1に記載の障害物検知センサ搭載シミュレーション装置において、
出力部に画像を表示させる際の視点位置及び視線方向を含む表示条件を表す表示条件データを取得する表示条件データ取得手段を備え、
表示手段は、表示条件に基づいて、三次元データで規定された形状を、二次元の投影面に投影して出力部に表示させることを特徴とする障害物検知センサ搭載シミュレーション装置。
In the obstacle detection sensor mounting simulation apparatus according to any one of claims 1 to 4,
Comprising display condition data acquisition means for acquiring display condition data representing a display condition including a viewpoint position and a line-of-sight direction when displaying an image on the output unit;
An obstacle detection sensor-equipped simulation apparatus, wherein the display means projects a shape defined by the three-dimensional data on a two-dimensional projection surface based on display conditions and displays the shape on an output unit.
車両に搭載される障害物検知センサの搭載位置の良否を判定するための障害物検知センサ搭載シミュレーション方法であって、
コンピュータに、
障害物検知センサの位置及び検知エリアを表す障害物検知センサデータを取得するセンサデータ取得ステップと、
路面上に配置される物体と検知エリアとのユーザによる干渉防止検討のために、仮想三次元空間上に模擬的に配置する路面上模擬物体の形状及び寸法を表す模擬物体データを取得する模擬物体データ取得ステップと、
仮想三次元空間上に、障害物検知センサに対する位置及び方向が予め設定された関係にあるように、路面上模擬物体を配置する模擬物体配置ステップと、
仮想三次元空間上に検知エリアを表す検知エリア形状と路面上模擬物体とを配置した画像を出力部に表示させる表示ステップと、を実行させることを特徴とする障害物検知センサ搭載シミュレーション方法。
An obstacle detection sensor mounting simulation method for determining whether the mounting position of an obstacle detection sensor mounted on a vehicle is good or bad,
On the computer,
A sensor data acquisition step for acquiring obstacle detection sensor data representing the position and detection area of the obstacle detection sensor;
Simulated object that obtains simulated object data representing the shape and dimensions of a simulated object on the road surface that is placed in a virtual three-dimensional space in order to investigate interference prevention between the object placed on the road surface and the detection area by the user A data acquisition step;
On the virtual three-dimensional space, a simulated object placement step for placing a simulated object on the road surface so that the position and direction with respect to the obstacle detection sensor are in a preset relationship;
An obstacle detection sensor-mounted simulation method characterized by causing an output unit to display an image in which a detection area shape representing a detection area in a virtual three-dimensional space and a simulated object on a road surface are arranged.
車両に搭載される障害物検知センサの搭載位置の良否を判定するための障害物検知センサ搭載シミュレーションプログラムであって、
障害物検知センサの位置及び検知エリアを表すセンサデータを取得するセンサデータ取得手順と、
路面上に配置される物体と検知エリアとのユーザによる干渉防止検討のために、仮想三次元空間上に模擬的に配置する路面上模擬物体の形状及び寸法を表す模擬物体データを取得する模擬物体データ取得手順と、
仮想三次元空間上に、障害物検知センサに対する位置及び方向が予め設定された関係にあるように、路面上模擬物体を配置する模擬物体配置手順と、
仮想三次元空間上に検知エリアを表す検知エリア形状と路面上模擬物体とを配置した画像を出力部に表示させる表示手順と、をコンピュータにおいて実行可能とすることを特徴とする障害物検知センサ搭載シミュレーションプログラム。
An obstacle detection sensor mounting simulation program for determining whether the mounting position of an obstacle detection sensor mounted on a vehicle is good or bad,
A sensor data acquisition procedure for acquiring sensor data representing the position and detection area of the obstacle detection sensor;
Simulated object that obtains simulated object data representing the shape and dimensions of a simulated object on the road surface that is placed in a virtual three-dimensional space in order to investigate interference prevention between the object placed on the road surface and the detection area by the user Data acquisition procedure;
On the virtual three-dimensional space, a simulated object placement procedure for placing the simulated object on the road surface so that the position and direction with respect to the obstacle detection sensor have a preset relationship;
Equipped with an obstacle detection sensor capable of executing on a computer a display procedure for displaying an image in which a detection area shape representing a detection area in a virtual three-dimensional space and a simulated object on a road surface are arranged on an output unit Simulation program.
JP2007260143A 2007-10-03 2007-10-03 Obstacle detection sensor mounting simulation apparatus, obstacle detection sensor mounting simulation method, and obstacle detection sensor mounting simulation program Withdrawn JP2009092383A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007260143A JP2009092383A (en) 2007-10-03 2007-10-03 Obstacle detection sensor mounting simulation apparatus, obstacle detection sensor mounting simulation method, and obstacle detection sensor mounting simulation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007260143A JP2009092383A (en) 2007-10-03 2007-10-03 Obstacle detection sensor mounting simulation apparatus, obstacle detection sensor mounting simulation method, and obstacle detection sensor mounting simulation program

Publications (1)

Publication Number Publication Date
JP2009092383A true JP2009092383A (en) 2009-04-30

Family

ID=40664524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007260143A Withdrawn JP2009092383A (en) 2007-10-03 2007-10-03 Obstacle detection sensor mounting simulation apparatus, obstacle detection sensor mounting simulation method, and obstacle detection sensor mounting simulation program

Country Status (1)

Country Link
JP (1) JP2009092383A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015145803A1 (en) * 2014-03-26 2015-10-01 シャープ株式会社 Mobile body obstruction detection method, system for same, mobile body, structural member and bumper
KR20150135505A (en) * 2013-09-11 2015-12-02 도요타지도샤가부시키가이샤 Three-dimensional object recognition device, three-dimensional object recognition method, and mobile body
US9740944B2 (en) 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
JP2021056707A (en) * 2019-09-30 2021-04-08 パナソニックIpマネジメント株式会社 Vehicle simulation system, vehicle simulation method and computer program
WO2022262909A1 (en) * 2021-06-14 2022-12-22 Continental Autonomous Mobility Germany GmbH Method for determining the position and orientation of ultrasonic sensors on a vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150135505A (en) * 2013-09-11 2015-12-02 도요타지도샤가부시키가이샤 Three-dimensional object recognition device, three-dimensional object recognition method, and mobile body
KR101971317B1 (en) * 2013-09-11 2019-04-22 도요타지도샤가부시키가이샤 Three-dimensional object recognition device, three-dimensional object recognition method, and mobile body
WO2015145803A1 (en) * 2014-03-26 2015-10-01 シャープ株式会社 Mobile body obstruction detection method, system for same, mobile body, structural member and bumper
US9740944B2 (en) 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
JP2021056707A (en) * 2019-09-30 2021-04-08 パナソニックIpマネジメント株式会社 Vehicle simulation system, vehicle simulation method and computer program
WO2022262909A1 (en) * 2021-06-14 2022-12-22 Continental Autonomous Mobility Germany GmbH Method for determining the position and orientation of ultrasonic sensors on a vehicle

Similar Documents

Publication Publication Date Title
CN100456828C (en) Vehicle surrounding environment display device
CN106797450B (en) Vehicle body external moving object detection device
CN103827942B (en) Surrounding monitoring system for work vehicle and work vehicle
JP5857900B2 (en) Parking assistance device
JP5434285B2 (en) Obstacle detection device
US20140204215A1 (en) Image processing system using unified images
JP2009092383A (en) Obstacle detection sensor mounting simulation apparatus, obstacle detection sensor mounting simulation method, and obstacle detection sensor mounting simulation program
JP5938334B2 (en) Parking assistance device
CN106922195A (en) Method, driver assistance system and motor vehicles for generating the surrounding environment map of the surrounding area of motor vehicles
JPWO2017122294A1 (en) Ambient monitoring device, image processing method, and image processing program
US20180114436A1 (en) Lidar and vision vehicle sensing
US11607999B2 (en) Method and apparatus for invisible vehicle underbody view
JP6587626B2 (en) Method for stitching a plurality of individual images taken at various positions by a camera system into one common image
CN103781696A (en) Driver assistance system for assisting a driver in collision-relevant situations
KR102127252B1 (en) Device for securing a driving path
CN114074682A (en) Method and vehicle for processing self-return
JP5511431B2 (en) Parking assistance device
JP4795253B2 (en) Driving support device, driving support method, and driving support program
CN111580066A (en) Steering angle detection method, device and system
WO2012144076A1 (en) Vehicle periphery monitoring device and display method for vehicle periphery monitoring information
JP2012234373A (en) Driving support device
JP3391086B2 (en) Peripheral object detection device
KR101734726B1 (en) Method of tracking parking space and apparatus performing the same
KR20230114306A (en) Method and system for testing control devices in vehicles
US20120249342A1 (en) Machine display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100310

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110322