[go: up one dir, main page]

JPH06174839A - Method for generating image of three-dimensional object - Google Patents

Method for generating image of three-dimensional object

Info

Publication number
JPH06174839A
JPH06174839A JP4351457A JP35145792A JPH06174839A JP H06174839 A JPH06174839 A JP H06174839A JP 4351457 A JP4351457 A JP 4351457A JP 35145792 A JP35145792 A JP 35145792A JP H06174839 A JPH06174839 A JP H06174839A
Authority
JP
Japan
Prior art keywords
image
ultrasonic
plane
information
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4351457A
Other languages
Japanese (ja)
Other versions
JP3151472B2 (en
Inventor
Nobuyuki Yoshizawa
信幸 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP35145792A priority Critical patent/JP3151472B2/en
Publication of JPH06174839A publication Critical patent/JPH06174839A/en
Application granted granted Critical
Publication of JP3151472B2 publication Critical patent/JP3151472B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

(57)【要約】 【目的】 縦方向および横方向とも分解能に優れた3次
元物体の認識を可能とする。 【構成】 平面状に配列された超音波センサ111 〜1
1nからなるセンサアレイ11とテレビカメラ12によ
って構成され、これらのセンサに対向した物体の表面ま
での距離情報の平面分布を超音波センサによって測定す
る。そして、この距離情報に基づいて物体の第1立体像
を抽出し、かつこの第1立体像の位置情報に基づいてテ
レビカメラ12によるビデオ画像から物体の平面像を抽
出し、この抽出した平面像と第1立体像を合成して精細
な第2立体像を生成する。これにより、横方向分解能に
おいて劣る超音波像をビデオ画像で補完することが可能
になる。
(57) [Abstract] [Purpose] It enables the recognition of three-dimensional objects with excellent resolution both vertically and horizontally. [Structure] Ultrasonic sensors 11 1 to 1 1 arranged in a plane
The ultrasonic sensor measures the planar distribution of the distance information to the surface of the object facing these sensors, which is composed of the sensor array 11 of 1n and the television camera 12. Then, a first stereoscopic image of the object is extracted based on the distance information, and a plane image of the object is extracted from the video image by the television camera 12 based on the position information of the first stereoscopic image. And a first stereoscopic image are combined to generate a fine second stereoscopic image. This makes it possible to supplement an ultrasonic image having poor lateral resolution with a video image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は物体の認識方法に関し、
特に距離センサとビデオカメラを併用して分解能を向上
させた3次元物体像の生成方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition method,
Particularly, the present invention relates to a method for generating a three-dimensional object image with improved resolution by using a distance sensor and a video camera together.

【0002】[0002]

【従来の技術】本出願人は、3次元物体の認識のため2
次元状に配列した超音波センサとニューラルネットワー
クを用いる方法を特願平3-246558号にて既に提案してい
る。この方法によって、明るさが変化したり影が生じる
屋外環境においても、前後左右上下の位置が自由な3次
元物体を認識することができる。この方法では、図17
に示すように、距離センサとしての複数個の超音波セン
サ111 〜11nを2次元状に配列して超音波センサア
レイ11を構成し、これらセンサによる超音波撮像法を
用いて対象物である物体10の表面および背景までの距
離分布を求め、その距離情報に基づいて背景から物体形
状を抽出し、かつ物体の奥行き情報(測定データ)19
を誤差逆伝播法を用いた層型ニューラルネットワーク1
3に入力して3次元物体を認識するものとなっている。
2. Description of the Related Art The applicant of the present invention has two types for recognizing a three-dimensional object.
A method using a three-dimensionally arranged ultrasonic sensor and a neural network has already been proposed in Japanese Patent Application No. 3-246558. By this method, it is possible to recognize a three-dimensional object whose front, rear, left, right, and top positions are free even in an outdoor environment in which brightness changes and shadows occur. In this method, as shown in FIG.
As shown in FIG. 3, a plurality of ultrasonic sensors 11 1 to 11n as distance sensors are two-dimensionally arranged to form an ultrasonic sensor array 11, and an ultrasonic imaging method using these sensors is used as an object. The distance distribution to the surface and the background of the object 10 is obtained, the object shape is extracted from the background based on the distance information, and the depth information (measurement data) 19 of the object is obtained.
Layered neural network using error backpropagation 1
3 is input to recognize a three-dimensional object.

【0003】なお、図17中符号aは各超音波センサ1
1 〜11nに対向する物体10の表面までの距離情報
を、符号bは物体10の置かれた基準面までの距離を示
し、物体10の置かれた基準面までの距離bとその物体
表面までの距離aの差からその物体の奥行き情報を得て
いる。また、前記ニューラルネットワーク13は入力層
14,中間層15および出力層16から構成されてい
る。この方法は、ニューラルネットワークを用いている
ので、様々な物体毎に異なる形状の特徴量を抽出する煩
雑な手続きが不要になるという利点もある。
Reference numeral a in FIG. 17 indicates each ultrasonic sensor 1.
1 1 ~11N distance information to the surface of the opposing object 10, the reference numeral b represents the distance to the reference surface which is placed the object 10, the distance b between the object surface to the reference plane which is placed the object 10 The depth information of the object is obtained from the difference in the distance a up to. The neural network 13 is composed of an input layer 14, an intermediate layer 15 and an output layer 16. Since this method uses a neural network, there is also an advantage that a complicated procedure for extracting feature amounts having different shapes for various objects is unnecessary.

【0004】[0004]

【発明が解決しようとする課題】しかし、このような3
次元物体像の認識方法では、物体の3次元情報測定に超
音波センサを用いたパルス遅延時間法を用いているた
め、奥行き方向は波長程度の優れた分解能を得ることが
できるが、横方向の分解能が悪いため、小さな物体の認
識が困難という欠点があった。本発明の目的はこの問題
点を解決するため、縦方向および横方向とも分解能に優
れた3次元物体の認識を可能とする方法を提供すること
にある。
However, such a problem
In the method of recognizing a three-dimensional object image, a pulse delay time method using an ultrasonic sensor is used to measure three-dimensional information of the object, and therefore, an excellent resolution of about wavelength can be obtained in the depth direction, but Since the resolution is poor, there is a drawback that it is difficult to recognize a small object. An object of the present invention is to provide a method for solving this problem, which enables recognition of a three-dimensional object having excellent resolution in both the vertical and horizontal directions.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め本発明は、平面状に配列された複数個の距離センサを
物体に対向して設けるとともに前記物体を撮像するビデ
オカメラを設け、物体の表面までの距離情報の平面分布
を前記距離センサによって測定し、この距離情報に基づ
いて物体の第1立体像を抽出し、かつこの第1立体像の
位置情報に基づいて前記ビデオカメラによるビデオ画像
から物体の平面像を抽出し、この抽出した平面像と前記
第1立体像を合成して精細な第2立体像を生成するよう
にしたものである。
To achieve the above object, the present invention provides a plurality of distance sensors arranged in a plane so as to face an object and a video camera for picking up the image of the object. The plane distribution of the distance information to the surface of the object is measured by the distance sensor, the first stereoscopic image of the object is extracted based on the distance information, and the video by the video camera based on the position information of the first stereoscopic image. A plane image of an object is extracted from an image, and the extracted plane image and the first stereoscopic image are combined to generate a fine second stereoscopic image.

【0006】[0006]

【作用】本発明においては、距離センサとビデオカメラ
を併用して、この距離センサによる距離情報に基づいて
ビデオ画像から物体像を抽出することにより、横方向分
解能において劣る立体像をビデオ画像で補完することが
可能になる。
According to the present invention, a distance sensor and a video camera are used together, and an object image is extracted from the video image based on the distance information from the distance sensor, so that a stereoscopic image having poor lateral resolution is complemented by the video image. It becomes possible to do.

【0007】[0007]

【実施例】次に本発明の実施例を説明するまえに、本発
明の概要を説明する。3次元物体を認識するには、形状
の計測手段および、計測した情報に基づく形状の認識手
段が必要である。本発明でも物体認識を最終目的とする
が、認識精度を向上するには物体形状の測定精度を向上
する必要がある。このため、従来の超音波センサのみを
用いた場合に比べて精細な3次元物体像の生成が可能な
形状計測手段を考えたものであり、それぞれの手段につ
いて概要を説明する。
EXAMPLES Before describing the examples of the present invention, the outline of the present invention will be described. In order to recognize a three-dimensional object, a shape measuring unit and a shape recognizing unit based on the measured information are required. In the present invention, the object recognition is the final object, but in order to improve the recognition accuracy, it is necessary to improve the measurement accuracy of the object shape. Therefore, a shape measuring means capable of generating a fine three-dimensional object image as compared with the case of using only the conventional ultrasonic sensor is considered, and the outline of each means will be described.

【0008】「形状の認識手段」:認識手段としては上
記特願平3-246558号と同じ誤差逆伝播法を用いた層状つ
まりパーセプトロン型のニューラルネットワークを用い
る。図2にその構成を示す。このニューラルネットワー
ク13は、上述したように、入力層14,中間層15お
よび出力層16で構成されている。中間層15は必ずし
も1層でなくてもよい。このニューラルネットワーク1
3では、入力層14に入力される信号に対して出力層1
6が一定の信号を出力するように学習させることができ
る。一度学習を行えば、学習した入力信号とほぼ同様の
入力信号に対し、学習した信号を出力する。従って、形
状情報から特徴量を抽出する煩雑な手続きが不要であ
る。
"Shape recognition means": As a recognition means, a layered or perceptron type neural network using the same back propagation method as in Japanese Patent Application No. 3-246558 is used. The structure is shown in FIG. As described above, the neural network 13 is composed of the input layer 14, the intermediate layer 15, and the output layer 16. The intermediate layer 15 does not necessarily have to be one layer. This neural network 1
3, the signal input to the input layer 14 corresponds to the output layer 1
6 can be trained to output a constant signal. Once learning is performed, the learned signal is output for an input signal that is substantially the same as the learned input signal. Therefore, a complicated procedure for extracting the feature amount from the shape information is unnecessary.

【0009】「形状の計測手段」:計測手段において超
音波を物体表面に照射し、その物体表面からの反射に要
する時間を測定することによって、物体表面までの距離
を直接測定することができる。したがって、複数個の超
音波センサ111 〜11nを図3に示すように2次元配
列して超音波センサアレイ11を構成することにより、
各センサ111 〜11nに対向する物体10の表面まで
の距離情報を得ることができる。また、物体10の置か
れた基準面までの距離bと物体表面までの距離aの差か
ら、物体の奥行き情報を得ることができる(図17参
照)。このパルス遅延時間法では奥行き方向に対して距
離分解能の高い測定を行うことができる。
"Shape measuring means": The distance to the object surface can be directly measured by irradiating the surface of the object with ultrasonic waves and measuring the time required for reflection from the object surface. Therefore, by arranging a plurality of ultrasonic sensors 11 1 to 11 n two-dimensionally as shown in FIG. 3 to form the ultrasonic sensor array 11,
It is possible to obtain the distance information to the surface of the object 10 facing each of the sensors 11 1 to 11 n. Further, the depth information of the object can be obtained from the difference between the distance b to the reference plane on which the object 10 is placed and the distance a to the surface of the object (see FIG. 17). With this pulse delay time method, measurement with high distance resolution can be performed in the depth direction.

【0010】しかし、この方法では、用いる超音波セン
サの指向角が±5度以下でも横方向分解能はセンサ直径
程度が限界である。この欠点を補うため、超音波センサ
アレイ11を含むセンサ装置17内にCCDカメラなど
のビデオカメラつまり小型のテレビカメラ12を設け
る。このテレビカメラ12は横方向の分解能は非常に高
い。しかし、テレビカメラ単独では距離情報を得ること
はできない。しかも、明るさが変化したり影が生じる環
境、例えば屋外では明度の違いに基づいた背景から形状
情報の抽出も困難である。しかし、上記超音波法で抽出
した形状情報を用いれば、テレビカメラ画像単独では困
難な形状抽出を可能にすることができる。このメカニズ
ムについては、後に詳述する。物体のビデオ画像を抽出
することができれば、超音波像に比べてはるかに横方向
分解能に優れた形状情報を得ることができる。従って、
この形状情報と、先に求めた奥行き方向分解能に優れた
距離情報を併用することにより、高精度な3次元物体像
を得ることができる。
However, in this method, even if the ultrasonic sensor used has a directivity angle of ± 5 degrees or less, the lateral resolution is limited to about the sensor diameter. To compensate for this drawback, a video camera such as a CCD camera, that is, a small television camera 12 is provided in the sensor device 17 including the ultrasonic sensor array 11. The television camera 12 has a very high lateral resolution. However, the distance information cannot be obtained by the TV camera alone. Moreover, it is difficult to extract shape information from the background based on the difference in brightness in an environment where brightness changes or shadows occur, for example, outdoors. However, if the shape information extracted by the ultrasonic method is used, it is possible to extract the shape which is difficult to obtain by the television camera image alone. This mechanism will be described in detail later. If the video image of the object can be extracted, it is possible to obtain the shape information having much better lateral resolution than the ultrasonic image. Therefore,
By using this shape information together with the previously obtained distance information having excellent resolution in the depth direction, a highly accurate three-dimensional object image can be obtained.

【0011】次に本発明の実施例について説明する。図
3に、本実施例による超音波センサアレイとテレビカメ
ラの構成を示す。これは、周波数200kHz の送受信
兼用の超音波センサ((株)ムラタ製作所製MA200
A1)111 〜11nを30mm間隔で縦横に8個ずつ
(図中では簡略的に6個ずつを示している。)計64個
配列し超音波センサアレイ11を形成して平板形センサ
装置17を構成する。そして、このセンサアレイ11の
中央に小型テレビカメラ12として例えばCCDカメラ
を固定する。なお、超音波センサ111 〜11nとテレ
ビカメラ12は相対位置が変化しない限り、位置関係は
自由である。200kHz の指向性の高い超音波センサ
111 〜11nを用いた場合でも、センサの外径に等し
い10mm程度が超音波センサ単独の横方向分解能の限
界である。図3中符号18は物体10を照明するための
投光器であり、記号X,Y及びZは3次元の各々の軸を
表わす。
Next, examples of the present invention will be described. FIG. 3 shows the configurations of the ultrasonic sensor array and the television camera according to this embodiment. This is an ultrasonic sensor (MA200 manufactured by Murata Manufacturing Co., Ltd.) for both transmission and reception with a frequency of 200 kHz.
A1) A flat sensor device 17 is formed by arranging a total of 64 pieces of 11 1 to 11 n vertically and horizontally at 30 mm intervals (6 pieces are simply shown in the figure) to form an ultrasonic sensor array 11. Make up. Then, for example, a CCD camera as a small television camera 12 is fixed to the center of the sensor array 11. Incidentally, the ultrasonic sensor 11 1 ~11n and the television camera 12 as long as the relative positions do not change, the positional relationship is free. Even with highly directional ultrasonic sensor 11 1 ~11n of 200kHz, 10 mm approximately equal to the outer diameter of the sensor is the limit of the lateral resolution of the ultrasonic sensor alone. Reference numeral 18 in FIG. 3 is a light projector for illuminating the object 10, and symbols X, Y and Z represent respective three-dimensional axes.

【0012】図1に、本実施例による形状測定系のブロ
ック図を示す。この実施例は、超音波センサアレイ11
を構成する64個の送受信兼用の超音波センサ111
11nをパソコン(パーソナルコンピュータ)30の指
令に基づき任意に選定して、それに対応したスイッチ部
21の各スイッチ211 〜21nで切り替える。そし
て、選択された超音波センサうちその送信センサから同
期発振回路22の同期信号(周波数200kHz )に伴
う3波長分の超音波パルスを対象物に送信するととも
に、その信号に同期してカウンタ27を駆動する。さら
に受信した反射波のパルスはアンプ24で増幅し、この
パルスをカウンタ27のゲート26に入力してそのカウ
ンタ27を停止する。
FIG. 1 shows a block diagram of a shape measuring system according to this embodiment. In this embodiment, the ultrasonic sensor array 11 is used.
64 ultrasonic sensors 11 1 for both transmission and reception that constitute the
11n is arbitrarily selected based on a command from the personal computer (personal computer) 30, and is switched by the switches 21 1 to 21n of the switch unit 21 corresponding to the 11n. Then, among the selected ultrasonic sensors, the ultrasonic sensor for three wavelengths accompanying the synchronous signal (frequency 200 kHz) of the synchronous oscillation circuit 22 is transmitted from the transmission sensor to the object, and the counter 27 is synchronized with the signal. To drive. Further, the pulse of the received reflected wave is amplified by the amplifier 24, and this pulse is input to the gate 26 of the counter 27 to stop the counter 27.

【0013】これにより、カウンタ27はその間に水晶
発振回路25からゲート26を通して送出されるクロッ
クパルスをカウントし、そのカウント値をインターフェ
ース29を介してパソコン30に出力すると共に、この
カウント値に所定の比例定数を乗ずることによって対象
物までの距離を測定し、その距離情報に基づき対象物の
奥行き情報を得ることができる。この場合、かかる構成
では単一の距離測定回路を用いて各超音波センサ111
〜11nを切り替えている。また、超音波センサは全て
が送受信兼用であり、発信したセンサが反射波を受信す
るだけでなく、隣のセンサが発信した信号も受信するこ
とによって、8×8のセンサで15×15の点の測定が
可能である。これは、同一出願人に係る特願平2-407217
号で先願した方法を用いて達成される。
As a result, the counter 27 counts the clock pulses sent from the crystal oscillation circuit 25 through the gate 26 during that period, outputs the count value to the personal computer 30 via the interface 29, and at the same time, the count value is predetermined. The distance to the object can be measured by multiplying by the proportional constant, and the depth information of the object can be obtained based on the distance information. In this case, in such a configuration, each ultrasonic sensor 11 1 is used by using a single distance measuring circuit.
~ 11n is switched. In addition, all the ultrasonic sensors are used for both transmission and reception, and not only the transmitted sensor receives the reflected wave but also the signal transmitted by the adjacent sensor, so that the 8 × 8 sensor has 15 × 15 points. Can be measured. This is Japanese Patent Application No. 2-407217 relating to the same applicant.
This is accomplished using the method previously filed in the issue.

【0014】また、テレビカメラ画像はそれに用いるC
CDカメラ12に依存するが、例えば縦512、横48
5画素の8ビットつまり256階調の明るさ情報からな
る。そして、この情報はA/D変換器31でデジタル情
報に変換されたうえ、パソコン30に出力することによ
り、後述する超音波情報に基づいてテレビカメラ画像か
ら3次元物体を抽出するものとなっている。図1中符号
23は送信用のパワーアンプ、28はスイッチ部21の
各スイッチ211 〜21nをオン,オフ制御するコント
ロールロジックであり、32はCCDカメラ12の絞り
をパソコン30からの指令により制御するための絞りコ
ントローラである。
The television camera image is C used for it.
Although it depends on the CD camera 12, for example, a vertical 512, a horizontal 48
It is composed of 8 bits of 5 pixels, that is, brightness information of 256 gradations. Then, this information is converted into digital information by the A / D converter 31 and then output to the personal computer 30 to extract a three-dimensional object from the television camera image based on ultrasonic information described later. There is. In FIG. 1, reference numeral 23 is a power amplifier for transmission, 28 is a control logic for controlling ON / OFF of each of the switches 21 1 to 21 n of the switch unit 21, 32 is a control of the diaphragm of the CCD camera 12 by a command from the personal computer 30. It is an aperture controller for doing.

【0015】ここで、図4に直径と高さが6cmの円柱
の超音波像41の一例を示す。実験は円柱を机の上に静
置し、机の上方65cmに下向きに図3のセンサ装置1
7を固定して、その超音波センサアレイ11にて撮影し
た。机上の測定エリア42は一辺21cmの正方形であ
る。机までの距離と立方体表面までの距離を差し引くこ
とによって、奥行き情報の水平分布を得ることができ
る。奥行き方向に対しては、2mmという非常に優れた
分解能を有しているのが本実施例方法の特長でもある。
また、距離情報もしくは奥行き情報を用いることによっ
て、場所や大きさ,形状が不明な形状情報を背景から抽
出することができるのも本実施例方法の大きな特長であ
る。
Here, FIG. 4 shows an example of an ultrasonic image 41 of a cylinder having a diameter and a height of 6 cm. In the experiment, the cylinder was left standing on the desk, and the sensor device 1 of FIG.
7 was fixed and the ultrasonic sensor array 11 photographed. The measurement area 42 on the desk is a square with a side of 21 cm. By subtracting the distance to the desk and the distance to the surface of the cube, the horizontal distribution of depth information can be obtained. It is also a feature of the method of this embodiment that it has a very excellent resolution of 2 mm in the depth direction.
Further, it is also a great feature of the method of this embodiment that shape information whose location, size and shape are unknown can be extracted from the background by using the distance information or the depth information.

【0016】図5(a)に超音波による平面像を、図5(b)
にテレビカメラによる平面像をそれぞれ示す。図5(a)
に超音波の画素15×15に対応する測定領域52を実
線で示す。テレビカメラの画素は非常に細かいので、図
5(b) では画素の表示は省略する。横方向分解能におい
てテレビカメラが優っているのは一目瞭然である。図5
中符号10は物体を示し、51はその物体の重心、53
はテレビカメラ測定領域を、54は物体周囲のエリアを
それぞれ示している。以下、図6を用いて超音波画像に
基づいてテレビカメラ画像から物体を抽出する手順を説
明する。
FIG. 5 (b) shows a plane image obtained by ultrasonic waves in FIG. 5 (a).
Figure 2 shows the two-dimensional images taken by the TV camera. Figure 5 (a)
The measurement area 52 corresponding to the ultrasonic pixel 15 × 15 is shown by a solid line. Since the pixels of the TV camera are very small, the pixel display is omitted in FIG. 5 (b). It is obvious that TV cameras are superior in lateral resolution. Figure 5
Medium code 10 indicates an object, 51 is the center of gravity of the object, 53
Indicates a television camera measurement area, and 54 indicates an area around the object. Hereinafter, the procedure for extracting an object from a television camera image based on an ultrasonic image will be described with reference to FIG.

【0017】まず、上記超音波センサアレイを用いてそ
れに対向した物体の表面までの距離情報を測定し、超音
波像を測定する(ステップ100)。この距離情報は上
下左右に対応した2次元配列で与えられる。そして、こ
の距離情報は孤立処理によってノイズが除去された後
(同101)、背景と物体表面との距離の差を各要素ご
とに算出し、これを新たに2次元配列とする(同10
2)。これは物体の奥行き情報を示す配列であり、背景
部分の要素は零とするので、非零の要素の平面分布を表
示することによって、物体の投影形状を得ることができ
る。この投影形状から物体の重心を求める(同10
3)。
First, the ultrasonic sensor array is used to measure the distance information to the surface of the object facing the ultrasonic sensor array to measure an ultrasonic image (step 100). This distance information is given as a two-dimensional array corresponding to the top, bottom, left and right. After the distance information is subjected to noise removal by isolation processing (101), the distance difference between the background and the object surface is calculated for each element, and this is newly made into a two-dimensional array (10).
2). This is an array indicating the depth information of the object, and the elements in the background portion are zero, so that the projected shape of the object can be obtained by displaying the plane distribution of the non-zero elements. The center of gravity of the object is obtained from this projected shape (see 10
3).

【0018】この場合、テレビカメラ画像と超音波セン
サの相対位置は不変なので、図5(a)と同図(b)の両画像
の画素は一対一に対応する。この対応関係から、図5の
(a)の物体位置に対応する同図(b) の画素を指定できる
(同104)。そのため、超音波像に基づいてテレビカ
メラ画像中の物体に対応する点の明度情報を算出するこ
とにより、そのビデオ画像から物体像を抽出することが
できる(同105〜107)。これについて図7,図8
を用いて詳述する。
In this case, since the relative positions of the television camera image and the ultrasonic sensor do not change, the pixels of both images in FIGS. 5 (a) and 5 (b) have a one-to-one correspondence. From this correspondence,
The pixel shown in FIG. 9B corresponding to the object position shown in FIG. Therefore, the object image can be extracted from the video image by calculating the lightness information of the point corresponding to the object in the television camera image based on the ultrasonic image (at 105 to 107). About this,
Will be described in detail.

【0019】図7(a)およびび(b)は、モノクロテレビカ
メラで測定した円柱の物体10(同図(c) )と背景のX
軸上及びY軸上の明度をそれぞれ示すものであり、この
明度は物体上と背景で異なっている。但し、図7(c) 中
ハッチング部分は影10aを表わす。したがって、明度
の違いにより物体平面像の抽出が可能である。この自動
抽出方法として、本発明では超音波で求めた物体の位置
情報を利用する。図5にハッチングで示したように、超
音波情報に基づいてビデオ画像における物体周囲のエリ
ア54を推定することができる。
7 (a) and 7 (b) show a cylindrical object 10 (FIG. 7 (c)) measured by a monochrome television camera and a background X.
The lightness is shown on the axis and the lightness on the Y-axis, and the lightness is different on the object and on the background. However, the hatched portion in FIG. 7 (c) represents the shadow 10a. Therefore, the plane image of the object can be extracted by the difference in brightness. As this automatic extraction method, the present invention uses the position information of the object obtained by ultrasonic waves. As indicated by hatching in FIG. 5, the area 54 around the object in the video image can be estimated based on the ultrasonic information.

【0020】図8は上記ビデオカメラで測定した濃淡平
面像の明度ヒストグラムを示すものであり、このヒスト
グラムは物体像および背景により構成されている。ここ
で、エリア内は物体部分、エリア外は物体周囲に対応し
ている。したがって、物体の重心の明度を中心として、
ヒストグラムの分散範囲を抽出することによってビデオ
画像から物体像を抽出できる。また、エリア外の明度最
小値以下を抽出してもよい。求めた像は、超音波平面像
に比べて、はるかに精細である。なお、明度に基づく抽
出においては、平均値や分散,最大値や最小値を用いて
も良い。
FIG. 8 shows a brightness histogram of a grayscale plane image measured by the above video camera, and this histogram is composed of an object image and a background. Here, the inside of the area corresponds to the object portion and the outside of the area corresponds to the periphery of the object. Therefore, centering on the lightness of the center of gravity of the object,
The object image can be extracted from the video image by extracting the distribution range of the histogram. Moreover, you may extract below the minimum brightness value outside the area. The obtained image is far finer than the ultrasonic plane image. In the extraction based on the brightness, the average value, the variance, the maximum value or the minimum value may be used.

【0021】このように、超音波像に基づいてテレビカ
メラ画像中の物体に対応する点の明度情報を指定できる
ので、明るさが変化したり影が生じる屋外環境において
も、テレビカメラ画像から物体像を抽出することが可能
になる利点もある。以上のように本発明によるときは、
横方向分解能において劣る超音波像をテレビカメラ画像
で補完することが可能になった。その結果、求めた平面
像に図4の超音波像の平均高さを代入して、図9に示す
ように、実物どおりの精密な3次元物体像を合成するこ
とができる。
As described above, since the brightness information of the point corresponding to the object in the TV camera image can be specified based on the ultrasonic image, the object can be viewed from the TV camera image even in an outdoor environment where the brightness changes or a shadow occurs. There is also an advantage that the image can be extracted. As described above, according to the present invention,
It has become possible to supplement the ultrasonic image, which has poor lateral resolution, with a TV camera image. As a result, by substituting the average height of the ultrasonic image of FIG. 4 into the obtained plane image, as shown in FIG. 9, it is possible to synthesize a precise three-dimensional object image as it is.

【0022】次に、超音波像とビデオ平面像の合成にニ
ューラルネットワークを用いる例を示す。まず、濃淡平
面像を自動抽出したのと同様の手法で、微分平面像を自
動抽出する。微分には例えばラプラシアン型の4行4列
のフィルタを用いる。測定した225点の超音波情報と
3600画素のテレビカメラ情報の内、図10に示すご
とく超音波測定点の一点O(合成中心と呼ぶ)とその前
後左右(A,B,C,D)の計5箇所の超音波情報(距
離データ)61と、前記点Oの超音波情報に対応する1
6画素の微分画像62をニューラルネットワーク(N.
N)に入力し、学習規則に則って微分画像に対応する高
さを求める。そして、すべての超音波情報について、こ
の処理を繰り返すことにより、合成像を作成する。
Next, an example in which a neural network is used for synthesizing an ultrasonic image and a video plane image will be shown. First, the differential plane image is automatically extracted by the same method as that for automatically extracting the grayscale plane image. For the differentiation, for example, a Laplacian type filter with 4 rows and 4 columns is used. Of the measured ultrasonic information of 225 points and the television camera information of 3600 pixels, as shown in FIG. 10, one point O (called a synthesis center) of ultrasonic measurement points and its front, rear, left and right (A, B, C, D) are displayed. 1 corresponding to ultrasonic information (distance data) 61 at a total of 5 points and ultrasonic information at the point O
The 6-pixel differential image 62 is converted into a neural network (N.
N) to obtain the height corresponding to the differential image according to the learning rule. Then, a synthetic image is created by repeating this processing for all ultrasonic information.

【0023】ここで、ニューラルネットワークとしては
例えばシグモイド関数を用いた三層の層状神経回路を用
いる。超音波情報は物体の最大高さで規格化し、また微
分画像は「1」と「0」に二値化してニューラルネット
ワークに入力する。この微分画像からでは線分の左右ど
ちらが高いのか判別できない。このため、前後左右に隣
接した部位A〜Dにおける高低関係から微分画像中の高
低関係を推定する。
Here, as the neural network, for example, a three-layered layered neural circuit using a sigmoid function is used. The ultrasonic information is standardized by the maximum height of the object, and the differential image is binarized into "1" and "0" and input to the neural network. From this differential image, it is not possible to determine which is higher, the right or left of the line segment. Therefore, the height relationship in the differential image is estimated from the height relationship in the parts A to D adjacent to the front, rear, left, and right.

【0024】図11にその一例を示す。簡単のため平面
上に直方体71が置かれている場合を想定する。このよ
うに高さがステップエッジ状に変化している場合、エッ
ジは微分画像により検出される。エッジ部に対応する超
音波情報は、センサと物体との相対位置関係によって立
方体の高さもしくは背景の高さのいずれかとなる。しか
し、エッジに隣接した平面部の高さは超音波で正しく測
定されるので、図11のようにエッジ64の下側に物体
がある場合、エッジの下側の画素には要素Cの高さを、
また、線分の上側の画素には要素Aつまり背景の高さを
代入するように学習させる。但し、図11中符号63は
合成データを表わし、その画像中の高低関係はエッジ6
4を境にして下側の画素が「H(high);高い」、
上側の画素が「L(low);低い)」となる。この
時、超音波情報つまり距離データ61における合成中心
の画素Oと前後左右の画素A〜Dの高さは、図示するよ
うに「H;高い」,「L;低い」となる。
FIG. 11 shows an example thereof. For simplicity, it is assumed that the rectangular parallelepiped 71 is placed on a plane. When the height changes like a step edge in this way, the edge is detected by the differential image. The ultrasonic information corresponding to the edge portion is either the height of the cube or the height of the background depending on the relative positional relationship between the sensor and the object. However, since the height of the plane portion adjacent to the edge is accurately measured by ultrasonic waves, when there is an object below the edge 64 as shown in FIG. 11, the pixel below the edge has the height of the element C. To
Further, the learning is performed by substituting the element A, that is, the height of the background, into the pixels above the line segment. However, reference numeral 63 in FIG. 11 represents the composite data, and the height relationship in the image is edge 6
The lower pixel is “H (high); high” on the border of 4,
The upper pixel becomes “L (low); low)”. At this time, the height of the pixel O at the synthesis center and the pixels A to D on the front, rear, left, and right sides in the ultrasonic information, that is, the distance data 61 are “H; high” and “L;

【0025】なお、微分画像中の線分としては、いろい
ろな曲線が想定できるが、学習量低減のため直線に限定
して図12の(1) 〜(16)に示す16パターンについて学
習した。これによって、エッジ64が上下,左右もしく
は斜め45度の場合について、高低を推定できる。な
お、エッジが合成中心に含まれない場合には、合成中心
Oの高さを対応する16画素に代入した。
Although various curves can be assumed as the line segments in the differential image, the 16 patterns shown in (1) to (16) of FIG. 12 were learned by limiting them to straight lines in order to reduce the learning amount. As a result, the height can be estimated for the case where the edge 64 is vertically, horizontally, or diagonally 45 degrees. When the edge is not included in the synthesis center, the height of the synthesis center O is substituted into the corresponding 16 pixels.

【0026】次に、一例として高さ,幅,長さが各3,
6,18cmの木製直方体の中央に直径と高さが6cm
の木製円柱を乗せた試料を用いた場合の本発明の実施結
果を示す。表面は無塗装のため、木目が観察される。図
13にこの試料の超音波像を示す。直方体の概略は再現
されているが、円柱であることを認識するのは困難であ
る。
Next, as an example, the height, width, and length are 3, respectively.
6cm diameter and 6cm height in the center of 6,18cm wooden box
The execution result of this invention when the sample which put the wooden cylinder of is used is shown. Since the surface is unpainted, grain can be observed. FIG. 13 shows an ultrasonic image of this sample. Although the outline of the rectangular parallelepiped has been reproduced, it is difficult to recognize that it is a cylinder.

【0027】図14に、ニューラルネットワークへの入
力データとして用いる微分画像(太線部分)上に、超音
波平面像(実線,点線)を重ね合わせて示す。この図か
ら両者の対応関係がわかる。微分画像は照明の具合いに
応じて必ずしも連続した直線や曲線にはならない。図1
4中の超音波平面像では直方体部分を実線で、円柱部分
を点線で示した。全体として、超音波像は微分画像より
も一回り大きめに測定されている。これは超音波測定系
の特徴と思われる。超音波の特性として、物体の頂点部
分が欠けやすいが、本実施例では4頂点とも測定されて
いる。微分画像にはエッジ以外に所々にランダムな線分
が観察されるが、これは試料表面の木目に対応してい
る。人間は、試料表面の木目に無頓着であるが、カメラ
画像は木目も忠実に再現する。
FIG. 14 shows an ultrasonic plane image (solid line, dotted line) superimposed on the differential image (thick line portion) used as input data to the neural network. This figure shows the correspondence between the two. The differential image does not always become a continuous straight line or curve depending on the lighting condition. Figure 1
In the ultrasonic plane image in FIG. 4, the rectangular parallelepiped part is shown by a solid line and the cylindrical part is shown by a dotted line. As a whole, the ultrasonic image is measured slightly larger than the differential image. This seems to be a characteristic of the ultrasonic measurement system. As the characteristics of ultrasonic waves, the vertex portion of the object is apt to be chipped, but in the present embodiment, all four vertexes are measured. Random line segments are observed in places other than edges in the differential image, which correspond to the grain of the sample surface. Human beings are indifferent to the grain of the sample surface, but the camera image faithfully reproduces the grain as well.

【0028】図15にニューラルネットワークによる合
成像を示す。土台の直方体のみならず、上部の円柱部の
曲線も不十分ながら再現し、物体形状の特徴を良く示し
た合成像が得られた。ニューラルネットワークの学習則
を検討することによって、一層の改善が期待できる。木
目に反応したノイズも数ヶ所発生しているが、超音波像
と対応しないテクスチャー情報は、ほぼ完全に無視され
ている。これは、本発明の特長であり、微分画像と合成
像を比較することによって、逆に微分画像中のテクスチ
ャー情報を抽出できる。また、超音波像に比べて合成像
は分解能が向上しているので、この合成像を用いれば物
体の自動認識精度の向上が期待できる。
FIG. 15 shows a composite image by the neural network. Not only the rectangular parallelepiped of the base but also the curve of the upper cylindrical part was reproduced poorly, and a composite image showing the characteristics of the object shape was obtained. Further improvement can be expected by examining the learning rules of neural networks. There are several noises in response to the grain, but texture information that does not correspond to the ultrasonic image is almost completely ignored. This is a feature of the present invention, and the texture information in the differential image can be extracted by comparing the differential image and the composite image. Further, since the resolution of the synthetic image is improved as compared with the ultrasonic image, it is expected that the automatic recognition accuracy of the object is improved by using the synthetic image.

【0029】以上の方法で生成した精細な3次元物体像
をニューラルネットワークに入力することによって、前
後左右上下の位置が自由な物体を認識することができ
る。詳しい手法は上述の特願平3-246558号と同じなので
省略し、実験結果について述べる。
By inputting the fine three-dimensional object image generated by the above method to the neural network, it is possible to recognize an object whose front, rear, left, right and up and down positions are free. The detailed method is the same as in the above-mentioned Japanese Patent Application No. 3-246558, so the description is omitted and the experimental results are described.

【0030】図3の装置を用いて表1に示した4種の物
体をそれぞれ測定エリアの中央に静置して形状を測定
し、3層のニューラルネットワーク(N.N)で学習
後、認識実験を行った。ここで、ニューラルネットワー
クの要素数は入力層52×52、中間層8、出力層4で
ある。なお、入力層の要素数はテレビカメラの画素数に
対応して400×400程度まで増やことができる。要
素数が多いほど細かい形状まで認識できる。しかし、今
回の実験では計算機のメモリの制限により52×52と
して実験した。このため、大きな物体ではテレビカメラ
画像から抽出した物体像を52×52画素に圧縮した。
実験は4種の木製のサンプルを机上の測定エリア内の任
意の場所に任意の方向で設置し、認識率を測定した。3
次元物体の形状は観察位置や方向によって異なって見え
る。従って、その認識においては、物体の位置や方向に
依存しない認識アルゴリズムが必要である。
Using the apparatus of FIG. 3, the four types of objects shown in Table 1 are placed in the center of the measurement area respectively to measure the shape, and after learning by a three-layer neural network (NN), recognition is performed. An experiment was conducted. Here, the number of elements of the neural network is the input layer 52 × 52, the intermediate layer 8, and the output layer 4. The number of elements in the input layer can be increased to about 400 × 400 corresponding to the number of pixels of the television camera. The larger the number of elements, the finer the shape can be recognized. However, in this experiment, the size was 52 × 52 due to the limitation of the memory of the computer. Therefore, for a large object, the object image extracted from the TV camera image is compressed into 52 × 52 pixels.
In the experiment, four types of wooden samples were placed in any position in the measurement area on the desk in any direction, and the recognition rate was measured. Three
The shape of a three-dimensional object looks different depending on the observation position and direction. Therefore, the recognition requires a recognition algorithm that does not depend on the position or direction of the object.

【0031】[0031]

【表1】 [Table 1]

【0032】図16に、用いた物体認識のアルゴリズム
の一例を示す。抽出した形状情報つまり合成立体像をそ
の重心中心に画面中央に平行移動し(ステップ150,
151)、回転させる毎にニューラルネットワークに入
力し(同152,153)、最大出力で形状を判定した
(同154)。回転は10度毎に350度まで行った。
4種のサンプルについて各50回づつ認識率を求めた結
果、認識率100%を得ることができ、本発明の有効性
を確認することができた。超音波のみを用いた場合は、
上述した特願平3-246558号のように直径6cm程度の物
体の認識が限界であったが、テレビカメラを併用するこ
とによって直径15mmの物体の認識が可能になった。
FIG. 16 shows an example of the object recognition algorithm used. The extracted shape information, that is, the composite stereoscopic image is translated to the center of the center of gravity in the center of the screen (step 150,
151), each time it is rotated, it is input to the neural network (at 152 and 153), and the shape is determined by the maximum output (at 154). The rotation was performed every 10 degrees up to 350 degrees.
As a result of obtaining the recognition rate 50 times for each of the four types of samples, a recognition rate of 100% could be obtained, and the effectiveness of the present invention could be confirmed. If only ultrasound is used,
As in the above-mentioned Japanese Patent Application No. 3-246558, recognition of an object with a diameter of about 6 cm was limited, but by using a television camera together, it was possible to recognize an object with a diameter of 15 mm.

【0033】なお、本発明では実施例として距離センサ
に超音波センサを用いたが、特にこれに限定するもので
はなく、光切断法や、光位相法を用いたレーザレンジセ
ンサでも本発明を実施可能なのは言うまでもない。
In the present invention, the ultrasonic sensor is used as the distance sensor as an embodiment, but the present invention is not limited to this, and the present invention can be applied to a laser range sensor using an optical cutting method or an optical phase method. It goes without saying that it is possible.

【0034】[0034]

【発明の効果】以上説明したように本発明によれば、超
音波センサなどの距離センサとテレビカメラを併用し
て、この距離センサによる距離情報に基づいてビデオ画
像から物体像を抽出することにより、横方向分解能にお
いて劣る立体像をビデオ画像で補完することが可能にな
る。そのため、超音波のみでは測定不可能な小さな物体
の精密な3次元像の自動生成および自動認識が可能にな
る。これによって、
As described above, according to the present invention, a distance sensor such as an ultrasonic sensor and a television camera are used together, and an object image is extracted from a video image based on the distance information from the distance sensor. , It becomes possible to supplement a stereoscopic image having poor lateral resolution with a video image. Therefore, it is possible to automatically generate and recognize a precise three-dimensional image of a small object that cannot be measured only by ultrasonic waves. by this,

【0035】(1)大きな物体も小さな物体も認識でき
る。 (2)距離や位置,向きが自由な物体を認識できる。 (3)明るさが変化したり影が生じる屋外環境において
も、認識が可能である。 など、多くの利点を有しており、ロボットに応用すれ
ば、障害物を回避しての自律移動や、マニュピレータに
よる物体捕捉および各種作業が可能になる。
(1) A large object and a small object can be recognized. (2) Recognize objects with free distance, position, and orientation. (3) It can be recognized even in an outdoor environment in which brightness changes or shadows occur. If it is applied to a robot, autonomous movement without obstacles, object capture by a manipulator, and various tasks are possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例による形状測定系のブロック
図である。
FIG. 1 is a block diagram of a shape measuring system according to an embodiment of the present invention.

【図2】本実施例に用いるニューラルネットワークの説
明図である。
FIG. 2 is an explanatory diagram of a neural network used in this embodiment.

【図3】本実施例による超音波センサとテレビカメラの
構成を示す図である。
FIG. 3 is a diagram showing a configuration of an ultrasonic sensor and a television camera according to the present embodiment.

【図4】本実施例の説明に供する円柱の超音波像を示す
図である。
FIG. 4 is a diagram showing an ultrasonic image of a cylinder used in the description of the present embodiment.

【図5】本実施例の説明に供する物体の平面像の説明図
で、(a)は超音波像、(b)はテレビカメラ像を示す図であ
る。
5A and 5B are explanatory views of a plane image of an object used in the description of the present embodiment, in which FIG. 5A is an ultrasonic image and FIG. 5B is a television camera image.

【図6】本実施例におけるテレビカメラ画像からの物体
抽出の手順を示す図である。
FIG. 6 is a diagram showing a procedure of extracting an object from a television camera image in the present embodiment.

【図7】本実施例の説明に供するビデオ画像におけるX
軸及びY軸上の明度を示す図である。
FIG. 7 is an X in a video image used for explaining the present embodiment.
It is a figure which shows the brightness on an axis and a Y-axis.

【図8】本実施例の説明に供する濃淡平面像の明度ヒス
トグラムである。
FIG. 8 is a lightness histogram of a grayscale plane image used in the description of the present embodiment.

【図9】本実施例により得られた物体の立体像(超音波
立体像とビデオ平面像を合成)を示す図である。
FIG. 9 is a diagram showing a stereoscopic image of an object (composite ultrasonic stereoscopic image and video plane image) obtained in the present embodiment.

【図10】本実施例の説明に供する超音波情報とビデオ
情報の合成方法の説明図である。
FIG. 10 is an explanatory diagram of a method of synthesizing ultrasonic information and video information used in the description of the present embodiment.

【図11】同じく本実施例の説明に供する超音波情報と
ビデオ情報の合成方法の説明図である。
FIG. 11 is an explanatory diagram of a method of synthesizing ultrasonic information and video information, which is also used in the description of the present embodiment.

【図12】本実施例の説明に供するニューラルネットワ
ークの学習法則の説明図である。
FIG. 12 is an explanatory diagram of a learning rule of a neural network used in the description of the present embodiment.

【図13】本実施例の説明に供する直方体の上に円柱を
乗せた超音波像を示す図である。
FIG. 13 is a diagram showing an ultrasonic image in which a cylinder is placed on a rectangular parallelepiped used in the description of the present embodiment.

【図14】本実施例の説明に供する超音波像と微分画像
の対応を示す図である。
FIG. 14 is a diagram showing correspondence between an ultrasonic image and a differential image used in the description of the present embodiment.

【図15】本実施例におけるニューラルネットワークに
よる合成立体像を示す図である。
FIG. 15 is a diagram showing a synthetic stereoscopic image by a neural network in the present embodiment.

【図16】本実施例の説明に供する物体認識のアルゴリ
ズムを示す図である。
FIG. 16 is a diagram showing an object recognition algorithm used in the description of the present embodiment.

【図17】従来の超音波センサのみによる形状認識の説
明図である。
FIG. 17 is an explanatory diagram of shape recognition using only a conventional ultrasonic sensor.

【符号の説明】[Explanation of symbols]

10 3次元物体 11 超音波センサアレイ 111〜11n 超音波センサ 12 テレビカメラ 13 ニューラルネットワーク 17 センサ装置10 Three-dimensional object 11 Ultrasonic sensor array 11 1 to 11n Ultrasonic sensor 12 Television camera 13 Neural network 17 Sensor device

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 平面状に配列された複数個の距離センサ
を物体に対向して設けるとともに前記物体を撮像するビ
デオカメラを設け、物体の表面までの距離情報の平面分
布を前記距離センサによって測定し、この距離情報に基
づいて物体の第1立体像を抽出し、かつこの第1立体像
の位置情報に基づいて前記ビデオカメラによるビデオ画
像から物体の平面像を抽出し、この抽出した平面像と前
記第1立体像を合成して精細な第2立体像を生成するこ
とを特徴とする3次元物体像の生成方法。
1. A plurality of distance sensors arranged in a plane are provided facing an object and a video camera for imaging the object is provided, and a plane distribution of distance information up to the surface of the object is measured by the distance sensor. Then, the first stereoscopic image of the object is extracted based on the distance information, and the plane image of the object is extracted from the video image by the video camera based on the position information of the first stereoscopic image. And a method for generating a fine second stereoscopic image by synthesizing the first stereoscopic image with the first stereoscopic image.
【請求項2】 請求項1において、第1立体像の重心位
置の明度に基づいてビデオ画像から濃淡平面像もしくは
微分平面像を抽出することを特徴とする3次元物体像の
生成方法。
2. The method for generating a three-dimensional object image according to claim 1, wherein a grayscale plane image or a differential plane image is extracted from the video image based on the brightness of the position of the center of gravity of the first stereoscopic image.
【請求項3】 請求項1において、第1立体像の周囲の
明度に基づいてビデオ画像から濃淡平面像もしくは微分
平面像を抽出することを特徴とする3次元物体像の生成
方法。
3. The method for generating a three-dimensional object image according to claim 1, wherein a grayscale plane image or a differential plane image is extracted from the video image based on the brightness around the first stereoscopic image.
【請求項4】 請求項1において、第1立体像の重心位
置または周囲の明度に基づいてビデオ画像から微分平面
像を抽出し、ニューラルネットワークを用いてこの微分
平面像と第1立体像を合成し、第1立体像の1画像に対
応する微分平面像の画素群に、前記1画像に接して取り
巻く第1立体像の画素群および前記1画像の距離情報を
合成することを特徴とする3次元物体像の生成方法。
4. The differential plane image is extracted from the video image based on the center of gravity position of the first stereoscopic image or the brightness of the surroundings, and the differential plane image and the first stereoscopic image are combined using a neural network. Then, the pixel group of the differential plane image corresponding to one image of the first stereoscopic image is combined with the pixel group of the first stereoscopic image surrounding the one image and the distance information of the one image. A method for generating a three-dimensional object image.
JP35145792A 1992-12-08 1992-12-08 Method for generating three-dimensional object image Expired - Fee Related JP3151472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35145792A JP3151472B2 (en) 1992-12-08 1992-12-08 Method for generating three-dimensional object image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35145792A JP3151472B2 (en) 1992-12-08 1992-12-08 Method for generating three-dimensional object image

Publications (2)

Publication Number Publication Date
JPH06174839A true JPH06174839A (en) 1994-06-24
JP3151472B2 JP3151472B2 (en) 2001-04-03

Family

ID=18417418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35145792A Expired - Fee Related JP3151472B2 (en) 1992-12-08 1992-12-08 Method for generating three-dimensional object image

Country Status (1)

Country Link
JP (1) JP3151472B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003014651A (en) * 2001-07-05 2003-01-15 Mitsui Eng & Shipbuild Co Ltd Concrete structure inspection method and apparatus
EP1603071A1 (en) * 2004-06-01 2005-12-07 Fuji Jukogyo Kabushiki Kaisha Three-dimensional object recognizing system
KR101381218B1 (en) * 2012-08-10 2014-04-02 삼성중공업 주식회사 Apparartus and method for generating an around view of a remotely operated vehicle
KR20160072295A (en) * 2014-12-12 2016-06-23 삼성중공업 주식회사 Device and method for generating compound image
WO2019172341A1 (en) 2018-03-07 2019-09-12 株式会社デンソー Object detection device, object detection method, and recording medium
EP3839564A4 (en) * 2019-01-15 2021-12-22 Beijing Baidu Netcom Science And Technology Co., Ltd. PROCESS AND SYSTEM FOR PROCESSING AN OBSTACLE DETECTION RESULT BASED ON AN ULTRASONIC NETWORK
CN114114279A (en) * 2021-11-30 2022-03-01 深圳市奇见科技有限公司 Ultrasonic distance and shape detection system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003014651A (en) * 2001-07-05 2003-01-15 Mitsui Eng & Shipbuild Co Ltd Concrete structure inspection method and apparatus
EP1603071A1 (en) * 2004-06-01 2005-12-07 Fuji Jukogyo Kabushiki Kaisha Three-dimensional object recognizing system
US7545975B2 (en) 2004-06-01 2009-06-09 Fuji Jukogyo Kabushiki Kaisha Three-dimensional object recognizing system
KR101381218B1 (en) * 2012-08-10 2014-04-02 삼성중공업 주식회사 Apparartus and method for generating an around view of a remotely operated vehicle
KR20160072295A (en) * 2014-12-12 2016-06-23 삼성중공업 주식회사 Device and method for generating compound image
WO2019172341A1 (en) 2018-03-07 2019-09-12 株式会社デンソー Object detection device, object detection method, and recording medium
US11954918B2 (en) 2018-03-07 2024-04-09 Denso Corporation Object detection device, object detection method, and storage medium
EP3839564A4 (en) * 2019-01-15 2021-12-22 Beijing Baidu Netcom Science And Technology Co., Ltd. PROCESS AND SYSTEM FOR PROCESSING AN OBSTACLE DETECTION RESULT BASED ON AN ULTRASONIC NETWORK
US11933921B2 (en) 2019-01-15 2024-03-19 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and system for processing obstacle detection result of ultrasonic sensor array
CN114114279A (en) * 2021-11-30 2022-03-01 深圳市奇见科技有限公司 Ultrasonic distance and shape detection system

Also Published As

Publication number Publication date
JP3151472B2 (en) 2001-04-03

Similar Documents

Publication Publication Date Title
CN103959012B (en) 6 degrees of freedom position and orientation determination
EP3422955B1 (en) System and method for assisted 3d scanning
EP2839238B1 (en) 3d scanner using merged partial images
US6031941A (en) Three-dimensional model data forming apparatus
US7215364B2 (en) Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
US20160078636A1 (en) Image-based surface tracking
Martel et al. An active approach to solving the stereo matching problem using event-based sensors
US12333830B2 (en) Target detection method, device, terminal device, and medium
JP2008537190A (en) Generation of three-dimensional image of object by irradiating with infrared pattern
TW202014990A (en) Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof
WO2009120073A2 (en) A dynamically calibrated self referenced three dimensional structured light scanner
Huhle et al. Integrating 3D time-of-flight camera data and high resolution images for 3DTV applications
CN116977391A (en) An underwater 3D reconstruction method based on binocular multi-line structured light
US6980210B1 (en) 3D stereo real-time sensor system, method and computer program therefor
CN110415363A (en) A kind of object recognition positioning method at random based on trinocular vision
JP3151472B2 (en) Method for generating three-dimensional object image
WO2022064583A1 (en) Distance information generation device and distance information generation method
JP2969202B2 (en) 3D object recognition method using neural network
JPH04169805A (en) 3D image measurement device
JPH09231371A (en) Image information input device and image information input method
Strand et al. Range image registration using an octree based matching strategy
JP3800841B2 (en) Method and apparatus for measuring 3D shape and storage medium storing 3D shape measurement program
Muktadir et al. RCP Method: An Autonomous Volume Calculation Method Using Image Processing and Machine Vision
JP2788692B2 (en) 3D image input device
JP2002031512A (en) Three-dimensional digitizer

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees