JP3029005B2 - Stereo vision camera - Google Patents
Stereo vision cameraInfo
- Publication number
- JP3029005B2 JP3029005B2 JP6075551A JP7555194A JP3029005B2 JP 3029005 B2 JP3029005 B2 JP 3029005B2 JP 6075551 A JP6075551 A JP 6075551A JP 7555194 A JP7555194 A JP 7555194A JP 3029005 B2 JP3029005 B2 JP 3029005B2
- Authority
- JP
- Japan
- Prior art keywords
- light
- emitting element
- output
- lens
- vision camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Cameras In General (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、マルチメディア等の立
体ビジョンカメラに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic vision camera for multimedia or the like.
【0002】[0002]
【従来の技術】従来、立体ビジョンカメラは、2つの独
立した光学系により映像信号をとらえて立体映像信号と
していた。即ち、CCD等からなる撮像部の光学系と、
ラインセンサ等の受光素子からなる距離計測部の光学系
とで構成され、それぞれの信号を合成して立体画像信号
を得ていた。2. Description of the Related Art Conventionally, a stereoscopic vision camera captures a video signal using two independent optical systems and converts it into a stereoscopic video signal. That is, an optical system of an imaging unit including a CCD or the like,
It is composed of an optical system of a distance measuring unit including a light receiving element such as a line sensor, and combines the respective signals to obtain a stereoscopic image signal.
【0003】図6に従来例の構成を示す。1はCCD等
の撮像素子2と撮像用レンズ3からなる撮像部で、4は
ラインセンサ等の受光素子6と距離計測用レンズ7から
なる距離計測部である。また、8は撮影される物体で、
9は撮像部1と距離計測部4の信号を合成する合成器で
ある。撮像部1によって得られた画像信号と距離計測部
4によって得られた距離信号は、合成器9で合成され立
体画像信号となる。FIG. 6 shows a configuration of a conventional example. Reference numeral 1 denotes an imaging unit including an imaging element 2 such as a CCD and an imaging lens 3, and reference numeral 4 denotes a distance measurement unit including a light receiving element 6 such as a line sensor and a distance measurement lens 7. 8 is an object to be photographed,
Reference numeral 9 denotes a synthesizer for synthesizing signals from the imaging unit 1 and the distance measurement unit 4. The image signal obtained by the imaging unit 1 and the distance signal obtained by the distance measurement unit 4 are synthesized by the synthesizer 9 to become a stereoscopic image signal.
【0004】次に距離の計測方法について説明する。図
7は、その原理を示す図である。距離の計測方法は、い
わゆるTCL位相検出方式によるものである。図におい
て6はラインセンサ等の受光素子、7は距離計測用レン
ズ、8は撮影される物体である。また、A1〜A3はA系
列の受光素子のチップ、B1〜B3はB系列の受光素子の
チップであって、A1とB1、A2とB2のようにペアに構
成されており、レンズ7の左側と右側を通り入射した光
は、A系列とB系列のチップにそれぞれ入射する。図7
(a)で示すように焦点が合っていればレンズ7の両側
を通った光は、中央のペアのチップ(A2、B2)に結像
し、その出力はイのようになる。また、図7(b)で示
すように焦点が合っていなければ、レンズ7の両側を通
った光は、離れたチップに結像して、その出力はロのよ
うになる。従って、焦点の合った時のレンズ7の位置が
分かれば物体8の距離が分かるというものである。Next, a method of measuring a distance will be described. FIG. 7 is a diagram showing the principle. The distance is measured by a so-called TCL phase detection method. In the figure, 6 is a light receiving element such as a line sensor, 7 is a lens for distance measurement, and 8 is an object to be photographed. A 1 to A 3 are chips of the light receiving element of the A series, B 1 to B 3 are chips of the light receiving elements of the B series, and are formed in pairs such as A 1 and B 1 and A 2 and B 2. Light incident through the left and right sides of the lens 7 is incident on chips of the A series and B series, respectively. FIG.
As shown in (a), if the light is in focus, the light passing through both sides of the lens 7 forms an image on the center pair of chips (A 2 , B 2 ), and the output is as shown in FIG. If the focus is not focused as shown in FIG. 7 (b), the light passing through both sides of the lens 7 forms an image on a distant chip, and the output becomes like B. Therefore, if the position of the lens 7 at the time of focusing is known, the distance of the object 8 can be known.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、上記従
来例では、少なくとも2個の独立した光学系(撮像部1
の光学系と距離計測部4の光学系)が必要で装置が高価
になることや、撮像部1と距離計測部4が離れているた
め完全なX、Y、Z方向のベクトルをもった立体画像信
号の作成が困難であるという問題があった。However, in the above conventional example, at least two independent optical systems (the image pickup unit 1) are provided.
The optical system of the distance measuring unit 4) and the apparatus become expensive, and the solid-state having complete X, Y, and Z vectors because the imaging unit 1 and the distance measuring unit 4 are far apart. There is a problem that it is difficult to create an image signal.
【0006】本発明は、かかる点に鑑み、1つの光学系
で撮像と距離計測を行うことを可能とし、安価でかつ完
全なX、Y、Z方向のベクトルを持った立体画像信号が
得られる立体ビジョンカメラの提供を目的とする。In view of the foregoing, the present invention makes it possible to perform imaging and distance measurement with one optical system, and obtain a three-dimensional image signal having inexpensive and complete vectors in the X, Y, and Z directions. The purpose is to provide a stereo vision camera.
【0007】[0007]
【課題を解決するための手段】上記の目的を達成するた
め本発明では、X、Y、Z方向のベクトルをもつ立体画
像信号を出力する立体ビジョンカメラにおいて、撮影用
の撮像素子と、光源用の発光素子と、前記発光素子から
の光をX方向に走査する第1光学系と、前記発光素子か
らの光をY方向に走査する第2光学系と、前記発光素子
から出た光を物体に当てるとともにZ方向に移動自在な
レンズ装置と、前記物体から反射して前記発光素子側へ
戻ってくる光を側路する手段と、前記側路された光を受
ける光電変換素子がアレイ状に並列して成る受光素子
と、前記第1、第2光学系をそれぞれ駆動する第1、第
2信号を出力するとともに前記レンズ装置をZ方向の各
位置に順次駆動する第3信号を出力するコントローラ
と、前記Z方向の各位置でのX、Y走査において前記受
光素子の出力が所定の光電変換素子からのみ得られると
きの前記撮像素子からの画像データを立体画像信号とし
て抽出する手段とから成る。According to the present invention, there is provided a stereoscopic vision camera for outputting a stereoscopic image signal having vectors in the X, Y, and Z directions. A light emitting element, a first optical system that scans light from the light emitting element in the X direction, a second optical system that scans light from the light emitting element in the Y direction, and an object that emits light from the light emitting element. A lens device movable in the Z-direction and a device for bypassing light reflected from the object and returning to the light-emitting element side, and a photoelectric conversion element for receiving the bypassed light in an array. A light receiving element formed in parallel, and first and second light emitting elements respectively driving the first and second optical systems .
2 signals and output the lens device in the Z direction.
A controller that outputs a third signal sequentially driven to a position, and an image from the image sensor when an output of the light receiving element is obtained only from a predetermined photoelectric conversion element in X and Y scanning at each position in the Z direction. the data and stereoscopic image signals
And means for extracting Te.
【0008】[0008]
【作用】上記構成では、発光素子から出た光を第1光学
系が回転駆動することによりX方向の走査を行い、発光
素子から出た光を第2光学系が回転駆動することにより
Y方向の走査を行い、レンズがZ方向に直線駆動するこ
とによりZ方向の走査を行い、受光素子の出力が所定の
光電変換素子からのみ得られるとき撮像素子で画像デー
タを得、その画像データに基づいて立体画像信号を抽出
する。In the above arrangement, the first optical system rotates the light emitted from the light emitting element to scan in the X direction, and the second optical system rotates the light emitted from the light emitting element to rotate the light in the Y direction. The scanning is performed, and the lens is linearly driven in the Z direction to perform scanning in the Z direction. When the output of the light receiving element is obtained only from a predetermined photoelectric conversion element, image data is obtained by the imaging element, and based on the image data, To extract a stereoscopic image signal.
【0009】[0009]
【実施例】本発明の実施例について図面に基づいて説明
する。図1は本発明の立体ビジョンカメラの概略構成図
である。1はCCD等の撮像素子2からなる撮像部で、
4’はレーザダイオード等の発光素子5及びフォトダイ
オードアレイ等の受光素子6からなる位置検出部であ
る。また、A、B、Cは受光素子6の各フォトダイオー
ドを示している。10はレンズで、11a、11b及び
11cはプリズムである。図のようにプリズム11aは
水平方向(即ちX方向)に回転駆動し、プリズム11b
は垂直方向(即ちY方向)に回転駆動する構成になって
いる。また、プリズム11cは射出光と入射光を分岐す
る働きをしている。An embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram of the stereoscopic vision camera of the present invention. An imaging unit 1 includes an imaging element 2 such as a CCD.
Reference numeral 4 'denotes a position detecting unit including a light emitting element 5 such as a laser diode and a light receiving element 6 such as a photodiode array. A, B, and C indicate photodiodes of the light receiving element 6. 10 is a lens, and 11a, 11b and 11c are prisms. As shown, the prism 11a is driven to rotate in the horizontal direction (ie, the X direction), and the prism 11b is driven.
Is configured to be driven to rotate in the vertical direction (that is, the Y direction). Further, the prism 11c has a function of branching outgoing light and incident light.
【0010】14はムービングマグネット型のZ方向に
リニヤに移動するレンズ10の駆動部で、13aは駆動
部14のドライバ、13bはプリズム11aを水平方向
に回転駆動するドライバ、13cはプリズム11bを垂
直方向に回転駆動するドライバである。15は受光素子
6の出力に応じてHレベルまたはLレベルの信号を出力
するコンパレータである。また、12は各部を制御する
コントローラで、16はコンパレータ15の出力がHレ
ベルのとき撮像部1の2次元の画像データから有効な
X、Yデータを抽出するとともにコントローラ12から
のZ位置データを抽出して、立体画像信号を出力する立
体画像抽出部である。また、8は撮影される物体であ
る。X、Y、Z軸は3次元空間の各ベクトル軸を示して
いる。Reference numeral 14 denotes a driving unit of the moving magnet type linearly moving lens 10 in the Z direction. Reference numeral 13a denotes a driver of the driving unit 14, reference numeral 13b denotes a driver for driving the prism 11a to rotate in the horizontal direction, and reference numeral 13c denotes a driver for driving the prism 11b in the vertical direction. The driver is driven to rotate in the direction. Reference numeral 15 denotes a comparator which outputs an H level signal or an L level signal according to the output of the light receiving element 6. Reference numeral 12 denotes a controller for controlling each unit. Reference numeral 16 denotes a unit for extracting valid X and Y data from the two-dimensional image data of the image pickup unit 1 when the output of the comparator 15 is at the H level, and for extracting Z position data from the controller 12. A three-dimensional image extracting unit that extracts and outputs a three-dimensional image signal. Reference numeral 8 denotes an object to be photographed. The X, Y, and Z axes indicate each vector axis in the three-dimensional space.
【0011】次に動作を説明する。位置検出部4’で
は、発光素子5が常にプリズム11c、プリズム11
b、プリズム11a、レンズ10を介してレーザ光線を
照射している。コントローラ12は一定のスキャン信号
によるZ方向駆動信号をドライバ13aを介して駆動部
14に与えている。このZ方向駆動信号によってレンズ
10が駆動され、常にZ方向に被写体を求めてレーザ光
線が照射されている。Next, the operation will be described. In the position detecting section 4 ', the light emitting element 5 is always the prism 11c,
b, the laser beam is irradiated through the prism 11 a and the lens 10. The controller 12 supplies a drive unit 14 with a Z-direction drive signal based on a fixed scan signal via a driver 13a. The lens 10 is driven by the Z-direction drive signal, and a laser beam is always emitted in search of the subject in the Z-direction.
【0012】また、コントローラ12は一定のスキャン
信号によるX方向駆動信号をドライバ13bを介してプ
リズム11aに与えている。このX方向駆動信号によっ
てプリズム11aが水平方向に回転駆動され、その結果
レーザ光線がX方向にスキャンされる。同様に、コント
ローラ12は一定のスキャン信号によるY方向駆動信号
をドライバ13cを介してプリズム11bに与えてい
る。このY方向駆動信号によってプリズム11bが垂直
方向に回転駆動され、その結果レーザ光線がY方向にス
キャンされる。The controller 12 supplies an X-direction drive signal based on a fixed scan signal to the prism 11a via a driver 13b. The X-direction drive signal drives the prism 11a to rotate in the horizontal direction. As a result, the laser beam is scanned in the X direction. Similarly, the controller 12 gives a Y-direction drive signal based on a fixed scan signal to the prism 11b via the driver 13c. The prism 11b is rotated in the vertical direction by the Y-direction drive signal, and as a result, the laser beam is scanned in the Y-direction.
【0013】照射されたレーザ光線は被写体の物体8に
当たって反射し、レンズ10、プリズム11a、プリズ
ム11b、プリズム11cを介して受光素子6に受光さ
れる。即ち、受光素子6の中央のフォトダイオードBの
み出力があれば、目的とする位置に被写体である物体8
が存在していることになる。The emitted laser beam strikes the object 8 of the subject, is reflected, and is received by the light receiving element 6 via the lens 10, the prism 11a, the prism 11b, and the prism 11c. That is, if there is an output from only the photodiode B at the center of the light receiving element 6, the object 8 as a subject is located at a target position.
Will exist.
【0014】そして、受光素子6の中央のフォトダイオ
ードBのみ出力がある時、コンパレータ15の出力はH
レベルとなり、立体画像抽出部16から、撮像部1で得
られた2次元の画像信号が、有効な画像データ(X、Y
データ)として出力される。同時に、そのときのZ方向
位置データも出力される。このようにして、Z方向に順
次スキャンし、その各Z方向位置でX、Y方向の画像デ
ータとZ方向位置データが、完全なX、Y、Z方向のベ
クトルをもつ立体画像信号として出力されるのである。When only the photodiode B at the center of the light receiving element 6 has an output, the output of the comparator 15 is H
Level, and the two-dimensional image signal obtained by the imaging unit 1 from the three-dimensional image extraction unit 16 is converted into valid image data (X, Y
Data). At the same time, the Z-direction position data at that time is also output. In this manner, scanning is sequentially performed in the Z direction, and at each Z position, image data in the X and Y directions and position data in the Z direction are output as a stereoscopic image signal having complete vectors in the X, Y and Z directions. Because
【0015】次にZ方向の距離の計測方法について説明
する。図2はZ方向の距離を計測する場合の原理図であ
る。図2(a)は、物体8が距離Lの位置にありレンズ
10がzの位置にある時、レーザ光線の反射光は焦点を
受光素子6の中央のフォトダイオードBに結んでいる。
この時、出力のあるフォトダイオードは、受光素子6の
中央のフォトダイオードBだけである。次に図2(b)
は、物体8が距離L’の位置にありレンズ10がzの位
置にある時、焦点がずれてレーザ光線の反射光は散乱し
て受光素子6のフォトダイオードA、B、Cの全部に当
たることになる。この時、フォトダイオードA、B、C
の全てから出力が発生する。Next, a method of measuring the distance in the Z direction will be described. FIG. 2 is a principle diagram when measuring the distance in the Z direction. FIG. 2A shows that when the object 8 is at the position of the distance L and the lens 10 is at the position of z, the reflected light of the laser beam is focused on the photodiode B at the center of the light receiving element 6.
At this time, the photodiode having an output is only the photodiode B at the center of the light receiving element 6. Next, FIG.
Is that when the object 8 is at the position of the distance L 'and the lens 10 is at the position of z, the focus is deviated and the reflected light of the laser beam is scattered and hits all the photodiodes A, B and C of the light receiving element 6. become. At this time, the photodiodes A, B, C
Output from all of.
【0016】次に、図2(c)は、物体8が距離L’の
位置にありレンズ10が動いてz’の位置にある時、レ
ーザ光線の反射光は再び焦点を受光素子6の中央のフォ
トダイオードBだけに結ぶ。この時、中央のフォトダイ
オードBからだけ出力が発生する。従って、中央のフォ
トダイオードBのみ出力が発生するようにレンズ10を
Z方向に駆動し、そのレンズ10の位置zによって物体
8の距離を知ることができるというものである。Next, FIG. 2C shows that when the object 8 is at the position of the distance L 'and the lens 10 is moved to the position of z', the reflected light of the laser beam is again focused on the center of the light receiving element 6. To the photodiode B only. At this time, an output is generated only from the central photodiode B. Accordingly, the lens 10 is driven in the Z direction so that only the center photodiode B generates an output, and the distance of the object 8 can be known from the position z of the lens 10.
【0017】次にX、Y方向のスキャン方法について説
明する。図3はX方向にスキャンする様子を示す図であ
る。また、図3は焦点が物体8に常に合っている状態、
即ち、受光素子6の中央のフォトダイオードBのみ出力
がある場合を考えている。図3(a)は、プリズム11
aが図のような状態にある時、照射されたレーザ光線が
被写体の物体8のハの位置に当たって反射してくる様子
を示している。また、図3(b)は、プリズム11aが
図のような状態にある時、照射されたレーザ光線が被写
体の物体8のニの位置に当たって反射してくる様子を示
している。さらに、図3(c)は、プリズム11aが図
のような状態にある時、照射されたレーザ光線が被写体
の物体8のホの位置に当たって反射してくる様子を示し
ている。以上のようにプリズム11aが水平方向(即ち
X方向)に回転駆動することによって、物体8はハ〜ホ
までスキャンされることになる。図示しないが、同様に
プリズム11bが垂直方向(即ちY方向)に回転駆動す
ることによって、物体8は垂直方向(即ちY方向)にス
キャンされる。Next, a scanning method in the X and Y directions will be described. FIG. 3 is a diagram showing a state of scanning in the X direction. FIG. 3 shows a state in which the object 8 is always in focus,
That is, it is assumed that there is an output only at the photodiode B at the center of the light receiving element 6. FIG. 3A shows the prism 11.
When a is in the state as shown in the figure, the illuminated laser beam hits the position C of the object 8 and is reflected. FIG. 3B shows a state in which the irradiated laser beam hits the position of the object 8 of the subject and is reflected when the prism 11a is in the state as shown in the figure. Further, FIG. 3C shows a state in which the irradiated laser beam hits the position of the object 8 of the subject 8 and is reflected when the prism 11a is in the state shown in the figure. By rotating the prism 11a in the horizontal direction (that is, in the X direction) as described above, the object 8 is scanned from C to E. Although not shown, the object 8 is scanned in the vertical direction (ie, the Y direction) by similarly rotating the prism 11b in the vertical direction (ie, the Y direction).
【0018】最後に、抽出された立体画像信号を立体ス
クリーン上に析出させる様子を図4、図5に示す。図4
は被写体系を表し、被写体としての物体8がZ方向に順
次スキャンされ、その各Z方向位置でX、Y方向の画像
データとZ方向位置データが、完全なX、Y、Z方向の
ベクトルをもつ立体画像信号として出力され、撮影され
ていく様子を示している。また、図5は得られた画像デ
ータに基づいて被写体系と同期をとって立体スクリーン
上に物体8がZ方向に順次スキャンされ、完全なX、
Y、Z方向のベクトルをもつ立体画像信号として出力さ
れ、映し出される様子を示している。尚、上記実施例に
おいて、プリズム11a、11b、11cの代わりに同
等の機能を有する他の光学系を使用してもよい。Finally, FIGS. 4 and 5 show how the extracted three-dimensional image signal is deposited on a three-dimensional screen. FIG.
Represents an object system, and an object 8 as an object is sequentially scanned in the Z direction, and at each Z position, image data in the X and Y directions and position data in the Z direction form a complete vector in the X, Y and Z directions. This is output as a three-dimensional image signal having the image and is being photographed. FIG. 5 shows that the object 8 is sequentially scanned in the Z direction on the stereoscopic screen in synchronization with the subject system based on the obtained image data, and complete X,
This figure shows a state where the image is output as a stereoscopic image signal having vectors in the Y and Z directions and is projected. In the above embodiment, another optical system having an equivalent function may be used instead of the prisms 11a, 11b, and 11c.
【0019】[0019]
【発明の効果】上記のように本発明によれば、X、Y、
Z方向のベクトルをもつ立体画像信号を出力する立体ビ
ジョンカメラにおいて、撮影用の撮像素子と、光源用の
発光素子と、前記発光素子からの光をX方向に走査する
第1光学系と、前記発光素子からの光をY方向に走査す
る第2光学系と、前記発光素子から出た光を物体に当て
るとともにZ方向に移動自在なレンズ装置と、前記物体
から反射して前記発光素子側へ戻ってくる光を側路する
手段と、前記側路された光を受ける光電変換素子がアレ
イ状に並列して成る受光素子と、前記第1、第2光学系
をそれぞれ駆動する第1、第2信号を出力するとともに
前記レンズ装置をZ方向の各位置に順次駆動する第3信
号を出力するコントローラと、前記Z方向の各位置での
X、Y走査において前記受光素子の出力が所定の光電変
換素子からのみ得られるときの前記撮像素子からの画像
データを立体画像信号として抽出する手段とから成るの
で、1つの光学系で立体画像信号を得ることを可能と
し、さらに安価でかつ完全なX、Y、Z方向のベクトル
をもつ立体画像信号が得られる立体ビジョンカメラを提
供できる。As described above, according to the present invention, X, Y,
A stereoscopic vision camera that outputs a stereoscopic image signal having a vector in the Z direction; an imaging element for photographing; a light emitting element for a light source; a first optical system that scans light from the light emitting element in the X direction; A second optical system that scans light from the light emitting element in the Y direction, a lens device that moves the light emitted from the light emitting element to the object and moves in the Z direction, and reflects from the object to the light emitting element side Means for bypassing the returning light, a light receiving element in which photoelectric conversion elements for receiving the bypassed light are arranged in parallel in an array, and the first and second optical systems
Output first and second signals for driving
A third signal for sequentially driving the lens device to each position in the Z direction;
A controller for outputting the item, at each position of the Z-direction
Means for extracting image data from the image sensor as a three-dimensional image signal when an output of the light receiving element is obtained only from a predetermined photoelectric conversion element in X and Y scanning. It is possible to provide a three-dimensional vision camera that can obtain a three-dimensional image signal at low cost and with complete vectors in the X, Y, and Z directions.
【図面の簡単な説明】[Brief description of the drawings]
【図1】 本発明の立体ビジョンカメラの略構成図。FIG. 1 is a schematic configuration diagram of a stereoscopic vision camera of the present invention.
【図2】 本発明の立体ビジョンカメラがZ方向の距離
を計測する方法を説明する原理図。FIG. 2 is a principle diagram illustrating a method of measuring a distance in the Z direction by the stereoscopic vision camera of the present invention.
【図3】 本発明の立体ビジョンカメラがX方向にスキ
ャンしていく様子を示す図。FIG. 3 is a diagram showing a state in which the stereoscopic vision camera of the present invention scans in the X direction.
【図4】 物体が撮影される様子を示す図。FIG. 4 is a diagram showing a state in which an object is photographed.
【図5】 立体スクリーン上に物体が映し出される様子
を示す図。FIG. 5 is a view showing a state where an object is projected on a three-dimensional screen.
【図6】 従来の立体ビジョンカメラの略構成図。FIG. 6 is a schematic configuration diagram of a conventional stereo vision camera.
【図7】 従来の距離計測方法を説明する原理図。FIG. 7 is a principle diagram for explaining a conventional distance measuring method.
1 撮像部 2 CCD等の撮像素子 3 撮像部のレンズ 4 距離計測部 4’位置検出部 5 レーザダイオード等の発光素子 6 フォトダイオードアレイ等の受光素子 7 距離計測部のレンズ 8 物体 9 合成器 10 レンズ 11a、11b、11c プリズム 12 コントローラ 13a、13b、13c ドライバ 14 駆動部 15 コンパレータ 16 立体画像抽出部 REFERENCE SIGNS LIST 1 imaging unit 2 imaging device such as CCD 3 imaging unit lens 4 distance measurement unit 4 'position detection unit 5 light emitting element such as laser diode 6 light receiving element such as photodiode array 7 lens of distance measurement unit 8 object 9 combiner 10 Lens 11a, 11b, 11c Prism 12 Controller 13a, 13b, 13c Driver 14 Drive unit 15 Comparator 16 Stereoscopic image extraction unit
Claims (1)
信号を出力する立体ビジョンカメラにおいて、 撮影用の撮像素子と、 光源用の発光素子と、 前記発光素子からの光をX方向に走査する第1光学系
と、 前記発光素子からの光をY方向に走査する第2光学系
と、 前記発光素子から出た光を物体に当てるとともにZ方向
に移動自在なレンズ装置と、 前記物体から反射して前記発光素子側へ戻ってくる光を
側路する手段と、 前記側路された光を受ける光電変換素子がアレイ状に並
列して成る受光素子と、 前記第1、第2光学系をそれぞれ駆動する第1、第2信
号を出力するとともに前記レンズ装置をZ方向の各位置
に順次駆動する第3信号を出力するコントローラと、前記Z方向の各位置でのX、Y走査において 前記受光素
子の出力が所定の光電変換素子からのみ得られるときの
前記撮像素子からの画像データを立体画像信号として抽
出する手段と、 から成ることを特徴とする立体ビジョンカメラ。1. A stereo vision camera for outputting a stereoscopic image signal having vectors in X, Y, and Z directions, comprising: an imaging element for photographing; a light emitting element for a light source; and light from the light emitting element in the X direction. A first optical system that scans, a second optical system that scans light from the light emitting element in the Y direction, a lens device that applies light emitted from the light emitting element to an object and is movable in the Z direction, and the object Means for bypassing light reflected from the light-emitting element and returning to the light-emitting element side; a light-receiving element in which photoelectric conversion elements for receiving the bypassed light are arranged in parallel in an array; and the first and second optics First and second signals for driving the system respectively
Signal and output the lens device at each position in the Z direction.
And a controller for outputting a third signal sequentially driven in the X- and Y-directions, and image data from the image sensor when an output of the light-receiving element is obtained only from a predetermined photoelectric conversion element in X and Y scanning at each position in the Z direction. the stereo vision camera, characterized in that it consists, and means to extract <br/> as a stereoscopic image signal.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6075551A JP3029005B2 (en) | 1994-04-14 | 1994-04-14 | Stereo vision camera |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6075551A JP3029005B2 (en) | 1994-04-14 | 1994-04-14 | Stereo vision camera |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH07284130A JPH07284130A (en) | 1995-10-27 |
| JP3029005B2 true JP3029005B2 (en) | 2000-04-04 |
Family
ID=13579443
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP6075551A Expired - Fee Related JP3029005B2 (en) | 1994-04-14 | 1994-04-14 | Stereo vision camera |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3029005B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4158750B2 (en) * | 2003-08-26 | 2008-10-01 | ソニー株式会社 | Autofocus control method, autofocus control device, and image processing device |
| CN100378487C (en) * | 2003-08-26 | 2008-04-02 | 索尼株式会社 | Auto focus control method, auto focus controller and image processor |
-
1994
- 1994-04-14 JP JP6075551A patent/JP3029005B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JPH07284130A (en) | 1995-10-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4405154B2 (en) | Imaging system and method for acquiring an image of an object | |
| US10739460B2 (en) | Time-of-flight detector with single-axis scan | |
| JP6854387B2 (en) | Synchronous spinning LIDAR and rolling shutter camera system | |
| EP2722645B1 (en) | Three-dimensional measuring device and three-dimensional measuring system | |
| KR101321303B1 (en) | Laser ranging, tracking and designation using 3-d focal planes | |
| US6741082B2 (en) | Distance information obtaining apparatus and distance information obtaining method | |
| JP2002525685A (en) | Programmable lens assembly and optical system incorporating the same | |
| US5502480A (en) | Three-dimensional vision camera | |
| JP2013207415A (en) | Imaging system and imaging method | |
| GB2374743A (en) | Surface profile measurement | |
| US7312920B2 (en) | Confocal microscope | |
| JP2935805B2 (en) | Auto focus projector | |
| JP3029004B2 (en) | Stereo vision camera | |
| JP3029005B2 (en) | Stereo vision camera | |
| CN108885260B (en) | Time-of-flight detector with single axis scanning | |
| KR101507950B1 (en) | apparatus for examining pattern image of semiconductor wafer | |
| WO2023111676A1 (en) | Adaptive area flash lidar sensor | |
| JP2005070014A (en) | Solid-state imaging device, imaging method and apparatus using the solid-state imaging device, and distance measurement method and system | |
| JPH07209573A (en) | 3-d vision camera | |
| JP7215472B2 (en) | Imaging device and imaging method | |
| JP3670788B2 (en) | 3D shape measuring device | |
| JP2000002521A (en) | Three dimensional input device | |
| EP4328542A1 (en) | Depth data measurement head, depth data computing device, and corresponding method | |
| Choudhury et al. | High Speed Imaging with Wide Field-of-View Laser Scanning for a MEMS Mirror-based Lidar | |
| JPH05172511A (en) | Scanning-type detecting apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |