JPH0799644A - Image communication device - Google Patents
Image communication deviceInfo
- Publication number
- JPH0799644A JPH0799644A JP5242486A JP24248693A JPH0799644A JP H0799644 A JPH0799644 A JP H0799644A JP 5242486 A JP5242486 A JP 5242486A JP 24248693 A JP24248693 A JP 24248693A JP H0799644 A JPH0799644 A JP H0799644A
- Authority
- JP
- Japan
- Prior art keywords
- image
- extraction unit
- line
- normal vector
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Measurement Of Optical Distance (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
(57)【要約】
【目的】 TV会議で互いの視線を一致させる。
【構成】 カメラ1,2は同じ人物を撮像する。撮像さ
れた画像は、ビデオ信号処理部3,4で処理され、対応
点抽出部5及び法線ベクトル抽出部6に印加される。対
応点抽出部5は2つの画像の対応点を抽出し、法線ベク
トル抽出部6は法線ベクトルを抽出する。3次元構造処
理部7は、対応点抽出部5及び法線ベクトル抽出部6で
抽出された情報を使い、被写体のおおよその3次元位置
情報を算出する。このように算出された被写体の構造情
報を使い、座標変換部8が、視線が一致する方向にカメ
ラ1,2を向け、その撮像画像を送受信伝送部9が通信
相手に送信する。
(57) [Summary] [Purpose] Match the line of sight of each other in a video conference. [Configuration] The cameras 1 and 2 capture the same person. The captured image is processed by the video signal processing units 3 and 4, and is applied to the corresponding point extraction unit 5 and the normal vector extraction unit 6. The corresponding point extraction unit 5 extracts the corresponding points of the two images, and the normal vector extraction unit 6 extracts the normal vector. The three-dimensional structure processing unit 7 uses the information extracted by the corresponding point extraction unit 5 and the normal vector extraction unit 6 to calculate approximate three-dimensional position information of the subject. Using the structure information of the subject calculated in this way, the coordinate conversion unit 8 points the cameras 1 and 2 in the directions in which the lines of sight coincide, and the transmission / reception transmission unit 9 transmits the captured image to the communication partner.
Description
【0001】[0001]
【産業上の利用分野】本発明は、画像通信装置に関し、
より具体的には、互いの視線を一致させた状態でTV会
議できる画像通信装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image communication device,
More specifically, the present invention relates to an image communication device capable of performing a video conference while keeping the lines of sight of each other matched.
【0002】[0002]
【従来の技術】2つの撮像装置の撮影画像を組み合わせ
て利用する複眼撮像系としては、以下のものが知られて
いる。例えば4,000×4,000画素の超高精細な
画像を超高精細モニタに表示する場合、撮像系における
高密度化および高感度化が間題となる。撮像系における
解決手法として、画素数の少ない二つの撮像系を用いて
共通の被写体を撮像し、各撮像系でそれぞれ得られる二
つの画像を合成することにより高精細な一つの画像を得
る複眼撮像装置の原理が提案されている(相澤など、
「超高精細画像取得のための基礎検討」、画像電子学会
予稿90−03−04、p.23〜28)。2. Description of the Related Art The following is known as a compound-eye image pickup system which uses images taken by two image pickup devices in combination. For example, when displaying an ultra-high-definition image of 4,000 × 4,000 pixels on an ultra-high-definition monitor, high density and high sensitivity in the image pickup system are problems. As a solution in the imaging system, compound eye imaging that captures a common subject using two imaging systems with a small number of pixels and combines two images obtained by each imaging system to obtain one high-definition image The principle of the device has been proposed (Aizawa et al.
"Fundamental Study for Acquisition of Ultra High Definition Images," IEICE Preliminary Report 90-03-04, p. 23-28).
【0003】この原理に基づく複眼撮像装置は、図7に
示すように、左側撮像系110Lと右側撮像系110Rと
を用意し、左側撮像系110Lと右側撮像系110Rとで
サンプリング点を空問位相で1/2ピッチずらして被写
体101を撮像するとともに、左側撮像系110Lで得
られた左側画像ILと右側撮像系110Rで得られた右側
画像IRとをマイクロプロセッサ(以下、「CPU」と
称する。)120で合成処理することにより、一つの撮
像系で被写体101を撮像したときに比べて高精細な一
つの出力画像IOUTを得るものである。[0003] multi-lens imaging apparatus based on this principle, as shown in FIG. 7, prepared left and imaging system 110 L and the right imaging system 110 R, the sampling points in the left side imaging system 110 L and the right imaging system 110 R with imaging an object 101 is shifted 1/2 pitch with Soratoi phase, and a right image I R obtained by the left image I L and right-side imaging system 110 R obtained in the left imaging system 110 L microprocessor ( Hereinafter, by performing a combining process in "CPU") 120, one output image I OUT having a higher definition than that obtained when the object 101 is imaged by one imaging system is obtained.
【0004】図8は、図7に示した左側撮像系110L
および右側撮像系110Rの基本的な光学構造を示す。
左側撮像系110Lは、左側撮像光学系111Lと左側イ
メージセンサ112Lとからなる。右側撮像系110
Rは、右側撮像光学系111Rと右側イメージセンサ11
2Rとからなる。ここで、左側撮像光学系111Lと右側
撮像光学系111Rとは、互いに等価な仕様(又は性
能)を有し、ここではズームレンズからなる。また、左
側イメージセンサ112Lと右側イメージセンサ112R
とは互いに等価な仕様(又は性能)を有し、サチコンな
どの撮像管又はCCD型撮像素子等の固体撮像素子から
なる。FIG. 8 is a left side imaging system 110 L shown in FIG.
And the basic optical structure of the right imaging system 110 R.
Left imaging system 110 L is composed of a left imaging optical system 111 L and left image sensor 112 L. Right imaging system 110
R is the right imaging optical system 111 R and the right image sensor 11
It consists of 2 R. Here, the left-side imaging optical system 111 L and the right-side imaging optical system 111 R have specifications (or performance) equivalent to each other, and in this case, they are zoom lenses. Also, the left image sensor 112 L and the right image sensor 112 R
Have specifications (or performance) equivalent to each other, and are composed of an image pickup tube such as a SATICON or a solid-state image pickup device such as a CCD type image pickup device.
【0005】左側撮像系110Lと右側撮像系110Rと
は、それらの光軸LL,LRが被写体面102上の点Oで
ほぼ交差し、かつ、被写体面102の法線O−O’に対
して線対称になるように配置されている。なお、各光軸
LL,LRと被写体面102の法線O−O’とのなす角
(以下、「傾斜角」と称する。)をそれぞれθとしたと
きに、2θを輻輳角と定義する。The left-side image pickup system 110 L and the right-side image pickup system 110 R have their optical axes L L and L R substantially intersect at a point O on the object plane 102, and a normal line OO of the object plane 102. It is arranged so as to be line symmetric with respect to. It should be noted that when the angles formed by the optical axes L L and L R and the normal line OO ′ of the subject plane 102 (hereinafter, referred to as “tilt angles”) are respectively θ, 2θ is defined as a vergence angle. To do.
【0006】この複眼撮像装置では、被写体距離が変化
した場合には、例えば、図8に示す×印を中心として左
側撮像系110L及び右側撮像系110Rをそれぞれ回転
させて、被写体距離の変化に応じて輻輳角2θを変更し
た上で、撮像が行なわれる。次に、距離画像に関して説
明する。図9は、距離画像を求めるために用いられる三
角測量の説明図である。なお、以下の説明では、特記し
ない限り、右側カメラ及び左側カメラのイメージセンサ
がそれぞれポジ面に置かれた状態で図示する。三角測量
によれば、2つのカメラ(右側カメラおよび左側カメ
ラ)を用いて三次元空間内にある物体(被写体)を撮像
した場合で、右側カメラのレンズの中心点をOR、左側
カメラのレンズの中心点をOLとしたとき、この物体上
の一点Pの、右側カメラのセンサ面ASRでの投影点PR
と左側カメラのセンサ面ASLでの投影点PLとから、こ
の物体上の一点Pの三次元座標を得ることができる。In this compound-eye image pickup device, when the subject distance changes, for example, the left image pickup system 110 L and the right image pickup system 110 R are respectively rotated around the X mark shown in FIG. 8 to change the subject distance. The imaging is performed after changing the vergence angle 2θ according to. Next, the distance image will be described. FIG. 9 is an explanatory diagram of triangulation used for obtaining a distance image. In the following description, unless otherwise specified, the image sensors of the right camera and the left camera are placed on the positive surface. According to triangulation, an object (subject) in the three-dimensional space by using two cameras (right camera and the left camera) when captured, the center point of the right camera lens O R, the left camera lens When the center point of the object is O L , the projection point P R of the point P on this object on the sensor surface A SR of the right camera
And the projection point P L on the sensor plane A SL of the left camera, the three-dimensional coordinates of one point P on this object can be obtained.
【0007】図9において、基線B、基線長LB、エピ
ポーラ面(視線面)Ae及びエピポーラ・ライン(視線
像)LeR,LeLは、それぞれ以下のように定義される。
即ち、基線Bとは、右側カメラのレンズの中心点ORと
左側カメラのレンズの中心点OLとを結ぶ線をいう。基
線長LBとは、基線Bの長さをいう。エピポーラ面Aeと
は、物体上の一点P、投影点PR及び投影点PLの三点を
結んでできる平面をいう。エピポーラ・ライン(視線
像)LeRとは、エピポーラ面Aeと右側カメラのセンサ
面ASRとの交線をいい、エピポーラ・ラインLeLとは、
エピポーラ面Aeと左側カメラのセンサ面ASLとの交線
をいう。In FIG. 9, the base line B, the base line length L B , the epipolar plane (line of sight) A e, and the epipolar lines (line of sight images) L eR and L eL are defined as follows.
That is, the base line B is a line connecting the center point O R of the lens of the right camera and the center point O L of the lens of the left camera. The base line length L B means the length of the base line B. The epipolar plane A e is a plane formed by connecting one point P on the object, the projection point P R, and the projection point P L. The epipolar line (line-of-sight image) L eR is a line of intersection between the epipolar surface A e and the sensor surface A SR of the right camera, and the epipolar line L eL is
The line of intersection between the epipolar surface A e and the sensor surface A SL of the left camera.
【0008】図10に示すように、基線Bの中点を原点
O(0,0,0)、基線Bに沿ってx軸、紙面に垂直な
方向にy軸(図示せず。)、そして、基線B及びy軸に
垂直な方向にz軸をとり、右側カメラのレンズおよび左
側カメラのレンズの焦点距離をそれぞれfとし、物体上
の一点Pの座標を(xP,yP,zP)、投影点PRの座標
を(xPR,yPR,zPR)及び投影点PLの座標を
(xPL,yPL,zPL)とする。このとき、右側カメラお
よび左側カメラの光軸がそれぞれ、図10に示すよう
に、基線Bに対して垂直である場合(即ち、2つの光軸
が互いに平行である場合)、以下の式が成立する。即
ち、As shown in FIG. 10, the midpoint of the base line B is the origin O (0,0,0), the x axis is along the base line B, the y axis is perpendicular to the plane of the drawing (not shown), and , The base axis B and the z axis in the direction perpendicular to the y axis, the focal lengths of the lens of the right camera and the lens of the left camera are f, and the coordinates of a point P on the object are (x P , y P , z P ), And the coordinates of the projection point P R are (x PR , y PR , z PR ) and the coordinates of the projection point P L are (x PL , y PL , z PL ). At this time, when the optical axes of the right camera and the left camera are respectively perpendicular to the base line B as shown in FIG. 10 (that is, when the two optical axes are parallel to each other), the following formula is established. To do. That is,
【0009】[0009]
【数1】(xPL+LB/2)/f=(xP+LB/2)/zP [Equation 1] (x PL + L B / 2) / f = (x P + L B / 2) / z P
【0010】[0010]
【数2】(xPR-LB/2)/f=(xP-LB/2)/zP [Equation 2] (x PR -L B / 2) / f = (x P -L B / 2) / z P
【0011】[0011]
【数3】yL/f=yR/f=y/zP [Number 3] y L / f = y R / f = y / z P
【0012】[0012]
【数4】(LB+xPL−xPR)/f=LB/zP よって、物体上の一点Pの座標(xP,yP,zP)は、
下記式により求められる。即ち、Equation 4] (L B + x PL -x PR ) / f = L B / z P Therefore, the coordinates of a point P on the object (x P, y P, z P) are
It is calculated by the following formula. That is,
【0013】[0013]
【数5】xP=LB((xPL+xPR)/2)/(LB+xPL-xPR)[Formula 5] x P = L B ((x PL + x PR ) / 2) / (L B + x PL -x PR )
【0014】[0014]
【数6】yP=LB((yPL+yPR)/2)/(LB+XPL-xPR)[Equation 6] y P = L B ((y PL + y PR ) / 2) / (L B + X PL -x PR )
【0015】[0015]
【数7】zP=LBf/(LB+xPL-xPR) また、右側カメラ及び左側カメラの光軸がそれぞれ、図
11に示すように基線Bに対して所定の角度(輻輳角)
θをもっている場合には、以下の式が成立する。即ち、## EQU00007 ## z P = L B f / (L B + x PL -x PR ) Further, the optical axes of the right camera and the left camera are each at a predetermined angle (convergence) with respect to the base line B as shown in FIG. Corner)
When θ is held, the following formula is established. That is,
【0016】[0016]
【数8】(xPL+LB/2)zPL=(xP+LB/2)/zP (Equation 8) (x PL + L B / 2) z PL = (x P + L B / 2) / z P
【0017】[0017]
【数9】(xPR-LB/2)/zPR=(xP-LB/2)/zP (Formula 9) (x PR -L B / 2) / z PR = (x P -L B / 2) / z P
【0018】[0018]
【数10】yPL/zPL=yPR/zPR=yP/zP [Equation 10] y PL / z PL = y PR / z PR = y P / z P
【0019】[0019]
【数11】 LB/zP=((zPL+LB/2)−(zPL/z
PR)(xPR−LB/2)/ZPL 但し、|xPR|≧|xPL|Equation 11] L B / z P = (( z PL + L B / 2) - (z PL / z
PR) (x PR -L B / 2) / Z PL However, | x PR | ≧ | x PL |
【0020】[0020]
【数12】 LB/zP=(-(xPR-LB/2)+(zPR/zPL)(xPL+LB/2))/zPR 但し、|xPR|<|xPL|[Equation 12] L B / z P = (-(x PR -L B / 2) + (z PR / z PL ) (x PL + L B / 2)) / z PR where | x PR | <| x PL |
【0021】[0021]
【数13】zPR=(xPR-LB/2)tan(θ)+fcos(θ)[Formula 13] z PR = (x PR -L B / 2) tan (θ) + fcos (θ)
【0022】[0022]
【数14】zPL=-(xPL+LB/2)tan(θ)+fcos(θ)[Formula 14] z PL =-(x PL + L B / 2) tan (θ) + fcos (θ)
【0023】これらのThese
【数1】〜[Equation 1] ~
【数14】から、物体上の一点Pの座標(xP,yP,z
P)を求めることができる。From the equation (14), the coordinates (x P , y P , z
P ) can be obtained.
【0024】以上説明した三角測量により、右側撮像系
及び左側撮像系からなる複眼撮像系によって撮像した二
枚の画像から、物体(被写体)までの距離を求めること
ができる。しかし、三角測量は、右側カメラのセンサ面
ASRでの投影点PRと左側カメラのセンサ面ASLでの投
影点PLとが同じ点Pの投影点であることを前提条件と
して、物体までの距離を求めるものであるので、左側カ
メラのセンサ面ASLでの投影点PLに対応する右側カメ
ラのセンサ面ASRでの投影点PRが抽出されている必要
がある。従って、複眼撮像系を用いて距離情報を得るに
は、如何にして対応点を抽出するか(対応点抽出方法)
が問題となる。代表的な対応点抽出方法としては、既に
工場などで応用されているテンプレート・マッチング法
等がある。By the triangulation described above, the distance to the object (subject) can be obtained from the two images picked up by the compound eye image pickup system including the right side image pickup system and the left side image pickup system. However, triangulation is based on the assumption that the projection point P R on the sensor surface A SR of the right camera and the projection point P L on the sensor surface A SL of the left camera are projection points of the same point P. Since the distance to is calculated, the projection point P R on the sensor plane A SR of the right camera corresponding to the projection point P L on the sensor plane A SL of the left camera needs to be extracted. Therefore, how to extract corresponding points in order to obtain distance information using the compound-eye imaging system (corresponding point extraction method)
Is a problem. As a typical corresponding point extraction method, there is a template matching method already applied in factories and the like.
【0025】テンプレート・マッチング法を説明する。
テンプレート・マッチング法は、左側カメラのセンサ面
ASLに結像される左画像の任意の一点を囲むテンプレー
トを考え、このテンプレート内の画像に対して、右側カ
メラのセンサASRに結像される右画像とを比較し、その
類似性から対応点を決定するものである。なお、類似性
の判定には、SSDA(Sequential Sim
ilarity Detection Algorit
hm)法と、相関法がある。The template matching method will be described.
The template matching method considers a template surrounding an arbitrary point of the left image formed on the sensor surface A SL of the left camera, and an image in this template is formed on the sensor A SR of the right camera. The corresponding image is compared with the right image and the corresponding point is determined from the similarity. Note that SSDA (Sequential Sim) is used to determine the similarity.
ilarity Detection Algorithm
hm) method and correlation method.
【0026】SSDA法では、数15に示すように、左
画像のエピポーラ・ラインLeL上の全ての画素と右画像
のエピポーラ・ラインLeR上の全ての画素に対して、左
画像のテンプレート内の画像中の画素値ELと探索する
右画像中の画素値ERとの差を加算し、得られた和E
(x,y)が最小になる座標をもって対応点の座標とす
るものである。In the SSDA method, as shown in equation 15, for all the pixels on the epipolar line L eL of the left image and all the pixels on the epipolar line L eR of the right image, in the template of the left image. The sum E obtained by adding the difference between the pixel value E L in the image of P and the pixel value E R in the right image to be searched for
The coordinates that minimize (x, y) are the coordinates of the corresponding points.
【0027】[0027]
【数15】 [Equation 15]
【0028】SSDA法では、今までに計算した他の座
標における最小値よりも計算中の画素値の差の和が大き
〈なった場合には、計算を中止して次の座標に移動して
もよいので、余分な計算をなくして計算時間を短縮でき
る。In the SSDA method, when the sum of the differences in the pixel values being calculated becomes larger than the minimum value at other coordinates calculated up to now, the calculation is stopped and the operation moves to the next coordinate. Since it is good, the calculation time can be shortened by eliminating extra calculation.
【0029】相関法は、数16に示すように、左画像の
テンプレート内の画像中の画素値ELと探索する右画像
中の画素値ERとの相互相関をとることにより相関値P
(x,y)を求めて、求めた相関値P(x,y)が最大
となる座標をもって対応点の座標とするものである。な
お、数16に示す正規化相互相関では、最大値は1とな
る。In the correlation method, the correlation value P is obtained by taking the cross-correlation between the pixel value E L in the image in the template of the left image and the pixel value E R in the right image to be searched, as shown in Equation 16.
(X, y) is obtained, and the coordinate at which the obtained correlation value P (x, y) is maximum is used as the coordinate of the corresponding point. In the normalized cross-correlation shown in Expression 16, the maximum value is 1.
【0030】[0030]
【数16】 [Equation 16]
【0031】また、視線を一致させる技術に関しては、
平成4年特許出願公開第196696号がある。そこに
は、通信相手の顔画像を見ながら同時にその観察者であ
る通信者の画像を撮像して通信相手に送信する対面通信
において、通信相手との視線一致を光学的に実現する方
式として次のようなものが提案されている。例えば、動
画像として表示される通信相手と正対する通信において
良好な視線一致を得るために、撮像系(カメラ)と表示
系(ディスプレイ装置)の光軸をハーフミラーで結合す
る構成を開示している。Regarding the technique for matching the lines of sight,
There is a patent application publication No. 196696 in 1992. In the face-to-face communication in which the face image of the communication partner is simultaneously observed and the image of the communication partner who is the observer is captured and transmitted to the communication partner, there is a method for optically achieving line-of-sight matching with the communication partner. Something like is proposed. For example, in order to obtain a good line-of-sight match in communication directly facing a communication partner displayed as a moving image, a configuration is disclosed in which the optical axes of the imaging system (camera) and the display system (display device) are coupled by a half mirror. There is.
【0032】また、他の例として、図12に示すよう
に、表示装置に近接した位置にカメラを配置する。図1
2(1)は正面図、同(2)はその側面図を示し、表示
装置(ディスプレイ)の上方にカメラ2を配置する。カ
メラ2は、被撮影者3に対しては角度θ(カメラ2とデ
ィスプレイ1面の動画ウインドウ中心T点を注視する被
撮影者3の眼Eを結ぶ線とのなす角度)をもっている。
これは、ディスプレイ面と被撮影者との距離Lが大きい
場合に、視線の不一致を感じさせない機器配置構成であ
る。As another example, as shown in FIG. 12, a camera is arranged at a position close to the display device. Figure 1
2 (1) is a front view and FIG. 2 (2) is a side view thereof, and the camera 2 is arranged above a display device (display). The camera 2 has an angle θ with respect to the person to be photographed 3 (an angle formed by the camera 2 and a line connecting the eyes E of the person to be photographed 3 gazing at the center point T of the moving image window on the display 1 surface).
This is a device arrangement configuration that does not make the user feel a line of sight mismatch when the distance L between the display surface and the person to be photographed is large.
【0033】[0033]
【発明が解決しようとする課題】しかし、従来例では、
視覚的に違和感を感じさせるという問題点があった。ま
た、より臨場感を高めるためには大画面表示が必須とな
り、表示装置の画面サイズが大きくなると共に半透鏡の
サイズも大きくしなければならない。その結果、奥行き
が大きくなり、表示・撮像装置自体が大型のものとなっ
てしまうという問題点があった。However, in the conventional example,
There was a problem that it felt visually uncomfortable. Further, a large screen display is indispensable in order to enhance the sense of realism, and the screen size of the display device must be increased and the size of the semi-transparent mirror must be increased. As a result, there is a problem that the depth becomes large and the display / imaging device itself becomes large.
【0034】大画面化に応じて撮像装置にも広角のレン
ズを用いる事が不可欠となり、かつ、半透鏡の価格もサ
イズに応じて高いものとなるので、その結果、装置全体
が高価なものになるという問題点があった。It is indispensable to use a wide-angle lens also in the image pickup apparatus in accordance with the increase in screen size, and the price of the semi-transparent mirror becomes high depending on the size. As a result, the entire apparatus becomes expensive. There was a problem that
【0035】従来例では更に、目を避けたい場合に、有
効な手段が存在しない。Further, in the conventional example, there is no effective means for avoiding eyes.
【0036】本発明は、このような問題点を解決する画
像通信装置を提示することを目的とする。It is an object of the present invention to provide an image communication device that solves such problems.
【0037】[0037]
【課題を解決するための手段】本発明に係る画像通信装
置は、通信相手の画像を互いの表示装置に表示して会話
する画像通信装置であって、各通信端末が、複数の撮像
装置と、当該複数の撮像装置による撮影画像を、通信相
手の視線と一致させるべく処理する視線一致処理装置と
を具備することを特徴とする。An image communication apparatus according to the present invention is an image communication apparatus for displaying images of communication partners on a mutual display device for conversation, and each communication terminal includes a plurality of image pickup devices. And a line-of-sight matching processing device that processes images captured by the plurality of imaging devices so as to match the line-of-sight of the communication partner.
【0038】[0038]
【作用】上記手段により、通信相手との視線が一致した
画像を通信相手に送信できるようになり、視線を相互に
一致させることができる。By the above means, it becomes possible to transmit to the communication partner an image in which the line of sight of the communication partner matches, and the lines of sight can be matched with each other.
【0039】[0039]
【実施例】以下、図面を参照して本発明の実施例を説明
する。Embodiments of the present invention will be described below with reference to the drawings.
【0040】図1は、本発明の一実施例の概略構成ブロ
ック図を示し、図2は端末の外観図を示す。FIG. 1 shows a schematic block diagram of an embodiment of the present invention, and FIG. 2 shows an external view of a terminal.
【0041】図2に示すように、端末としては、ディス
プレイ装置、2台のカメラ、マンマシン・インターフェ
ース部(キーボード、マウス、スイッチ類など)からな
る。図1において、カメラ1,2は同じ被写体を撮像す
る。TV会議などの状況下では、通常、主たる被写体は
TV会議しようとする人物である。撮像された画像は、
画像メモリを有するビデオ信号処理部3,4へ伝送され
る。ビデオ信号処理部3,4で処理された画像は、対応
点抽出部5及び法線ベクトル抽出部6に印加される。対
応点抽出部5は対応点を抽出し、法線ベクトル抽出部6
は法線ベクトルを抽出する。As shown in FIG. 2, the terminal comprises a display device, two cameras, and a man-machine interface section (keyboard, mouse, switches, etc.). In FIG. 1, cameras 1 and 2 image the same subject. In a situation such as a video conference, the main subject is usually a person who is going to make a video conference. The captured image is
It is transmitted to the video signal processing units 3 and 4 having an image memory. The images processed by the video signal processing units 3 and 4 are applied to the corresponding point extracting unit 5 and the normal vector extracting unit 6. The corresponding point extraction unit 5 extracts the corresponding points, and the normal vector extraction unit 6
Extracts the normal vector.
【0042】3次元構造処理部7は、対応点抽出部5及
び法線ベクトル抽出部6で抽出された情報を使い、被写
体のおおよその3次元位置情報を算出する。このように
算出された被写体の構造情報を使い、座標変換部8が、
任意の指定の方向に被写体を向かせる。指定の方向に向
けられた被写体の画像を送受信伝送部9から通信相手に
送信する。The three-dimensional structure processing unit 7 uses the information extracted by the corresponding point extraction unit 5 and the normal vector extraction unit 6 to calculate the approximate three-dimensional position information of the subject. Using the structure information of the subject calculated in this way, the coordinate conversion unit 8
Aim the subject in any specified direction. The image of the subject pointed in the designated direction is transmitted from the transmission / reception transmission unit 9 to the communication partner.
【0043】以上はごく基本的な情報の流れであるが、
以下、細部を詳細に説明する。The above is a very basic flow of information,
The details will be described below in detail.
【0044】対応点抽出部5を説明する。対応点抽出部
5は、2つの撮像画像からそれぞれ抽出した二本のエピ
ポーラ・ラインから形成される視差画面上の各交点で、
この二枚の二値画像の実画素に基づく興奮性結合及び抑
制性結合をもつ局所演算を行うことにより視差ラインを
算出する。この二枚の二値画像の対応点を抽出する際
に、各二値画像の互いに隣り合う実画素の間に、実画素
間の連続性を示す仮想画素をそれぞれ設け、仮想画素に
基づく興奮性結合及び抑制性結合をもつ局所演算を、実
画素に基づく興奮性結合及び抑制性結合をもつ局所演算
と並行して行う。なお、仮想画素に基づく興奮性結合
は、実画素に基づく興奮性結合と互いに拮抗し、また、
仮想画素に基づく抑制性結合は実画素に基づく抑制性結
合と互いに拮抗する。The corresponding point extraction unit 5 will be described. The corresponding point extraction unit 5 calculates, at each intersection point on the parallax screen formed from two epipolar lines extracted from the two captured images,
A parallax line is calculated by performing a local calculation having excitatory coupling and inhibitory coupling based on the actual pixels of these two binary images. When extracting the corresponding points of these two binary images, virtual pixels indicating continuity between the actual pixels are provided between adjacent real pixels of each binary image, and excitability based on the virtual pixels is provided. A local operation with associative and inhibitory connections is performed in parallel with a local operation with excitatory and inhibitory connections based on real pixels. In addition, the excitatory connection based on the virtual pixel counteracts with the excitatory connection based on the real pixel,
Inhibitory connections based on virtual pixels compete with inhibitory connections based on real pixels.
【0045】David Marrにより提案された協
調アルゴリズムでは以下の3つの規則がある。即ち、 規則1(適合性)・・・黒点は黒点とのみ整合し得る。In the cooperative algorithm proposed by David Marr, there are the following three rules. That is, Rule 1 (Compatibility) ... Black dots can only match black dots.
【0046】規則2(一意性)・・・ほとんど常に、一
つの画像の一つの黒点は、他方の画像の唯一の黒点と整
合し得る。Rule 2 (Uniqueness) —Almost always one black dot in one image can match the only black dot in the other image.
【0047】規則3(連続性)・・・整合する点の視差
は、ほとんど全域で滑らかに変化する。Rule 3 (Continuity) ... The parallax of matching points changes smoothly over almost the entire area.
【0048】本実施例は、これらの3つの規則に更に、
以下の規則4〜6を追加するものである。即ち、 規則4・・・視差の連続性の度合いを、局所処理の中心
ほど強く局所処理の周辺ほど弱くする。This embodiment further adds to these three rules:
The following rules 4 to 6 are added. That is, rule 4 ... The degree of continuity of parallax is set stronger at the center of the local processing and weaker at the periphery of the local processing.
【0049】規則5・・・一意性を強化するため、局所
処理の周辺に行くほど抑制性結合を強くする。Rule 5: In order to strengthen uniqueness, the inhibitory coupling is strengthened toward the periphery of the local processing.
【0050】規則6・・・画像中の互いに隣り合う実画
素の間に、実画素間の連続性を示す仮想画素をそれぞれ
設け、設けた各仮想画素に基づいて規則1〜5に拮抗す
る処理を施す。Rule 6 ... Processing in which virtual pixels indicating continuity between real pixels are provided between adjacent real pixels in an image, and rules 1 to 5 are matched based on the provided virtual pixels. Give.
【0051】なお、規則5における局所処理とは、一つ
の画像の一実画素に注目したとき、その実画素を中心と
した局所領域に施す処理をいい、局所処理の中心とは、
このとき注目した一実画素の位置をいい、局所処理の周
辺とは、このとき注目した一実画素から離れた位置をい
う。この局所処理に繰り返しにより、視差ラインを算出
し、対応点を抽出する。Note that the local processing in rule 5 is the processing performed on a local area centered on the real pixel when one real pixel of one image is focused, and the center of the local processing is
At this time, the position of one real pixel of interest is referred to, and the periphery of the local processing means a position away from the one real pixel of interest at this time. By repeating this local processing, the parallax line is calculated and the corresponding points are extracted.
【0052】法線ベクトル抽出部6は、図3に示すよう
に3つのモジュールからなる。SSモジュールは、画像
上の物体の遮蔽輪郭部分の法線方向を基に3次元構造情
報を抽出する。このモジュールは、3次元物体の表面に
対する滑らかな拘束を仮定して、緩和法により大局的に
最も誤差の少ない状態を解とするものである。初期条件
として遮蔽輪郭の法線方向情報が用いられる。画素点
〈x,y)における法線方回を表わす関数をf(x,
y),g(x,y)とする。近傍の法線との問の滑らか
さを表わす量egを、次式のように定義する。即ち、The normal vector extraction unit 6 is composed of three modules as shown in FIG. The SS module extracts three-dimensional structural information based on the normal direction of the occluding contour portion of the object on the image. This module assumes a smooth constraint on the surface of a three-dimensional object and uses the relaxation method to find the state with the smallest error globally. As the initial condition, the normal direction information of the shield contour is used. The function representing the normal direction at the pixel point <x, y) is f (x,
y) and g (x, y). The quantity eg, which represents the smoothness of the question with the normal line in the vicinity, is defined as the following equation. That is,
【0053】[0053]
【数17】eg=∫∫((fx 2+fy 2)+(gx 2+gy 2))dxdy 但し、fxは関数fのx方向の偏微分、fyは関数fのy方
向の偏微分、gxは関数gのx方向の偏微分、gyは関数g
のy方向の偏微分である。## EQU17 ## eg = ∫∫ ((f x 2 + f y 2 ) + (g x 2 + g y 2 )) dxdy where f x is the partial differential of the function f in the x direction and f y is the function f partial differential in the y direction, g x is the partial differential in the x direction of the function g, and g y is the function g
Is a partial differential in the y direction.
【0054】また、測定輝度値Iと理論値R(f,g)
との誤差を表わす量efを、次式のように定義する。即
ち、Further, the measured luminance value I and the theoretical value R (f, g)
The quantity ef representing the error between and is defined as the following equation. That is,
【0055】[0055]
【数18】ef=∫∫(I(x,y)−R(f,g))2dxdy SSモジュールは、eg+λefを最小化するために変
分法によりf,gを解いて離散化を行ない、緩和法を実
行して法線方向情報を抽出する。[Equation 18] ef = ∫∫ (I (x, y) −R (f, g)) 2 dxdy SS module solves f and g by the variational method to minimize eg + λef and performs discretization. , The relaxation method is executed to extract the normal direction information.
【0056】LSAMモジュールは、物体の表面形状と
して球面を想定して、画素の局所的な輝度変化情報に基
づいて法線方向を算出する。画素上での方向ξにおける
輝度Iの2次微分d2Iは、ξだけ回転した座標系
(u,v)におけるu方向の2次偏微分Iuuの値と等し
い。この値は、次の座標変換式 Iuu=Ixxcos2ξ+Iyysin2ξ+2Ixycosξsinξ から求められる。The LSAM module assumes a spherical surface as the surface shape of the object and calculates the normal direction based on the local luminance change information of the pixel. The second derivative d 2 I of the luminance I in the direction ξ on the pixel is equal to the value of the second partial derivative I uu in the u direction in the coordinate system (u, v) rotated by ξ. This value is obtained from the following coordinate conversion formula I uu = I xx cos 2 ξ + I yy sin 2 ξ + 2I xy cos ξ sin ξ.
【0057】Iuuが最小になる条件は、 dIuu/dξ=0 である。従って、 tanξ=2Ixy/(Ixx−Iyy) となる。The condition for minimizing I uu is dI uu / dξ = 0. Therefore, tan ξ = 2I xy / (I xx −I yy ).
【0058】物体表面が球状であると仮定し、そのとき
のIxx,Iyy,Ixyの値を代入すると、 tan2ξ=
2xy/(x2-y2) となる。また、 tanθ=y/x であるから、 tan2θ=2tanθ/(1−tan2θ) =2xy/(x2-y2) =tan2ξ となる。Assuming that the surface of the object is spherical and substituting the values of I xx , I yy , and I xy at that time, tan2ξ =
It becomes 2xy / (x 2 -y 2 ). Since tan θ = y / x, tan 2θ = 2 tan θ / (1-tan 2 θ) = 2xy / (x 2 −y 2 ) = tan 2 ξ.
【0059】従って、表面形状を球面と仮定したとき、
法線の方位角θは、輝度の2次微分d2Iの最小方向に
等しい。LSAMモジュールは、このような演算により
法線方向を算出する。Therefore, assuming that the surface shape is spherical,
The azimuth angle θ of the normal is equal to the minimum direction of the second derivative d 2 I of luminance. The LSAM module calculates the normal direction by such calculation.
【0060】SSモジュール及びLSAMモジュールの
詳細は、Ikeuchi,K. &B.K.P. Ho
rn ”Numerical Shape from
Shading and Ocduling Boun
daries”,A1,vol.17,#1−3,P
P.141−184,1981、及び、Pentlan
d A.P.”Local Shading anal
ysis”,IEEETrans,PAM1−6,#
2,1984に記載されている。Details of the SS module and the LSAM module are described in Ikeuchi, K. et al. & B. K. P. Ho
rn "Numerical Shape from
Shading and Occluding Boun
"Daries", A1, vol. 17, # 1-3, P
P. 141-184, 1981 and Pentlan
d A. P. "Local Shading anal
ysis ”, IEEE Trans, PAM1-6, #
2, 1984.
【0061】SSモジュール及びLSAMモジュールで
算出された法線方向情報から、新たに利用する法線方向
情報を次のように定義する。即ち、SSモジュールで算
出された法線ベクトルをfSSとし、LSAMモジュール
で算出された法線ベクトルをfLSAMとすると、新たに利
用する法線方向情報fを次式により求める。即ち、 f=(fSS+fLSAM)/2 又は、任意の点(x,y)の近傍領域のfSSとfLSAMの
全体の平均からfを定義してもよい。仮に、近傍領域か
ら4つのfSS1,fSS2,fSS3,fSS4;fLSAM1,f
LSAM2,fLSAM3,fLSAM4が得られたとき、 f=(1/8)(Σ(fSSi+fLSAMi)) とする。但し、iは1〜4である。The normal direction information to be newly used is defined as follows from the normal direction information calculated by the SS module and the LSAM module. That is, assuming that the normal vector calculated by the SS module is f SS and the normal vector calculated by the LSAM module is f LSAM , newly used normal direction information f is obtained by the following equation. That is, f = (f SS + f LSAM ) / 2, or f may be defined from the overall average of f SS and f LSAM in the vicinity of an arbitrary point (x, y). If four f SS1 , f SS2 , f SS3 , f SS4 ; f LSAM1 , f from the neighboring region
When LSAM2 , f LSAM3 , and f LSAM4 are obtained, f = (1/8) (Σ (f SSi + f LSAMi )). However, i is 1 to 4.
【0062】座標変換部8を説明する。座標変換部8
は、自動選択モードと任意選択モードのどちらか一方を
選択し、実行する。自動変換モードは、法線ベクトル抽
出部6で算出した法線ベクトルを利用する。通常、法線
ベクトルは被写体の形によって様々な方向を向いている
が、例えば、TV会議などで人物が中心の被写体の場
合、撮像される被写体として人物がほぼ中心に位置する
ので、中心近傍の領域の平均値から全体の方向を見地
し、これがカメラの光軸と一致するように回転させる。
数学的には、次の変換になる。The coordinate conversion unit 8 will be described. Coordinate conversion unit 8
Selects and executes either the automatic selection mode or the arbitrary selection mode. The automatic conversion mode uses the normal vector calculated by the normal vector extraction unit 6. Normally, the normal vector is oriented in various directions depending on the shape of the subject. For example, in a video conference or the like, where the person is the center of the subject, the person is almost centered as the subject to be imaged. From the average value of the area, look at the whole direction and rotate it so that it coincides with the optical axis of the camera.
Mathematically, the conversion is as follows.
【0063】[0063]
【数19】 [Formula 19]
【0064】ここで、(ω,φ,χ)が回転角である。Here, (ω, φ, χ) is the rotation angle.
【0065】任意選択モードでは、TV会議における通
信相手が、送信側の撮像画像の向きを変換することを可
能にする。変換式として数19と同じであるが、変換の
回転角の情報が通信相手から伝送されてくるのが特徴で
ある。In the optional mode, the communication partner in the TV conference can change the orientation of the captured image on the transmission side. Although the conversion formula is the same as that of the equation (19), it is characterized in that the information about the rotation angle of the conversion is transmitted from the communication partner.
【0066】次に、複眼光学系を説明する。図4は、本
実施例における複眼撮像系の基本配置を示す。右側撮像
系100は、右側撮像光学系102と右側イメージセン
サ103とからなり、左側撮像光学系200は、左側撮
像光学系202と左側イメージセンサ203とからな
る。ここで、右側撮像光学系102と左側撮像光学系2
02とは互いに等価な仕様(又は性能)を有し、ここで
はズームレンズからなる。また、右側イメージセンサ1
03と左側イメージセンサ203は互いに等価な仕様
(又は性能)を有し、ここでは、サチコンなどの撮像管
又はCCD型撮像素子等のような固体撮像索子からな
る。Next, the compound eye optical system will be described. FIG. 4 shows the basic arrangement of the compound-eye imaging system in this embodiment. The right imaging system 100 includes a right imaging optical system 102 and a right image sensor 103, and the left imaging optical system 200 includes a left imaging optical system 202 and a left image sensor 203. Here, the right imaging optical system 102 and the left imaging optical system 2
02 has specifications (or performance) equivalent to each other, and is composed of a zoom lens here. Also, the right image sensor 1
03 and the left-side image sensor 203 have specifications (or performance) equivalent to each other, and in this case, they are image pickup tubes such as Sachicon or solid-state image pickup elements such as CCD image pickup elements.
【0067】右側撮像系100と左側撮像系200は、
それらの光軸101,201が被写体面l上の点Oでほ
ぼ交差し、かつ、被写体面1000の法線O−O’に対
して線対称になるように配置されている。なお、各光軸
101,201と被写体面1の法線O−O’とのなす角
(以下、傾斜角と称する)をそれぞれθとしたときに、
2θを輻輳角と定義する。この複眼撮像装置では、被写
体距離が変化した場合には、たとえば回転中心F1,F2
を中心として右側撮像系100及び左側撮像系200を
それぞれ回転させて、被写体距離の変化に応じて輻輳角
2θを変更し、その後、撮像を実行する。The right side imaging system 100 and the left side imaging system 200 are
The optical axes 101 and 201 substantially intersect at a point O on the object plane 1 and are arranged so as to be line-symmetric with respect to a normal line OO ′ of the object plane 1000. When the angles formed by the optical axes 101 and 201 and the normal line OO ′ of the object plane 1 (hereinafter referred to as tilt angles) are θ,
2θ is defined as the vergence angle. In this compound-eye imaging device, when the subject distance changes, for example, the rotation centers F 1 and F 2 are rotated.
The right-side imaging system 100 and the left-side imaging system 200 are respectively rotated around the center, and the convergence angle 2θ is changed according to the change in the subject distance, and then the imaging is performed.
【0068】次に、本実施例における複眼撮像装置およ
びその処理系を具体的に説明する。図5は本実施例の複
眼撮像装置の第1実施例を示す概略構成図、図6はその
処理ブロック図である。図5に示す複眼撮像装置では、
図4に示す基本配置を前提に、2組の撮像系(右側撮像
系100及び左側撮像系200)を用いて、共通の被写
体を撮像して得られる2つの画像を合成することにより
高精細な1つの画像を得るものである。Next, the compound-eye image pickup apparatus and its processing system in this embodiment will be specifically described. FIG. 5 is a schematic configuration diagram showing a first embodiment of the compound-eye image pickup apparatus of this embodiment, and FIG. 6 is a processing block diagram thereof. In the compound-eye imaging device shown in FIG. 5,
Based on the basic arrangement shown in FIG. 4, two sets of image pickup systems (right side image pickup system 100 and left side image pickup system 200) are used to synthesize two images obtained by picking up an image of a common subject to obtain a high-definition image. One image is obtained.
【0069】右側撮像系100及び左側撮像系200の
構成を、図5を参照して詳細に説明する。右側撮像系1
00は、右側撮像光学系102と、撮像管からなる右側
イメージ・センサ103とからなり、左側撮像系200
は、左側撮像光学系202と、撮像管からなる左側イメ
ージ・センサ203とからなる。The structures of the right side image pickup system 100 and the left side image pickup system 200 will be described in detail with reference to FIG. Right imaging system 1
Reference numeral 00 denotes a right side image pickup optical system 102 and a right side image sensor 103 formed of an image pickup tube.
Is composed of a left-side image pickup optical system 202 and a left-side image sensor 203 formed of an image pickup tube.
【0070】右側撮像光学系102及び左側撮像光学系
202はそれぞれ、変倍群102b,202b及び合焦
群102d,202dを含むレンズ群102a〜102
d,202a〜202dと、変倍群102b,202b
を駆動するための駆動系であるズーム・モータ106,
206と、合焦群102d,202dを駆動するための
駆動系であるフォーカス・モータ107,207と、光
軸101,201を含む平面内で撮像光学系102,2
02及びイメージ・センサ103,203を一体として
回転させるための機構系(不図示)及び駆動系(輻輳角
モータ104,204)と、輻輳角モータ104,20
4の回転角を検出する角度エンコーダ105,205と
を含む。なお、角度エンコータ105,205として
は、例えばポテンショメータのような外付けの部材を用
いてもよいし、例えばパルス・モータのように駆動信号
から回転角を検出できるモータではの駆動信号を回転角
に変換する手段でもよい。The right-side imaging optical system 102 and the left-side imaging optical system 202 are respectively lens groups 102a to 102 including a zooming group 102b, 202b and a focusing group 102d, 202d.
d, 202a to 202d, and the zoom groups 102b and 202b
A zoom motor 106, which is a drive system for driving the
206, the focus motors 107 and 207 which are drive systems for driving the focusing groups 102d and 202d, and the imaging optical systems 102 and 2 in a plane including the optical axes 101 and 201.
02 and the image sensors 103 and 203 as a unit, a mechanism system (not shown) and a drive system (convergence angle motors 104 and 204), and convergence angle motors 104 and 20.
The angle encoders 105 and 205 for detecting the rotation angle of No. 4 are included. Note that external members such as potentiometers may be used as the angle encoders 105 and 205. For example, a drive signal of a motor capable of detecting a rotation angle from a drive signal such as a pulse motor can be used as a rotation angle. It may be a means for converting.
【0071】右側撮像光学系102のフォーカス・モー
タ107及びズーム・モータ106は、変倍群102b
の光軸方向の位置情報を得るためのフォーカス・エンコ
ーダ109の出力信号及び合焦群102dの光軸方向の
位置情報を得るためのズーム・エンコーダ108の出力
信号により制御され、左側撮像光学系202のフォーカ
ス・モータ207及びズーム・モータ206は、変倍群
202bの光軸方向の位置情報を得るためのフォーカス
・エンコーダ209の出力信号及び合焦群202dの光
軸方向の位置情報を得るためのズーム・エンコーダ20
8の出力信号により制御される。これらにより、右側撮
像光学系102の焦点距離と左側撮像光学系202の焦
点距離とは常に一致するように制御され、この結果、右
側撮像光学系102の結像倍率と左側撮像光学系202
の結像倍率は常に一致する。The focus motor 107 and the zoom motor 106 of the right imaging optical system 102 are the zooming group 102b.
The left imaging optical system 202 is controlled by the output signal of the focus encoder 109 for obtaining the position information of the focusing group 102d and the output signal of the zoom encoder 108 for obtaining the position information of the focusing unit 102d in the optical axis direction. The focus motor 207 and the zoom motor 206 are used to obtain the output signal of the focus encoder 209 for obtaining the position information of the variable power group 202b in the optical axis direction and the position information of the focusing group 202d in the optical axis direction. Zoom encoder 20
8 output signals. As a result, the focal length of the right imaging optical system 102 and the focal length of the left imaging optical system 202 are controlled so as to always match, and as a result, the imaging magnification of the right imaging optical system 102 and the left imaging optical system 202 are controlled.
The imaging magnifications of are always the same.
【0072】以上の構成により、まず回転角情報検出手
段105,205が輻輳角2θを検出する。次に、ズー
ム・エンコーダ108,208の出力信号により、各撮
像光学系102,202の焦点距離が求められる。そし
て、フォーカス・エンコーダ109,209の出力信号
により各撮像光学系102,202に対する被写体距離
が求められ、上述の各撮像光学系102.202の焦点
距離と合わせて、各撮像光学系102,202のレンズ
バックが求められる。なお、ズーム・エンコーダ10
8,208及びフォーカス・エンコーダ109,209
の出力信号により、各撮像光学系102,202の焦点
距離とレンズバックも常に一致する。With the above configuration, first, the rotation angle information detecting means 105, 205 detect the convergence angle 2θ. Next, the focal lengths of the image pickup optical systems 102 and 202 are obtained from the output signals of the zoom encoders 108 and 208. Then, the subject distances to the respective image pickup optical systems 102 and 202 are obtained from the output signals of the focus encoders 109 and 209, and the object distances of the respective image pickup optical systems 102 and 202 are combined with the focal lengths of the respective image pickup optical systems 102 and 202 described above. A lens back is required. The zoom encoder 10
8, 208 and focus encoders 109, 209
With the output signal of, the focal lengths of the respective image pickup optical systems 102 and 202 and the lens back always match.
【0073】図6に示すように、変換信号生成部12
R,12Lは、それぞれイメージ・センサ103,20
3からの画像信号及び角度エンコーダ105,205か
らの角度信号をもとに、後述するエピポーラ・ラインを
再構成する。座標変換部11R,11Lは、変換信号生
成部12R,12Lの出力信号に従い、イメージ・セン
サ103,203の出力画像を座標変換処理する。画像
メモリ111,211は、座標変換部11R,11Lに
おいてそれぞれ座標変換された映像信号112,212
を一時保存する。補間処理部13R,13Lは、画像メ
モリ111,211に記憶された映像信号112,21
2に対し補間処理を施し、サンプリング点を内挿する。As shown in FIG. 6, the converted signal generator 12
R and 12L are image sensors 103 and 20, respectively.
An epipolar line, which will be described later, is reconstructed based on the image signal from the signal No. 3 and the angle signals from the angle encoders 105 and 205. The coordinate conversion units 11R and 11L perform coordinate conversion processing on the output images of the image sensors 103 and 203 according to the output signals of the conversion signal generation units 12R and 12L. The image memories 111 and 211 have video signals 112 and 212 whose coordinates have been converted by the coordinate conversion units 11R and 11L, respectively.
Temporarily store. The interpolation processing units 13R and 13L include the video signals 112 and 21 stored in the image memories 111 and 211, respectively.
Interpolation processing is performed on 2 and the sampling points are interpolated.
【0074】対応点検出部5は、補間処理部13R,1
3Lにおいてそれぞれ補間処理された映像信号113,
213における対応点を検出する。メモリ15は、対応
点検出部5において得られた対応点の位置と、対応する
位置における画索間の差の絶対値の和(以下「残差」と
称する)を保存する。法線ベクトル抽出部6は2つの画
像を利用して法線ベクトルを求める。画像メモリ311
には、法線ベクトル抽出部6において抽出きれた映像が
書き込まれる。The corresponding point detecting section 5 includes an interpolation processing section 13R, 1R.
Video signal 113 interpolated in 3L,
The corresponding points in 213 are detected. The memory 15 stores the position of the corresponding point obtained by the corresponding point detecting unit 5 and the sum of the absolute values of the differences between the picture lines at the corresponding positions (hereinafter referred to as “residual”). The normal vector extraction unit 6 uses two images to obtain a normal vector. Image memory 311
The video extracted by the normal vector extraction unit 6 is written in.
【0075】最後に、伝送部9を説明する。伝送部9
は、通信相手に画像を伝送すると共に、通信相手から座
標変換コントロール信号を受信する。通常、通信相手側
にジョイスティック等のポインティング・デバイスが装
備される。通信相手は、再正像の任意の点を設定して、
変換処理装置で使用される任意の方位角(ω,φ,χ)
に相当する情報を伝送する。Finally, the transmission section 9 will be described. Transmission unit 9
Transmits an image to a communication partner and receives a coordinate conversion control signal from the communication partner. Usually, the communication partner is equipped with a pointing device such as a joystick. The communication partner sets an arbitrary point of the re-normal image,
Arbitrary azimuth (ω, φ, χ) used in the conversion processor
The information corresponding to is transmitted.
【0076】他の実施例として、座標変換部において、
座標変換の方位角と被写体の最高部、即ち、ディスプレ
イと最も近い最近部の近傍領域の法線方向を基に座標変
換してもよい。これは例えば、TV会議などでは通常、
被写体の顔がディスプレイに相対しており、この時、鼻
のあたりが一番ディスプレイに近く、その近傍領域で、
カメラの倍率及びその鼻の概略の大きさから決まる領域
の法線方向から、その法線方向をディスプレイと垂直に
するように変換し、伝送する。As another embodiment, in the coordinate conversion section,
The coordinate conversion may be performed based on the azimuth angle of the coordinate conversion and the normal direction of the highest area of the subject, that is, the nearest area closest to the display. This is usually the case in video conferencing, for example.
The face of the subject is relative to the display, and at this time, the area around the nose is closest to the display, and in the area near it,
The normal direction of the area determined by the magnification of the camera and the approximate size of the nose is converted so that the normal direction is perpendicular to the display, and then transmitted.
【0077】[0077]
【発明の効果】以上の説明から容易に理解できるよう
に、本発明によれば、互いに視線が一致するので、通信
相手と違和感の無い対面会議又は通話を実現できる。ま
た、そのための構成も簡単であり、端末装置を安価に構
築できる。As can be easily understood from the above description, according to the present invention, the lines of sight coincide with each other, so that it is possible to realize a face-to-face conference or a call without feeling uncomfortable with the communication partner. Also, the configuration for that is simple, and the terminal device can be constructed at low cost.
【図1】 本発明の一実施例の概略構成ブロック図であ
る。FIG. 1 is a schematic block diagram of an embodiment of the present invention.
【図2】 端末の外観図である。FIG. 2 is an external view of a terminal.
【図3】 法線ベクトル抽出部6の内部構成ブロック図
である。FIG. 3 is a block diagram of the internal configuration of a normal vector extraction unit 6.
【図4】 複眼撮像装置の概略構成図である。FIG. 4 is a schematic configuration diagram of a compound-eye imaging device.
【図5】 撮像系の概略構成図である。FIG. 5 is a schematic configuration diagram of an imaging system.
【図6】 処理の流れに応じた概略機能ブロック図であ
る。FIG. 6 is a schematic functional block diagram according to the flow of processing.
【図7】 複眼撮像装置の基本原理の説明図である。FIG. 7 is an explanatory diagram of a basic principle of a compound-eye imaging device.
【図8】 図7の左側撮像系及び右側撮像系の基本構造
の説明図である。8 is an explanatory diagram of a basic structure of a left imaging system and a right imaging system of FIG.
【図9】 距離画像を求めるための三角測量の説明図で
ある。FIG. 9 is an explanatory diagram of triangulation for obtaining a distance image.
【図10】 右側カメラと左側カメラの光軸が平行な場
合の物体座標算出の説明図である。FIG. 10 is an explanatory diagram of object coordinate calculation when the optical axes of the right camera and the left camera are parallel to each other.
【図11】 右側カメラと左側カメラの光軸が交差する
場合の物体座標算出の説明図である。FIG. 11 is an explanatory diagram of object coordinate calculation when the optical axes of the right camera and the left camera intersect.
【図12】 TV会議で視線をほぼ一致させる従来の端
末装置のディスプレイ正面図と端末の側面図である。FIG. 12 is a front view of a display and a side view of a terminal of a conventional terminal device for making the lines of sight substantially coincide with each other in a video conference.
1,2:カメラ 3,4:ビデオ信号処理部 5:対応点抽出部 6:法線ベクトル抽出部 7:3次元構造処理部 8:座標変換部 9:送受信伝送部 11R,11L:座標変換部 12R,12L:変換信号生成部 13R,13L:補間処理部 15:メモリ 100:右側撮像系 101:光軸 102:右側撮像光学系 103:右側イメージセンサ 200:左側撮像系 201:光軸 202:左側撮像光学系 203:左側イメージセンサ 102b,202b:変倍群 102d,202d:合焦群 102a〜102d,202a〜202d:レンズ群 104,204:輻輳角モータ 105,205:角度エンコーダ 106,206:ズーム・モータ 107,207:フォーカス・モータ 108,208:ズーム・エンコーダ 109,209:フォーカス・エンコーダ 111,211:画像メモリ 112,212:座標変換された映像信号 101:被写体 102:被写体面 110L:左側撮像系 110R:右側撮像系 111L:左側撮像光学系 112L:左側イメージセンサ 111R:右側撮像光学系 112R:右側イメージセンサ 120:マイクロプロセッサ 311:画像メモリ 1000:被写体面 LL,LR:光軸 IL:左側画像 IR:右側画像 F1,F2:回転中心1, 2: camera 3, 4: video signal processing unit 5: corresponding point extraction unit 6: normal vector extraction unit 7: three-dimensional structure processing unit 8: coordinate conversion unit 9: transmission / reception transmission unit 11R, 11L: coordinate conversion unit 12R, 12L: Converted signal generator 13R, 13L: Interpolation processor 15: Memory 100: Right imaging system 101: Optical axis 102: Right imaging optical system 103: Right image sensor 200: Left imaging system 201: Optical axis 202: Left Imaging optical system 203: Left side image sensor 102b, 202b: Variable magnification group 102d, 202d: Focusing group 102a-102d, 202a-202d: Lens group 104, 204: Convergence angle motor 105, 205: Angle encoder 106, 206: Zoom -Motors 107 and 207: Focus motors 108 and 208: Zoom encoders 109 and 209: Okasu encoder 111, 211: image memory 112, 212: coordinate-converted video signal 101: object 102: object plane 110 L: left imaging system 110 R: right-side imaging system 111 L: left imaging optical system 112 L: left image Sensor 111 R : Right side imaging optical system 112 R : Right side image sensor 120: Microprocessor 311: Image memory 1000: Subject plane L L , L R : Optical axis I L : Left side image I R : Right side image F 1 , F 2 : Rotation center
───────────────────────────────────────────────────── フロントページの続き (72)発明者 関根 正慶 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 (72)発明者 光武 英明 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Masayoshi Sekine, Inventor Masayoshi Shimomaruko, 3-30-2, Ota-ku, Tokyo Canon Inc. (72) Inventor Hideaki Mitsutake, 3-30-2, Shimomaruko, Ota-ku, Tokyo Canon Within the corporation
Claims (2)
して会話する画像通信装置であって、各通信端末が、複
数の撮像装置と、当該複数の撮像装置による撮影画像
を、通信相手の視線と一致させるべく処理する視線一致
処理装置とを具備することを特徴とする画像通信装置。1. An image communication apparatus for displaying an image of a communication partner on a display device of each other for conversation, each communication terminal comprising: a plurality of imaging devices; and images captured by the plurality of imaging devices. And a line-of-sight matching processing device for processing to match the line-of-sight of the image communication device.
影光学装置による撮影画像から距離構造と法線情報を演
算し、座標変換する演算手段を具備する請求項1に記載
の画像通信装置。2. The image communication device according to claim 1, wherein the line-of-sight coincidence processing device includes a calculation unit that calculates a distance structure and normal line information from images captured by the plurality of image-capturing optical devices and performs coordinate conversion.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5242486A JPH0799644A (en) | 1993-09-29 | 1993-09-29 | Image communication device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5242486A JPH0799644A (en) | 1993-09-29 | 1993-09-29 | Image communication device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0799644A true JPH0799644A (en) | 1995-04-11 |
Family
ID=17089804
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP5242486A Withdrawn JPH0799644A (en) | 1993-09-29 | 1993-09-29 | Image communication device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0799644A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7057662B2 (en) * | 2002-11-22 | 2006-06-06 | Hewlett-Packard Development Company, L.P. | Retractable camera apparatus |
| KR100588742B1 (en) * | 1999-12-20 | 2006-06-13 | 주식회사 케이티 | Apparatus and method for acquiring gaze matching for video communication |
| JPWO2008053649A1 (en) * | 2006-11-02 | 2010-02-25 | コニカミノルタホールディングス株式会社 | Wide-angle image acquisition method and wide-angle stereo camera device |
| JP2010278989A (en) * | 2009-06-01 | 2010-12-09 | Nippon Hoso Kyokai <Nhk> | Display / photographing device |
| JP2015188189A (en) * | 2014-03-27 | 2015-10-29 | カシオ計算機株式会社 | Identification device, identification method, and program |
-
1993
- 1993-09-29 JP JP5242486A patent/JPH0799644A/en not_active Withdrawn
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100588742B1 (en) * | 1999-12-20 | 2006-06-13 | 주식회사 케이티 | Apparatus and method for acquiring gaze matching for video communication |
| US7057662B2 (en) * | 2002-11-22 | 2006-06-06 | Hewlett-Packard Development Company, L.P. | Retractable camera apparatus |
| JPWO2008053649A1 (en) * | 2006-11-02 | 2010-02-25 | コニカミノルタホールディングス株式会社 | Wide-angle image acquisition method and wide-angle stereo camera device |
| JP2010278989A (en) * | 2009-06-01 | 2010-12-09 | Nippon Hoso Kyokai <Nhk> | Display / photographing device |
| JP2015188189A (en) * | 2014-03-27 | 2015-10-29 | カシオ計算機株式会社 | Identification device, identification method, and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US5973726A (en) | Panoramic image processing apparatus | |
| US6847392B1 (en) | Three-dimensional structure estimation apparatus | |
| US6977676B1 (en) | Camera control system | |
| EP2328125B1 (en) | Image splicing method and device | |
| JP4825980B2 (en) | Calibration method for fisheye camera. | |
| US6118475A (en) | Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape | |
| US20060018509A1 (en) | Image generation device | |
| US6608622B1 (en) | Multi-viewpoint image processing method and apparatus | |
| Zhu et al. | Parallel-perspective stereo mosaics | |
| JPH07294215A (en) | Image processing method and apparatus | |
| JPH06141237A (en) | Compound eye imaging device | |
| as Svoboda et al. | Central panoramic cameras: Design and geometry | |
| CN112929639B (en) | Human eye tracking device and method, 3D display equipment, method and terminal | |
| EP1494476A1 (en) | Image processing method and apparatus | |
| CN107809610A (en) | Camera parameter set calculating apparatus, camera parameter set calculation method and program | |
| WO2005067318A2 (en) | Multi-dimensional imaging apparatus, systems, and methods | |
| JPH0719832A (en) | Corresponding point extraction method for multiple images | |
| JP4825971B2 (en) | Distance calculation device, distance calculation method, structure analysis device, and structure analysis method. | |
| Deng et al. | Equivalent virtual cameras to estimate a six-degree-of-freedom pose in restricted-space scenarios | |
| CN112929638A (en) | Eye positioning method and device, multi-view naked eye 3D display method and equipment | |
| JPH0799644A (en) | Image communication device | |
| JP2741063B2 (en) | Wide-field display device | |
| JPH08116556A (en) | Image processing method and apparatus | |
| CN111583117A (en) | Rapid panoramic stitching method and device suitable for space complex environment | |
| JP2005260753A (en) | Camera selection device and camera selection method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20001226 |