JP2002042158A - Image synthesizing apparatus, image synthesizing method, and medium recording program - Google Patents
Image synthesizing apparatus, image synthesizing method, and medium recording programInfo
- Publication number
- JP2002042158A JP2002042158A JP2000229154A JP2000229154A JP2002042158A JP 2002042158 A JP2002042158 A JP 2002042158A JP 2000229154 A JP2000229154 A JP 2000229154A JP 2000229154 A JP2000229154 A JP 2000229154A JP 2002042158 A JP2002042158 A JP 2002042158A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- projection
- coordinate data
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Circuits (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
(57)【要約】
【課題】3次元物体の任意視点画像を合成すべく、画素
単位での投影位置(P)を演算して画像合成するに当たり
演算量削減してリアルタイム性を実現する。
【解決手段】カメラとレンジファインダにより3次元物
体を周囲の複数地点から撮影して画素毎に対応した輝度
データ(Dlum)と座標データ(Dxz)を持つ3次元データ(Dt
dm)を得、この画素単位のDtdmと観察者の視点位置情報
を基に画素単位のDtdmを画像平面に投影して投影位置を
算出して得たPの画素の輝度データを合成して任意視点
画像(Pim)を得る合成方法において、画素単位のDtdmの
一部のDxzは投影のために投影用座標データ(Dpxz)とし
て保持し、残りのDxzに対しては線形近似演算のために
線形近似演算用座標データ(Dra)に変換する変換工程S2
と、この変換3次元データ106を画像平面に投影し任意
視点画像(Pim)を得るべくDpxzを基に画像平面へのPを
求める投影工程S3と、求めたPとDraを基に線形近似演
算にて画像平面への投影位置を求める演算工程S4を備え
る。
(57) [Summary] To realize a real-time property by calculating a projection position (P) in pixel units and reducing the amount of calculation for image synthesis in order to synthesize an arbitrary viewpoint image of a three-dimensional object. A three-dimensional object (Dt) having brightness data (Dlum) and coordinate data (Dxz) corresponding to each pixel is captured by shooting a three-dimensional object from a plurality of surrounding points using a camera and a range finder.
dm), and based on the pixel unit Dtdm and the observer's viewpoint position information, project the pixel unit Dtdm onto the image plane to calculate the projection position and combine the luminance data of the P pixels to obtain an arbitrary value. In the synthesizing method for obtaining the viewpoint image (Pim), a part of the Dtdm of the pixel unit Dtdm is held as projection coordinate data (Dpxz) for projection, and the remaining Dxz is linear for the linear approximation operation. Conversion step S2 for converting to coordinate data (Dra) for approximation calculation
And a projection step S3 for projecting the transformed three-dimensional data 106 onto the image plane to obtain an arbitrary viewpoint image (Pim) to obtain P on the image plane based on Dpxz, and performing a linear approximation operation based on the obtained P and Dra. And a calculation step S4 for calculating the projection position on the image plane.
Description
【0001】[0001]
【発明の属する技術分野】この発明は、3次元物体につ
いて任意視点から見た画像を合成する画像合成方法に関
するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing method for synthesizing an image of a three-dimensional object viewed from an arbitrary viewpoint.
【0002】[0002]
【従来の技術】コンピュータの利用技術であるバーチャ
ルリアリティ(仮想現実)、動画やゲームに使用する場
合でのCG(コンピュータグラフィックス)、そして、
インターネットの仮想店舗等においては、刻々と変わる
視点方向に追従してその視点方向から対象物を眺めた画
像が得られるようにするイメージベーストレンダリング
の技術は重要である。そして、この場合に、対象物を眺
める方向が変わるに連れて、画像が滑らかに、しかも自
然に変化する必要がある。2. Description of the Related Art Virtual reality (virtual reality) which is a technology of using a computer, CG (computer graphics) when used for moving images and games, and
In a virtual store or the like on the Internet, an image-based rendering technique for following an ever-changing viewpoint direction to obtain an image of an object viewed from the viewpoint direction is important. In this case, the image needs to change smoothly and naturally as the direction in which the object is viewed changes.
【0003】すなわち、ここで重要なのは、3次元物体
に対するイメージベーストレンダリング技術であり、で
きるだけ高精細な画像を高速で作成できるようにする必
要がある。[0003] That is, what is important here is an image-based rendering technique for a three-dimensional object, and it is necessary to create a high-definition image as quickly as possible.
【0004】イメージベーストレンダリング技術は、実
写画像を基に3次元物体をモデル化し、任意視点画像を
合成するものであるが、そのための従来方法として、画
素単位の3次元データによって任意視点からの画像を合
成する図6のフローチャートに示す如きの方法がある。The image-based rendering technique is a technique for modeling a three-dimensional object based on a real image and synthesizing an arbitrary viewpoint image. As a conventional method for this, an image from an arbitrary viewpoint is obtained using three-dimensional data in pixel units. There is a method as shown in the flowchart of FIG.
【0005】図6に示すように、まずはじめに、3次元
データを取得する(3次元データ取得工程(ステップS
51)の実施)。この3次元データ取得工程(S51)
においては、被写体を撮像するためのカメラと、距離画
像を取得するためのレンジファインダとを用い、被写体
となる3次元物体を、その周囲の複数地点から撮影し、
得られた画像について3次元データDtdmとして取得す
る。すなわち、得られた画像について、その画素毎に対
応した輝度データDlumと座標データDxzを持つデータ
である3次元データDtdmを取得するわけである。As shown in FIG. 6, first, three-dimensional data is obtained (a three-dimensional data obtaining step (step S
51)). This three-dimensional data acquisition step (S51)
In, using a camera for imaging a subject and a range finder for acquiring a distance image, a three-dimensional object to be a subject is photographed from a plurality of points around the subject,
The obtained image is obtained as three-dimensional data Dtdm. That is, for the obtained image, three-dimensional data Dtdm which is data having luminance data Dlum and coordinate data Dxz corresponding to each pixel is obtained.
【0006】そして、次に、この3次元データDtdmを
用い、座標データ投影工程(ステップS52)において
は、画素単位の3次元データDtdmと観察者の視点位置
情報とを基に画素毎に座標データDxzを画像平面に投影
して投影位置を算出する。そして、輝度データ合成工程
(ステップS53)においては、投影された位置に対応
する輝度データDlumをフレームメモリヘ合成して任意
視点画像Pimを合成する。Then, using the three-dimensional data Dtdm, in the coordinate data projecting step (step S52), coordinate data is obtained for each pixel based on the three-dimensional data Dtdm for each pixel and the viewpoint position information of the observer. Dxz is projected on an image plane to calculate a projection position. Then, in the luminance data synthesizing step (step S53), the arbitrary viewpoint image Pim is synthesized by synthesizing the luminance data Dlum corresponding to the projected position with the frame memory.
【0007】従来における3次元任意視点画像Pimの取
得は、このように3次元データ取得工程、座標データ投
影工程、輝度データ合成工程を経て行われるが、詳細を
説明すると次の如きとなる。The conventional acquisition of the three-dimensional arbitrary viewpoint image Pim is performed through the three-dimensional data acquisition step, the coordinate data projection step, and the luminance data synthesis step as described above. The details are as follows.
【0008】まずはじめに、図7を用いて、図6におけ
る3次元データ取得工程S51、および当該3次元デー
タ取得工程S51によって取得される画素単位の3次元
データDtdm(輝度データDlum,座標データDxz)につ
いて説明する。First, referring to FIG. 7, three-dimensional data obtaining step S51 in FIG. 6, and three-dimensional data Dtdm (luminance data Dlum, coordinate data Dxz) in pixel units obtained in the three-dimensional data obtaining step S51. Will be described.
【0009】図7において、601は被写体であって、
3次元データの取得対象としての3次元物体であり、6
02は当該3次元物体601を載せて撮影のために回転
されるターンテーブル、603は3次元物体601の輝
度データを取得するデジタルカメラ、604は3次元物
体601の座標データを取得するレンジファインダー、
605はデジタルカメラ603によって取得された輝度
データ、606はレンジファインダー604によって取
得された座標データ、607は複数枚の輝度データ60
5・座標データ606からなる3次元データである。In FIG. 7, reference numeral 601 denotes a subject,
A three-dimensional object from which three-dimensional data is to be obtained,
02 is a turntable that is rotated for photographing with the three-dimensional object 601 mounted thereon, 603 is a digital camera that obtains luminance data of the three-dimensional object 601, 604 is a range finder that obtains coordinate data of the three-dimensional object 601,
Reference numeral 605 denotes luminance data obtained by the digital camera 603, 606 denotes coordinate data obtained by the range finder 604, and 607 denotes luminance data 60 of a plurality of sheets.
5. Three-dimensional data consisting of coordinate data 606.
【0010】レンジファインダー604は、例えば、レ
ーザビームを用い、被写体表面各位置(3次元物体60
1の表面各位置)までの距離を測定することでその被写
体表面各位置の座標データを得るものである。The range finder 604 uses a laser beam, for example, to control each position of the subject surface (the three-dimensional object 60).
By measuring the distance to each position on the surface of the subject, coordinate data of each position on the surface of the subject is obtained.
【0011】被写体である3次元物体601の3次元デ
ータを得るには、当該3次元物体601をターンテーブ
ル602に載せ、ターンテーブル602の外の定位置に
その光軸を3次元物体602に向けてデジタルカメラ6
03とレンジファインダー604とを固定配置する。そ
して、これらデジタルカメラ603とレンジファインダ
ー604の光軸を揃えて各画素毎のデータが重なるよう
にキャリブレーション(位置調整)しておく。そして、
撮影を開始するが、撮影毎に、例えば、15度づつ、タ
ーンテーブル602を回転させる。このようにして、1
5度刻みで3次元物体601の全局(全周囲)を撮影す
ると、 全局360[度]÷15[度]刻み=24[枚] の輝度データ605と座標データ606が撮影できる。
それぞれのデータは画像サイズ分の画素を持つ。輝度デ
ータ605においては、各画素が輝度(rdij,gri
j,blij)のデータを持ち、座標データ606におい
ては、各画素が、3次元物体601の中心を原点とした
3次元物体表面上の点の位置の浮動小数点座標(Xij,
zij)のデータを持つ。これら複数枚の画像からなる全
ての輝度データ605,座標データ606をまとめて3
次元データ607と呼ぶ。To obtain three-dimensional data of a three-dimensional object 601 as a subject, the three-dimensional object 601 is placed on a turntable 602 and its optical axis is directed to a fixed position outside the turntable 602 toward the three-dimensional object 602. Digital camera 6
03 and the range finder 604 are fixedly arranged. Then, the optical axes of the digital camera 603 and the range finder 604 are aligned, and calibration (position adjustment) is performed so that data for each pixel overlaps. And
The photographing is started, and the turntable 602 is rotated every photographing, for example, by 15 degrees. Thus, 1
By photographing all the stations (entire surroundings) of the three-dimensional object 601 in increments of 5 degrees, luminance data 605 and coordinate data 606 can be photographed in all stations 360 [degrees] / 15 [degrees] = 24 [frames].
Each data has pixels of the image size. In the luminance data 605, each pixel has a luminance (rdij, gri).
j, blij), and in the coordinate data 606, each pixel has a floating point coordinate (Xij, Xij, X) at the position of a point on the surface of the three-dimensional object with the origin at the center of the three-dimensional object 601.
zij). All of the luminance data 605 and coordinate data 606 composed of the plurality of images are collectively referred to as 3.
This is called dimension data 607.
【0012】次に、図8を用いて、図6における座標デ
ータ投影工程S52および輝度データ合成工程S53に
よって任意視点画像Pimが合成される方法を説明する。Next, a method of synthesizing an arbitrary viewpoint image Pim in the coordinate data projecting step S52 and the luminance data synthesizing step S53 in FIG. 6 will be described with reference to FIG.
【0013】一般に、このような3次元データを基に、
任意視点画像を合成する場合、横方向の視差については
厳密に再現し、視覚的効果の薄いと思われる縦方向の視
差については無視して画像合成を行う。Generally, based on such three-dimensional data,
When synthesizing an arbitrary viewpoint image, image synthesis is performed by strictly reproducing the horizontal parallax and ignoring the vertical parallax that is considered to have a small visual effect.
【0014】よって、横方向については視差を考慮した
投影演算によって合成を行い、縦方向については被写体
を平面で近似して縦方向への伸縮を行うという手法が、
計算量、データ量等の問題から一般的に行われている方
法である。図8においても3次元物体601のある断面
についての任意視点画像(任意視点ライン)合成方法に
ついて説明している。Therefore, in the horizontal direction, synthesis is performed by a projection calculation in consideration of parallax, and in the vertical direction, a subject is approximated by a plane to expand and contract in the vertical direction.
This method is generally used because of problems such as the amount of calculation and the amount of data. FIG. 8 also describes a method of synthesizing an arbitrary viewpoint image (arbitrary viewpoint line) for a cross section of the three-dimensional object 601.
【0015】図8は、ある視点からみた3次元物体のあ
る断面における投影画像とデータの関係を説明してお
り、701は3次元物体601のある断面の3次元デー
タを示していて、702はこの3次元データ701中の
投影を行うある1点を示している。また、703は観察
者の新たな視点位置、704はこの視点位置703から
見える画像に相当する画像平面、705は3次元データ
702が画像平面704に投影される投影位置である。FIG. 8 illustrates the relationship between a projection image and data at a certain cross section of a three-dimensional object viewed from a certain viewpoint. Reference numeral 701 denotes three-dimensional data of a certain cross section of the three-dimensional object 601; One point at which projection is performed in the three-dimensional data 701 is shown. Reference numeral 703 denotes a new viewpoint position of the observer, 704 denotes an image plane corresponding to an image viewed from the viewpoint position 703, and 705 denotes a projection position at which the three-dimensional data 702 is projected on the image plane 704.
【0016】3次元データ701のうちのある1点70
2の3次元データが、座標データ(x,z)、輝度デー
タ(rd,gr,bl)を持っているとする(ただし、
“rd”は赤成分、“gr”は緑成分、“bl”は青成
分の輝度情報であることを示す)。One point 70 in the three-dimensional data 701
2 has coordinate data (x, z) and luminance data (rd, gr, bl) (however,
“Rd” indicates luminance information of a red component, “gr” indicates luminance information of a green component, and “bl” indicates luminance information of a blue component).
【0017】従って、この場合、3次元データ702の
画像平面704への投影位置705は、x,zの関数と
してのg(x,z)として表現すると、視点位置703
と画像平面704との距離(カメラ603の焦点距離)
をf、視点位置703と原点との間の距離をrとした場
合に、以下のように表すことができる。Accordingly, in this case, the projection position 705 of the three-dimensional data 702 on the image plane 704 is expressed as g (x, z) as a function of x and z, and the viewpoint position 703
Between image and image plane 704 (focal length of camera 603)
Is represented by f and the distance between the viewpoint position 703 and the origin is represented by r.
【0018】g(x,z)=−fx/(z−r) そして、この関数g(x,z)の値が、画像平面704
上に透視投影される3次元データ702の投影位置70
5である。デジタル画像の場合、表示すべき画像はフレ
ームメモリ上に置かれる。そのため、透視投影される3
次元データ702の投影位置705は、フレームメモリ
上のg(x,z)該当の位置であると云うことができ
る。つまり、求めたg(x,z)の値の位置に、その画
素の輝度データを置くかたちで、フレームメモリ上のg
(x,z)該当位置にその画素の輝度データ書き込んで
いけば、それがすなわち、任意視点からみた点702の
画像平面704上での画像ということになる。G (x, z) = − fx / (z−r) The value of this function g (x, z) is
Projection position 70 of three-dimensional data 702 which is perspectively projected onto
5 In the case of a digital image, the image to be displayed is placed on a frame memory. Therefore, the perspective projection 3
The projection position 705 of the dimensional data 702 can be said to be a position corresponding to g (x, z) on the frame memory. That is, the luminance data of the pixel is placed at the position of the obtained value of g (x, z), so that g
If the luminance data of the pixel is written at the corresponding position (x, z), it is an image of the point 702 viewed from an arbitrary viewpoint on the image plane 704.
【0019】このようにして、座標データ投影工程S5
2においては、3次元データ701におけるある点70
2を、所望の視点から見る場合に、画像平面704上で
の投影位置は、当該ある点702の持つ座標データ
(x,z)から投影位置g(x,z)を求めることで得
られることになる。Thus, the coordinate data projecting step S5
2, a certain point 70 in the three-dimensional data 701
2 is viewed from a desired viewpoint, the projection position on the image plane 704 can be obtained by obtaining the projection position g (x, z) from the coordinate data (x, z) of the point 702. become.
【0020】そして、位置が決まれば当該ある点702
の輝度データをこの投影位置で表示すれば、任意視点か
ら見た当該ある点702の画像が画面平面704上で表
現されることになる。その際の輝度データは、輝度デー
タ合成工程S53において、当該3次元データの上記あ
る点702の持つ輝度データ“(rd,gr,bl)”を
画像平面704上の投影位置705に合成(フレームメ
モリに書き込む)することで実現される。When the position is determined, the point 702 is determined.
Is displayed at this projection position, an image of a certain point 702 viewed from an arbitrary viewpoint is expressed on the screen plane 704. In this case, the luminance data is combined with the luminance data “(rd, gr, bl)” of the point 702 of the three-dimensional data at the projection position 705 on the image plane 704 in the luminance data synthesizing step S53 (frame memory). To be written in).
【0021】同様に、ある点702の投影だけでなく、
3次元データ701の全てについても同様の投影を行
い、投影位置g(x,z)を算出する。Similarly, in addition to the projection of a point 702,
The same projection is performed on all of the three-dimensional data 701, and the projection position g (x, z) is calculated.
【0022】輝度データ合成工程S53がこれらすべて
の3次元データについて、Zバッファによる判定を行い
ながら、その各投影位置g(x,z)にその投影位置該
当の画素の輝度データ(rd,gr,bl)を書き込んで
いくことによって、フレームメモリ上には、任意視点画
像Pimが合成される。In the luminance data synthesizing step S53, while judging all three-dimensional data by the Z buffer, the luminance data (rd, gr, By writing bl), an arbitrary viewpoint image Pim is synthesized on the frame memory.
【0023】なお、Zバッファとは、視点位置と座標デ
ータによって、より手前にある点をフレームメモリに上
書きしていく処理である。The Z-buffer is a process of overwriting a point on the near side with a frame memory according to a viewpoint position and coordinate data.
【0024】これにより、フレームメモリ上に任意視点
画像Pimを合成することができる。Thus, an arbitrary viewpoint image Pim can be synthesized on the frame memory.
【0025】これが従来手法の概要である。This is the outline of the conventional method.
【0026】[0026]
【発明が解決しようとする課題】しかしながら、上述し
た従来方法においては、画素1点々々について計算する
方式であるから、3次元データの全ての画素を投影する
際の除算を含む演算に時間がかかり、リアルタイム処理
での画像合成に問題があった。However, in the above-mentioned conventional method, since the calculation is performed for each pixel, it takes a long time to perform the operation including the division when projecting all the pixels of the three-dimensional data. However, there is a problem in image synthesis in real-time processing.
【0027】バーチャルリアリティ、動画やゲームに使
用する場合でのCG、そして、インターネットの仮想店
舗等においては、刻々と変わる視点方向に追従してその
視点方向から対象物を眺めた画像が自然な展開で得られ
るようにする必要があり、そのためには画像合成をもっ
と能率良く高速に実施できる新たな手法を開発する必要
がある。In virtual reality, CG for use in moving images and games, and in virtual shops on the Internet, images that follow an ever-changing viewpoint and look at an object from that viewpoint naturally develop. Therefore, it is necessary to develop a new method capable of performing image synthesis more efficiently and at high speed.
【0028】そこで、この発明の目的とするところは、
3次元データの投影演算量を削減して、より高速に3次
元物体を合成することができるようにして、リアルタイ
ム性を確保できるようにした画像合成方法を提供するこ
とにある。Then, the object of the present invention is to
It is an object of the present invention to provide an image synthesizing method capable of synthesizing a three-dimensional object at a higher speed by reducing the amount of projection calculation of three-dimensional data, and securing real-time properties.
【0029】[0029]
【課題を解決するための手段】上記目的を達成するた
め、本発明は次のように構成する。すなわち、本発明
は、3次元物体を周囲の複数地点から撮影して画素毎に
対応した輝度データと座標データを持つ3次元データを
取得すると共に、この取得した画像における画素単位の
3次元データと観察者の視点位置情報を基に画素単位の
3次元データを画像平面に投影して投影位置を算出し、
この投影された位置に対応する輝度データを合成して任
意視点画像を合成する画像合成装置において、前記取得
した3次元データのうち、画素単位の3次元データの一
部の座標データは前記投影のためにそのまま投影用座標
データとして保持し、残りの座標データに対しては線形
近似演算のために線形近似演算用座標データに変換を施
す3次元データ変換手段と、この3次元データ変換手段
による前記変換3次元データを画像平面に投影して任意
視点画像を合成するために、投影用座標データを基に画
像平面への投影位置を算出する座標データ投影手段と、
この投影位置と線形近似演算用座標データを基に線形近
似演算によって画像平面への座標データ投影手段により
算出された投影位置を算出する線形近似演算手段とより
構成したものである。In order to achieve the above object, the present invention is configured as follows. That is, the present invention captures a three-dimensional object from a plurality of surrounding points to obtain three-dimensional data having luminance data and coordinate data corresponding to each pixel, and obtains three-dimensional data in pixel units in the obtained image. Based on the viewpoint position information of the observer, three-dimensional data in pixel units is projected on an image plane to calculate a projection position,
In the image synthesizing apparatus for synthesizing an arbitrary viewpoint image by synthesizing luminance data corresponding to the projected position, a part of the coordinate data of the pixel-based three-dimensional data among the acquired three-dimensional data is used for the projection. Therefore, three-dimensional data conversion means for holding the coordinate data as it is as projection coordinate data and converting the remaining coordinate data into linear approximation calculation coordinate data for linear approximation calculation, and the three-dimensional data conversion means Coordinate data projection means for calculating a projection position on the image plane based on the projection coordinate data, in order to project the transformed three-dimensional data onto the image plane and synthesize an arbitrary viewpoint image;
A linear approximation calculating means for calculating a projection position calculated by the coordinate data projecting means on the image plane by a linear approximation calculation based on the projection position and the coordinate data for linear approximation calculation.
【0030】そして、この構成により、映像情報取得手
段および距離情報取得手段(例えば、カメラとレンジフ
ァインダー)によって画像合成対象となる3次元物体
を、その周囲の複数地点から撮影して画素毎に対応した
輝度データと座標データを持つ3次元データを取得し、
その取得した画素単位の3次元データの一部の座標デー
タ、例えば、ブロック化した画像の各ライン方向の中央
の画素については投影のためにそのまま投影用座標デー
タとして保持し、残りの座標データに対しては線形近似
演算のために線形近似演算用座標データに変換を施すよ
うにし、この変換3次元データは、画像平面に投影して
任意視点画像を合成するために、座標データ投影手段に
より投影用座標データを基に画像平面への投影位置算出
をすると共に、この投影位置と線形近似演算用座標デー
タを基に、線形近似演算手段により、線形近似演算によ
って画像平面への投影位置を算出し、その算出した投影
位置にその変換3次元データの画素の持つ輝度データを
配置して任意視点画像を合成するようにした。According to this configuration, a three-dimensional object to be image-combined is photographed from a plurality of points around the image by a video information acquiring unit and a distance information acquiring unit (for example, a camera and a range finder), and each pixel is corresponded. To obtain three-dimensional data with the brightness data and coordinate data
Part of the acquired coordinate data of the three-dimensional data in pixel units, for example, the central pixel in each line direction of the blocked image is held as it is as projection coordinate data for projection, and the remaining coordinate data is stored in the remaining coordinate data. On the other hand, the linear approximation operation coordinate data is converted for the linear approximation operation, and the converted three-dimensional data is projected by the coordinate data projection means in order to project the image data on an image plane to synthesize an arbitrary viewpoint image. The projection position on the image plane is calculated based on the coordinate data for use, and based on the projection position and the coordinate data for linear approximation calculation, the projection position on the image plane is calculated by the linear approximation operation by the linear approximation calculation means. Then, the luminance data of the pixel of the converted three-dimensional data is arranged at the calculated projection position to synthesize an arbitrary viewpoint image.
【0031】本発明では、ブロック化した画像の一部の
画素について投影のための位置算出を正確に行い、多の
大部分の座標データについてはその投影を線形近似演算
で求めるようにしたので、任意視点画像を合成するに当
たって、演算が軽減され、従って、リアルタイムで任意
視点画像を合成できるようになる。In the present invention, the position calculation for projection is performed accurately for some pixels of the blocked image, and the projection of most of the coordinate data is obtained by a linear approximation operation. In synthesizing the arbitrary viewpoint image, the calculation is reduced, and therefore, the arbitrary viewpoint image can be synthesized in real time.
【0032】[0032]
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0033】(第1の実施形態)本実施例は、8×8画
素構成にブロック化した画像の各ブロックについて、そ
のライン毎に、その一ラインの中央の一画素についての
み、まともに計算を行い、そのラインの他の7画素につ
いてはこの中心画素で得た値から近似により値を求める
方式を採用することによって、演算量を削減するもの
で、その詳細を以下説明する。(First Embodiment) In the present embodiment, for each block of an image divided into an 8 × 8 pixel configuration, calculation is performed for each line and only for one pixel at the center of the line. The amount of calculation is reduced for the other seven pixels of the line by approximating the value obtained at the center pixel by approximation, and the details will be described below.
【0034】図1は本発明による画像合成装置の概略構
成図である。図中、101はCPU(プロセッサ)であ
り、本発明システムの演算、制御の中枢を担うものであ
る。また、102はメモリであり、103は任意視点の
画像合成処理に用いるフレームメモリである。FIG. 1 is a schematic block diagram of an image synthesizing apparatus according to the present invention. In the figure, reference numeral 101 denotes a CPU (processor), which plays a central role in calculation and control of the system of the present invention. Reference numeral 102 denotes a memory, and reference numeral 103 denotes a frame memory used for image synthesis processing of an arbitrary viewpoint.
【0035】104はデジタルカメラであって、被写体
のデジタル画像を撮像するための撮像装置であり、10
5はレンジファインダーで被写体の距離情報を取得して
各画素の座標データを求める距離情報取得装置である。Reference numeral 104 denotes a digital camera, which is an imaging device for capturing a digital image of a subject.
Reference numeral 5 denotes a distance information acquisition device that acquires distance information of a subject by a range finder and obtains coordinate data of each pixel.
【0036】106はインタフェースであって、デジタ
ルカメラ104やレンジファインダー105のデータを
CPU101に取り込むためのものであり、107はタ
ーンテーブルで、被写体を搭載して回転させるためのも
のである。108はCPU101の制御のもとに、この
ターンテーブル107を所定の角度刻みに回転駆動させ
るためのドライバ、109は大容量の記憶媒体であっ
て、取得したデータ等を格納するためのものである。ま
た、110は入力装置であって、オペレータが操作する
キーボードやマウスあるいはトラックボールなどが相当
する。111はディスプレイなどの出力装置である。Reference numeral 106 denotes an interface for taking in data of the digital camera 104 and the range finder 105 into the CPU 101. Reference numeral 107 denotes a turntable for mounting and rotating a subject. Reference numeral 108 denotes a driver for rotating the turntable 107 at predetermined angle intervals under the control of the CPU 101, and 109 denotes a large-capacity storage medium for storing acquired data and the like. . An input device 110 corresponds to a keyboard, a mouse, a trackball, or the like operated by an operator. Reference numeral 111 denotes an output device such as a display.
【0037】本発明システムは、所定刻みで撮像して得
た被写体の画像データから任意の視点から見た当該被写
体の画像の3次元像をリアルタイムで合成できるように
したものであり、CPU101に次の図2の如き処理を
実施させることにより、演算量を軽減して任意視点画像
のリアルタイム合成を可能にしている。The system of the present invention is capable of synthesizing a three-dimensional image of an image of an object viewed from an arbitrary viewpoint in real time from image data of the object obtained by imaging at predetermined intervals. By performing the processing as shown in FIG. 2, the amount of calculation is reduced and real-time synthesis of an arbitrary viewpoint image is enabled.
【0038】図2は、本発明の第1実施形態の画像合成
方法を示すフローチャートである。FIG. 2 is a flowchart showing an image synthesizing method according to the first embodiment of the present invention.
【0039】図2において、S1はカメラ104とレン
ジファインダー105によって3次元物体を周囲の複数
地点から撮影して画素毎に対応した輝度データDlumと
座標データDxzを持つ3次元データDtdmを取得する3
次元データ取得工程、S2は画素単位の3次元データD
tdmの一部の座標データDxzは投影のためにそのまま投
影用座標データDpxzとして保持し、残りの座標データ
Dxzに対しては線形近似演算のために線形近似演算用座
標データDraに変換を施して輝度データDlumと共に変
換3次元データDttdmを作成する3次元データ変換工
程、S3は投影用座標データDpxzを基に画像平面への
投影位置を算出する座標データ投影工程、S4は座標デ
ータ投影工程S3によって算出された投影位置と線形近
似演算用座標データDraを基に線形近似演算によって画
像平面への投影位置を算出する線形近似演算工程、S5
は投影された位置に対応する輝度データDlumをフレー
ムメモリヘ合成して任意視点画像Pimを合成する輝度デ
ータ合成工程である。In FIG. 2, in step S1, a three-dimensional object is photographed from a plurality of surrounding points by a camera 104 and a range finder 105 to acquire three-dimensional data Dtdm having luminance data Dlum and coordinate data Dxz corresponding to each pixel.
Dimensional data acquisition step, S2 is three-dimensional data D per pixel
A part of the coordinate data Dxz of tdm is held as projection coordinate data Dpxz as it is for projection, and the remaining coordinate data Dxz is converted to linear approximation operation coordinate data Dra for linear approximation operation. A three-dimensional data conversion step of creating converted three-dimensional data Dttdm together with the luminance data Dlum, S3 is a coordinate data projection step of calculating a projection position on an image plane based on projection coordinate data Dpxz, and S4 is a coordinate data projection step S3. A linear approximation operation step of calculating a projection position on an image plane by a linear approximation operation based on the calculated projection position and the linear approximation operation coordinate data Dra; S5
Is a luminance data synthesizing step of synthesizing the arbitrary viewpoint image Pim by synthesizing the luminance data Dlum corresponding to the projected position with the frame memory.
【0040】<処理の流れ>本発明システムにおける基
本的な流れは、従来の技術を図6によって説明した内容
と同じである。<Processing Flow> The basic flow in the system of the present invention is the same as that of the prior art described with reference to FIG.
【0041】すなわち、CPU101はまずはじめに、
3次元データを取得する(3次元データ取得工程S1の
実施)。この3次元データ取得工程S1においては、被
写体を撮像するためのカメラ104と、距離画像を取得
するためのレンジファインダー105とを用い、被写体
TGとなる3次元物体を、その周囲の複数地点から撮影
し、得られた画像について3次元データDtdmとして取
得する。すなわち、得られた画像について、その画素毎
に対応した輝度データDlumと座標データDxzを持つデ
ータである3次元データDtdmを取得するわけである。That is, the CPU 101 firstly
Acquire three-dimensional data (implementation of three-dimensional data acquisition step S1). In the three-dimensional data obtaining step S1, a three-dimensional object serving as a subject TG is photographed from a plurality of points around the camera 104 using a camera 104 for capturing an image of a subject and a range finder 105 for obtaining a range image. Then, the obtained image is obtained as three-dimensional data Dtdm. That is, for the obtained image, three-dimensional data Dtdm which is data having luminance data Dlum and coordinate data Dxz corresponding to each pixel is obtained.
【0042】具体的には、ターンテーブル107上に被
写体TGを載置し、また、カメラ104とレンジファイ
ンダー105を定位置に固定すると共に、ターンテーブ
ル107の被写体TGに対してカメラ104とレンジフ
ァインダー105光軸を方向を一致させる。Specifically, the subject TG is placed on the turntable 107, the camera 104 and the range finder 105 are fixed at fixed positions, and the camera 104 and the range finder are fixed to the subject TG of the turntable 107. The directions of the 105 optical axes are matched.
【0043】そして、CPU101の制御により、例え
ば、15度刻みにこのターンテーブル107を回転させ
ると共に、各角度毎にカメラ104とレンジファインダ
ー105から被写体TGのデータを取得する。取得した
データは大容量外部記憶装置109に記憶させて保存さ
せる。Under the control of the CPU 101, the turntable 107 is rotated, for example, every 15 degrees, and the data of the subject TG is acquired from the camera 104 and the range finder 105 at each angle. The acquired data is stored and stored in the large-capacity external storage device 109.
【0044】すなわち、レンジファインダー105は、
例えば、レーザビームを用い、被写体表面各位置までの
距離を測定することでその被写体表面各位置の座標デー
タを得るものであって、被写体TGの3次元データを得
るには、当該被写体TGをターンテーブル602に載
せ、ターンテーブル107の外の定位置にその光軸を被
写体TGに向けてデジタルカメラ104とレンジファイ
ンダー105とを固定配置する。そして、これらデジタ
ルカメラ104とレンジファインダー105の光軸を揃
えて各画素毎のデータが重なるようにキャリブレーショ
ン(位置調整)しておき、そして、撮影を開始すると共
に、撮影毎に、例えば、15度づつ、ターンテーブル1
07を回転駆動させることで、大容量外部記憶装置10
9に15度刻みで被写体TGの全周囲の画像データ(2
4枚分)が得られる。That is, the range finder 105
For example, by using a laser beam to measure the distance to each position on the subject surface, coordinate data of each position on the subject surface is obtained. To obtain three-dimensional data of the subject TG, the subject TG must be turned. The digital camera 104 and the range finder 105 are fixedly arranged at a fixed position outside the turntable 107 with the optical axis thereof facing the subject TG. Then, the optical axes of the digital camera 104 and the range finder 105 are aligned and calibration (position adjustment) is performed so that data for each pixel overlaps, and shooting is started. Turntable 1 every time
07 is driven to rotate so that the large-capacity external storage device 10
9, the image data of the entire circumference of the subject TG (2
4) are obtained.
【0045】各画像データは、カメラ104で得られた
輝度データと、レンジファインダー105で得られた座
標データからなる。それぞれのデータは画像サイズ分の
画素を持つ。輝度データにおいては、各画素が輝度のデ
ータ(rdij,grij,blij)を持ち、座標デ
ータにおいては、各画素が、3次元物体である被写体T
Gの中心を原点とした3次元物体表面上の各点(各位
置)の浮動小数点座標(xij,zij)のデータを持
つ。これら複数枚の画像からなる全ての輝度データ,座
標データをまとめて3次元データDtdmと呼ぶ。Each image data is composed of brightness data obtained by the camera 104 and coordinate data obtained by the range finder 105. Each data has pixels of the image size. In the luminance data, each pixel has luminance data (rdij, grij, blij), and in the coordinate data, each pixel is a subject T which is a three-dimensional object.
It has data of floating point coordinates (xij, zij) of each point (each position) on the three-dimensional object surface with the center of G as the origin. All the luminance data and coordinate data composed of the plurality of images are collectively referred to as three-dimensional data Dtdm.
【0046】そして、座標データ投影工程(ステップS
3)においては、この3次元データDtdmを用い、画素
単位の3次元データDtdmと観察者の視点位置情報とを
基に画素毎に座標データDxzを画像平面に投影して投影
位置を算出する。Then, the coordinate data projecting step (step S
In 3), using this three-dimensional data Dtdm, the projection position is calculated by projecting coordinate data Dxz for each pixel on an image plane based on the three-dimensional data Dtdm in pixel units and the viewpoint position information of the observer.
【0047】そして、輝度データ合成工程(ステップS
5)においては、フレームメモリ103上の、前記投影
された位置(算出された投影位置)に該当する位置に、
その投影画素の輝度データDlumを書き込むことで、当
該フレームメモリ103には任意視点画像Pimが合成さ
れることになる。Then, the luminance data synthesizing step (step S
In 5), a position on the frame memory 103 corresponding to the projected position (calculated projection position)
By writing the luminance data Dlum of the projection pixel, the arbitrary viewpoint image Pim is synthesized in the frame memory 103.
【0048】基本的な流れはこのようなものであるが、
本発明において、従来技術と異なる点は、座標データD
xzを投影して輝度データの投影位置を求める際に、従来
の技術では座標データ投影工程S52のみで投影位置を
算出していたものを、本発明では、新たに線形近似演算
工程S4を備えて、大部分の座標データDxzの投影を、
線形近似演算で求めるようにしている点と、線形近似演
算をし易いように、予め3次元データDtdmの座標デー
タDxzを、投影用座標データDpxzと線形近似演算用座
標データDraとよりなる変換3次元データDttdmを作成
する3次元データ変換工程S2を設けている点である。
そして、これにより、処理の高速化を図り、前記被写体
の任意視点画像を、リアルタイムで合成できるようにし
ている。The basic flow is like this,
The present invention differs from the prior art in that coordinate data D
When the projection position of the luminance data is obtained by projecting xz, the projection position is calculated only in the coordinate data projection step S52 in the related art, but the present invention is newly provided with a linear approximation operation step S4. , The projection of most of the coordinate data Dxz,
In order to easily perform the linear approximation operation, a point where the coordinate data Dxz of the three-dimensional data Dtdm is converted into projection coordinate data Dpxz and coordinate data Dra for the linear approximation operation in order to facilitate the linear approximation operation. The point is that a three-dimensional data conversion step S2 for creating the dimension data Dttdm is provided.
Thus, the processing is speeded up, and an arbitrary viewpoint image of the subject can be synthesized in real time.
【0049】<投影演算高速化の原理>本発明システム
では、投影演算を線形近似演算にて実施することによ
り、演算処理の高速化を図っているが、この線形近似演
算により高速化が可能な理由について説明しておく。<Principle of Acceleration of Projection Operation> In the system of the present invention, the speed of the operation process is increased by performing the projection operation by a linear approximation operation. I will explain why.
【0050】先に説明した座標データ(x,z)の投影
による画像平面への投影位置g(x,z)の算出方法は
以下の式になる。The method of calculating the projection position g (x, z) on the image plane by projecting the coordinate data (x, z) described above is as follows.
【0051】g(x,z)=−fx/(z−r) ここで、データ値(x0,z0)を持つある座標データD
xzの画像平面上の投影位置g(x0,z0)の値を基に、
隣の点(x1,z1)の画像平面への投影位置g(x1,
z1)=g(x0+h,z0+k)の値を線形近似で求め
る。G (x, z) = − fx / (z−r) Here, certain coordinate data D having a data value (x0, z0)
Based on the value of the projection position g (x0, z0) on the image plane of xz,
The projection position g (x1, z1) of the next point (x1, z1) on the image plane
z1) = g (x0 + h, z0 + k) is obtained by linear approximation.
【0052】[0052]
【数1】 となる。(Equation 1) Becomes
【0053】よって、座標データDxzとしてのデータ値
(x1,z1)の画像平面への投影位置g(x1,z
1)を求めるためには、当該座標データDxzとしてのデ
ータ値(x1,z1)の代わりに(x1′,z1′)=
((x1/x0),(z1−z0)/fx0)と変換し
て3次元データDtdmとして保持しておけば、g(x
0,z0),x1′,z1′の乗算と加算の組み合わせ
のみで、投影位置g(x1,z1)を近似することがで
きる。すなわち、これによって、演算処理の中から除算
演算を排除できるようになる。Therefore, the projection position g (x1, z1) of the data value (x1, z1) as the coordinate data Dxz on the image plane is obtained.
In order to obtain 1), instead of the data value (x1, z1) as the coordinate data Dxz, (x1 ′, z1 ′) =
((X1 / x0), (z1-z0) / fx0) and hold as three-dimensional data Dtdm, g (x
The projection position g (x1, z1) can be approximated only by a combination of multiplication and addition of (0, z0), x1 ′, z1 ′. That is, this makes it possible to eliminate the division operation from the operation processing.
【0054】従って、例えば、近傍に位置するの8つの
点P0〜P7として、 P0(x0,z0), P1(x1,z1), P2(x2,z2), P3(x3,z3), P4(x4,z4), P5(x5,z5), P6(x6,z6), P7(x7,z7) を考えて、中心位置の点、例えば、点P3(x3,z
3)の投影位置g(x3,z3)のみ、 g(x3,z3)=−fx3/(z3−r) の演算によって算出し、残りの7点Pi(i=0〜2,
4〜7)の投影位置は、Therefore, for example, as the eight points P0 to P7 located in the vicinity, P0 (x0, z0), P1 (x1, z1), P2 (x2, z2), P3 (x3, z3), P4 ( x4, z4), P5 (x5, z5), P6 (x6, z6), P7 (x7, z7), a point at the center position, for example, a point P3 (x3, z
Only the projection position g (x3, z3) of 3) is calculated by the calculation of g (x3, z3) = − fx3 / (z3-r), and the remaining seven points Pi (i = 0 to 2,
The projection positions of 4 to 7) are
【数2】 と演算することによって近似的に算出することを考え
る。(Equation 2) Approximately calculated by calculating
【0055】はじめに、比較のために線形近似を施さな
いで8点の投影位置を算出する場合を示しておくと、こ
の場合には、以下の演算になる。First, the case where the projection positions of eight points are calculated without performing linear approximation for comparison will be described. In this case, the following calculation is performed.
【0056】 g(x0,z0)=−fx0/(z0−r), g(x1,z1)=−fx1/(z1−r), g(x2,z2)=−fx2/(z2−r), g(x3,z3)=−fx3/(z3−r), g(x4,z4)=−fx4/(z4−r), g(x5,z5)=−fx5/(z5−r), g(x6,z6)=−fx6/(z6−r), g(x7,z7)=−fx7/(z7−r) すなわち、この方式の場合、(減算×1+乗算×1+除
算×1)×8の演算量が必要になる。つまり、除算は計
8回、除算以外の演算は計16回である。G (x0, z0) = − fx0 / (z0−r), g (x1, z1) = − fx1 / (z1-r), g (x2, z2) = − fx2 / (z2-r) , G (x3, z3) =-fx3 / (z3-r), g (x4, z4) =-fx4 / (z4-r), g (x5, z5) =-fx5 / (z5-r), g (X6, z6) = − fx6 / (z6-r), g (x7, z7) = − fx7 / (z7−r) That is, in this method, (subtraction × 1 + multiplication × 1 + division × 1) × 8 Is required. That is, the division is performed eight times in total, and the operations other than the division are performed sixteen times in total.
【0057】これに対し、本発明システムで採用する方
式である線形近似を施して8点の投影位置を算出する方
式の場合は、以下の演算になる。On the other hand, in the case of the system adopted in the system of the present invention, in which linear approximation is performed to calculate eight projection positions, the following operation is performed.
【0058】[0058]
【数3】 (Equation 3)
【0059】すなわち、この場合、(減算×1+乗算×
1+除算×1)+乗算+(乗算×2+加算×1)×7の
演算量が必要になる。つまり、除算が計1回、除算以外
の演算が計24回である。本方式の場合、線形近似を施
さないで8点の投影位置を算出する比較例方式の場合に
比べて演算そのものは、(24+1)−(8+16)=
1で単純に演算数だけを比較すれば1回分多い。しか
し、本発明の場合、除算は1回であり、その他の演算が
24回である。That is, in this case, (subtraction × 1 + multiplication ×
1 + division × 1) + multiplication + (multiplication × 2 + addition × 1) × 7 That is, there is a total of one division, and a total of 24 operations other than division. In the case of this method, the operation itself is (24 + 1) − (8 + 16) = compared to the case of the comparative example method in which eight projection positions are calculated without performing linear approximation.
If one simply compares the number of operations with 1, the number is larger by one time. However, in the case of the present invention, the division is performed once and the other operations are performed 24 times.
【0060】CPU101による演算処理は、除算が最
も負荷が重く、他の演算はそれよりもずっと負荷が軽
い。In the arithmetic processing by the CPU 101, the division has the heaviest load, and the other operations have a much lighter load.
【0061】いま、除算以外の他の演算に要する時間は
みな等しいT時間と仮定し、除算の処理には当該Tの
1.1倍以上の演算時間を要するものとすれば、前者が
(8×T×1.1)+(16×T)=26.4Tであ
り、後者は(T×1.1)+(T×23)=24.1T
であって、線形近似演算の方が“2.3T”ほど演算の
総量が少なくなるのであるが、一般的に除算は、それ以
外の演算より処理が複雑であり、約1.5〜2倍(以
上)の時間がかかる。Now, assuming that the time required for other operations other than the division is the same T time, and assuming that the division process requires an operation time 1.1 times or more of the T, the former becomes (8) × T × 1.1) + (16 × T) = 26.4T, and the latter is (T × 1.1) + (T × 23) = 24.1T
In the linear approximation operation, the total amount of the operation is smaller by "2.3T". In general, the division is more complicated than other operations, and is about 1.5 to 2 times. It takes (or more) time.
【0062】よって、本発明システムで採用している線
形近似による演算は従来方式に比べて高速化に極めて有
効である。Therefore, the operation by the linear approximation employed in the system of the present invention is extremely effective in increasing the speed as compared with the conventional system.
【0063】本発明システムでは、各ブロックについ
て、そのブロックの各ラインそれぞれは、各ラインの8
点の構成画素のうち、中心位置の1点を精度良く演算
し、他の7点の画素については線形近似演算することで
高速処理化を図る。In the system according to the present invention, for each block, each line of the block corresponds to 8 lines of each line.
Of the constituent pixels of the point, one point at the center position is calculated with high accuracy, and the other seven pixels are subjected to linear approximation to achieve high-speed processing.
【0064】以上の高速化に有効な線形近似演算の説明
を踏まえて、本発明システムによる画像合成処理を説明
する。Based on the above description of the linear approximation operation effective for speeding up, the image synthesis processing by the system of the present invention will be described.
【0065】この処理は、本発明システムにおけるCP
U101により、図2に従って行うことで実現される。
初めに3次元データの取得を行う。This processing is performed by the CP in the system of the present invention.
This is realized by U101 according to FIG.
First, three-dimensional data is obtained.
【0066】<3次元データ取得>3次元データ取得工
程S1において前述の如くして画像合成の対象物である
被写体TG(3次元物体)の全周にわたる画像を例え
ば、15度刻みの各角度位置毎に、定位置のデジタルカ
メラ104、レンジファインダー105にて撮像させ
て、各角度位置毎にとらえた被写体TGの輝度データD
lumと座標データDxzを得る。<Acquisition of Three-Dimensional Data> In the three-dimensional data acquisition step S1, as described above, an image over the entire circumference of the subject TG (three-dimensional object) which is the object of image composition is set at, for example, each angular position of 15 degrees. In each case, the brightness data D of the subject TG captured by the digital camera 104 and the range finder 105 at a fixed position and captured at each angular position
lum and coordinate data Dxz are obtained.
【0067】ここで、輝度データDlumとしては、画面
を構成する各画素が輝度(rdij,grij,bli
j)のデータを持ち、座標データDxzにおいては、画面
を構成する各画素が、3次元物体の中心を原点とした3
次元物体表面上の点の位置の浮動小数点座標(xij,
zij)のデータを持つかたちのデータとして得られ
る。Here, as the luminance data Dlum, each pixel constituting the screen has a luminance (rdij, grij, blij).
j), and in the coordinate data Dxz, each pixel constituting the screen has 3
Floating point coordinates (xij,
zij) is obtained as data having the form of data.
【0068】そして、これら複数枚の画像についてのそ
れぞれの画像別に、画像を構成する全ての画素の輝度デ
ータDlumおよび座標データDxzとからなる3次元デー
タDtdmが得られ、この3次元データDtdmは大容量記憶
装置109に保存される。Then, for each of the plurality of images, three-dimensional data Dtdm including luminance data Dlum and coordinate data Dxz of all pixels constituting the image are obtained, and the three-dimensional data Dtdm is large. It is stored in the capacity storage device 109.
【0069】以上の処理が3次元データ取得工程S1の
処理である。このようにして3次元データDtdmを取得
したならば、CPU101は次の処理である3次元デー
タ変換工程S2の処理に入る。The above processing is the processing of the three-dimensional data acquisition step S1. When the three-dimensional data Dtdm is obtained in this way, the CPU 101 enters a next process of a three-dimensional data conversion step S2.
【0070】<3次元データ変換>3次元データ変換工
程S2は、線形近似演算をし易いようにするための処理
である。この3次元データ変換工程S2では、得られた
3次元データDtdmから変換3次元データDttdmへの変
換処理をする工程である。<Three-dimensional data conversion> The three-dimensional data conversion step S2 is a process for facilitating the linear approximation operation. In the three-dimensional data conversion step S2, the obtained three-dimensional data Dtdm is converted into converted three-dimensional data Dttdm.
【0071】ここで、変換3次元データDttdmとは、前
記3次元データDtdmの座標データDxzを、投影用座標
データDpxzと線形近似演算用座標データDraよりなる
構成にしたデータである。Here, the converted three-dimensional data Dttdm is data obtained by converting the coordinate data Dxz of the three-dimensional data Dtdm into coordinate data Dpxz for projection and coordinate data Dra for linear approximation calculation.
【0072】3次元データ変換工程S2による処理を施
すことにより、予め3次元データDtdmの座標データDx
zを、投影用座標データDpxzと線形近似演算用座標デー
タDraよりなる変換3次元データDttdmに変換するので
ある。By performing the processing in the three-dimensional data conversion step S2, the coordinate data Dx of the three-dimensional data Dtdm is previously determined.
z is converted into converted three-dimensional data Dttdm consisting of projection coordinate data Dpxz and linear approximation calculation coordinate data Dra.
【0073】図3、図4を用いて3次元データ変換工程
S2における3次元データDtdmから変換3次元データ
Dttdmへの変換方法の流れを説明する。The flow of the method of converting the three-dimensional data Dtdm to the converted three-dimensional data Dttdm in the three-dimensional data conversion step S2 will be described with reference to FIGS.
【0074】まず、CPU101は、図3(a)に符号
201を付して示すように、今まで画素単位で扱ってい
た3次元データDtdmを、n×n画素サイズのブロック
に区分し、当該n×n画素のブロック単位でまとめて扱
うようにする。First, as shown by reference numeral 201 in FIG. 3A, the CPU 101 divides the three-dimensional data Dtdm, which has been handled on a pixel-by-pixel basis, into blocks of an n × n pixel size. They are handled collectively in block units of nxn pixels.
【0075】これは3次元データ取得工程S1の最後で
まとめて実施するか、あるいは、図7に示すように、カ
メラ603、レンジファインダー604により撮像する
毎に、つまり、1撮影毎にその画像の輝度データDlum
と座標データDxzが得られた段階でブロック化する。This is carried out collectively at the end of the three-dimensional data acquisition step S 1, or, as shown in FIG. 7, every time an image is taken by the camera 603 and the range finder 604, that is, the image is Luminance data Dlum
When the coordinate data Dxz is obtained, the block is formed.
【0076】図3(a)の画像201においては、小屋
が写った400×400画素構成の画像を、サイズ40
×40画素のブロックに分割して100個のブロック
に、ブロック化した状態を示している。In the image 201 shown in FIG. 3A, an image of a 400 × 400 pixel configuration in which a hut is shown is
A state in which the image is divided into blocks of × 40 pixels and divided into 100 blocks is shown.
【0077】この100個の各ブロックについて、ブロ
ック内の座標データにおける相関を利用して、ライン毎
にそのラインにおけるある画素のみ厳密に投影演算を行
い、残りの画素は先ほど説明したように、線形近似演算
で投影先を求めるように処理する。For each of the 100 blocks, the projection operation is strictly performed only for a certain pixel in the line by utilizing the correlation in the coordinate data in the block, and the remaining pixels are linearly adjusted as described above. Processing is performed so as to obtain the projection destination by an approximate calculation.
【0078】当然のことながら、ブロック内の画素全て
においてその輝度データや座標データが無意味な値で埋
まっているようなブロックの場合には、図3(b)に示
すブロック化画像202のように、その無意味なブロッ
クについては無効なブロックと判定して削除してしま
い、意味のあるブロックについてのみ残すようにする。Naturally, in the case of a block in which the luminance data and coordinate data are filled with meaningless values in all the pixels in the block, a block image 202 shown in FIG. Then, the meaningless block is determined as an invalid block and deleted, and only the meaningful block is left.
【0079】このようにして、ブロック化された画像に
ついて、CPU101は、ブロック内での座標データ変
換を行う。The CPU 101 performs coordinate data conversion in the block on the image thus divided.
【0080】<ブロック内での座標データ変換>図4を
用いて、ブロック内での座標データ変換方法について説
明する。図4においては、ブロックサイズが8×8画素
の場合を例に挙げて説明する。<Coordinate Data Conversion in Block> A method of converting coordinate data in a block will be described with reference to FIG. In FIG. 4, a case where the block size is 8 × 8 pixels will be described as an example.
【0081】図8で説明した3次元データの断面のう
ち、近傍に存在する8点が、このブロック内のある行に
並ぶことになる。3次元データ変換工程S2は、この8
×8画素ブロックのうち、第3列目のデータだけは今ま
でと同様に(xij,zij)の座標データを投影用座
標データDpxzとして格納しておき、第3列以外の列
(0〜2列、4〜7列)については、図4のように、
(xij,zij)=(xij/xi3,(zij−z
i3)/fxi3)を予め計算して線形近似演算用座標
データDraとして格納しておく。In the cross section of the three-dimensional data described with reference to FIG. 8, eight points that exist in the vicinity are arranged in a certain row in this block. This three-dimensional data conversion step S2
Only the data in the third column of the × 8 pixel block stores coordinate data of (xij, zij) as projection coordinate data Dpxz in the same manner as before, and the columns (0 to 2) other than the third column are stored. Columns, 4 to 7 columns), as shown in FIG.
(Xij, zij) = (xij / xi3, (zij-z
i3) / fxi3) is calculated in advance and stored as coordinate data Dra for linear approximation calculation.
【0082】これにより、3次元データDtdmが3次元
データ変換工程S2によって変換3次元データDttdmへ
と変換された。As a result, the three-dimensional data Dtdm is converted into converted three-dimensional data Dttdm in the three-dimensional data conversion step S2.
【0083】最後に、このように作成された変換3次元
データDttdmを基に、どのように座標データ投影工程S
3、線形近似演算工程S4、輝度データ合成工程S5に
よって任意視点画像Pimが合成されるかを説明する。Finally, on the basis of the converted three-dimensional data Dttdm, how the coordinate data projection step S
3. Whether the arbitrary viewpoint image Pim is synthesized by the linear approximation operation step S4 and the luminance data synthesis step S5 will be described.
【0084】縦方向については独立な演算を行っている
ので、ある8×8ブロックのある行の変換3次元データ
Dttdmを画像平面に投影することを考える。Since independent calculations are performed in the vertical direction, it is considered that the transformed three-dimensional data Dttdm of a certain row of a certain 8 × 8 block is projected on an image plane.
【0085】この際、まず、投影用座標データDpxzで
ある第3列目の点(xi3,zi3)の画像平面への投
影位置g(xi3,zi3)については、座標データ投
影工程S3において、図8で説明した場合と同様に、 g(xi3,zi3)=−fxi3/(zi3−r) として画像平面への投影位置を計算する。線形近似演算
用座標データDraである第3列以外の列(0〜2列,4
〜7列)については、線形近似演算工程S4において、
座標データ投影工程S3による出力g(xi3,zi
3)と線形近似演算とを用いて、At this time, first, the projection position g (xi3, zi3) of the point (xi3, zi3) in the third column, which is the projection coordinate data Dpxz, on the image plane is determined in the coordinate data projection step S3. 8, the projection position on the image plane is calculated as g (xi3, zi3) = − fx3 / (zi3-r). Columns other than the third column (0-2 columns, 4
~ 7 columns) in the linear approximation operation step S4
Output g (xi3, zi) in the coordinate data projection step S3
Using 3) and the linear approximation operation,
【数4】 (Equation 4)
【0086】として投影位置g(xij,zij)を計
算する。Then, the projection position g (xij, zij) is calculated.
【0087】輝度データ合成工程S5においては、厳密
に投影されたものであるか、線形近似演算されたもので
あるかに関係なく、変換3次元データDttdmの輝度デー
タDlimを、算出された画像平面の投影位置g(xi
j,zij)に合成(フレームメモリ103に上書き)
して任意視点画像Pimを合成する。In the luminance data synthesizing step S5, the luminance data Dlim of the converted three-dimensional data Dttdm is converted to the calculated image plane irrespective of whether they are strictly projected or linearly approximated. Projection position g (xi
(j, zij) (overwrite the frame memory 103)
To synthesize an arbitrary viewpoint image Pim.
【0088】変換3次元データDttdmに含まれる全ての
ブロック内の全ての画素ついても同様の投影、線形近似
演算を行い、投影位置g(xij,zij)を算出し
て、Zバッファによる判定を行いながら、投影位置g
(xij,zij)に輝度データDlumのデータ値(r
dij,grij,blij)を上書きしていくことに
よって、任意視点画像Dimを合成する。(ただし、rd
ijは赤成分情報、grijは緑成分情報、blijは
青成分情報を指す)この線形近似による任意視点画像の
合成が、全ての座標をそのまま投影する合成法より高速
であることは先に述べた通りである。The same projection and linear approximation are performed for all the pixels in all the blocks included in the converted three-dimensional data Dttdm to calculate the projection position g (xij, zij) and make a determination using the Z buffer. While the projection position g
The data value (r) of the luminance data Dlum is stored in (xij, zij).
dij, grij, blij) are overwritten to synthesize an arbitrary viewpoint image Dim. (However, rd
ij indicates red component information, grij indicates green component information, and blij indicates blue component information.) It has been mentioned earlier that the synthesis of an arbitrary viewpoint image by this linear approximation is faster than the synthesis method in which all coordinates are directly projected. It is on the street.
【0089】この結果、本発明システムにより任意視点
画像の合成を、リアルタイムに実施できるようになる。As a result, the system of the present invention can synthesize an arbitrary viewpoint image in real time.
【0090】以上は、8×8画素構成にブロック化した
画像の各ブロックについて、その各ライン毎に、その一
ラインの構成8画素のうち、中央の一画素についての
み、まともに計算を行い、そのラインの他の7画素につ
いてはこの中心画素で得た値から近似により値を求める
方式を採用することによって、演算量を削減するもので
あったが、次に、いくつかのラインを並列的に演算して
いくことで、演算処理の一層の高速化を図るようにした
例を第2の実施の形態として説明する。In the above, with respect to each block of the image divided into the 8 × 8 pixel configuration, the calculation is properly performed for only one central pixel among the eight pixels constituting one line. With respect to the other seven pixels of the line, the amount of calculation was reduced by adopting a method of obtaining a value by approximation from the value obtained at the center pixel. A second embodiment will be described as an example in which the calculation is further performed to further speed up the calculation processing.
【0091】(第2の実施形態)図5は、本発明の第2
実施形態を説明する図である。図5における8×8画素
構成のブロック401,402は図4の8×8構成のブ
ロックと同じであり、第3列目のデータだけは投影用座
標データ108として(xij,zij)なる情報が格納さ
れており、第3列以外の列(0〜2列、4〜7列)につ
いては線形近似演算用座標データDraとして (xij′,zij′)=(xij/zi3,(zij
−zi3)/fxi3) が格納されている。(Second Embodiment) FIG. 5 shows a second embodiment of the present invention.
It is a figure explaining an embodiment. The blocks 401 and 402 having the 8 × 8 pixel configuration in FIG. 5 are the same as the blocks having the 8 × 8 configuration in FIG. 4. Only the data in the third column has information (xij, zij) as the projection coordinate data 108. Columns other than the third column (columns 0 to 2 and columns 4 to 7) are stored as (xij ′, zij ′) = (xij / zi3, (zij) as the linear approximation calculation coordinate data Dra.
-Zi3) / fx3) are stored.
【0092】一般的に、座標データなどは、図5(a)
に示す8×8画素構成(8行×8列の画素構成)ブロッ
ク401のように、ブロックを構成する8行分のうちの
各1行分(水平1ライン分)の画素は左上から右に向か
ってメモリ上に格納される。そして、これら画素につい
て、CPU101による4並列の浮動小数点演算を行う
場合も図5(a)に示すブロック401のように、 (x00,x01,x02,x03),(x04,x0
5,x06,x07),…,(xj0,xj1,xj
2,xj3),(xj4,xj5,xj6,xj7),
…とまとめて並列演算を行う。Generally, coordinate data and the like are as shown in FIG.
As shown in the block 401 of the 8 × 8 pixel configuration (pixel configuration of 8 rows × 8 columns) shown in FIG. 1, the pixels of one row (horizontal one line) of the eight rows forming the block are arranged from upper left to right. And stored in memory. When the CPU 101 performs a 4-parallel floating-point operation on these pixels, as in block 401 shown in FIG. 5A, (x00, x01, x02, x03), (x04, x0)
5, x06, x07),..., (Xj0, xj1, xj
2, xj3), (xj4, xj5, xj6, xj7),
... and perform parallel operation collectively.
【0093】そして、第1の実施形態に記載の画像合成
方法では、それぞれの行のうち、第3列(x03,x1
3,x23,x33,x43,…,xj3,…)のみ厳
密に投影演算を行い、他の列には線形近似演算を行うよ
うにしているので、図5(a)に示すブロック401の
ようなメモリアラインメントとなっている。In the image synthesizing method according to the first embodiment, the third column (x03, x1
, X23, x33, x43,..., Xj3,...) And the linear approximation calculation is performed on the other columns, so that a block 401 shown in FIG. It is memory aligned.
【0094】しかし、このようなメモリアライメントで
は並列演算ができない。However, such a memory alignment does not allow a parallel operation.
【0095】よって、この第2の実施の形態において
は、図5(a)のブロックの行と列を入れ替えて図5
(b)に示す8×8画素構成ブロック402のように、 (x00,x10,x20,x30),(x40,x5
0,x60,x70),…,(x0j,x1j,x2
j,x3j),(x4j,x5j,x6j,x7j),
… として、縦方向にメモリアラインメントを行う。Therefore, in the second embodiment, the rows and columns of the block shown in FIG.
(X00, x10, x20, x30), (x40, x5) as in the 8 × 8 pixel configuration block 402 shown in FIG.
0, x60, x70),..., (X0j, x1j, x2
j, x3j), (x4j, x5j, x6j, x7j),
… Is performed to perform memory alignment in the vertical direction.
【0096】すなわち、第2の実施の形態においては、
図2における3次元データ変換工程S1において、線形
近似演算用座標データDraを予め計算して第1の実施の
形態のように変換3次元データDttdmを作成するだけで
なく、図5(a)の如き並びを行と列方向の入れ替え処
理を行うことで、図5(b)に示す8×8ブロック40
2のように縦横配列を入れ替えた並びとし、この並びで
データを格納しておき、座標データ投影工程S3、なら
びに、線形近似演算工程S4において、縦方向での並列
演算を行うようにする。このようにすることで、第1の
実施の形態に比較して更に高速に任意視点画像を合成す
ることが可能になる。That is, in the second embodiment,
In the three-dimensional data conversion step S1 in FIG. 2, not only the coordinate data Dra for the linear approximation calculation is calculated in advance to create the converted three-dimensional data Dttdm as in the first embodiment, but also in FIG. By performing the above-described arrangement process in the row and column directions, the 8 × 8 block 40 shown in FIG.
2, the data is stored in this arrangement, and the parallel operation in the vertical direction is performed in the coordinate data projection step S3 and the linear approximation operation step S4. By doing so, it is possible to synthesize an arbitrary viewpoint image at a higher speed than in the first embodiment.
【0097】以上、本発明は、3次元物体を周囲の複数
地点から撮影して画素毎に対応した輝度データと座標デ
ータを持つ3次元データを取得すると共に、この取得し
た画像における画素単位の3次元データと観察者の視点
位置情報を基に画素単位の3次元データを画像平面に投
影して投影位置を算出し、この投影された位置に対応す
る輝度データを合成して任意視点画像を合成する画像合
成装置において、前記取得した3次元データのうち、画
素単位の3次元データの一部の座標データは前記投影の
ためにそのまま投影用座標データとして保持し、残りの
座標データに対しては線形近似演算のために線形近似演
算用座標データに変換を施す3次元データ変換手段と、
この3次元データ変換手段による前記変換3次元データ
を画像平面に投影して任意視点画像を合成するために、
投影用座標データを基に画像平面への投影位置を算出す
る座標データ投影手段と、この投影位置と線形近似演算
用座標データを基に線形近似演算によって画像平面への
座標データ投影手段により算出された投影位置を算出す
る線形近似演算手段とより構成したものである。そし
て、この構成により、画素単位の3次元データの一部の
座標データ、例えば、ブロック化した画像の各ライン方
向の中央の画素については投影のためにそのまま投影用
座標データとして保持し、残りの座標データに対しては
線形近似演算のために線形近似演算用座標データに変換
を施すようにし、この変換3次元データは、画像平面に
投影して任意視点画像を合成するために、座標データ投
影手段により投影用座標データを基に画像平面への投影
位置算出をすると共に、この投影位置と線形近似演算用
座標データを基に、線形近似演算手段により、線形近似
演算によって画像平面への投影位置を算出し、その算出
した投影位置にその変換3次元データの画素の持つ輝度
データを配置して任意視点画像を合成するようにした。As described above, according to the present invention, a three-dimensional object is photographed from a plurality of surrounding points to obtain three-dimensional data having luminance data and coordinate data corresponding to each pixel. Based on the three-dimensional data and the observer's viewpoint position information, three-dimensional data in pixel units is projected onto an image plane to calculate a projection position, and luminance data corresponding to the projected position is synthesized to synthesize an arbitrary viewpoint image. In the image synthesizing apparatus, part of coordinate data of pixel-based three-dimensional data in the acquired three-dimensional data is held as it is as projection coordinate data for the projection, and the remaining coordinate data is not stored. Three-dimensional data conversion means for converting the coordinate data for linear approximation for linear approximation;
In order to project the converted three-dimensional data by the three-dimensional data conversion means onto an image plane and synthesize an arbitrary viewpoint image,
Coordinate data projection means for calculating a projection position on the image plane based on the projection coordinate data, and coordinate data projection means for calculating the projection position on the image plane by linear approximation calculation based on the projection position and the coordinate data for linear approximation calculation. And a linear approximation calculating means for calculating the projected position. With this configuration, a part of the coordinate data of the three-dimensional data in pixel units, for example, the central pixel in each line direction of the blocked image is held as it is as the projection coordinate data for projection, and the remaining pixel data is retained. The coordinate data is converted to the linear approximation operation coordinate data for the linear approximation operation, and the converted three-dimensional data is projected onto an image plane to synthesize an arbitrary viewpoint image. Means for calculating a projection position on the image plane based on the projection coordinate data, and, based on the projection position and the coordinate data for linear approximation calculation, using a linear approximation means to perform a linear approximation calculation on the projection position on the image plane. Is calculated, and the luminance data of the pixel of the converted three-dimensional data is arranged at the calculated projection position to synthesize an arbitrary viewpoint image.
【0098】本発明では、ブロック化した画像の一部の
画素について投影のための位置算出を正確に行い、他の
大部分の座標データについてはその投影を線形近似演算
で求めるようにしたので、任意視点画像を合成するに当
たって、演算が軽減され、従って、リアルタイムで任意
視点画像を合成できるようになる。In the present invention, the position calculation for projection is performed accurately for some pixels of the blocked image, and the projection for most other coordinate data is obtained by a linear approximation operation. In synthesizing the arbitrary viewpoint image, the calculation is reduced, and therefore, the arbitrary viewpoint image can be synthesized in real time.
【0099】なお、本願発明は、上記各実施形態に示さ
れる例に限定されるものではなく、実施段階ではその要
旨を逸脱しない範囲で種々に変形することが可能であ
る。霊えば、上記実施形態においては、8×8画素構成
にブロック化した画像の各ブロックについて、その各ラ
イン毎に、その一ラインの構成8画素のうち、中央の一
画素についてのみ、まともに計算を行い、そのラインの
他の7画素についてはこの中心画素で得た値から近似に
より値を求める方式を採用することによって、演算量を
削減するものであったが、まともに計算するのはライン
毎に1画素ではなく、演算処理に負担がかからない範囲
で、複数画素とすることも考えられる。The present invention is not limited to the examples shown in the above embodiments, and can be variously modified in the practical stage without departing from the gist thereof. In the above-described embodiment, in the above embodiment, for each block of the image divided into the 8 × 8 pixel configuration, only the center pixel of the eight pixels constituting one line is calculated for each line. The calculation amount is reduced by approximating the values of the other seven pixels of the line from the values obtained at the central pixel by approximation. Instead of one pixel each time, it is conceivable to use a plurality of pixels within a range in which a load is not imposed on the arithmetic processing.
【0100】また、更には本発明において、上記実施形
態には種々の段階の発明が含まれており、開示される複
数の構成要件における適宜な組み合わせにより種々の発
明が抽出され得る。例えば、実施形態に示される全構成
要件から幾つかの構成要件が削除されても、発明が解決
しようとする課題の欄で述べた課題の少なくとも1つが
解決でき、発明の効果の欄で述べられている効果の少な
くとも1つが得られる場合には、この構成要件が削除さ
れた構成が発明として抽出され得る。Further, in the present invention, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in the embodiment, at least one of the problems described in the column of the problem to be solved by the invention can be solved, and the problem described in the column of the effect of the invention can be solved. In the case where at least one of the effects described above is obtained, a configuration from which this component is deleted can be extracted as an invention.
【0101】また、本発明における実施形態に記載した
手法は、コンピュータに実行させることのできるプログ
ラムとして、磁気ディスク(フレキシブルディスク、ハ
ードディスクなど)、光ディスク(CD−ROM、CD
−R、CD−RW、DVD、MOなど)、半導体メモリ
などの記録媒体に格納して頒布することもでき、また、
ネットワークを介しての伝送により、頒布することもで
きる。The method described in the embodiment of the present invention can be executed by a computer as a program, such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, CD-ROM).
-R, CD-RW, DVD, MO, etc.), and can be stored in a recording medium such as a semiconductor memory and distributed.
It can also be distributed by transmission over a network.
【0102】[0102]
【発明の効果】以上説明したように、本発明の画像合成
方法によれば、画素単位での投影位置を演算して3次元
物体を任意視点から見た画像を合成するために、予め変
換3次元データを作成しておき、線形近似演算を行うこ
とによって演算量を削減して、より高いリアルタイム性
を実現できる。また、特殊な並列演算によって更なる高
速化も可能である。As described above, according to the image synthesizing method of the present invention, in order to calculate the projection position in pixel units and synthesize an image of a three-dimensional object viewed from an arbitrary viewpoint, the conversion 3 By creating dimension data and performing a linear approximation operation, the amount of operation can be reduced, and higher real-time properties can be realized. Further, further speedup is possible by a special parallel operation.
【図1】本発明を説明するための図であって、本発明シ
ステムの概略的な構成例を示すブロック図である。FIG. 1 is a diagram for explaining the present invention, and is a block diagram showing a schematic configuration example of a system of the present invention.
【図2】本発明を説明するための図であって、本発明の
第1の実施の形態の画像合成手順を説明するためのフロ
ーチャートである。FIG. 2 is a view for explaining the present invention, and is a flowchart for explaining an image synthesizing procedure according to the first embodiment of the present invention;
【図3】本発明を説明するための図であって、本発明の
第1の実施の形態における3次元データ変換工程での画
像のブロック化を説明するための図である。FIG. 3 is a diagram for explaining the present invention, and is a diagram for explaining how to block an image in a three-dimensional data conversion step according to the first embodiment of the present invention.
【図4】本発明を説明するための図であって、本発明の
第1の実施の形態における3次元データ変換工程での座
標データ変換方法を説明するための図である。FIG. 4 is a diagram for explaining the present invention, and is a diagram for explaining a coordinate data conversion method in a three-dimensional data conversion step according to the first embodiment of the present invention.
【図5】本発明を説明するための図であって、本発明の
第2の実施形の態における3次元データ変換方法を説明
するための図である。FIG. 5 is a diagram for explaining the present invention, and is a diagram for explaining a three-dimensional data conversion method according to the second embodiment of the present invention.
【図6】従来の技術としての画像合成方法の流れを示す
フローチャートである。FIG. 6 is a flowchart showing a flow of an image synthesizing method as a conventional technique.
【図7】従来の技術としての画像合成方法における3次
元データ取得工程を説明するための図である。FIG. 7 is a diagram for explaining a three-dimensional data acquisition step in a conventional image combining method.
【図8】従来の技術としての画像合成方法における座標
データ投影工程、輝度データ合成工程を説明するための
図である。FIG. 8 is a view for explaining a coordinate data projecting step and a luminance data combining step in an image combining method as a conventional technique.
101…CPU(プロセッサ) 102…メモリ 103…フレームメモリ 104…デジタルカメラ(撮像装置) 105…レンジファインダー(距離情報取得装置) 106…インタフェース(I/F) 107…ターンテーブル 108…ドライバ 109…記憶媒体 110…入力装置(キーボードなど) 111…出力装置(ディスプレイなど) TG…被写体(3次元物体) 201…ブロック化された輝度データ・座標データ 202…無意味な部分が削除された輝度データ・座標デ
ータ 401…横方向にアラインメントされた8×8ブロック 402…縦方向にアラインメントされた8×8ブロック101: CPU (processor) 102: Memory 103: Frame memory 104: Digital camera (imaging device) 105: Range finder (distance information acquisition device) 106: Interface (I / F) 107: Turntable 108: Driver 109: Storage medium 110: Input device (keyboard, etc.) 111: Output device (display, etc.) TG: Subject (3D object) 201: Blocked luminance data / coordinate data 202: Luminance data / coordinate data from which meaningless portions have been deleted 401: 8 × 8 blocks aligned in the horizontal direction 402: 8 × 8 blocks aligned in the vertical direction
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 5/225 Z 5L096 5/232 5/232 Z J 5/262 5/262 Fターム(参考) 5B050 BA04 BA09 BA13 CA07 DA07 EA07 EA13 EA19 EA24 EA27 EA28 FA02 FA09 5B057 BA02 CA12 CB13 CD14 CE08 DA07 DB03 5B080 BA07 DA07 DA08 GA02 GA22 5C022 AA13 AB24 AB45 AB61 AB62 AB68 AC02 AC69 AC74 CA00 CA01 5C023 AA11 AA37 BA11 CA03 DA04 DA08 EA03 EA06 5L096 CA05 FA66 FA69 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) H04N 5/225 H04N 5/225 Z 5L096 5/232 5/232 Z J 5/262 5/262 F term (reference) 5B050 BA04 BA09 BA13 CA07 DA07 EA07 EA13 EA19 EA24 EA27 EA28 FA02 FA09 5B057 BA02 CA12 CB13 CD14 CE08 DA07 DB03 5B080 BA07 DA07 DA08 GA02 GA22 5C022 AA13 AB24 AB45 AB61 AB62 AB68 AC02 AC69 AC74 CA00 CA01 5C023 AA11 AA11 DA11 FA66 FA69
Claims (4)
画素毎に対応した輝度データと座標データを持つ3次元
データを取得すると共に、この取得した画像における画
素単位の3次元データと観察者の視点位置情報を基に画
素単位の3次元データを画像平面に投影して投影位置を
算出し、この投影された位置に対応する輝度データを合
成して任意視点画像を合成する画像合成装置において、 前記取得した3次元データのうち、画素単位の3次元デ
ータの一部の座標データは前記投影のためにそのまま投
影用座標データとして保持し、残りの座標データに対し
ては線形近似演算のために線形近似演算用座標データに
変換を施す3次元データ変換手段と、 この3次元データ変換手段による前記変換3次元データ
を画像平面に投影して任意視点画像を合成するために、
投影用座標データを基に画像平面への投影位置を算出す
る座標データ投影手段と、 この投影位置と線形近似演算用座標データを基に線形近
似演算によって画像平面への座標データ投影手段により
算出された投影位置を算出する線形近似演算手段と、を
備えることを特徴とする画像合成装置。1. A three-dimensional object is photographed from a plurality of surrounding points to obtain three-dimensional data having brightness data and coordinate data corresponding to each pixel, and observe and obtain three-dimensional data in pixel units in the obtained image. Image synthesizing apparatus that projects three-dimensional data in pixel units on an image plane based on the viewpoint position information of a user to calculate a projection position, and combines luminance data corresponding to the projected position to synthesize an arbitrary viewpoint image. In the acquired three-dimensional data, part of coordinate data of pixel-based three-dimensional data is held as it is as projection coordinate data for the projection, and the remaining coordinate data is subjected to a linear approximation operation. Three-dimensional data conversion means for converting the coordinate data for linear approximation operation into the image data, and projecting the converted three-dimensional data by the three-dimensional data conversion means onto an image plane to generate an arbitrary viewpoint image. In order to synthesize,
Coordinate data projection means for calculating a projection position on the image plane based on the projection coordinate data, and coordinate data projection means on the image plane by a linear approximation operation based on the projection position and the linear approximation operation coordinate data. A linear approximation calculating means for calculating the projected position.
画素毎に対応した輝度データと座標データを持つ3次元
データを取得する3次元データ取得工程と、この画素単
位の3次元データと観察者の視点位置情報を基に画素単
位の3次元データを画像平面に投影して投影位置を算出
する座標データ投影工程と、投影された位置に対応する
輝度データを合成して任意視点画像を合成する輝度デー
タ合成工程から成る画像合成方法において、 画素単位の3次元データの一部の座標データは投影のた
めにそのまま投影用座標データとして保持し、残りの座
標データに対しては線形近似演算のために線形近似演算
用座標データに変換を施す3次元データ変換工程と、 この変換3次元データを画像平面に投影して任意視点画
像を合成するために、投影用座標データを基に画像平面
への投影位置を算出する座標データ投影工程と、 この投影位置と線形近似演算用座標データを基に線形近
似演算によって画像平面への投影位置を算出する線形近
似演算工程を備えることを特徴とする画像合成方法。2. A three-dimensional data acquiring step of photographing a three-dimensional object from a plurality of surrounding points and acquiring three-dimensional data having luminance data and coordinate data corresponding to each pixel, A coordinate data projecting step of projecting pixel-based three-dimensional data on an image plane based on the observer's viewpoint position information to calculate a projected position, and combining luminance data corresponding to the projected position to form an arbitrary viewpoint image In an image synthesizing method including a luminance data synthesizing step of synthesizing, a part of coordinate data of three-dimensional data in pixel units is directly held as projection coordinate data for projection, and a linear approximation operation is performed on the remaining coordinate data. A three-dimensional data conversion step of converting the coordinate data for linear approximation calculation into a three-dimensional data, and projecting the converted three-dimensional data onto an image plane to synthesize an arbitrary viewpoint image. A coordinate data projection step of calculating a projection position on the image plane based on the target data; and a linear approximation calculation step of calculating a projection position on the image plane by a linear approximation operation based on the projection position and the coordinate data for linear approximation operation. An image synthesizing method, comprising:
演算工程において複数の画素データをまとめて並列演算
し、前記3次元データ変換工程において予め並列演算に
対応した形式で3次元データを更に変換しておくことを
特徴とする請求項2記載の画像合成方法。3. The coordinate data projecting step and the linear approximation operation step collectively perform a parallel operation on a plurality of pixel data, and the three-dimensional data conversion step further converts the three-dimensional data in a format corresponding to the parallel operation in advance. 3. The image synthesizing method according to claim 2, wherein:
得た画素毎に対応した輝度データと座標データを持つ3
次元データを用い、この3次元データのうち、画素単位
の3次元データの一部の座標データはそのまま投影用座
標データとして保持し、残りの座標データに対しては線
形近似演算のために線形近似演算用座標データに変換を
施す3次元データ変換ステップと、 この3次元データ変換ステップによる前記変換3次元デ
ータを画像平面に投影して任意視点画像を合成するため
に、投影用座標データと観察者の視点位置情報を基に画
像平面への投影位置を算出する座標データ投影ステップ
と、 この投影位置と線形近似演算用座標データを基に線形近
似演算によって画像平面への座標データ投影手段により
算出された投影位置を算出する線形近似演算ステップ
と、 この投影された位置に対応する輝度データを合成して任
意視点画像を合成する画像合成ステップと、を備えるこ
とを特徴とするコンピュータで読み取りおよび実行可能
な画像合成プログラムを記録した媒体。4. A pixel having luminance data and coordinate data corresponding to each pixel obtained by photographing a three-dimensional object from a plurality of surrounding points.
Using three-dimensional data, of the three-dimensional data, part of the coordinate data of the three-dimensional data in pixel units is held as it is as projection coordinate data, and the remaining coordinate data is linearly approximated for linear approximation calculation. A three-dimensional data conversion step of converting the coordinate data for calculation; and projecting the converted three-dimensional data in the three-dimensional data conversion step onto an image plane to synthesize an arbitrary viewpoint image. A coordinate data projection step of calculating a projection position on the image plane based on the viewpoint position information of the image data; and a linear approximation operation based on the projection position and the coordinate data for the linear approximation operation. A linear approximation calculating step of calculating the projected position, and an image combining step of combining luminance data corresponding to the projected position to form an arbitrary viewpoint image. Step a, medium recording the read and executable image synthesis program on the computer, characterized in that it comprises a.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000229154A JP2002042158A (en) | 2000-07-28 | 2000-07-28 | Image synthesizing apparatus, image synthesizing method, and medium recording program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000229154A JP2002042158A (en) | 2000-07-28 | 2000-07-28 | Image synthesizing apparatus, image synthesizing method, and medium recording program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2002042158A true JP2002042158A (en) | 2002-02-08 |
Family
ID=18722323
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000229154A Pending JP2002042158A (en) | 2000-07-28 | 2000-07-28 | Image synthesizing apparatus, image synthesizing method, and medium recording program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2002042158A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2386489A (en) * | 2002-03-15 | 2003-09-17 | British Broadcasting Corp | Virtual studio system |
| JP2004259114A (en) * | 2003-02-27 | 2004-09-16 | Seiko Epson Corp | Object identification method, object identification device, and object identification program |
| US7468778B2 (en) | 2002-03-15 | 2008-12-23 | British Broadcasting Corp | Virtual studio system |
| JP2012156961A (en) * | 2011-01-28 | 2012-08-16 | Hitachi Solutions Ltd | Stereoscopic image processing system, stereoscopic image processing device, and stereoscopic image processing method |
| JP2013069235A (en) * | 2011-09-26 | 2013-04-18 | Asia Air Survey Co Ltd | Apparatus for associating object with multiple images, data reproduction device thereof, and image processing system |
| JP2018133063A (en) * | 2017-02-17 | 2018-08-23 | 株式会社ソニー・インタラクティブエンタテインメント | Image generating apparatus and image generating method |
| WO2019123547A1 (en) * | 2017-12-19 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator, reference image data generator, image generation method, and reference image data generation method |
-
2000
- 2000-07-28 JP JP2000229154A patent/JP2002042158A/en active Pending
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2386489A (en) * | 2002-03-15 | 2003-09-17 | British Broadcasting Corp | Virtual studio system |
| GB2386489B (en) * | 2002-03-15 | 2006-10-04 | British Broadcasting Corp | Virtual studio system |
| US7468778B2 (en) | 2002-03-15 | 2008-12-23 | British Broadcasting Corp | Virtual studio system |
| JP2004259114A (en) * | 2003-02-27 | 2004-09-16 | Seiko Epson Corp | Object identification method, object identification device, and object identification program |
| JP2012156961A (en) * | 2011-01-28 | 2012-08-16 | Hitachi Solutions Ltd | Stereoscopic image processing system, stereoscopic image processing device, and stereoscopic image processing method |
| JP2013069235A (en) * | 2011-09-26 | 2013-04-18 | Asia Air Survey Co Ltd | Apparatus for associating object with multiple images, data reproduction device thereof, and image processing system |
| JP2018133063A (en) * | 2017-02-17 | 2018-08-23 | 株式会社ソニー・インタラクティブエンタテインメント | Image generating apparatus and image generating method |
| WO2018151038A1 (en) * | 2017-02-17 | 2018-08-23 | 株式会社ソニー・インタラクティブエンタテインメント | Image generation device and image generation method |
| US11120613B2 (en) | 2017-02-17 | 2021-09-14 | Sony Interactive Entertainment Inc. | Image generating device and method of generating image |
| WO2019123547A1 (en) * | 2017-12-19 | 2019-06-27 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator, reference image data generator, image generation method, and reference image data generation method |
| JPWO2019123547A1 (en) * | 2017-12-19 | 2020-12-17 | 株式会社ソニー・インタラクティブエンタテインメント | Image generator, reference image data generator, image generation method, and reference image data generation method |
| US11430412B2 (en) | 2017-12-19 | 2022-08-30 | Sony Interactive Entertainment Inc. | Freely selected point of view image generating apparatus, reference image data generating apparatus, freely selected point of view image generating method, and reference image data generating method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN116483200B (en) | Computer-implemented method for determining virtual object depth and warping virtual content | |
| US11012679B2 (en) | Generating apparatus, generating method, and storage medium | |
| US10964119B2 (en) | Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same | |
| JP3052681B2 (en) | 3D video generation device | |
| JP7058277B2 (en) | Reconstruction method and reconfiguration device | |
| CN112166397B (en) | Apparatus, system and method for accelerating position tracking of head mounted displays | |
| US20210090322A1 (en) | Generating and Modifying Representations of Objects in an Augmented-Reality or Virtual-Reality Scene | |
| CN113302658A (en) | Parallel texture sampling | |
| JP4406824B2 (en) | Image display device, pixel data acquisition method, and program for executing the method | |
| JP4847203B2 (en) | Information processing method and information processing apparatus | |
| WO2020009710A1 (en) | Systems and methods for offloading image-based tracking operations from a general processing unit to a hardware accelerator unit | |
| JP2020173529A (en) | Information processing device, information processing method, and program | |
| CN118382876A (en) | Using motion data to generate higher resolution images | |
| Inamoto et al. | Intermediate view generation of soccer scene from multiple videos | |
| WO2020184174A1 (en) | Image processing device and image processing method | |
| JP2002042158A (en) | Image synthesizing apparatus, image synthesizing method, and medium recording program | |
| WO2021149509A1 (en) | Imaging device, imaging method, and program | |
| JP4710081B2 (en) | Image creating system and image creating method | |
| JP7795931B2 (en) | Information processing device, information processing method, data structure and program | |
| JP4380376B2 (en) | Image processing apparatus, image processing method, and image processing program | |
| JP7667007B2 (en) | Subject modeling device, rendering device and program | |
| EP4579583A1 (en) | Information processing device, information processing method, and program | |
| CN113298868B (en) | Model building method, device, electronic equipment, medium and program product | |
| JP2024178816A (en) | Information processing device, control method, and program | |
| JP2025134104A (en) | Rendering device and its program, and light ray information reduction device and its program |