[go: up one dir, main page]

JP2003090714A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program

Info

Publication number
JP2003090714A
JP2003090714A JP2001283214A JP2001283214A JP2003090714A JP 2003090714 A JP2003090714 A JP 2003090714A JP 2001283214 A JP2001283214 A JP 2001283214A JP 2001283214 A JP2001283214 A JP 2001283214A JP 2003090714 A JP2003090714 A JP 2003090714A
Authority
JP
Japan
Prior art keywords
image
subject
points
3dcg
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001283214A
Other languages
Japanese (ja)
Inventor
Shigenori Tanaka
成典 田中
Hitoshi Furuta
均 古田
Etsuji Kitagawa
悦司 北川
Kotaro Nakayama
浩太郎 中山
Yoshitaka Minami
佳孝 南
Masanori Ikebe
正典 池辺
Hiroya Yoshida
博哉 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kansai Informatics Institute Co Ltd
Fukui Computer Holdings Inc
Original Assignee
Kansai Informatics Institute Co Ltd
Fukui Computer Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kansai Informatics Institute Co Ltd, Fukui Computer Holdings Inc filed Critical Kansai Informatics Institute Co Ltd
Priority to JP2001283214A priority Critical patent/JP2003090714A/en
Publication of JP2003090714A publication Critical patent/JP2003090714A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【課題】 被写体のステレオペア画像から被写体の3次
元コンピュータグラフィックスを作成すること。 【解決手段】 3次元コンピュータグラフィックスの表
現対象であるオブジェクトを被写体としてステレオペア
画像を撮影する。撮影されたステレオペア画像からオブ
ジェクトの対応する点を抽出し、これらの点の左画像、
右画像上での2次元座標値を算出する。そして、これら
の点の組み合わせから、ステレオペア画像を写真測量す
る。その際に、遺伝的アルゴリズムを用いて点の組み合
わせを更新しながら計算の精度を高める。計算によりオ
ブジェクトの3次元座標データが得られたら、これを用
いてポリゴンを生成し、VRMLによりオブジェクトの
立体モデルを記述する。そして、ステレオペア画像の一
方の画像からポリゴンに合わせて画像を切り抜き、これ
をテクスチャとして立体モデルにマッピングする。
(57) [Summary] To create three-dimensional computer graphics of a subject from a stereo pair image of the subject. SOLUTION: A stereo pair image is photographed with an object to be expressed in three-dimensional computer graphics as a subject. Extract the corresponding points of the object from the captured stereo pair image, left image of these points,
The two-dimensional coordinate value on the right image is calculated. Then, from the combination of these points, the stereo pair image is photogrammetrically measured. At this time, the accuracy of calculation is increased while updating the combination of points using a genetic algorithm. When the three-dimensional coordinate data of the object is obtained by the calculation, a polygon is generated using the data, and a three-dimensional model of the object is described by VRML. Then, an image is cut out from one of the stereo pair images in accordance with the polygon, and this is mapped as a texture to the three-dimensional model.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置、及
び画像処理プログラムに関し、例えばステレオペア画像
から被写体の3次元コンピュータグラフィックスを生成
するものに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing program, for example, to generate three-dimensional computer graphics of a subject from a stereo pair image.

【0002】[0002]

【従来の技術】近年のコンピュータ技術の発展により、
コンピュータによって3次元情報を表現した3次元コン
ピュータグラフィックス(以下3DCGと記す)が様々
な分野で利用されている。例えば、3DCGを用いたゲ
ームや映画などのエンターテイメントの分野や、3次元
CAD(Computer Aided Desig
n)を用いた建築の分野などがある。
2. Description of the Related Art Due to the recent development of computer technology,
Three-dimensional computer graphics (hereinafter referred to as 3DCG) in which three-dimensional information is expressed by a computer is used in various fields. For example, the field of entertainment such as games and movies using 3DCG, and three-dimensional CAD (Computer Aided Design)
There is a field of construction using n).

【0003】3DCGは、3次元空間にある表現対象で
ある立体(以下オブジェクトと呼ぶことにする)を2次
元の静止画や動画で表現する技術である。3DCGで
は、オブジェクトを望む視点が変化したり、オブジェク
トが動いた場合のオブジェクトの見え方をオブジェクト
の3次元情報から計算し、2次元の平面で表現する。
The 3DCG is a technique for expressing a solid (hereinafter referred to as an object), which is an expression target in a three-dimensional space, by a two-dimensional still image or moving image. In the 3DCG, the appearance of the object when the point of view of the object changes or when the object moves is calculated from the three-dimensional information of the object and is expressed by a two-dimensional plane.

【0004】3DCGの作成方法は種々あるが、例え
ば、オブジェクトの立体モデルを定義し、その表面にテ
クスチャを貼り付けること(テクスチャマッピング)に
より作成するものがある。立体モデルには、オブジェク
トを直線で表したワイヤーフレームモデルや、三角形や
四角形などの多角形を組み合わせて多面体として表した
サーフェスモデルや、或いはオブジェクトの内部の構成
の情報をも含んだソリッドモデルなどがある。
There are various methods of creating the 3DCG. For example, there is a method of creating a 3D CG by defining a three-dimensional model of an object and pasting a texture on it (texture mapping). The three-dimensional model includes a wireframe model in which an object is represented by a straight line, a surface model in which polygons such as triangles and quadrilaterals are combined and represented as a polyhedron, or a solid model including information on the internal configuration of the object. is there.

【0005】一例としてサーフェスモデルについて説明
する。サーフェスモデルは、ポリゴンと呼ばれる三角形
や四角形などの多角形状をした構成単位を組み合わせて
オブジェクトを近似的に多面体として表すものである。
オブジェクトの表面をこれらのポリゴンの組み合わせか
ら生成し、ポリゴンの各頂点の3次元座標値をコンピュ
ータに与えることによって、立体モデルを定義すること
ができる。
A surface model will be described as an example. The surface model is an approximate representation of an object as a polyhedron by combining constituent units each having a polygonal shape such as a triangle or a quadrangle called a polygon.
A three-dimensional model can be defined by generating the surface of an object from a combination of these polygons and giving the computer the three-dimensional coordinate values of each vertex of the polygon.

【0006】なお、通常三角形や四角形などの異種のポ
リゴンを混在させることはせず、三角形なら三角形のみ
といったように単一の多角形によってポリゴンを生成す
る。また、各多角形の形状はオブジェクトを最適に表せ
るように通常異なっている。ところで、ポリゴンを三角
形とした場合、三つの頂点は必ず同一の表面にあるため
解析が容易であるという長所がある反面、ポリゴンの数
が増えるという短所がある。また、ポリゴンを四角形や
五角形などで構成した場合は、ポリゴンの数は減るとい
う長所がある反面、各頂点が同一平面に存在しない場合
に問題が生じるという短所がある。
[0006] Normally, different types of polygons such as triangles and quadrilaterals are not mixed, and polygons are generated by a single polygon such as only triangles in the case of triangles. Also, the shape of each polygon is usually different to best represent the object. By the way, when the polygon is a triangle, the three vertices are always on the same surface, which has an advantage that the analysis is easy, but has a disadvantage that the number of polygons increases. In addition, when the polygons are formed in a quadrangle or a pentagon, there is an advantage that the number of polygons is reduced, but there is a disadvantage that a problem occurs when each vertex is not on the same plane.

【0007】テクスチャマッピングは、写真や模様など
の2次元ピクチャをモデリングされたオブジェクトに貼
り付けることにより行われる。例えば、自動車の立体モ
デルを生成した後、この立体モデルの表面に当該自動車
の写真を貼り付けることにより、リアルな3DCGを得
ることができる。このようにして、自動車の3次元情報
及び自動車のテクスチャの情報をコンピュータに入力す
ることにより、コンピュータの画面上で自動車を色々な
角度や距離から見た画像を表示させることができる。
Texture mapping is performed by pasting a two-dimensional picture such as a photograph or a pattern onto a modeled object. For example, after generating a three-dimensional model of an automobile, a photograph of the automobile is pasted on the surface of this three-dimensional model to obtain a realistic 3DCG. In this way, by inputting the three-dimensional information of the automobile and the texture information of the automobile into the computer, it is possible to display images of the automobile viewed from various angles and distances on the screen of the computer.

【0008】[0008]

【発明が解決しようとする課題】しかし、3DCGの作
成には、高度な専門知識や専門技能、及び高価な機器が
必要である。しかも、立体モデルの生成やテクスチャの
貼り付け、その他の工程では、人手(しかも専門家)に
頼る部分が多くある。最近では、3DCGの作成を一部
支援するアプリケーションソフトウェアなども市販され
るようになってきているが、これを使用するには、ユー
ザはかなりレベルの高いコンピュータの知識が必要であ
り、また、複雑な3DCGを生成することは困難であ
る。特に、3DCGの要望が大きい人の顔などは、複雑
な自由曲面から構成されており、3DCG化するのは困
難である。更に、3次元データを自動的に取得し、テク
スチャマッピングを含んだ3次元モデリングを自動的に
行うシステムは実現されていなかった。
However, the production of 3DCG requires a high degree of specialized knowledge, specialized skills, and expensive equipment. Moreover, there are many parts that rely on humans (and experts) in the generation of the three-dimensional model, the pasting of textures, and other processes. Recently, application software, etc., which partially assists in the creation of 3DCG, has also come into the market, but in order to use this, the user requires a fairly high level of computer knowledge and is complicated. It is difficult to generate a large 3DCG. In particular, the face of a person who has a great demand for 3DCG is composed of a complex free-form surface, and it is difficult to form 3DCG. Furthermore, a system that automatically acquires three-dimensional data and automatically performs three-dimensional modeling including texture mapping has not been realized.

【0009】そこで、本発明の目的は、オブジェクトの
ステレオペア画像から当該オブジェクトを自動的に写真
測量したり、また、測量結果から自動的に当該オブジェ
クトの3DCGを生成することができる画像処理装置、
及び画像処理プログラムを提供することである。
Therefore, an object of the present invention is to provide an image processing apparatus capable of automatically photogrammetrically measuring the object from a stereo pair image of the object, and automatically generating 3DCG of the object from the survey result.
And to provide an image processing program.

【0010】[0010]

【課題を解決するための手段】本発明は、前記目的を達
成するために、請求項1に記載の発明では、被写体を所
定の方向から撮影した第1の画像を取得する第1の画像
取得手段と、前記被写体を前記所定の方向とは異なった
方向から撮影した第2の画像を取得する第2の画像取得
手段と、前記第1の画像から前記被写体の特徴的な点を
抽出し、かつ前記第2の画像から前記被写体の特徴的な
点を抽出し、前記第1の画像から抽出した点と、前記第
2の画像から抽出した点を対応させる対応点抽出手段
と、前記抽出した点の前記第1の画像上での2次元座標
値と前記第2の画像上での2次元座標値を用いて、前記
被写体を写真測量し、前記被写体の3次元情報を取得す
る写真測量手段と、を具備したことを特徴とする画像処
理装置を提供する。請求項2に記載の発明では、前記第
1の画像及び前記第2の画像が、特徴的な特徴点の分布
の傾向が予め分かっている被写体を、前記被写体に対し
て所定の位置から撮影した画像であって、前記第1の画
像及び前記第2の画像中に記録される前記特徴点の分布
の傾向は分かっており、前記対応点抽出手段は、前記被
写体の特徴点の予め分かっている分布の傾向を用いて前
記第1の画像と前記第2の画像から抽出した特徴点を対
応付けることを特徴とする請求項1に記載の画像処理装
置を提供する。請求項3に記載の発明では、前記写真測
量手段は、前記対応点取得手段にて取得した点から点の
組み合わせを複数生成する組み合わせ生成手段と、前記
生成された組み合わせの個々について標定する標定手段
と、前記標定結果の収束を判断する収束判断手段と、前
記収束判断手段で前記計算値が収束したと判断されるま
で、遺伝的アルゴリズムにおける遺伝的操作によって、
前記組み合わせを更新する更新手段と、を具備したこと
を特徴とする請求項1又は請求項2に記載の画像処理装
置を提供する。請求項4に記載の発明では、前記写真測
量手段で得られた測量結果を用いて、前記被写体の立体
モデルを生成するためのポリゴンを生成するポリゴン生
成手段と、更に具備したことを特徴とする請求項1、請
求項2又は請求項3に記載の画像処理装置を提供する。
請求項5に記載の発明では、前記ポリゴン生成手段は、
写真測量により3次元座標値が分かっている被写体上の
点からボロノイを生成するボロノイ領域生成手段と、前
記生成されたボロノイ領域をドロネー分割してポリゴン
を生成するドロネー分割手段と、を具備したことを特徴
とする請求項4に記載の画像処理装置を提供する。請求
項6に記載の発明では、前記生成されたポリゴンにて表
現された前記被写体の立体モデルを所定のコンピュータ
言語で記述する記述手段と、前記記述手段にて記述され
た内容を所定のファイルにて出力する出力手段と、を更
に具備したことを特徴とする請求項4又は請求項5に記
載の画像処理装置を提供する。請求項7に記載の発明で
は、前記被写体の立体モデルにマッピングするテクスチ
ャを前記第1の画像又は第2の画像の少なくとも一方か
ら取得するテクスチャ取得手段と、前記テクスチャ取得
手段にて取得したテクスチャを前記被写体の立体モデル
にマッピングし、前記ファイルを更新する更新手段と、
を更に具備したことを特徴とする請求項6に記載の画像
処理装置を提供する。請求項8に記載の発明では、前記
所定のコンピュータ言語はVRMLであることを特徴と
する請求項6又は請求項7に記載の画像処理装置を提供
する。請求項9に記載の発明では、被写体を所定の方向
から撮影した第1の画像を取得する第1の画像取得機能
と、前記被写体を前記所定の方向とは異なった方向から
撮影した第2の画像を取得する第2の画像取得機能と、
記第1の画像から前記被写体の特徴的な点を抽出し、か
つ前記第2の画像から前記被写体の特徴的な点を抽出
し、前記第1の画像から抽出した点と、前記第2の画像
から抽出した点を対応させる対応点抽出機能と、前記抽
出した点の前記第1の画像上での2次元座標値と前記第
2の画像上での2次元座標値を用いて、前記被写体を写
真測量し、前記被写体の3次元情報を取得する写真測量
機能と、を具備したことを特徴とする画像処理プログラ
ム又は画像処理プログラムを記憶したコンピュータが読
み取り可能な記憶媒体を提供する。また、第1の画像取
得手段と、第2の画像取得手段と、対応点抽出手段と、
写真測量取得手段と、を備えたコンピュータにおいて、
前記第1の画像取得手段で、被写体を所定の方向から撮
影した第1の画像を取得する第1の画像取得ステップ
と、前記第2の画像取得手段で、前記被写体を前記所定
の方向とは異なった方向から撮影した第2の画像を取得
する第2の画像取得ステップと、前記対応点抽出手段
で、前記第1の画像から前記被写体の特徴的な点を抽出
し、かつ前記第2の画像から前記被写体の特徴的な点を
抽出し、前記第1の画像から抽出した点と、前記第2の
画像から抽出した点を対応させる対応点抽出ステップ
と、前記写真測量手段で、前記抽出した点の前記第1の
画像上での2次元座標値と前記第2の画像上での2次元
座標値を用いて、前記被写体を写真測量し、前記被写体
の3次元情報を取得する写真測量ステップと、から構成
されたことを特徴とする画像処理方法を提供する。
In order to achieve the above-mentioned object, the present invention is, in the invention described in claim 1, a first image acquisition for acquiring a first image of a subject taken from a predetermined direction. Means, second image acquisition means for acquiring a second image of the subject taken from a direction different from the predetermined direction, and extracting characteristic points of the subject from the first image, Moreover, the characteristic point of the subject is extracted from the second image, and the point extracted from the first image and the point extracted from the second image correspond to each other, and the extracted point is the corresponding point. Photogrammetric means for photogrammetrically measuring the subject and acquiring three-dimensional information of the subject using the two-dimensional coordinate values of the points on the first image and the two-dimensional coordinate values on the second image. An image processing apparatus is provided, which comprises: In the invention according to claim 2, a subject whose distribution tendency of characteristic feature points in the first image and the second image is known in advance is photographed from a predetermined position with respect to the subject. An image, the tendency of the distribution of the feature points recorded in the first image and the second image is known, and the corresponding point extraction means knows the feature points of the subject in advance. The image processing apparatus according to claim 1, wherein the characteristic points extracted from the first image and the second image are associated with each other by using a tendency of distribution. In the invention according to claim 3, the photogrammetric means is a combination generation means for generating a plurality of point combinations from the points acquired by the corresponding point acquisition means, and an orientation means for orienting each of the generated combinations. A convergence determination means for determining the convergence of the orientation result, and until the convergence determination means determines that the calculated value has converged, by a genetic operation in a genetic algorithm,
An image processing apparatus according to claim 1 or 2, further comprising: an updating unit that updates the combination. According to a fourth aspect of the present invention, there is further provided polygon generating means for generating a polygon for generating a stereo model of the subject using the survey result obtained by the photogrammetric means. An image processing apparatus according to claim 1, claim 2 or claim 3 is provided.
In the invention according to claim 5, the polygon generating means is
Voronoi region generation means for generating Voronoi from points on the subject whose three-dimensional coordinate values are known by photogrammetry, and Delaunay division means for generating polygons by performing Delaunay division on the generated Voronoi regions. An image processing apparatus according to claim 4, wherein: In the invention according to claim 6, a description means for describing the three-dimensional model of the subject represented by the generated polygon in a predetermined computer language, and the contents described by the description means in a predetermined file. An image processing apparatus according to claim 4 or 5, further comprising: an output unit that outputs the image. According to a seventh aspect of the present invention, a texture acquisition unit that acquires a texture to be mapped to the three-dimensional model of the subject from at least one of the first image and the second image, and a texture acquired by the texture acquisition unit. Update means for mapping the three-dimensional model of the subject and updating the file;
The image processing apparatus according to claim 6, further comprising: The invention according to claim 8 provides the image processing apparatus according to claim 6 or 7, wherein the predetermined computer language is VRML. In the invention according to claim 9, a first image acquisition function of acquiring a first image of a subject taken from a predetermined direction, and a second image capturing function of the subject taken from a direction different from the predetermined direction. A second image acquisition function for acquiring an image,
The characteristic points of the subject are extracted from the first image, the characteristic points of the subject are extracted from the second image, and the points extracted from the first image and the second point are extracted. Using the corresponding point extraction function that associates the points extracted from the image, the two-dimensional coordinate value of the extracted point on the first image and the two-dimensional coordinate value of the second image, the subject And a photogrammetry function for obtaining three-dimensional information of the subject by photogrammetry, and an image processing program or a computer-readable storage medium storing the image processing program. Also, a first image acquisition unit, a second image acquisition unit, a corresponding point extraction unit,
In a computer equipped with photogrammetric acquisition means,
The first image acquisition step of acquiring a first image of the subject taken from a predetermined direction by the first image acquisition means, and the second image acquisition means defining the subject as the predetermined direction A second image acquisition step of acquiring a second image photographed from a different direction, the characteristic point of the subject is extracted from the first image by the corresponding point extraction means, and the second image acquisition step is performed. A characteristic point of the subject is extracted from the image, and a corresponding point extraction step of associating the point extracted from the first image with the point extracted from the second image; Photogrammetric surveying the subject using the two-dimensional coordinate value of the point on the first image and the two-dimensional coordinate value on the second image to obtain three-dimensional information of the subject. Characterized by being composed of steps and To provide an image processing method.

【0011】[0011]

【発明の実施の形態】[第1の実施の形態の概要]本実
施の形態では、まず、写真測量によりオブジェクトの3
次元データを自動的に取得する。本実施の形態では、写
真測量の計算を高速化するために後述する遺伝的アルゴ
リズムを用いる。写真測量は、土木の分野で一般的に使
用されている技術であって、被写体を異なる2方向から
撮影し、被写体の両写真内での座標値などから被写体の
3次元データを算出する技術である。
BEST MODE FOR CARRYING OUT THE INVENTION [Outline of First Embodiment] In the present embodiment, first, three objects are determined by photogrammetry.
Obtain dimensional data automatically. In this embodiment, a genetic algorithm described later is used to speed up the calculation of photogrammetry. Photogrammetry is a technique that is generally used in the field of civil engineering. It is a technique that takes a subject from two different directions and calculates the three-dimensional data of the subject from the coordinate values in both photos of the subject. is there.

【0012】写真測量によりオブジェクトの3次元デー
タを得た後、これをドロネー分割(後述)してポリゴン
を生成し、オブジェクトの立体モデルを生成する。ドロ
ネー分割することにより立体モデルを作るための適切な
ポリゴンを生成することができる。そして、写真測量の
際に撮影した写真をテクスチャとして当該立体モデルに
マッピングし、オブジェクトの3DCGを得る。
After obtaining the three-dimensional data of the object by photogrammetry, this is Delaunay divided (described later) to generate polygons, and a three-dimensional model of the object is generated. Appropriate polygons for creating a three-dimensional model can be generated by Delaunay division. Then, the photograph taken during the photogrammetry is mapped as a texture on the three-dimensional model to obtain the 3DCG of the object.

【0013】[第1の実施の形態の詳細]以下、本発明
の好適な実施の形態について説明する。なお、本実施の
形態ではオブジェクトの一例として人間の頭部を含む上
半身を用いることにする。これは、顔を3DCG化した
いとの市場の要望が大きいのに加え、顔を構成する自由
局面は非常に複雑であり、これが自動的に3DCG化で
きれば、他のオブジェクトの3DCG化は比較的容易で
あるためである。
[Details of the First Embodiment] The preferred embodiments of the present invention will be described below. In the present embodiment, the upper body including a human head is used as an example of the object. This is because there is a great demand from the market to make the face 3DCG, and the free phase that composes the face is very complicated. If this can be automatically made 3DCG, it is relatively easy to make another object 3DCG. This is because.

【0014】図1(a)は、ユーザの頭部8を撮影する
ための撮影ボックス10を頭頂方向から見た場合の構成
を示した図であり、図1(b)は、撮影ボックス10を
図1(a)の矢線A方向に見た図である。撮影ボックス
10は、ユーザの頭部8のステレオペア画像を撮影する
ための小室である。ここで、ステレオペア画像とは、1
つの被写体を異なる角度から撮影した一組の画像のこと
である。
FIG. 1A is a diagram showing a configuration of a photographing box 10 for photographing the user's head 8 as seen from the top of the head, and FIG. 1B shows the photographing box 10. It is the figure seen in the arrow line A direction of Fig.1 (a). The shooting box 10 is a small room for shooting a stereo pair image of the user's head 8. Here, the stereo pair image is 1
A set of images of two subjects taken from different angles.

【0015】撮影ボックスの床には高さが調節可能な椅
子9が固定してあり、ユーザの前方の壁には鏡7が設置
してある。鏡には、目線目標線6が描かれており、ユー
ザは、鏡7に写った自分の目が目線目標線6に重なるよ
うに椅子9の高さを調節する。このように椅子9の高さ
を調節することによりユーザの頭部8は、予め予定され
た場所に位置することとなる。
A chair 9 whose height is adjustable is fixed to the floor of the photographing box, and a mirror 7 is installed on the front wall of the user. The eye-gaze target line 6 is drawn on the mirror, and the user adjusts the height of the chair 9 so that his / her eyes reflected on the mirror 7 overlap the eye-gaze target line 6. By adjusting the height of the chair 9 in this way, the user's head 8 is positioned at a predetermined place.

【0016】ユーザの前方に位置する壁には、デジタル
式の左カメラ61、及び右カメラ62が設置されてお
り、これらのカメラの設置位置は予め分かっている。ま
た、頭部8を撮影する際に背景となる壁には基準点5
a、5b、5cが描かれている。基準点5a、5b、5
cの設定位置は、予め分かっており、後に写真測量する
際に基準点として使用される。なお、デジタル式のカメ
ラは、フィルムの代わりに受光素子を多数配列したCC
D(Charge Coupled Device)で
被写体の画像データを電気的に取得するカメラである。
左カメラ61、右カメラ62のカメラデータ(レンズの
焦点距離、CCDの画素サイズ、縦及び横方向ピクセル
数など)は揃えてあり、またこれらの値は予めわかって
いる。カメラデータは後にユーザの顔を写真測量して3
次元データを取得する際に用いられる。
A digital left camera 61 and a right camera 62 are installed on the wall in front of the user, and the installation positions of these cameras are known in advance. In addition, when the head 8 is photographed, the reference point 5 is set on the background wall.
a, 5b, and 5c are drawn. Reference points 5a, 5b, 5
The setting position of c is known in advance, and is used as a reference point when performing photogrammetry later. In addition, the digital camera is a CC with a large number of light receiving elements arranged instead of film.
It is a camera that electrically acquires image data of a subject by a D (Charge Coupled Device).
The camera data of the left camera 61 and the right camera 62 (lens focal length, CCD pixel size, vertical and horizontal pixel numbers, etc.) are aligned, and these values are known in advance. The camera data will be photogrammetrically measured for the user's face later.
Used when acquiring dimensional data.

【0017】以上のように、予め左カメラ61、右カメ
ラ62に位置が既知の場所に固定されているため、例え
ば、左カメラ61のCCDの中心を原点とし、撮影方向
をZ軸、鉛直上方にY軸、Y軸からZ軸の方向に右ねじ
を回したときにこの右ねじの進む方向をX軸とすると、
左カメラ61、右カメラ62、及び基準点5a、5b、
5cの座標値は予め分かっている。なお、このように設
定した座標系はカメラ座標系と呼ばれる。また、ユーザ
は、所定の位置に固定された椅子9に座り、頭部8の高
さを目線が目線目標線6に一致するように椅子9の高さ
を調節するため、頭部8の位置の座標値はある程度決ま
ることになる。後述するように、このように、カメラの
位置と被写体の位置が定まると、左画像と右画像の対応
点の取得が容易になり、写真測量しやすくなる。
As described above, since the positions of the left camera 61 and the right camera 62 are fixed at known positions in advance, for example, the center of the CCD of the left camera 61 is the origin, the photographing direction is the Z axis, and the vertical upward direction. When turning the right-hand screw in the Y-axis and in the direction from the Y-axis to the Z-axis, and letting the right-hand screw advance direction be the X-axis
Left camera 61, right camera 62, and reference points 5a, 5b,
The coordinate value of 5c is known in advance. The coordinate system set in this way is called a camera coordinate system. Further, the user sits on the chair 9 fixed at a predetermined position, and adjusts the height of the head 8 so that the line of sight of the head 8 matches the line of sight target line 6. The coordinate value of will be determined to some extent. As will be described later, when the position of the camera and the position of the subject are determined in this way, it becomes easy to acquire corresponding points between the left image and the right image, and it becomes easy to perform photogrammetry.

【0018】ユーザの顔のステレオペア画像は、以上の
ように構成された撮影ボックス10において、左カメラ
61、右カメラ62を用いて同時にユーザの顔を撮影す
ることにより得る。撮影ボックス10の付近にはコンピ
ュータで構成された画像処理装置である3DCG作成装
置11が設置されており、ユーザの顔のステレオペア画
像は3DCG作成装置11に送信される。3DCG作成
装置11は、ユーザのステレオペア画像からユーザの顔
の3DCGを生成する。
The stereo pair image of the user's face is obtained by simultaneously photographing the user's face using the left camera 61 and the right camera 62 in the photographing box 10 configured as described above. A 3DCG creating device 11, which is an image processing device composed of a computer, is installed near the photographing box 10, and a stereo pair image of a user's face is transmitted to the 3DCG creating device 11. The 3DCG creation device 11 generates a 3DCG of the user's face from the stereo pair image of the user.

【0019】生成した3DCGは3DCG作成装置11
に設置された表示装置に表示させることができる。ま
た、3DCGのデータを例えば携帯電話に転送して携帯
電話の液晶画面にユーザの顔の3DCGを表示させた
り、インターネット経由で他の端末装置に送信したり、
或いは磁気ディスクや半導体メモリなどに格納したりす
ることかできる。
The generated 3DCG is a 3DCG creating device 11
It can be displayed on the display device installed in. In addition, the data of 3DCG is transferred to, for example, a mobile phone to display the 3DCG of the user's face on the liquid crystal screen of the mobile phone, or transmitted to another terminal device via the Internet.
Alternatively, it can be stored in a magnetic disk or a semiconductor memory.

【0020】図2は、3DCG作成装置11の構成の一
例を示した図である。3DCG作成装置11は、制御部
26にバスライン43を介して入力装置34、出力装置
38、通信制御装置42、記憶装置48、記憶媒体駆動
装置46、入出力インターフェース44などが接続して
構成されている。バスライン43は、CPU28と他の
装置との信号の伝送を行う伝送線である。
FIG. 2 is a diagram showing an example of the configuration of the 3DCG creating apparatus 11. The 3DCG creation apparatus 11 is configured by connecting an input device 34, an output device 38, a communication control device 42, a storage device 48, a storage medium drive device 46, an input / output interface 44, etc. to the control unit 26 via a bus line 43. ing. The bus line 43 is a transmission line that transmits signals between the CPU 28 and other devices.

【0021】制御部26は、CPU(Central
Processing Unit)28、ROM(Re
ad Only Memory)30、RAM(Ran
dom Access Memory)30などから構
成されている。制御部26は、CPU28によって制御
され、3DCG生成プログラム50に従って、ステレオ
ペア画像からユーザの顔の3DCGを生成したり、左カ
メラ61、右カメラ62やインターネットとの入出力を
制御したり、又は3DCG作成装置11全体を制御した
りなどする。
The control unit 26 is a CPU (Central).
Processing Unit 28, ROM (Re
ad Only Memory, RAM (Ran)
Dom Access Memory) 30 and the like. The control unit 26 is controlled by the CPU 28 to generate the 3DCG of the user's face from the stereo pair image according to the 3DCG generation program 50, control the input / output with the left camera 61, the right camera 62 and the Internet, or the 3DCG. It controls the entire creation device 11, and so on.

【0022】ROM30は、CPU28が各種演算や制
御を行うための各種プログラム、データ及びパラメータ
などを格納したリードオンリーメモリである。CPU2
8は、ROM30からプログラムやデータ、パラメータ
などを読み込むことはできる。ROM30は読み込み専
用であるため、ROM30の記憶内容を書き換えたり消
去することはできない。
The ROM 30 is a read-only memory that stores various programs, data and parameters for the CPU 28 to perform various calculations and controls. CPU2
8 can read programs, data, parameters, etc. from the ROM 30. Since the ROM 30 is read-only, the stored contents of the ROM 30 cannot be rewritten or erased.

【0023】RAM32は、CPU28にワーキングメ
モリとして使用されるランダムアクセスメモリである。
CPU28は、RAM32にプログラムやデータなどを
書込んだり消去したりすることができる。本実施の形態
では、RAM32には、CPU28が写真測量、顔の立
体モデルの生成、テクスチャ(顔の写真)マッピングな
どを行うためのエリアが確保可能となっている。
The RAM 32 is a random access memory used by the CPU 28 as a working memory.
The CPU 28 can write and erase programs and data in the RAM 32. In the present embodiment, the RAM 32 can secure an area for the CPU 28 to perform photogrammetry, generation of a three-dimensional model of the face, texture (photograph of the face) mapping, and the like.

【0024】入力装置34は、例えばキーボード、マウ
ス、ジョイスティックなどの入力装置から構成されてい
る。キーボードは、3DCG作成装置11に対して文字
や数字などの情報を入力するための装置である。キーボ
ードは、カナや英文字などを入力するためのキーや数字
を入力するためのテンキー、各種機能キー、カーソルキ
ー及びその他のキーによって構成されている。
The input device 34 is composed of an input device such as a keyboard, a mouse and a joystick. The keyboard is a device for inputting information such as characters and numbers to the 3DCG creating device 11. The keyboard is composed of keys for inputting kana and English characters, ten keys for inputting numbers, various function keys, cursor keys and other keys.

【0025】キーボードは、例えば、生成した3DCG
のファイルのファイル名を入力したり、又は3DCG作
成装置11をメンテナンスする際などに使用する。ま
た、所定の機能キーを操作することにより、表示装置に
表示された顔の3DCGを回転させたり、平行移動させ
たりすることができる。また、生成した3DCGファイ
ルをインターネットで他の端末に送信する場合、送信先
のアドレスを入力する際にも使用することができる。
The keyboard is, for example, the generated 3DCG
It is used when inputting the file name of the file or when performing maintenance on the 3DCG creating apparatus 11. Further, by operating a predetermined function key, the 3DCG of the face displayed on the display device can be rotated or moved in parallel. Further, when the generated 3DCG file is transmitted to another terminal on the Internet, it can be used when inputting the address of the transmission destination.

【0026】マウスは、ポインティングデバイスであ
る。ユーザがマウスパット上でマウスを移動させると、
マウス移動に合わせて表示装置に表示された顔の3DC
Gが回転したり平行移動したりする。また、3DCG作
成装置11がGUI(Graphical User
Interface)を用いて操作できるようになって
いる場合、表示装置上に表示されたボタンやアイコンな
どをマウスでクリックすることにより、所定の情報の入
力を行うことができる。
The mouse is a pointing device. When the user moves the mouse over the mouse pad,
3DC of the face displayed on the display device as the mouse moves
G rotates or translates. In addition, the 3DCG creation device 11 uses a GUI (Graphical User).
If it can be operated using an interface, it is possible to input predetermined information by clicking a button or icon displayed on the display device with a mouse.

【0027】出力装置38は、例えば表示装置、印刷装
置などのから構成されている。表示装置は、例えば例え
ばCRT(Cathode Ray Tube)ディス
プレイ、液晶ディスプレイ、プラズマディスプレイなど
で構成され、画像情報を画面上に提示するための装置で
ある。表示装置は、生成した3DCGを表示したり、又
はGUIによる画面などを表示することができるように
なっている。
The output device 38 is composed of, for example, a display device and a printing device. The display device is composed of, for example, a CRT (Cathode Ray Tube) display, a liquid crystal display, a plasma display, or the like, and is a device for presenting image information on a screen. The display device is capable of displaying the generated 3DCG or displaying a screen by GUI.

【0028】印刷装置は、例えば、ステレオペア画像や
生成した3DCGなどを紙などの印刷媒体に印刷する装
置である。印刷装置は、例えば、インクジェットプリン
タ、レーザプリンタ、熱転写プリンタ、ドットプリンタ
などの各種プリンタ装置によって構成されている。
The printing device is a device for printing, for example, a stereo pair image or the generated 3DCG on a printing medium such as paper. The printing device is composed of various printer devices such as an inkjet printer, a laser printer, a thermal transfer printer, and a dot printer.

【0029】通信制御装置42は、通信回線を介して3
DCG作成装置11をサーバ装置などに接続するための
装置であって、モデム、ターミナルアダプタその他の装
置によって構成されている。通信制御装置42は、例え
ばインターネットやLAN(Local AreaNe
twork)などに接続しており、これらのネットワー
クに接続した他の端末装置やサーバ装置に生成した3D
CGのファイル他の端末装置に送信したりなどすること
ができる。
The communication control device 42 uses the communication line 3
The device is a device for connecting the DCG creating device 11 to a server device, and is composed of a modem, a terminal adapter and other devices. The communication control device 42 is, for example, the Internet or a LAN (Local Area Ne
3D generated on other terminal devices or server devices connected to these networks.
The CG file can be transmitted to other terminal devices.

【0030】通信制御装置42はCPU28によって制
御され、例えばTCP/IP(Transmissio
n Control Protocol/Intern
etProtocol)などの所定のプロトコルに従っ
て他の端末装置やサーバ装置と交信することができる。
CPU28は、通信制御装置42を介して3DCGファ
イルをユーザのパーソナルコンピュータや携帯電話など
の端末装置に送付することなどができる。
The communication control device 42 is controlled by the CPU 28, and is, for example, TCP / IP (Transmission).
n Control Protocol / Intern
It is possible to communicate with other terminal devices and server devices according to a predetermined protocol such as et Protocol).
The CPU 28 can send the 3DCG file to a terminal device such as a user's personal computer or a mobile phone via the communication control device 42.

【0031】記憶装置48は、読み書き可能な記憶媒体
と、その記憶媒体に対してプログラムやデータを読み書
きするための駆動装置によって構成されている。当該記
憶媒体として主にハードディスクが使用されるが、その
他に、例えば、光磁気ディスク、磁気ディスク、半導体
メモリなどの他の読み書き可能な記憶媒体によって構成
することも可能である。
The storage device 48 is composed of a readable / writable storage medium and a drive device for reading / writing programs and data from / to the storage medium. A hard disk is mainly used as the storage medium, but other storage media such as a magneto-optical disk, a magnetic disk, and a semiconductor memory can be used instead.

【0032】記憶装置48は、3DCG作成プログラム
50、カメラデータ52、カメラ制御プログラム54、
画像データベース56、3DCGデータベース58など
が記憶されている。3DCG作成プログラム50は、C
PU28にステレオペア画像から3DCGを作成するた
めの機能を発揮させるためのプログラムである。3DC
G作成プログラム50は、CPU28にロードされて、
後に説明するような機能を持った各種のモジュールを生
成する。
The storage device 48 includes a 3DCG creation program 50, camera data 52, a camera control program 54,
An image database 56, a 3DCG database 58, etc. are stored. The 3DCG creation program 50 is C
It is a program for causing the PU 28 to exert a function for creating 3DCG from a stereo pair image. 3DC
The G creation program 50 is loaded into the CPU 28,
Generates various modules with the functions described later.

【0033】カメラデータ52は、左カメラ61、右カ
メラ62に固有のパラメータのうち、写真測量に必要な
ものを記憶したデータベースである。カメラデータ52
は具体的には、レンズの焦点距離、CCDのサイズ、C
CD受光面の縦方向のピクセル数及び横方向のピクセル
数である。なお、本実施の形態では、左カメラ61と右
カメラ62は同一のカメラを用いる。そのため、カメラ
データは何れか一方のものを記憶しておけば良い。ま
た、左右のカメラを異なったカメラで構成することも可
能であるが、その場合は、左カメラ61と右カメラ62
のカメラデータをそれぞれ記憶する必要がある。
The camera data 52 is a database that stores parameters necessary for photogrammetry among the parameters unique to the left camera 61 and the right camera 62. Camera data 52
Is the focal length of the lens, CCD size, C
It is the number of pixels in the vertical direction and the number of pixels in the horizontal direction of the CD light receiving surface. In the present embodiment, the left camera 61 and the right camera 62 use the same camera. Therefore, only one of the camera data may be stored. It is also possible to configure the left and right cameras with different cameras. In that case, the left camera 61 and the right camera 62 are
It is necessary to store the camera data of each.

【0034】カメラ制御プログラム54は、左カメラ6
1、右カメラ62を制御すると共にこれらのカメラによ
り撮影されたステレオペア画像を3DCG作成装置11
に転送し、記憶装置48に格納するためのプログラムで
ある。ユーザはステレオペア画像を撮影する際に、図示
しないスイッチをオンするようになっている。これは、
所定のボタンを押すようにしても良いし、また、ユーザ
が所定の投入口にコインを投入したことを検知しても良
い。
The camera control program 54 uses the left camera 6
1. Controls the right camera 62, and at the same time controls the stereo pair images taken by these cameras to generate 3DCG 11
And a program to be stored in the storage device 48. The user turns on a switch (not shown) when taking a stereo pair image. this is,
A predetermined button may be pressed, or it may be detected that the user has inserted a coin into a predetermined insertion slot.

【0035】カメラ制御プログラム54は、当該スイッ
チがオンしたことを検出する検出機能と、図示しないス
ピーカによりユーザにステレオペア画像撮影までの秒読
みを行う秒読み機能と、秒読み終了と同時に左カメラ6
1、右カメラ62でユーザの顔を撮影する撮影機能と、
撮影したステレオペア画像を3DCG作成装置11に転
送し、記憶装置48に格納する格納機能などをCPU2
8に発揮させる。
The camera control program 54 has a detection function for detecting that the switch is turned on, a countdown function for performing a countdown to the user until a stereo pair image is photographed by a speaker (not shown), and a left camera 6 at the same time when the countdown is completed.
1. A shooting function for shooting the user's face with the right camera 62,
The CPU 2 has a storage function of transferring the captured stereo pair image to the 3DCG creating device 11 and storing it in the storage device 48.
Demonstrate to 8.

【0036】画像データベース56は、左カメラ61及
び右カメラ62から転送されてきたステレオペア画像デ
ータを格納するデータベースである。本実施の形態で
は、ステレオペア画像データはJPEG(Joint
Photograph Group)形式のファイルと
して保存されるものとする。これは、ビットマップ形式
又はGIF(Graphics Interchang
e Format)形式などの他の形式のファイルにて
保存することも可能である。画像データベース56に格
納された画像データは、CPU28がユーザの顔を写真
測量したり、立体モデルに貼り付けるテクスチャを生成
したりなどする際に使用される。
The image database 56 is a database for storing the stereo pair image data transferred from the left camera 61 and the right camera 62. In the present embodiment, the stereo pair image data is JPEG (Joint
It shall be stored as a file in the Photograph Group format. This is a bitmap format or GIF (Graphics Interchange).
It is also possible to save as a file of another format such as e Format) format. The image data stored in the image database 56 is used when the CPU 28 performs photogrammetry of the user's face, generates a texture to be attached to the stereo model, and the like.

【0037】3DCGデータベース58は、CPU28
によって作成された3DCGデータを格納するデータベ
ースであり、例えば、立体モデルを記述したVRMLフ
ァイルや立体モデルに貼り付ける画像(テクスチャ)を
記録した画像ファイル(JPEG形式とする)などが保
存されている。本実施の形態では、一例として立体を記
述する言語としてVRMLを使用するものとする。VR
ML(VirtualReality Modelin
g Language)とは、インターネット上で扱う
3DCGを記述するための言語使用であって、ISO規
格に準拠したものである。なお、他の形式にて3DCG
ファイルを生成しても良い。
The 3DCG database 58 is stored in the CPU 28.
This is a database that stores the 3DCG data created by, for example, a VRML file that describes a stereo model, an image file (in JPEG format) that records an image (texture) to be attached to the stereo model, and the like are stored. In this embodiment, as an example, VRML is used as a language for describing a solid. VR
ML (Virtual Reality Modelin)
g Language) is a language use for describing 3DCG handled on the Internet, and conforms to the ISO standard. In addition, 3DCG in other formats
You may generate the file.

【0038】記憶装置48には、図示しない他のプログ
ラムなどが格納されている。このようなプログラムとし
ては、例えばVRMLビューアがある。このプログラム
は、VRMLファイルで定義された3DCGを表示装置
に表示するためのプログラムである。このプログラムに
より、オブジェクト(本実施の形態では顔の3DCG)
を表示装置上で回転させたり、平行移動させたりするこ
とができる。その他に、例えば、通信制御装置42を制
御し、3DCG作成装置11とネットワークでつながれ
た端末装置やサーバ装置との通信を維持する通信プログ
ラムや、メモリ管理や入出力管理などの3DCG作成装
置11を動作させるための基本ソフトウェアであるOS
(Operating System)などが格納され
ている。
The storage device 48 stores other programs (not shown). An example of such a program is a VRML viewer. This program is a program for displaying 3DCG defined in the VRML file on the display device. By this program, the object (3DCG of the face in this embodiment)
Can be rotated or translated on the display. In addition, for example, a communication program that controls the communication control device 42 to maintain communication between the 3DCG creation device 11 and a terminal device or a server device connected to the network, and the 3DCG creation device 11 such as memory management and input / output management. OS that is the basic software for operating
(Operating System) and the like are stored.

【0039】記憶媒体駆動装置46は、着脱可能な記憶
媒体を駆動してデータの読み書きを行うための駆動装置
である。着脱可能な記憶媒体としては、例えば、光磁気
ディスク、磁気ディスク、磁気テープ、半導体メモリ、
データをパンチした紙テープ、CD−ROMなどがあ
る。なお、CD−ROMや紙テープは、読み込みのみ可
能である。記憶媒体駆動装置46を駆動することによ
り、3DCGデータベース58に格納されたデータなど
を磁気ディスクや半導体メモリなどの着脱可能な記憶媒
体に転送することができる。ユーザは、これらの記憶媒
体を自宅のパーソナルコンピュータや携帯端末装置に装
着して、当該3DCGを利用することができる。
The storage medium drive device 46 is a drive device for driving a removable storage medium to read / write data. Examples of removable storage media include magneto-optical disks, magnetic disks, magnetic tapes, semiconductor memories,
There is a paper tape punched with data, a CD-ROM, etc. Note that CD-ROMs and paper tapes can only be read. By driving the storage medium driving device 46, the data stored in the 3DCG database 58 can be transferred to a removable storage medium such as a magnetic disk or a semiconductor memory. The user can use these 3DCGs by mounting these storage media on a personal computer or a mobile terminal device at home.

【0040】入出力インターフェース44は、例えば、
シリアルインターフェースやその他の規格のインターフ
ェースにより構成されている。入出力インターフェース
44は、外部機器を3DCG作成装置11に接続するた
めのインターフェースであり、本実施の形態では左カメ
ラ61、右カメラ62、スピーカ(撮影ボックス10内
に設置してある)などに接続されている。CPU28
は、入出力インターフェース44を介して左カメラ6
1、右カメラ62を制御したり、スピーカから撮影の秒
読みを行ったりすることができる。
The input / output interface 44 is, for example,
It is composed of a serial interface and other standard interfaces. The input / output interface 44 is an interface for connecting an external device to the 3DCG creating apparatus 11, and in the present embodiment, is connected to the left camera 61, the right camera 62, a speaker (installed in the photographing box 10), and the like. Has been done. CPU28
Is the left camera 6 via the input / output interface 44.
1. The right camera 62 can be controlled, and the countdown of shooting can be performed from the speaker.

【0041】図3は、3DCG作成プログラム50がC
PU28にロードされたときに実現される各モジュール
の構成の一例を示した図である。本実施の形態では、こ
れらのモジュールはソフトウェア的に構成されるものと
したが、これに限定せず、これらの機能を持った集積回
路を作成し、ハードウェア的に実現することもできる。
In FIG. 3, the 3DCG creation program 50 is C
It is a figure showing an example of composition of each module realized when loaded in PU28. In the present embodiment, these modules are configured as software, but the present invention is not limited to this, and an integrated circuit having these functions can be created and implemented by hardware.

【0042】これらのモジュールは、大きく分けて画像
取得部75、対応点取得部77、写真測量部72、3D
CGファイル生成部73から構成されている。画像取得
部75は、画像データベース56に格納されている画像
データ(一組のステレオペア画像の画像データ)を取得
し、対応点取得部77と3DCGファイル生成部73に
提供するモジュールである。図4は、画像取得部75が
取得するステレオペア画像を模式的に表した図である。
(a)は、左画像であり、左カメラ61によって撮影さ
れたものである。(b)は、右画像であり、右カメラ6
2によって撮影されたものである。ステレオペア画像に
は、写真測量を行う際に使用する基準点5a、5b、5
cが被写体(頭部8)と共に写しこまれている。
These modules are roughly divided into an image acquisition section 75, a corresponding point acquisition section 77, a photogrammetric section 72 and 3D.
It is composed of a CG file generator 73. The image acquisition unit 75 is a module that acquires image data (image data of a pair of stereo pair images) stored in the image database 56 and provides the image data to the corresponding point acquisition unit 77 and the 3DCG file generation unit 73. FIG. 4 is a diagram schematically showing a stereo pair image acquired by the image acquisition unit 75.
(A) is a left image, which is taken by the left camera 61. (B) is a right image, the right camera 6
It was taken by 2. The stereo pair images have reference points 5a, 5b, 5 used for photogrammetry.
c is shown together with the subject (head 8).

【0043】対応点取得部77(図3)は、人間の顔の
特徴を利用して、ステレオペア画像の左画像と右画像内
の対応する点を例えば20点程度特定し、これらの点の
画像内での2次元座標値を取得して写真測量部72に提
供するモジュールである。後に、これらの点の3次元座
標値を用いて顔の立体モデルを生成する。顔は複雑な自
由局面によって構成されているため、多くの点を抽出す
る必要がある。写真測量では、被写体上の同一点の写真
上での2次元座標値を左画像、右画像のそれぞれについ
て最低6点知る必要がある。座標値は、例えば、画像の
中央を原点とし、座標値をミリメートル単位で取得す
る。これには、座標値をピクセルで取得した後、この座
標値にピクセルの大きさを掛ければ良い。
The corresponding point acquisition unit 77 (FIG. 3) identifies, for example, about 20 corresponding points in the left image and the right image of the stereo pair image using the characteristics of the human face, and identifies these points. This is a module that acquires two-dimensional coordinate values in an image and provides the two-dimensional coordinate values to the photogrammetry unit 72. Later, a three-dimensional coordinate value of these points is used to generate a stereo model of the face. Since the face is composed of complicated free phases, many points need to be extracted. In photogrammetry, it is necessary to know at least six two-dimensional coordinate values of the same point on the subject on the photograph for each of the left image and the right image. The coordinate value is obtained in units of millimeters, with the center of the image as the origin. This can be done by obtaining the coordinate value in pixels and then multiplying the coordinate value by the size of the pixel.

【0044】本実施の形態では、右画像と左画像の対応
する点の集合を自動的に抽出するためフェイスイットと
いう技術を利用した。この技術は、本来防犯カメラに写
った人物の顔を特定するために開発されたものである。
この技術は、エッジ検出を用いて顔の輪郭や目、鼻、口
の位置などを求めるものである。
In this embodiment, a technique called face-it is used to automatically extract a set of corresponding points in the right image and the left image. This technique was originally developed to identify the face of a person who was captured by a security camera.
This technique uses edge detection to find the contour of a face and the positions of eyes, nose, and mouth.

【0045】対応点取得部77は、顔輪郭抽出→瞳位置
を抽出→顔器官の矩形領域特定→顔器官輪郭抽出→特徴
点の抽出の順で処理を行う。ここで、顔器官とは、目、
眉毛、鼻、口、耳のことである。また、対応点取得部7
7は、顔を抽出すると共に基準点5a、5b、5cも抽
出する(写真測量の際の基準点とするため)。顔輪郭抽
出は、顔の輪郭を顔と背景の色上方からエッジ検出し、
ステレオペア画像から顔の部分を抽出する。なお、撮影
ボックス10の背景は無地とするとエッジを検出しやす
くなる。
The corresponding point acquiring unit 77 performs the processing in the order of face contour extraction → pupil position extraction → face organ rectangular area identification → face organ contour extraction → feature point extraction. Here, the facial organs are eyes,
The eyebrows, nose, mouth, and ears. Also, the corresponding point acquisition unit 7
7 extracts the face and also the reference points 5a, 5b, and 5c (to be used as the reference point in photogrammetry). Face contour extraction detects the edge of the face contour from above the face and background colors,
The face part is extracted from the stereo pair image. It should be noted that if the background of the photographing box 10 is plain, it will be easier to detect edges.

【0046】撮影ボックス10内での頭部8の位置はお
およそ決まっているため、ステレオペア画像中での瞳位
置もおおよそ決まっている。その付近で、眉から瞳にか
けての輝度分布を用いることにより瞳の位置を検出す
る。瞳の位置から目の位置が決まり、これを矩形で囲ん
で抽出する(図5の矩形21)。目の位置が決まると、
眉、鼻口の位置がおおよそ決まるため(多数の被験者か
ら得られた顔器官の統計的な位置情報を用いる)、これ
らを矩形で囲み矩形ごと抽出する。次に、目を含む矩形
から更に目の輪郭を抽出する。そして、例えば目頭、目
尻、その他の特徴的な点(例えばほくろなど)であっ
て、かつ左右の画像で対応する点を抽出し、それらの画
像上での2次元座標値(ピクセルを単位としたもの、後
に内部標定でミリ単位に変換する)を左画像、右画像に
対して取得する。
Since the position of the head 8 in the photographing box 10 is approximately determined, the pupil position in the stereo pair image is also approximately determined. In the vicinity, the position of the pupil is detected by using the brightness distribution from the eyebrows to the pupil. The position of the eyes is determined from the position of the pupil, and this is surrounded by a rectangle and extracted (rectangle 21 in FIG. 5). Once the eye position is determined,
Since the positions of the eyebrows and the nose and mouth are roughly determined (using the statistical position information of the facial organs obtained from many subjects), these are enclosed by a rectangle and extracted for each rectangle. Next, the outline of the eye is further extracted from the rectangle including the eye. Then, for example, the inner and outer corners of the eye and other characteristic points (for example, a mole) and the corresponding points in the left and right images are extracted, and the two-dimensional coordinate values (in units of pixels) on those images are extracted. Object, which is later converted to millimeters by internal orientation) for the left and right images.

【0047】その他、鼻を含む矩形22、口を含む矩形
23、眉を囲む矩形24、耳を含む矩形25についても
同様に画像処理してそれぞれ鼻、口、耳の輪郭を抽出
し、左右の画像で対応する特徴的な点の2次元座標値を
取得する。更に、対応点取得77は、顔の輪郭上や頬、
額などに特徴的な点(ほくろ、傷、しわなど)があれば
これらも抽出する。このようにして、左画像と右画像の
対応する点の集合を抽出する。これらの点は後に写真測
量で観測点として使用される。
In addition, the rectangle 22 including the nose, the rectangle 23 including the mouth, the rectangle 24 surrounding the eyebrows, and the rectangle 25 including the ears are similarly image-processed to extract the contours of the nose, mouth, and ears, respectively. The two-dimensional coordinate value of the characteristic point corresponding to the image is acquired. Further, the corresponding point acquisition 77 is performed on the contour of the face, the cheek,
If there are characteristic points (such as moles, scratches, and wrinkles) on the forehead, these are also extracted. In this way, a set of corresponding points in the left image and the right image is extracted. These points will later be used as observation points in photogrammetry.

【0048】写真測量部73(図3)は、内部標定部7
8、準最適解探索部79から構成されている。後に詳細
に説明するように、写真測量は一般に、被写体を異なる
方向から撮影した一組のステレオペア画像を内部標定、
相互標定、絶対標定の順に標定し、被写体(顔)の3次
元座標値を算出する。このように写真測量は内部標定、
相互標定、絶対標定の3つのフェーズから構成されてい
る。
The photogrammetry section 73 (FIG. 3) is an internal orientation section 7.
8 and a suboptimal solution search unit 79. As will be explained in detail later, photogrammetry generally involves internal orientation of a pair of stereo pair images of a subject taken from different directions.
The orientation is performed in the order of the mutual orientation and the absolute orientation, and the three-dimensional coordinate value of the subject (face) is calculated. In this way, photogrammetry is an internal orientation,
It consists of three phases: mutual orientation and absolute orientation.

【0049】内部標定とは、被写体が感光面(CCD)
に投影される際の歪を修正したりなどして、画像上の2
次元座標(機械座標と呼ばれる)を相互標定に使用する
写真座標に変換する作業である。機械座標は、長さの単
位がピクセル単位であり、座標原点は画像の4角の何れ
かに設定されている。写真座標系は、長さの単位がミリ
であり、座標原点は画像の中心に設定されている。機械
座標から写真座標への座標変換にはアフィン変換を用い
た。
Internal orientation means that the subject is a photosensitive surface (CCD).
Correct the distortion when projected on the screen,
It is the work of converting dimensional coordinates (called machine coordinates) into photographic coordinates used for mutual orientation. In the machine coordinates, the unit of length is a pixel unit, and the coordinate origin is set to one of the four corners of the image. In the photographic coordinate system, the unit of length is millimeter, and the coordinate origin is set at the center of the image. Affine transformation was used for coordinate transformation from machine coordinates to photographic coordinates.

【0050】相互標定とは、ステレオペア画像間の相対
的な傾きや位置の関係を求め、撮影状態を再現する作業
である。相互標定により、相対的な3次元座標系である
モデル座標系が得られ、被写体はモデル座標系内で被写
体と相似な立体モデルとして表される。相互標定の段階
ではモデル座標系の縮尺と傾き及び平行移動量は不明で
ある。
The mutual orientation is an operation for obtaining a relative tilt or positional relationship between stereo pair images and reproducing the photographed state. By the relative orientation, a model coordinate system which is a relative three-dimensional coordinate system is obtained, and the subject is represented as a stereo model similar to the subject in the model coordinate system. At the stage of mutual orientation, the scale and tilt of the model coordinate system and the amount of translation are unknown.

【0051】絶対標定とは、ステレオペア画像に写しこ
んでおいた基準点の絶対座標(実際の測量値)を用いて
モデル座標の縮尺や傾き及び平行移動量を求める作業で
ある。絶対標定により被写体と同じスケールの立体を得
ることができる。より具体的には、被写体を重心中心で
回転変換を行うための重心座標系への変換、累積縮尺の
計算、累加並行移動量の計算、累積回転行列の計算、全
観測点の座標変換、標高の調整計算、平面位置の標高計
算などを行う。
Absolute orientation is a work for obtaining the scale and inclination of model coordinates and the amount of parallel movement by using the absolute coordinates (actual survey values) of the reference points that are copied in the stereo pair image. It is possible to obtain a solid with the same scale as the subject by absolute orientation. More specifically, conversion to the barycentric coordinate system for rotational conversion of the subject around the center of gravity, calculation of cumulative scale, calculation of cumulative parallel movement amount, calculation of cumulative rotation matrix, coordinate conversion of all observation points, elevation Performs adjustment calculation, elevation calculation of plane position, etc.

【0052】内部標定部78は、対応点取得部77から
観測点(対応点)の座標値を受け取り、また記憶装置4
8(図2)からカメラデータ52を受け取る。そして、
内部標定部78は、これらの座標値とカメラデータを用
いてデジタルペア画像を内部標定し、標定結果を準最適
解探索部79に出力する。
The internal orientation section 78 receives the coordinate values of the observation points (corresponding points) from the corresponding point acquiring section 77, and also stores in the storage device 4.
The camera data 52 is received from 8 (FIG. 2). And
The internal orientation section 78 internally orients the digital pair image using these coordinate values and camera data, and outputs the orientation result to the suboptimal solution searching section 79.

【0053】準最適解探索部79は、観測点選定部8
0、相互標定部81、絶対標定部82、評価・判断部8
3から構成されている。準最適解選定部84は、対応点
取得部77から取得したステレオペア画像上の複数の観
測点のさまざまな組合せを発生させ、標定の精度が所定
の程度を満たす観測点の組み合わせを探索する。即ち、
標定の精度がある程度高くなる観測点の組み合わせを探
し、この組み合わせを用いてステレオペア画像を標定す
る。このように、準最適解探索部79が探索する観測点
の組み合わせは、必ずしも全ての組み合わせのなかの最
適な組み合わせとは限らないため、準最適な組み合わせ
と呼ばれる。
The sub-optimal solution search unit 79 has an observation point selection unit 8
0, mutual orientation section 81, absolute orientation section 82, evaluation / judgment section 8
It consists of three. The suboptimal solution selection unit 84 generates various combinations of a plurality of observation points on the stereo pair image acquired from the corresponding point acquisition unit 77, and searches for a combination of observation points whose orientation accuracy satisfies a predetermined degree. That is,
Search for a combination of observation points where the accuracy of orientation is high to some extent, and use this combination to orient a stereo pair image. As described above, the combination of observation points searched by the suboptimal solution search unit 79 is not necessarily the optimum combination among all the combinations, and is therefore called a suboptimal combination.

【0054】標定の精度は、所定の方法で残差を定義
し、残差が所定の条件を満たしたとき、所望の精度が得
られたものとする。例えば、残差は次のように定義する
ことができる。まず、観測点のある組み合わせからステ
レオペア画像の標定を行う。そして、標定結果を用いて
基準点5a、5b、5cの3次元座標値を計算する。次
に、基準点5a、5b、5cの実測値(予め分かってい
る)と計算値を比較する。この比較値により標定の精度
を検証することができる。例えば、基準点5a、5b、
5cの計算値と実測値の差をX軸、Y軸、Z軸のそれぞ
れに全て加算したものを残差とすることができる。そし
て、後に説明する遺伝的アルゴリズムを用いて観測点の
様々な組み合わせを発生させて繰り返し標定すると、残
差が小さくなっていき、ある値に収束する。この、残差
が収束した時の観測点の組み合わせをもって、標定結果
とする。
As for the accuracy of orientation, it is assumed that a desired accuracy is obtained when a residual is defined by a predetermined method and the residual satisfies a predetermined condition. For example, the residual can be defined as: First, a stereo pair image is located from a combination of observation points. Then, using the orientation result, the three-dimensional coordinate values of the reference points 5a, 5b, and 5c are calculated. Next, the measured values (known in advance) of the reference points 5a, 5b, and 5c are compared with the calculated values. The accuracy of orientation can be verified by this comparison value. For example, the reference points 5a, 5b,
It is possible to obtain the residual by adding the difference between the calculated value of 5c and the measured value to each of the X axis, the Y axis, and the Z axis. Then, when various combinations of observation points are generated using a genetic algorithm which will be described later and iteratively oriented, the residual becomes smaller and converges to a certain value. This combination of observation points when the residuals converge is used as the orientation result.

【0055】準最適解探索部84の概要は次の通りであ
る。観測点選定部80で観測点の組み合わせを発生さ
せ、相互標定部81で相互標定を、絶対標定部82で絶
対標定を行った後、標定の精度(ここでは収束を判断す
る)を評価・判断部83で判断する。観測点選定部80
にて遺伝的アルゴリズムを用いて新たな観測点の組み合
わせを発生させて同様に標定し、収束を判断する。以上
の作業を結果が収束するまで繰り返す。絶対標定の結果
が収束した場合は、このときの観測点の組み合わせで得
られた結果を標定結果とする。写真測量部72は、標定
の結果を3DCGファイル生成部73に渡す。遺伝的ア
ルゴリズムを用いた準最適解の探索方法の詳細について
は後に説明する。
The outline of the sub-optimal solution searching unit 84 is as follows. After the observation point selection unit 80 generates a combination of observation points, the relative orientation unit 81 performs the mutual orientation, and the absolute orientation unit 82 performs the absolute orientation, and then the accuracy of the orientation (here, the convergence is determined) is evaluated and judged. The determination is made by the section 83. Observation point selection unit 80
At, a new combination of observation points is generated using a genetic algorithm, and similarly oriented, and the convergence is judged. The above work is repeated until the results converge. If the absolute orientation results converge, the result obtained by combining the observation points at this time is the orientation result. The photogrammetry unit 72 passes the result of the orientation to the 3DCG file generation unit 73. The details of the method for searching the suboptimal solution using the genetic algorithm will be described later.

【0056】3DCGファイル生成部73は、観測点座
標計算部86、ポリゴン生成部88、VRMLファイル
生成部90、テクスチャ生成部92、テクスチャ貼り付
け部94などから構成されている。観測点座標計算部9
2は、絶対標定の際に用いられた観測点の3次元座標を
写真測量部72から受け取ると共に、観測点選定部80
で基準点の組み合わせからもれた観測点の3次元座標値
を絶対標定結果から算出する。このようにして、顔の上
に取られた全ての観測点の3次元座標値が得られる。こ
れら、3次元座標値が分かった観測点を用いてポリゴン
が生成される。
The 3DCG file generation unit 73 is composed of an observation point coordinate calculation unit 86, a polygon generation unit 88, a VRML file generation unit 90, a texture generation unit 92, a texture pasting unit 94 and the like. Observation point coordinate calculator 9
2 receives the three-dimensional coordinates of the observation points used in the absolute orientation from the photogrammetry section 72 and also the observation point selection section 80.
The three-dimensional coordinate value of the observation point that is missed from the combination of the reference points is calculated from the absolute orientation result. In this way, the three-dimensional coordinate values of all the observation points taken on the face are obtained. A polygon is generated using these observation points whose three-dimensional coordinate values are known.

【0057】また、後に顔全体にポリゴンを発生させる
ために、顔全体にそのための点(観測点を含む)が一様
に分布するように、ステレオペア画像上に新たに点を設
定し、その3次元座標値を絶対標定の結果から算出する
機能を観測点座標計算部92に加えることも可能であ
る。人間の顔は統計的に皆同じような傾向の自由曲面を
持っており(例えば頬は丸みを帯びている)、このよう
な傾向は多くの被験者の顔の自由曲面の情報を調べるこ
とにより予め知見することができる。
In order to generate polygons on the entire face later, new points are set on the stereo pair image so that points (including observation points) for that purpose are uniformly distributed on the entire face, and the points are set. It is also possible to add a function of calculating a three-dimensional coordinate value from the result of absolute orientation to the observation point coordinate calculation unit 92. All human faces have statistically similar free-form surfaces (for example, cheeks are rounded), and such a tendency can be found in advance by examining information on the free-form surfaces of many subjects. You can find out.

【0058】例えば唇の端点と鼻の端点、目尻の端点な
どの3次元座標値から頬上の点の3次元座標値を推測す
る補完式を作成し、この補完式によって、観測点が取ら
れていない点の3次元座標値を推測することができる。
又は、例えば唇の端点と鼻の端点、目尻の端点などの3
次元座標値から頬上の点の3次元座標値を推定するテー
ブルなどを用意することもできる。このように、標定に
よって観測点の3次元座標値が定まると、それらを基に
顔の他の部分の点の3次元座標値が推測され、これによ
って、観測点の分布が少ない場所があった場合、これら
の場所にポリゴンを発生させるための点を設定すること
ができる。
For example, a complementary equation for inferring the three-dimensional coordinate values of the point on the cheek is created from the three-dimensional coordinate values of the end points of the lips, the end points of the nose, the end points of the outer corners of the eyes, etc. It is possible to infer the three-dimensional coordinate values of points that are not present.
Or, for example, the end points of the lips and nose, the end points of the corners of the eyes, etc.
It is also possible to prepare a table or the like for estimating the three-dimensional coordinate value of a point on the cheek from the dimensional coordinate value. Thus, when the three-dimensional coordinate values of the observation points are determined by the orientation, the three-dimensional coordinate values of the points of the other parts of the face are estimated based on them, and there are places where the distribution of the observation points is small. In this case, points for generating polygons can be set at these places.

【0059】ポリゴン生成部88は、観測点の3次元座
標値(3次元座標値を推測した点があればこの点の3次
元座標値も)を観測点座標計算部86から取得し、これ
らからボロノイ領域を生成し、更にボロノイ領域をドロ
ネー分割してポリゴンを発生させる。なお、以降の作業
は左画像に対して行う(顔の3次元データが得られたの
で以降は何れか一方の画像で作業を行えば良いため)。
The polygon generator 88 acquires from the observation point coordinate calculator 86 three-dimensional coordinate values of the observation point (including the three-dimensional coordinate value of this point, if there is a point at which the three-dimensional coordinate value is estimated). A Voronoi region is generated, and the Voronoi region is further Delaunay divided to generate polygons. Note that the subsequent work is performed on the left image (since the three-dimensional data of the face has been obtained, the work can be performed on either one of the images thereafter).

【0060】図6(a)は、ボロノイ領域、及びドロネ
ー分割を説明するための図である。ボロノイ領域とは、
2次元空間又は3次元空間上の点集合をそれぞれの点の
距離が最短になる領域に分割したものである。点91
a、91b、91c、・・・、は3次元座標値がわかっ
ている顔面上の観測点である。平面92a(図では便宜
上線分で表している)は、平面上の点が点91a、点9
1bから等距離にある平面である。また、平面92b
は、平面上の点が点91a、点91cから等距離にある
平面である。このようにして平面92a、92b、92
c、・・・、を発生させる。その結果、ボロノイ領域9
4a、94b、94c、・・・、が生成される。
FIG. 6A is a diagram for explaining Voronoi regions and Delaunay division. What is Voronoi region?
A set of points in a two-dimensional space or a three-dimensional space is divided into regions where the distance between the points is the shortest. Point 91
, a, 91b, 91c, ... Are observation points on the face whose three-dimensional coordinate values are known. The plane 92a (which is represented by a line segment in the figure for convenience) has points 91a and 9 on the plane.
It is a plane equidistant from 1b. Also, the plane 92b
Is a plane in which points on the plane are equidistant from the points 91a and 91c. In this way, the planes 92a, 92b, 92
c, ... Is generated. As a result, the Voronoi region 9
4a, 94b, 94c, ... Are generated.

【0061】ドロネー分割とは、ボロノイ領域を基に三
角形を形成し、領域を分割する技術である。図6(a)
で、隣接するボロノイ領域94a、94b、94cの中
心にある点91d、91c、91bを線分93c、93
a、93bで結ぶとボロノイ領域95が生成される。ボ
ロノイ領域はポリゴンとして利用することができる。こ
のようにして、顔面上の点の集合からポリゴンを発生さ
せる。以上のようにボロノイ領域を利用してポリゴンを
発生させると、図6(b)に示したような細長いポリゴ
ン96の発生を抑制することができる。
The Delaunay division is a technique for forming a triangle based on the Voronoi region and dividing the region. Figure 6 (a)
Then, the points 91d, 91c, and 91b at the centers of the adjacent Voronoi regions 94a, 94b, and 94c are divided into line segments 93c and 93.
A Voronoi region 95 is generated by connecting a and 93b. The Voronoi region can be used as a polygon. In this way, a polygon is generated from a set of points on the face. When polygons are generated using the Voronoi region as described above, it is possible to suppress the generation of elongated polygons 96 as shown in FIG. 6B.

【0062】このようにして、ポリゴン生成部88は、
顔面上の点の集合から自動的に三角ポリゴンを発生させ
ることができる。そして、発生させたポリゴンから、後
にVRMLファイルを生成する際に必要な線・面情報を
容易に取得することができる。ここで、線情報とは、ポ
リゴンを構成する線分の3次元座標情報であり、面情報
とは、ポリゴンを構成する面の3次元座標情報である。
ポリゴン生成部88は、これら線・面情報をVRMLフ
ァイル生成部92に渡す。
In this way, the polygon generator 88
Triangular polygons can be automatically generated from a set of points on the face. Then, from the generated polygons, it is possible to easily acquire the line / plane information required when a VRML file is generated later. Here, the line information is the three-dimensional coordinate information of the line segment forming the polygon, and the surface information is the three-dimensional coordinate information of the surface forming the polygon.
The polygon generator 88 passes the line / plane information to the VRML file generator 92.

【0063】VRMLファイル生成部90(図3)は、
ポリゴン生成部88から受け取った線・面情報を用いて
VRMLファイルを生成する。この機能はトランスレー
タ機能と呼ばれている。線情報を用いるとワイヤフレー
ムモデルを作成することができ、面情報を用いるとサー
フェスモデルやソリッドモデルを生成することができ
る。ここでVRMLとは、インターネット上で使用する
3次元コンピュータグラフィックスを記述するための言
語仕様であり、所定の文法に従って、空間中の直線、平
面、球、円柱などを定義することができる。VRMLを
用いるとインターネット上に構築された仮想空間で立体
モデルを表現することができる。VRMLにて記述され
た立体は、VRMLビューアを用いてディスプレイ上に
表示することができる。なお、VRMLは、オブジェク
トを立体的に表現するのみならず、音声や動きなども同
時に表現でき、ユーザは仮想空間の中を移動することな
どもできる。
The VRML file generator 90 (FIG. 3) is
A VRML file is generated using the line / face information received from the polygon generation unit 88. This function is called the translator function. A wireframe model can be created using line information, and a surface model or solid model can be created using surface information. Here, VRML is a language specification for describing three-dimensional computer graphics used on the Internet, and straight lines, planes, spheres, cylinders, etc. in space can be defined according to a predetermined grammar. By using VRML, a stereo model can be expressed in a virtual space constructed on the Internet. The solid described in VRML can be displayed on the display using a VRML viewer. It should be noted that VRML can not only stereoscopically represent an object but also audio and movement at the same time, and a user can move in a virtual space.

【0064】本実施の形態では、ステレオペア画像に係
る顔を図7に示したように三角ポリゴンで表すものとす
る。顔を構成する自由曲面は、ポリゴンを構成する三角
形による多面体として表現される。
In the present embodiment, the faces related to the stereo pair image are represented by triangular polygons as shown in FIG. A free-form surface forming a face is represented as a polyhedron of triangles forming a polygon.

【0065】テクスチャ生成部92は、ポリゴン生成部
88で生成した各ポリゴンに貼り付ける画像を左画像か
ら切り抜くモジュールである。テクスチャ生成部92
は、画像取得部75から左画像を受け取り、ポリゴン生
成部88から各ポリゴンの左画像上での形状と位置を表
す情報を受け取る。そして、テクスチャ生成部92は、
各ポリゴンの形状と位置に該当する左画像上の領域を各
ポリゴンごとに抽出することにより切り抜く。切り抜い
た画像は例えばJPEG形式などの画像ファイルにて3
DCGデータ格納部58(図2)に格納される。
The texture generation unit 92 is a module that cuts out the image to be attached to each polygon generated by the polygon generation unit 88 from the left image. Texture generator 92
Receives the left image from the image acquisition unit 75, and receives information representing the shape and position of each polygon on the left image from the polygon generation unit 88. Then, the texture generation unit 92
The area on the left image corresponding to the shape and position of each polygon is extracted by extracting for each polygon. The cropped image is an image file in JPEG format, for example.
It is stored in the DCG data storage unit 58 (FIG. 2).

【0066】テクスチャ貼り付け部94は、VRMLフ
ァイル生成部90が生成した立体モデルにテクスチャ生
成プログラム92が切り抜いたテクスチャを貼り付ける
(マッピング)。VRMLファイル生成プログラム90
が生成した顔の立体モデルは三角ポリゴンにより構成さ
れている。テクスチャ貼り付け部94は、各ポリゴンに
貼り付ける画像データを特定する情報をテクスチャ生成
プログラム92から受け取り、この情報を基に各ポリゴ
ンに該当する画像データを貼り付けてVRMLファイル
を更新する。テクスチャの貼り付けは、VRMLファイ
ル(テキストファイル)中の所定の個所に該当するテク
スチャのファイル名を書き込むことにより行う。そし
て、テクスチャ貼り付け部94は、更新したVRMLフ
ァイルを3DCGデータベース58に出力する。
The texture pasting unit 94 pastes the texture cut out by the texture generation program 92 onto the stereo model generated by the VRML file generation unit 90 (mapping). VRML file generation program 90
The three-dimensional model of the face generated by is composed of triangular polygons. The texture pasting unit 94 receives information specifying the image data to be pasted to each polygon from the texture generation program 92, and pastes the image data corresponding to each polygon based on this information to update the VRML file. The pasting of the texture is performed by writing the file name of the corresponding texture at a predetermined position in the VRML file (text file). Then, the texture pasting unit 94 outputs the updated VRML file to the 3DCG database 58.

【0067】図8は、3DCG作成装置11の動作を説
明するためのフローチャートである。まず、CPU28
(図2)は、入出力インターフェース44を介して左カ
メラ61、右カメラ62を遠隔操作し、ユーザの顔面を
撮影する。そして、CPU28は、撮影した左画像デー
タ及び右画像データを入出力インターフェース44を介
して左カメラ61、右カメラ62から受信し、こられを
画像データベース56に格納する(ステレオペア画像1
0)。以上の動作は、CPU28がカメラ制御プログラ
ム54に従って行うものである。
FIG. 8 is a flow chart for explaining the operation of the 3DCG creating apparatus 11. First, the CPU 28
In FIG. 2, the left camera 61 and the right camera 62 are remotely operated via the input / output interface 44 to photograph the user's face. Then, the CPU 28 receives the photographed left image data and right image data from the left camera 61 and the right camera 62 via the input / output interface 44, and stores these in the image database 56 (stereo pair image 1).
0). The above operation is performed by the CPU 28 according to the camera control program 54.

【0068】以下の動作は、CPU28が3DCG作成
プログラム50に従って行うものである。ステレオペア
画像が画像データ56に格納されると、3DCG作成プ
ログラム50が起動される。まず、CPU28は、ステ
レオペア画像をRAM32に読み込む。以降はRAM3
2に読み込まれた画像データを用いて処理を行う。CP
U28は、フェイスイットの技術を利用して、ステレオ
ペア画像から顔器官を抽出し、更に左右画像で対応する
顔器官の特徴点を抽出する。そしてCPU28は画像上
での2次元座標値を取得し、これらをRAM32の所定
のエリアに格納する(ステップ12)。
The following operation is performed by the CPU 28 according to the 3DCG creating program 50. When the stereo pair image is stored in the image data 56, the 3DCG creation program 50 is started. First, the CPU 28 reads the stereo pair image into the RAM 32. After that RAM3
Processing is performed using the image data read in 2. CP
U28 extracts face organs from the stereo pair image using the face-it technique, and further extracts feature points of the corresponding face organs in the left and right images. Then, the CPU 28 acquires the two-dimensional coordinate values on the image and stores them in a predetermined area of the RAM 32 (step 12).

【0069】次に、CPU28は、カメラデータ52を
取得し、これを用いてステレオペア画像を内部標定する
(ステップ14)。次に、CPU28は、観測点の組み
合わせをN個(例えば10個)生成し、RAM32の所
定のエリアに格納する(ステップ14)。なお、このN
個の組み合わせを遺伝的アルゴリズム(後述)では第1
世代の遺伝子と呼ぶ。次に、CPU28は、観測点の各
々の組み合わせに対して相互標定し(ステップ18)、
絶対標定する(ステップ20)。
Next, the CPU 28 acquires the camera data 52 and uses it to orient the stereo pair image internally (step 14). Next, the CPU 28 generates N (for example, 10) combinations of observation points and stores them in a predetermined area of the RAM 32 (step 14). In addition, this N
In the genetic algorithm (described later), the first combination
It is called the gene of generation. Next, the CPU 28 performs relative orientation for each combination of observation points (step 18),
Absolute orientation (step 20).

【0070】次に、CPU28は、絶対標定の結果を用
いてステレオペア画像中の基準点の座標値を算出し、こ
れを基準点の実際の座標値との残差を求める。残差は基
準点の計算値と実際の値の差をX、Y、Z座標に渡って
加算したものとする。残差は第1世代の組み合わせ全て
に綿って行い、最も残差の小さい組み合わせを特定す
る。次に、CPU28は、前回の残差の最小値と今回の
残差の最小値差が定の値より大きいか小さいかを判断
し、小さい場合は収束したと判断し、大きい場合は収束
していないと判断する(ステップ22)。なお、第1世
代の組み合わせに関しては、比較する前回の残差が無い
ため、収束していないものと見なす。
Next, the CPU 28 calculates the coordinate value of the reference point in the stereo pair image using the result of the absolute orientation, and obtains the residual difference from the actual coordinate value of the reference point. The residual is the sum of the difference between the calculated value of the reference point and the actual value over the X, Y, and Z coordinates. The residual is applied to all the combinations of the first generation, and the combination with the smallest residual is specified. Next, the CPU 28 determines whether the difference between the minimum value of the residuals of the previous time and the minimum value of the residuals of this time is larger or smaller than a fixed value. If the difference is small, it is determined that the difference has converged. It is determined that there is not (step 22). In addition, regarding the combination of the first generation, since there is no residual in the previous comparison, it is considered that the combination has not converged.

【0071】CPU28は、収束していないと判断した
場合は(ステップ22;N)、ステップ16に戻り、遺
伝的アルゴリズムに従って交叉、突然変異(後述)を行
い、第2世代の観測点の組み合わせを生成する。そし
て、CPU28は、RAM32に格納させている第1世
代の組み合わせを第2世代の組み合わせで更新する。以
下同様に相互標定(ステップ18)、絶対標定(ステッ
プ20)、収束判断(ステップ22)を行う。
When the CPU 28 determines that the convergence has not occurred (step 22; N), the CPU 28 returns to step 16 and performs crossover and mutation (described later) according to the genetic algorithm to combine the second generation observation points. To generate. Then, the CPU 28 updates the combination of the first generation stored in the RAM 32 with the combination of the second generation. Similarly, mutual orientation (step 18), absolute orientation (step 20), and convergence determination (step 22) are performed.

【0072】CPU28は、収束したと判断した場合は
(ステップ22;Y)、観測点の全ての3次元座標値を
計算する(ステップ24)。絶対座標の計算に使用され
た組に属する観測点の3次元座標値は、絶対座標の計算
の際に既に得られている。絶対座標の計算に使用された
組に属さなかった観測点の3次元座標値は、絶対標定の
結果を用いて絶対標定する。また、顔一様に点が分布す
るように、新たな点を生成し、それらの点の3次元座標
値を絶対標定の結果を用いて算出する。
When the CPU 28 determines that it has converged (step 22; Y), it calculates all three-dimensional coordinate values of the observation point (step 24). The three-dimensional coordinate values of the observation points belonging to the set used for the calculation of the absolute coordinates have already been obtained during the calculation of the absolute coordinates. The three-dimensional coordinate values of the observation points that do not belong to the set used for the calculation of absolute coordinates are absolute oriented using the results of absolute orientation. Also, new points are generated so that the points are evenly distributed on the face, and the three-dimensional coordinate values of these points are calculated using the results of absolute orientation.

【0073】次に、CPU28は、顔面上に生成した点
をドロネー分割し、更にドロネー分割の結果を用いてボ
ロノイ領域を生成してポリゴンを生成する(ステップ2
6)。CPU28は、生成したポリゴンから線・面情報
を算出し、RAM32の所定の領域に格納する。次に、
CPU28は、RAM32から線・面情報を読み出し、
これを用いてVRMLファイルを生成する(ステップ2
8)。CPU28は、生成したVRMLをRAM32の
所定の領域に格納する。
Next, the CPU 28 performs Delaunay division on the points generated on the face, and further generates Voronoi regions by using the result of the Delaunay division to generate polygons (step 2).
6). The CPU 28 calculates line / face information from the generated polygon and stores it in a predetermined area of the RAM 32. next,
The CPU 28 reads the line / surface information from the RAM 32,
A VRML file is generated using this (step 2).
8). The CPU 28 stores the generated VRML in a predetermined area of the RAM 32.

【0074】次に、CPU28は、RAM32に格納し
てある線・面情報及びステレオペア画像を読み出し、線
・面情報を用いて画像データからポリゴンに貼り付ける
画像を切り抜き(テクスチャ)、ポリゴンごとにJPE
Gファイルとして3DCGデータベース58に格納する
(ステップ30)。次に、CPU28は、各ポリゴンに
対応するテクスチャを貼り付け、VRMLファイルを更
新し、3DCGデータベース58に格納する(ステップ
32)。
Next, the CPU 28 reads out the line / face information and the stereo pair image stored in the RAM 32, and cuts out (texture) the image to be attached to the polygon from the image data using the line / face information, and for each polygon. JPE
It is stored in the 3DCG database 58 as a G file (step 30). Next, the CPU 28 pastes the texture corresponding to each polygon, updates the VRML file, and stores it in the 3DCG database 58 (step 32).

【0075】次に、写真測量部72が行う遺伝的アルゴ
リズムを用いた準最適化探索方法について説明する。本
実施の形態では、遺伝的アルゴリズムを用いて、処理に
かかる計算時間を短縮する方法を採用した。写真測量を
行う場合、ステレオペア画像上の観測点のうち、いくつ
か(最低6個)を選択し、選択された観測点を用いて標
定計算を行う。観測点の選択の仕方により標定精度が異
なるため、多数ある観測点の中から高い精度で標定計算
を行うことができる観測点の組み合わせを探さなくては
ならない。従来の写真測量では、高度の専門知識を豊富
な経験を有する作業者が観測点の組み合わせの探索を行
っていた。ところが、このような専門家においてさえ最
適な観測点の組み合わせの探索は困難である。
Next, a sub-optimization search method using the genetic algorithm performed by the photogrammetry section 72 will be described. In this embodiment, a method of shortening the calculation time required for processing is adopted by using a genetic algorithm. When performing photogrammetry, some (at least 6) of the observation points on the stereo pair image are selected, and the orientation calculation is performed using the selected observation points. Since the orientation accuracy depends on the method of selecting the observation points, it is necessary to find a combination of the observation points that can perform the orientation calculation with high accuracy from a large number of observation points. In conventional photogrammetry, a worker with a high degree of specialized knowledge and abundant experience searches for combinations of observation points. However, even such an expert finds it difficult to find the optimum combination of observation points.

【0076】ところで、被写体がボールや人間の顔のよ
うに球面や自由曲面などの滑らかな曲面で構成されてい
る場合は、その曲面を再現するために数多くの観測点が
必要となる。このような場合、観測点の組み合わせは指
数関数的に増大し、計算にかかる時間は大幅に増大す
る。このため、全ての組み合わせを求めてその各々に対
して標定計算を行い、最も標定精度の高くなる組み合わ
せを求める全解探索方を用いることは困難である。
By the way, when the subject is composed of a smooth curved surface such as a spherical surface or a free curved surface like a ball or a human face, many observation points are required to reproduce the curved surface. In such a case, the combination of observation points increases exponentially, and the time required for calculation increases significantly. Therefore, it is difficult to use all-solution search method in which all combinations are obtained and orientation calculation is performed for each of them, and the combination having the highest orientation accuracy is obtained.

【0077】そこで、本実施の形態では、観測点からな
る組合せを複数個任意に作り、残差が一定の範囲に収束
するまでこれらに、交叉、突然変異といった遺伝的アル
ゴリズムにおける遺伝操作を繰り返すことにより残差を
収束させる方法を採用する。この方法を用いれば、計測
観測点数が多い場合でも、全ての観測点の組み合わせに
対して標定計算する必要がなくなり、計算時間の軽減を
実現することができ、また、必要な精度を満たす標定結
果を得ることができる。
Therefore, in this embodiment, a plurality of combinations of observation points are arbitrarily created, and genetic operations such as crossover and mutation are repeated on these combinations until the residuals converge to a certain range. The method of converging the residuals is adopted. If this method is used, it is not necessary to perform orientation calculation for all combinations of observation points even if there are many measurement observation points, and it is possible to reduce the calculation time, and the orientation result that meets the required accuracy is obtained. Can be obtained.

【0078】遺伝的アルゴリズムは、固体集団におい
て、交叉、淘汰、突然変異といった作用を行いながら、
生存競争の末に環境に対する適合度が高い固体が生き残
っていくというダーウィニズム進化論に端を発する。こ
れによれば、より環境に適した者が淘汰において生き残
る確率が高く、生き残った者同士が交叉することによ
り、次世代により優れた形質を残すとともに、突然変異
によって、新しい形質を獲得する。仮に突然変異によっ
て劣った形質を獲得した場合、その固体は淘汰されてし
まうので、結果的に突然変異によってより優れた形質を
獲得したものが生き残り、その子孫が増え、固体集団全
体の適合度は向上する。
The genetic algorithm performs operations such as crossover, selection, and mutation in a solid population,
It originates in Darwinism evolution theory in which individuals with a high degree of compatibility with the environment survive after survival competition. According to this, there is a high probability that a person who is more suitable for the environment will survive in selection, and the survivors cross each other to leave a superior trait in the next generation and to acquire a new trait by mutation. If an inferior trait is acquired by mutation, that individual will be culled, and as a result, those who acquire a better trait by mutation will survive, their progeny will increase, and the fitness of the entire population will increase. improves.

【0079】突然変異により、交叉のみでは得られない
遺伝子を発生させることができる。数学的な言い方をす
れば、突然変異をすることにより、局所解を回避しより
最適な解を得ることができる。このプロセスをアルゴリ
ズム化したのが遺伝的アルゴリズムである。遺伝的アル
ゴリズムでは対象を何らかの方法で遺伝子(遺伝子コー
ドとも呼ばれる)で表現し、評価関数を用いて遺伝子の
適合度を求める。
Mutations can give rise to genes that cannot be obtained by crossover alone. Mathematically speaking, by making mutations, local solutions can be avoided and more optimal solutions can be obtained. The genetic algorithm is an algorithm of this process. In a genetic algorithm, an object is represented by a gene (also called a gene code) by some method, and the fitness of a gene is obtained using an evaluation function.

【0080】評価関数は自然界で言えば自然環境に当た
る。この自然環境に対する適合度が高い遺伝子を持った
個体ほど生き延びて子孫を残す確率が高くなり、適合度
が低い遺伝子を持った個体は子孫を残す確率が低くな
り、その結果、全体として、優れた形質を持った次の世
代が形成される。遺伝的アルゴリズムの工学への適用は
盛んに研究されており、ジェットエンジンの設計の最適
化や、コジェネーションの最適化、道路整備順位の決定
などの、数多くの組合せ最適化問題に適用されている。
The evaluation function corresponds to the natural environment in the natural world. Individuals with genes that have a high degree of fitness to this natural environment have a higher probability of surviving and leaving offspring, and individuals with genes that have a low degree of fitness have a lower probability of leaving offspring, and as a result, are generally superior. The next generation with traits is formed. The application of genetic algorithms to engineering is being actively researched and applied to many combinatorial optimization problems such as optimization of jet engine design, optimization of cogeneration, and determination of road maintenance order. .

【0081】図9は観測点の組合せを表現した図であ
る。この例では、観測点を20点取った。遺伝子は20
個の遺伝子座58a、58b、・・・58tからなり、
それぞれの遺伝子座には0または1の2つの数値が割り
振られている。遺伝子座とは遺伝子の構成単位である。
これらの遺伝子座にP1からP20までの観測点を対応
させることにより、それぞれの観測点に0か1の数値を
割り振る。観測点に1が対応しているときは、その点は
標定を行う点の組に採用され、0が対応しているときは
採用されない。例えば、P1、P2、P5、P7、P
9、P12、P18の遺伝子座に1が割り振られ、その
他の遺伝子座には0が割り振られた場合、P1、P2、
P5、P7、P9、P12、P18が標定を行う計測観
測点と任意観測点からなる組合せとして選択されたこと
を意味する。本実施の形態では、これらの遺伝子の適合
度は、当該遺伝子の標定から得られる残差の逆数とし
た。即ち、残差が小さいほど適合度は大きくなる。残差
は実施例1と同じ方法で求めた。また、適合度の取り方
は、これに限るものではなく、標定の精度が高い遺伝子
ほど適合度が大きくなるものであれば良い。
FIG. 9 is a diagram showing combinations of observation points. In this example, 20 observation points were taken. 20 genes
Consisting of individual loci 58a, 58b, ... 58t,
Two numerical values, 0 or 1, are assigned to each locus. A locus is a structural unit of a gene.
By assigning observation points from P1 to P20 to these loci, a numerical value of 0 or 1 is assigned to each observation point. When 1 corresponds to an observation point, that point is adopted as a set of points for orientation, and when 0 corresponds, it is not adopted. For example, P1, P2, P5, P7, P
If the loci of 9, P12, and P18 are assigned 1 and the other loci are assigned 0, P1, P2,
It means that P5, P7, P9, P12, and P18 are selected as a combination of the measurement observation point and the arbitrary observation point for orientation. In the present embodiment, the fitness of these genes is the reciprocal of the residual obtained from the orientation of the gene. That is, the smaller the residual, the greater the degree of conformity. The residual was determined by the same method as in Example 1. Further, the method of obtaining the goodness of fit is not limited to this, and any gene having a higher accuracy of orientation may have a higher goodness of fit.

【0082】遺伝的操作としては交叉と突然変異を行っ
た。交叉は、適合度の高い遺伝子を2つ選択し、2点交
叉を行った。2点交叉とは、例えば図9の第2の遺伝子
座と第3の遺伝子座の間の点51と、第9の遺伝子座と
第10の遺伝子座の間の点52に挟まれた領域にある遺
伝子のデータを2つの遺伝子の間で交換することであ
る。前記点51と点52の選び方は任意の場合もある
し、固定してある場合もある。交叉方法として、この他
に1点交叉や3点交叉などを行っても良い。突然変異
は、ある一定の確率で任意の遺伝子中の0と1をいくつ
か反転させることにより行った。これにより、交叉のみ
では、生み出せない新しい遺伝子を形成し、局所最適解
に陥らないようにする。
As a genetic manipulation, crossover and mutation were performed. As for the crossover, two genes having high fitness were selected and two-point crossover was performed. The two-point crossover is, for example, a region between a point 51 between the second locus and the third locus and a point 52 between the ninth locus and the tenth locus in FIG. The exchange of data for a gene between two genes. The selection of the points 51 and 52 may be arbitrary or may be fixed. In addition to this, one-point crossover, three-point crossover, or the like may be performed as the crossover method. Mutations were made by inverting some 0's and 1's in any gene with a certain probability. As a result, a new gene that cannot be generated by crossover alone is formed and a local optimal solution is prevented.

【0083】本実施の形態では標定精度が高くなる観測
点の組み合わせについて標定を行うため、この組み合わ
せからもれる観測点については淘汰され標定計算が行わ
れない。ところで、本実施の形態のアルゴリズムにより
標定が行われ、全ての標定要素(左カメラ61と右カメ
ラ62の傾き、やモデル座標の縮尺、回転、平行移動な
ど)が求まると、これらの標定要素を用いて、淘汰され
た観測点の実空間での3次元座標値を計算することがで
きる。このため、標定作業で計測観測点が淘汰され、そ
の座標値が計算されなかった場合でも、標定結果を用い
てそれらの座標値を計算することができる。
In the present embodiment, the orientation is performed for the combination of the observation points for which the orientation accuracy is high. Therefore, the observation points that are out of this combination are removed and the orientation calculation is not performed. By the way, when the orientation is performed by the algorithm of the present embodiment and all the orientation elements (tilt of the left camera 61 and the right camera 62, the scale of model coordinates, rotation, parallel movement, etc.) are obtained, these orientation elements are determined. By using it, it is possible to calculate the three-dimensional coordinate value of the selected observation point in the real space. Therefore, even when the measurement observation points are selected in the orientation work and the coordinate values are not calculated, the coordinate values can be calculated using the orientation result.

【0084】図10は遺伝的操作を繰り返す毎に、遺伝
子の適合度が上昇し、ある値に収束するところを示して
いる。点54は第一世代の各遺伝子の適合度の最大値で
ある。遺伝的操作を行う毎に、各遺伝子の適合度を計算
する。それらの適合度の最大値は、世代を経る毎に上昇
する。そして、ある程度世代を経ると、その最大値はほ
ぼ一定の値を示すようになる。このとき、適合度が収束
したと判断する。本実施の形態では図10の点56に示
したように、ある計算時間±t、例えば、±3分間にお
ける各遺伝子の適合度の最大値が±1パーセント以内に
収まったとき、収束したと判断した。適合度の収束条件
はこれに限らず、例えば、所定の世代に渡って、適合度
の最大値が所定のパーセント以内に収まったときを収束
と判断したり、また、各遺伝子の適合度の最大値ではな
く、平均値を用いたりしても良い。
FIG. 10 shows that the fitness of a gene rises and converges to a certain value each time the genetic operation is repeated. Point 54 is the maximum value of the fitness of each gene of the first generation. The fitness of each gene is calculated each time the genetic manipulation is performed. The maximum value of their fitness increases with each generation. Then, after a certain number of generations, the maximum value becomes almost constant. At this time, it is determined that the goodness of fit has converged. In the present embodiment, as indicated by point 56 in FIG. 10, when the maximum value of the goodness of fit of each gene within a certain calculation time ± t, for example, ± 3 minutes is within ± 1%, it is determined that it has converged. did. The convergence condition of the fitness is not limited to this. For example, when the maximum value of the fitness falls within a predetermined percentage over a predetermined generation, it is determined to be the convergence, and the maximum fitness of each gene is determined. The average value may be used instead of the value.

【0085】以上述べた第1の実施の形態では以下のよ
うな効果を得ることができる。対応点取得部77は、対
応点の取得が困難である複雑な自由曲面で構成された左
右の顔写真の対応する点を自動的に算出することができ
る。遺伝的アルゴリズムを用い、多数の観測点から準最
適な写真測量のための観測点の組を効率的に求めること
ができる。写真測量の3つの段階(内部標定、相互標
定、絶対標定)をプログラム化し、被写体(本実施の形
態では顔)の3次元データを自動的に算出することがで
きる。
The following effects can be obtained in the first embodiment described above. The corresponding point acquisition unit 77 can automatically calculate the corresponding points of the left and right face photographs formed of complicated free-form curved surfaces that are difficult to acquire corresponding points. A genetic algorithm can be used to efficiently obtain a set of observation points for suboptimal photogrammetry from a large number of observation points. It is possible to program three stages of photogrammetry (internal orientation, mutual orientation, absolute orientation) and automatically calculate three-dimensional data of a subject (face in this embodiment).

【0086】3次元座標値を算出した点の集合をドロネ
ー分轄し、更にボロノイ領域を生成することにより適切
なポリゴンを自動的に発生させ、被写体のサーフェスモ
デルを生成することができる。また、生成したサーフェ
スモデルから線・面情報を取得することができる。被写
体のサーフェスモデルを記述するVRMLファイルを自
動生成することができる。写真測量の際に使用した画像
を用いて、VRMLファイルで記述した被写体のサーフ
ェスモデルにテクスチャマッピングを行うことができ
る。
The set of points for which the three-dimensional coordinate values have been calculated is divided into Delaunay divisions, and further, by generating Voronoi regions, appropriate polygons can be automatically generated to generate a surface model of the subject. Also, line / face information can be acquired from the generated surface model. A VRML file that describes a surface model of a subject can be automatically generated. Texture mapping can be performed on the surface model of the subject described in the VRML file using the image used in the photogrammetry.

【0087】生成したVRMLファイルをインターネッ
トを介してサーバ装置や携帯端末装置に転送することが
できるほか、磁気ディスクや半導体メモリに格納するこ
とができる。
The generated VRML file can be transferred to a server device or a mobile terminal device via the Internet, and can also be stored in a magnetic disk or a semiconductor memory.

【0088】なお、本実施の形態では、ステレオペア画
像内の座標をピクセル座標(ピクセルの大きさを単位と
して座標値を取得する)で取得したが、これに限定する
ものではなく、例えばステレオペア画像をメッシュで分
轄し、1つあたりのメッシュの大きさを単位として座標
値を計測しても良い。また、本実施の形態では、顔の特
徴を利用して対応点を取得したが、同様に他のオブジェ
クトの特徴を予め調べておくことにより、顔以外のオブ
ジェクトに対しても自動的に3DCGを作成することが
できる。更に、例えば、箱などの四角ばったオブジェク
トのように、直線と平面などから構成された単純な形状
のオブジェクトは、エッジ処理などにより簡単に対応点
(例えば箱の4角の点など)を取得することができる。
In this embodiment, the coordinates in the stereo pair image are acquired in pixel coordinates (coordinate values are acquired in units of pixel size), but the present invention is not limited to this. The image may be divided by meshes, and the coordinate values may be measured with the size of each mesh as a unit. In addition, in the present embodiment, the corresponding points are acquired by using the facial features, but similarly, by preliminarily examining the features of other objects, 3DCG can be automatically performed even for objects other than faces. Can be created. Furthermore, for example, an object having a simple shape composed of a straight line and a plane, such as a square object such as a box, easily obtains corresponding points (for example, the square points of the box) by edge processing. be able to.

【0089】(第2の実施の形態)第2の実施の形態
は、ユーザの頭部8を四方から撮影し、頭部の3次元コ
ンピュータグラフィックスを作成するものである。図1
1は、第2の実施形態に係る撮影ボックス100の構成
を示した図である。撮影ボックス100は、第1の実施
の形態の撮影ボックス10に新たに、頭部8の左側面の
ステレオペア画像(以下、左ペア画像と記す)を撮影す
るための左カメラ101、右カメラ102、右側面のス
テレオペア画像(以下、右ペア画像と記す)を撮影する
ための左カメラ104、右カメラ105、後頭部のステ
レオペア画像(以下、後頭部ペア画像と記す)を撮影す
るための左カメラ107、右カメラ108を装備したも
のである。これらのカメラは全て同一の仕様(カメラパ
ラメータが同じ)のものである。
(Second Embodiment) In the second embodiment, the user's head 8 is photographed from four directions to create three-dimensional computer graphics of the head. Figure 1
FIG. 1 is a diagram showing a configuration of a photographing box 100 according to the second embodiment. The shooting box 100 includes a left camera 101 and a right camera 102 for shooting a stereo pair image (hereinafter referred to as a left pair image) on the left side surface of the head 8 in addition to the shooting box 10 of the first embodiment. , A left camera 104 for capturing a stereo pair image on the right side (hereinafter referred to as a right pair image), a right camera 105, and a left camera for capturing a stereo pair image on the occipital region (hereinafter referred to as an occipital pair image) 107 and the right camera 108 are equipped. All of these cameras have the same specifications (the same camera parameters).

【0090】これらのカメラの3次元的な位置関係は予
め分かっている。即ち、例えば左カメラ61のカメラ座
標系を用いた場合、他のカメラの3次元座標値が予め求
められている。また、四方の壁面には、対向する壁に設
置されたカメラが測量に使用するための図示しない基準
点が描かれている。これらの基準点の3次元座標値も予
め分かっている。
The three-dimensional positional relationship of these cameras is known in advance. That is, for example, when the camera coordinate system of the left camera 61 is used, the three-dimensional coordinate values of other cameras are obtained in advance. In addition, on the four wall surfaces, reference points (not shown) used by the cameras installed on the opposite walls for surveying are drawn. The three-dimensional coordinate values of these reference points are also known in advance.

【0091】ユーザが図示しないスイッチをオンする
と、図示しないスピーカから秒読みが行われ、秒読み終
了時に全てのカメラが同時に頭部8を撮影するようにな
っている。このように、撮影ボックス100では、頭部
8の正面のステレオペア画像、左右側面のステレオペア
画像、及び後頭部のステレオペア画像を同時に撮影し、
頭部8の3次元データを周囲360度に渡って取得する
ことができる。
When the user turns on a switch (not shown), the countdown is performed from a speaker (not shown), and at the end of the countdown, all the cameras simultaneously photograph the head 8. In this way, in the photographing box 100, the stereo pair image of the front of the head 8, the stereo pair images of the left and right sides, and the stereo pair image of the occipital region are simultaneously photographed,
The three-dimensional data of the head 8 can be acquired over 360 degrees around.

【0092】図12(a)、(b)は、正面のステレオ
ペア画像(以下、正面ペア画像と記す)を表した模式図
である。(a)は左画像であり、(b)は右画像であ
る。ステレオペア画像には、写真測量の際に使用する基
準点5a、5b、5cが頭部8と共に移しこまれてい
る。正面ペア画像からは、頭部8(耳と髪を含む)と基
準点5a、5b、5cが画像処理により抽出され、写真
測量やテクスチャの採取に用いられる。
FIGS. 12A and 12B are schematic diagrams showing a front stereo pair image (hereinafter referred to as a front pair image). (A) is a left image and (b) is a right image. Reference points 5a, 5b and 5c used in the photogrammetry are transferred to the stereo pair image together with the head 8. The head 8 (including ears and hair) and the reference points 5a, 5b, and 5c are extracted from the front pair image by image processing, and are used for photogrammetry and texture sampling.

【0093】正面ペア画像からは、頭部8を正面から見
た場合の3DCGが作成される。写真測量の際には、耳
の頂点及び唇の端点に観測点110a、110b、及び
111a、111bを取る。観測点110a、と111
aは、正面ペア画像から作成した3DCGと左ペア画像
から作成した3DCGを重ね合わせる際の基準点とす
る。
3DCG when the head 8 is viewed from the front is created from the front pair image. At the time of photogrammetry, observation points 110a, 110b, and 111a, 111b are set at the apexes of the ears and the end points of the lips. Observation points 110a and 111
Let a be a reference point for superimposing the 3DCG created from the front pair image and the 3DCG created from the left pair image.

【0094】図12(c)、(d)は、左ペア画像を模
式的に表した模式図である。(c)は左画像であり、
(d)は右画像である。左ペア画像には、写真測量に使
用する基準点5e、5f、5gが頭部8と共に移しこま
れている。基準点5e、5f、5gは、頭部8の背景に
ある壁面に描かれたものである。左ペア画像からは、頭
部8と基準点5e、5f、5gが画像処理により抽出さ
れ、写真測量及びテクスチャの採取に用いられる。
12 (c) and 12 (d) are schematic diagrams schematically showing the left pair image. (C) is the left image,
(D) is the right image. Reference points 5e, 5f, and 5g used for photogrammetry are transferred to the left pair image together with the head 8. The reference points 5e, 5f, and 5g are drawn on the wall surface in the background of the head 8. From the left pair image, the head 8 and the reference points 5e, 5f, 5g are extracted by image processing and used for photogrammetry and texture collection.

【0095】左ペア画像からは、頭部8を左方から見た
3DCGが作成される。また、写真測量の際に、耳の頂
点と唇の端点に観測点110c、111cが取られ、左
ペア画像から作成した3DCGを正面ペア画像から作成
した3DCGとを重ねあわせる際の基準点に使用され
る。
From the left pair image, 3DCG in which the head 8 is viewed from the left side is created. In addition, at the time of photogrammetry, observation points 110c and 111c are taken at the apexes of the ears and the end points of the lips, and they are used as reference points when the 3DCG created from the left pair image and the 3DCG created from the front pair image are superimposed. To be done.

【0096】図12(e)、(f)は、後頭部ペア画像
を模式的に表した図である。(e)は左画像であり、
(f)は右画像である。後頭部ペア画像には、写真測量
に使用する基準点5h、5i、5jが頭部8と共に写し
こまれている。基準点5h、5i、5jは、頭部8の背
景となる壁面に描かれたものである。後頭部ペア画像か
らは、頭部8と基準点5h、5i、5jが画像処理によ
り抽出され、写真測量及びテクスチャの採取に用いられ
る。
FIGS. 12 (e) and 12 (f) are schematic views of the occipital region pair image. (E) is the left image,
(F) is the right image. Reference points 5h, 5i, and 5j used for photogrammetry are shown together with the head 8 in the occipital region pair image. The reference points 5h, 5i, and 5j are drawn on the wall surface that is the background of the head 8. From the occipital region pair image, the head 8 and the reference points 5h, 5i, 5j are extracted by image processing and used for photogrammetry and texture sampling.

【0097】後頭部ペア画像からは、頭部8を後方から
見た3DCGが作成される。また、写真測量の際に、耳
の頂点に観測点110dが取られ、後頭部ペア画像から
作成した3DCGを左ペア画像から作成した3DCGと
を重ねあわせる際の基準点として使用される。
From the occipital region pair image, 3DCG in which the head 8 is viewed from the rear is created. Further, at the time of photogrammetry, the observation point 110d is taken at the apex of the ear and used as a reference point when the 3DCG created from the occipital pair image and the 3DCG created from the left pair image are superimposed.

【0098】右ペア画像は、図示しないが、左ペア画像
と同様にして、頭部を右方から見た場合の3DCGを作
成するために使用される。写真測量の際に、耳の頂点、
唇の端点に観測点を取り、右ペア画像から作成した3D
CGと、正面ペア画像から作成した3DCGと重ね合わ
せる際に使用する。
Although not shown, the right pair image is used to create 3DCG when the head is viewed from the right, similarly to the left pair image. At the time of photogrammetry,
3D created from right paired images by taking observation points at the end points of the lips
It is used when superimposing the CG and the 3DCG created from the front pair image.

【0099】次に、第2の実施の形態に係る3DCG作
成装置5aについて説明する。3DCG作成装置5aの
ハードウェアの構成は、図2に示したコンピュータと同
様である。但し、入出力インターフェース44には、更
に左カメラ101、右カメラ102、左カメラ104、
右カメラ105、左カメラ107、右カメラ108が接
続されている。カメラ制御プログラムは、これらのカメ
ラで同時に頭部8を撮影し、得られたステレオペア画像
を画像データペース56に格納する機能をCPU28に
発揮させる。また、第1の実施の形態に係る3DCG作
成プログラム50は、第2の実施の形態に係る3DCG
作成プログラムに置き換えられている。
Next, the 3DCG creating apparatus 5a according to the second embodiment will be described. The hardware configuration of the 3DCG creating apparatus 5a is the same as that of the computer shown in FIG. However, the input / output interface 44 further includes a left camera 101, a right camera 102, a left camera 104,
The right camera 105, the left camera 107, and the right camera 108 are connected. The camera control program causes the CPU 28 to exhibit a function of simultaneously photographing the head 8 with these cameras and storing the obtained stereo pair image in the image data pace 56. Further, the 3DCG creation program 50 according to the first embodiment is the 3DCG creation program according to the second embodiment.
It has been replaced by the creation program.

【0100】図13は、第2の実施の形態に係る3DC
G作成装置5aの構成の一例を示した図である。この構
成は、本実施の形態に係る3DCG作成プログラムがC
PU28にロードされてソフトウェア的に実現されるも
のである。第1の実施の形態に係る3DCG作成装置5
と同じ機能を有する部分には同じ符号を付すこととす
る。
FIG. 13 shows a 3DC according to the second embodiment.
It is a figure showing an example of composition of G creation device 5a. In this configuration, the 3DCG creation program according to the present embodiment is C
It is loaded into the PU 28 and realized by software. 3DCG creation apparatus 5 according to the first embodiment
The parts having the same functions as in FIG.

【0101】3DCG作成装置5aは、画像取得部7
5、対応点取得部77、写真測量部72、3DCGファ
イル生成部73、正面CG格納部121、左側面CG格
納部122、右側面CG格納部123、後頭部CG格納
部124、合成部125から構成されている。
The 3DCG creating apparatus 5a includes an image acquisition section 7
5, the corresponding point acquisition unit 77, the photogrammetric unit 72, the 3DCG file generation unit 73, the front CG storage unit 121, the left side CG storage unit 122, the right side CG storage unit 123, the occipital region CG storage unit 124, and the synthesis unit 125. Has been done.

【0102】画像取得部75は、画像データベース56
から正面ペア画像データ、左側面ペア画像データ、右側
面ペア画像データ、後頭部ペア画像データを読み出し、
対応点取得部77に提供する。写真測量及びVRMLフ
ァイルの作成は、正面、左側面、右側面、後頭部の順序
で行われるようになっており、画像取得部75は、正面
ペア画像の処理が終了した後左側面ペア画像を読み出す
といったように、処理の進捗状況に合わせてステレオペ
ア画像を順次対応点取得部77に提供する。
The image acquisition section 75 is connected to the image database 56.
Read front pair image data, left side pair image data, right side pair image data, occipital pair image data,
It is provided to the corresponding point acquisition unit 77. The photogrammetry and the creation of the VRML file are performed in the order of front, left side, right side, and occipital region, and the image acquisition unit 75 reads the left side pair image after the processing of the front pair image is completed. As described above, the stereo pair images are sequentially provided to the corresponding point acquisition unit 77 according to the progress status of the processing.

【0103】対応点取得部77は、画像取得部77から
取得したステレオペア画像上の対応点の集合を算出し、
これらの画像上での2次元座標値を写真測量部72に提
供する。正面ペア画像に対しては第1の実施の形態と同
様にして、人間の顔の特徴を用いて対応点を抽出する。
The corresponding point acquiring unit 77 calculates a set of corresponding points on the stereo pair image acquired from the image acquiring unit 77,
The two-dimensional coordinate values on these images are provided to the photogrammetry unit 72. Similar to the first embodiment, corresponding points are extracted from the front pair image by using the features of the human face.

【0104】左側面ペア画像、右画像ペア画像において
も、人間の顔を横から見たときの特徴を用い、正面ペア
画像と同様にして、例えば耳の輪郭の頂点、下端、唇の
端点などの対応点を取得する。また、正面ペア画像の写
真測量の測量結果を用いれば、正面ペア画像用のカメラ
と側面撮影用のカメラの位置関係は予めわかっているた
め、左ペア画像、右ペア画像における瞳の位置を算出す
ることもできる。このように瞳の位置を取得すれば、瞳
の位置を基準として、耳、眉、鼻及び口の位置を検出し
て抽出することが可能である。
Also in the left side pair image and the right image pair image, the features of a human face viewed from the side are used, and like the front pair image, for example, the apex of the contour of the ear, the lower end, the end points of the lips, etc. Get corresponding points of. In addition, if the result of photogrammetry of the front pair image is used, the positional relationship between the camera for the front pair image and the camera for the side shooting is known in advance, so the positions of the pupils in the left pair image and the right pair image are calculated. You can also do it. By thus obtaining the position of the pupil, it is possible to detect and extract the positions of the ears, eyebrows, nose, and mouth with the position of the pupil as a reference.

【0105】後頭部ペア画像においても、人間の頭部を
後方から見た特徴を用いて耳の頂点、下端点、頭頂点な
どを算出することができる。また、正面ペア画像、左側
面ペア画像、右側面ペア画像の写真測量結果を耳の位置
の抽出に用いることもできる。なお、後頭部の3DCG
の厳密性が要求されない場合は、後頭部の左写真の特定
の点が、右写真のどのあたりの点かおおよそ分かる(頭
部8は所定の位置にあり、また人間の頭部は大体同じよ
うな形状をしている)ので、後頭部の対応点を推測によ
り算出することもできる。
Also in the occipital region pair image, the vertex of the ear, the lower end point, the apex of the head, etc. can be calculated by using the feature of the human head viewed from the rear. Further, the photogrammetric results of the front pair image, the left side pair image, and the right side pair image can be used for extracting the ear position. In addition, 3DCG of the back of the head
If the strictness of is not required, it is roughly known where the specific point on the left photograph of the occipital region is on the right photograph (the head 8 is in a predetermined position, and the human head is almost the same). Since it has a shape), the corresponding point of the occipital region can be calculated by estimation.

【0106】写真測量部72の構成と機能は第1の実施
の形態と同じである。写真測量部72は、対応点取得部
からステレオペア画像の対応点の画像上での2次元座標
値を受け取り、遺伝的アルゴリズムを用いて写真測量を
実行する。写真測量部72は、まず正面ペア画像を標定
し、次いで左側面ペア画像、右側面ペア画像、後頭部ペ
ア画像の順に標定する。
The structure and function of the photogrammetry section 72 are the same as those in the first embodiment. The photogrammetry unit 72 receives the two-dimensional coordinate values on the image of the corresponding points of the stereo pair image from the corresponding point acquisition unit, and executes the photogrammetry using the genetic algorithm. The photogrammetric unit 72 first orients the front pair image, and then the left side pair image, the right side pair image, and the occipital region pair image in this order.

【0107】3DCGファイル生成部73の構成と機能
は第1の実施の形態と同じである。3DCGファイル生
成部73は、写真測量の結果を用いてポリゴンを発生さ
せ、VRMLファイルを生成した後、ステレオペア画像
からテクスチャを生成し、これをVRMLによって記述
された立体モデルに貼り付ける。3DCGファイル生成
部73は、正面、左側面、右側面、後頭部の順序でVR
MLファイルを生成し、これらをRAM32(図2)の
所定のエリアに出力する。
The structure and function of the 3DCG file generating section 73 are the same as those in the first embodiment. The 3DCG file generation unit 73 generates a polygon using the result of photogrammetry, generates a VRML file, generates a texture from a stereo pair image, and attaches this to a stereo model described by VRML. The 3DCG file generation unit 73 sets the VR in the order of front, left side, right side, and occipital region.
The ML file is generated and these are output to a predetermined area of the RAM 32 (FIG. 2).

【0108】正面CG格納部121、左側面CG格納部
122、右側面CG格納部123、後頭部CG格納部1
24は、RAM32に設けられたエリアである。正面C
G格納部121には、正面ペア画像から生成されたVR
MLファイルが格納される。同様に左側面CG格納部1
22には、左側面ペア画像から生成したVRMLファイ
ルが、右側面CG格納部123には、右側面ペア画像か
ら生成したVRMLファイルが、後頭部CG格納部12
4には、後頭部ペア画像から生成したVRMLファイル
が格納される。
Front CG storage 121, left side CG storage 122, right side CG storage 123, occipital CG storage 1
An area 24 is provided in the RAM 32. Front C
The G storage unit 121 stores the VR generated from the front pair image.
The ML file is stored. Similarly, the left side CG storage unit 1
A VRML file generated from the left side pair image is indicated at 22 and a VRML file generated from the right side pair image is indicated at the right side CG storage unit 123 in the occipital region CG storage unit 12.
In 4, a VRML file generated from the occipital region pair image is stored.

【0109】合成部125は、正面CG格納部121、
左側面CG格納部122、右側面CG格納部123、後
頭部CG格納部124に格納されているVRMLファイ
ルを編集して1つのVRMLファイルを生成するモジュ
ールである。これらの格納部には、それぞれ頭部8を正
面からみた正面モデル(サーフェスモデルにテクスチャ
を貼り付けたもの)、左側面から見た左側面モデル、右
側面から見た右側面モデル、後方から見た後頭部モデル
がVRMLにより記述されており、これらを合成して頭
部8の全周に渡る全周モデルを作成することができる。
The synthesizing unit 125 includes the front CG storage unit 121,
This module edits the VRML files stored in the left side CG storage section 122, the right side CG storage section 123, and the occipital CG storage section 124 to generate one VRML file. Each of these storage units has a front view of the head 8 viewed from the front (a surface model with texture attached), a left side view of the left side, a right side view of the right side, and a rear view. The occipital model is described by VRML, and these can be combined to create an all-round model over the entire circumference of the head 8.

【0110】全周モデルを合成する際に、合成に係る各
モデルの3次元空間における位置関係を揃える必要があ
る。このため、各モデルで対応する点を基準点と、この
基準点が一致するように、各モデルを平行移動させるこ
ととした。基準点としては一例として、正面モデルにお
いては両耳の頂点、唇の両端点を、左側面モデル及び右
側面モデルにおいては耳頂点と唇端点を、後頭部モデル
においては両耳頂点を採用した。
When synthesizing the omnidirectional models, it is necessary to align the positional relationship in the three-dimensional space of each model related to the synthesis. For this reason, it was decided to move each model in parallel so that the corresponding point in each model coincides with the reference point. As an example of the reference points, the vertices of both ears and both ends of the lips in the front model, the vertices of the ears and the lip end points in the left side model and the right side model, and the binaural vertices in the occipital model are adopted.

【0111】例えば、正面モデルと左側面モデルを合成
する場合、合成部125は、写真測量部72から正面モ
デルにおける右耳の頂点と唇の左端の点の3次元座標値
と、左側面モデルの左耳頂点と、唇の左端の点の3次元
座標値を受け取り、これらの座標値の差から左側面立体
モデルの平行移動量を算出する。合成部125は、算出
された値を基に左側面モデルを平行移動し、正面モデル
と合成する。合成する際にオーバーラップする部分は重
ねて表示することとした。表示装置に表示する場合、こ
の重なり部分では、より表面に出ている部分が表示され
る。
For example, when synthesizing the front face model and the left side face model, the synthesizing unit 125 uses the photogrammetric unit 72 to calculate the three-dimensional coordinate values of the vertex of the right ear and the left end point of the lip in the front face model and the left side face model. The three-dimensional coordinate values of the left ear vertex and the point at the left end of the lip are received, and the translation amount of the left side stereo model is calculated from the difference between these coordinate values. The synthesizing unit 125 translates the left side face model based on the calculated value and synthesizes the left side face model with the front face model. It was decided to display the overlapping portions when they were combined. In the case of displaying on a display device, in this overlapping portion, a portion that is more exposed is displayed.

【0112】合成部125は、同様にして右側面モデル
を平行移動して正面モデルに合成し、次いで後頭部モデ
ルを平行移動して左側面モデル、右側面モデルに合成す
る。合成部125は、4つのモデルを合成して頭部8の
全周モデルを生成し、これをVRML形式のファイルと
して3DCGデータベース58に出力する。本実施の形
態では、モデルがオーバーラップする部分は重ねて合成
したが、これに限定するものではなく、重なる部分をト
リミング(切り取って除去すること)して、両モデルを
張り合わせても良い。
Similarly, the synthesizing unit 125 translates the right side face model into a front face model and then translates the occipital region model into a left side face model and a right side face model. The synthesizing unit 125 synthesizes the four models to generate an omnidirectional model of the head 8, and outputs this to the 3DCG database 58 as a VRML format file. In the present embodiment, the overlapping portions of the models are combined and synthesized, but the present invention is not limited to this, and the overlapping portions may be trimmed (cut and removed) and the two models may be attached to each other.

【0113】また、モデルの合成については上に述べた
方法の他に基準点の配置により合成する方法がある。こ
の方法では、基準点を同一の座標系に統一することによ
り、絶対標定を行うだけで合成することができる。但
し、重複している部分の切り取りなどの処理が必要な場
合もある。
In addition to the method described above, there is a method of synthesizing models by arranging reference points. In this method, by unifying the reference points in the same coordinate system, it is possible to combine them only by performing absolute orientation. However, in some cases, it is necessary to perform processing such as cutting off the overlapping portion.

【0114】図14は、3DCG作成装置5aの動作を
説明するためのフローチャートである。まず、CPU2
8は、正面ペア画像を画像データベース56から取得す
る(ステップ40)。次に、CPU28は、当該ステレ
オペア画像の対応点の画像上の2次元座標を画像ごとに
算出する(ステップ42)。
FIG. 14 is a flow chart for explaining the operation of the 3DCG creating apparatus 5a. First, CPU2
8 acquires a front pair image from the image database 56 (step 40). Next, the CPU 28 calculates the two-dimensional coordinates on the image of the corresponding points of the stereo pair image for each image (step 42).

【0115】次に、CPU28は、ステレオペア画像上
の対応点を観測点として写真測量を行い、これらの観測
点の3次元座標値を計算する(ステップ44)。次に、
CPU28は、写真測量によって得た3次元情報を用い
て被写体のサーフェスモデルを定義するVRMLファイ
ルを生成する(ステップ46)。また、テクスチャの貼
り付けも行う。
Next, the CPU 28 performs photogrammetry with the corresponding points on the stereo pair image as observation points, and calculates the three-dimensional coordinate values of these observation points (step 44). next,
The CPU 28 creates a VRML file that defines the surface model of the subject using the three-dimensional information obtained by photogrammetry (step 46). Also, paste textures.

【0116】次に、CPU28は、生成したVRMLフ
ァイルをRAM32の所定のエリアに格納する(ステッ
プ48)。次に、CPU28は、全てのステレオペア画
像について以上の処理を行ったかどうか判断する(ステ
ップ50)。なお、ステレオペア画像は、正面ペア画
像、左側面ペア画像、右側面ペア画像、後頭部ペア画像
があり、この順序で処理を行う。
Next, the CPU 28 stores the generated VRML file in a predetermined area of the RAM 32 (step 48). Next, the CPU 28 determines whether the above processing has been performed for all stereo pair images (step 50). Note that stereo pair images include a front pair image, a left side pair image, a right side pair image, and an occipital region pair image, and processing is performed in this order.

【0117】まだ処理していないステレオペア画像があ
る場合は(ステップ50;N)、ステップ40に戻り、
次のステレオペア画像を取得する。全てのステレオペア
画像について処理を終え、これらから生成されるVRM
LファイルをRAM32の所定のエリアに格納した場合
は(ステップ50;Y)、CPU28は、これらのVR
MLファイルをRAM32から読み出し、モデル上に設
定した基準点を基に合成し、頭部8の全周に渡る全周モ
デルを定義するVRMLファイルを生成する(ステップ
52)。次に、CPU28は、ステップ52で生成した
ファイルを3DCGデータベース58に格納する(ステ
ップ54)。
When there is a stereo pair image which has not been processed yet (step 50; N), the process returns to step 40,
Acquire the next stereo pair image. Processing of all stereo pair images is completed, and VRMs generated from these are processed.
When the L file is stored in the predetermined area of the RAM 32 (step 50; Y), the CPU 28 determines whether these VR files are stored.
The ML file is read from the RAM 32, synthesized based on the reference points set on the model, and a VRML file that defines the entire circumference model of the entire head 8 is generated (step 52). Next, the CPU 28 stores the file generated in step 52 in the 3DCG database 58 (step 54).

【0118】本実施の形態で、3DCGデータベース5
8に格納されたVRMLファイルは、インターネットを
介して配信したり、又は磁気ディスクや半導体メモリな
どの記憶媒体に格納することができるなどの点は第1の
実施の形態と同様である。
In the present embodiment, the 3DCG database 5
The VRML file stored in 8 is similar to that of the first embodiment in that it can be distributed via the Internet or stored in a storage medium such as a magnetic disk or a semiconductor memory.

【0119】以上第2の実施の形態では、以下のような
効果を得ることができる。一度の撮影で、頭部8の全周
に渡るステレオペア画像を撮影することができる。頭部
8の顔のみならず、左側面、右側面、後頭部に対しても
写真測量を実行することができ、VRMLファイルにて
正面モデル、左側面モデル、右側面モデル、後頭部モデ
ルを記述することができる。正面モデル、左側面モデ
ル、右側面モデル、後頭部モデルを合成し、頭部8に渡
る全周モデルをVRMLファイルとして出力することが
できる。
As described above, the following effects can be obtained in the second embodiment. It is possible to shoot a stereo pair image over the entire circumference of the head 8 with one shooting. Photogrammetry can be performed not only on the face of the head 8 but also on the left side, right side, and occipital region, and the front model, left side model, right side model, and occipital model can be described in a VRML file. You can The front model, the left side model, the right side model, and the occipital model are combined, and the entire circumference model over the head 8 can be output as a VRML file.

【0120】(第2の実施の形態の変形例)図15
(a)は、収斂撮影を用いて被写体を撮影する場合の撮
影ボックスを示した図である。第2の実施の形態では、
撮影ボックスの四方の壁に2台ずつカメラを平行に設置
し、頭部8を撮影した。このようにカメラを平行に設置
して被写体を同じ方向から撮影する方法を平行撮影と呼
び、高い精度で測量することができる撮影方法である。
一方、被写体を異なった方向から撮影する場合を収斂撮
影と呼ぶ。図15(a)の例では、撮影ボックス200
の4隅にデジタル式のカメラ201a、201b、20
1c、201dが設置されている。このように収斂撮影
を採用することにより、カメラの数を減らすことができ
る。但し、一般に収斂撮影の場合は、並行撮影の場合よ
りも写真測量精度が低下する。
(Modification of Second Embodiment) FIG.
(A) is the figure which showed the photography box at the time of photographing a to-be-photographed object using convergent photography. In the second embodiment,
Two cameras were installed in parallel on each of the four walls of the photographing box, and the head 8 was photographed. Such a method in which the cameras are installed in parallel and the object is imaged from the same direction is called parallel imaging, and it is an imaging method that enables highly accurate surveying.
On the other hand, the case where a subject is photographed from different directions is called convergent photography. In the example of FIG. 15A, the photographing box 200
Digital cameras 201a, 201b, 20 at the four corners of the
1c and 201d are installed. By adopting the convergent shooting as described above, the number of cameras can be reduced. However, generally, in the case of convergent photography, the photogrammetric accuracy is lower than in the case of parallel photography.

【0121】図15(b)は、正面モデルの精度を高め
るためのカメラ配置を示した図である。頭部8の全周モ
デルを作成する場合、正面モデルが最も重要であり、左
側面モデル、右側面モデル、後頭部モデルの精度はさほ
ど要求されない場合がある。撮影ボックス300は、頭
部8の右顔面を並行撮影するカメラ301a、301b
が頭部8の右前方に設置してあり、頭部8の左顔面を並
行撮影するカメラ301c、301dが頭部8の左前方
に設置してある。また、頭部8の後方には頭部8の後頭
部を並行撮影するためのカメラ301e、301fが設
置してある。このように、頭部8の顔を4台のカメラで
並行撮影することにより、より精度の高い正面モデルを
得ることができる。
FIG. 15B is a diagram showing a camera arrangement for enhancing the accuracy of the front model. When creating the all-round model of the head 8, the front model is the most important, and the accuracy of the left side model, the right side model, and the occipital model may not be so demanded. The photographing box 300 includes cameras 301a and 301b for photographing the right face of the head 8 in parallel.
Is installed in front of the head 8 on the right side, and cameras 301c and 301d for capturing the left face of the head 8 in parallel are installed in front of the head 8 on the left. Further, cameras 301e and 301f for parallel photographing of the occipital region of the head 8 are installed behind the head 8. In this way, by capturing the face of the head 8 in parallel with the four cameras, a more accurate front model can be obtained.

【0122】以上、第1の実施の形態、第2の実施の形
態、及び第2の実施の形態の変形例では、以下のような
応用分野が考えられる。 (1)立体撮影ボックス 近年、アミューズメント施設などで自動的にユーザのデ
ジタル写真をとり、これに例えば花の絵などを重ね合わ
せて印刷する娯楽機器が人気を集めている。これと同じ
要領で、ユーザの立体写真を撮影することができる。生
成したユーザの3DCGデータは、例えばユーザの携帯
電話に転送し、液晶画面上に表示できるようにすること
ができる。液晶画面上に表示されたユーザの3DCG
は、携帯電話の所定のボタンを操作することにより、回
転させたり平行移動させたりすることができる。但し、
ユーザの携帯電話には、3DCGを表示するためのビュ
ーアが装備されているものとする。
As described above, in the first embodiment, the second embodiment, and the modification of the second embodiment, the following application fields can be considered. (1) Stereoscopic Shooting Box In recent years, an entertainment device which automatically takes a digital photograph of a user at an amusement facility or the like and prints it by superimposing a picture of a flower on it, for example, has become popular. A user's three-dimensional photograph can be taken in the same manner as this. The generated 3DCG data of the user can be transferred to, for example, the mobile phone of the user and displayed on the liquid crystal screen. User's 3DCG displayed on the LCD screen
Can be rotated or translated by operating a predetermined button on the mobile phone. However,
It is assumed that the user's mobile phone is equipped with a viewer for displaying 3DCG.

【0123】(2)美容院などでのメイクアップ支援 美容院で顧客の頭部の3DCGを作成し、予め用意した
各種髪型データを顧客の3DCGに合成し、ユーザが要
求する髪型を明確化することができる。また、ユーザ
は、各種髪型を3DCGに合成することにより、より好
みの髪型を探索することができる。 (3)指名手配犯の犯人像の3次元化 指名手配犯の3DCGを作成し、これをインターネット
で公開する。ユーザは、インターネット上で指名手配犯
の3DCGを観察することができ、例えば犯人を斜め前
から見たときの印象、斜め後ろから見たときの印象、正
面から見たときの印象などを得ることができる。これに
よって、平面写真からでは得られない犯人の印象を記憶
することができる。
(2) Make-up support at a beauty salon etc. A 3DCG of the head of the customer is created at the beauty salon, and various hairstyle data prepared in advance is synthesized with the 3DCG of the customer to clarify the hairstyle requested by the user. be able to. In addition, the user can search for a hairstyle that he / she prefers by combining various hairstyles into 3DCG. (3) Three-dimensionalization of the criminal image of the wanted criminal 3DCG of the wanted criminal is created and published on the Internet. The user can observe the wanted 3DCG on the Internet, and obtain, for example, the impression of the criminal when viewed from the front obliquely, the impression when viewed obliquely behind, the impression when viewed from the front. You can As a result, it is possible to memorize the impression of the criminal that cannot be obtained from the plane photograph.

【0124】(4)商品カタログの3次元化 インターネット上で商品のカタログを提示する場合に、
これらの商品を3DCG化してユーザに提供する。特に
花瓶やドレスなどの意匠が重要なセールスポイントとな
る商品の場合は、ユーザは、商品を回転させたり、近く
から眺めたり、遠ざけてみたりなど、色々な視点から商
品を観察することができる。また、インターネットに限
らず、商品の3DCGを記憶した記憶媒体を頒布するこ
とにより商品を広告することもできる。
(4) Three-dimensionalization of a product catalog When presenting a product catalog on the Internet,
These products are converted into 3DCG and provided to users. Especially in the case of products whose design point is an important selling point, such as vases and dresses, the user can observe the product from various viewpoints such as rotating the product, looking at it from the near side, and looking away from it. . Further, the product can be advertised by distributing a storage medium storing 3DCG of the product, not limited to the Internet.

【0125】(5)衣類などのイージーオーダー スーツや着物のオーダーメイドなどを行う場合、顧客の
頭部の3DCGを生成し、これにスーツや着物の3DC
Gを重ねあわせることにより、顧客は、衣類を作る前
に、当該衣類をまとった自分を見ることができる。 (6)測量 本実施の形態の写真測量部72を用いることにより、自
由曲面をもった構造物などの測量が汎用デジタルカメラ
で高速に行うことができる。 (7)意匠設計 近年、意匠の設計はCADなどを用いてコンピュータに
より作成する場合が多い。そこで、CADなどで生成し
たデータを本実施の形態の3DCGファイル生成部73
によりVRMLファイルとすれば、意匠の3DCGを観
察することができる。ここで扱う意匠は、建築意匠、屋
内レイアウト、自動車のデザインなど3次元データを取
得することができるものなら3DCG化が可能である。
(5) When ordering an easy-to-order suit such as clothes or a kimono, the 3DCG of the customer's head is generated, and the 3DCG of the suit or kimono is added to this.
By superimposing G, the customer can see himself wearing the garment before making it. (6) Surveying By using the photogrammetry unit 72 of the present embodiment, surveying of a structure having a free-form surface can be performed at high speed by a general-purpose digital camera. (7) Design Design In recent years, design designs are often created by computer using CAD or the like. Therefore, the data generated by CAD or the like is used as the 3DCG file generation unit 73 of the present embodiment.
With the VRML file, the 3DCG of the design can be observed. The design handled here can be converted to 3DCG as long as it can acquire three-dimensional data such as an architectural design, an indoor layout, or a car design.

【0126】[0126]

【発明の効果】本発明によれば、オブジェクトのステレ
オペア画像からオブジェクトを容易に写真測量すること
ができ、更にオブジェクトの3DCGを自動的に生成す
ることができる。
According to the present invention, an object can be easily photogrammetrically measured from a stereo pair image of the object, and a 3DCG of the object can be automatically generated.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施の形態に係る撮影ボックスを示した
図である。
FIG. 1 is a diagram showing a photographing box according to a first embodiment.

【図2】3DCG作成装置の構成の一例を示した図であ
る。
FIG. 2 is a diagram showing an example of a configuration of a 3DCG creating apparatus.

【図3】3DCG作成プログラムのモジュールの構成の
一例を示した図である。
FIG. 3 is a diagram showing an example of a configuration of modules of a 3DCG creation program.

【図4】ステレオペア画像を表した模式図である。FIG. 4 is a schematic diagram showing a stereo pair image.

【図5】顔器官を抽出する際に設定する矩形を示した図
である。
FIG. 5 is a diagram showing a rectangle set when extracting a facial organ.

【図6】ボロノイ領域、及びドロネー分割を説明するた
めの図である。
FIG. 6 is a diagram for explaining Voronoi regions and Delaunay division.

【図7】ステレオペア画像に係る顔を三角ポリゴンで表
したところを表した模式図である。
FIG. 7 is a schematic diagram showing a face of a stereo pair image represented by a triangular polygon.

【図8】3DCG作成装置11の動作を説明するための
フローチャートである。
FIG. 8 is a flowchart for explaining the operation of the 3DCG creation device 11.

【図9】遺伝的アルゴリズムを用いる場合の観測点の組
み合わせを説明するための図である。
FIG. 9 is a diagram for explaining a combination of observation points when a genetic algorithm is used.

【図10】遺伝的操作を繰り返す毎に、遺伝子の適合度
が上昇し、ある値に収束するところを示した図である。
FIG. 10 is a diagram showing that the fitness of a gene increases and converges to a certain value each time a genetic operation is repeated.

【図11】第2の実施形態に係る撮影ボックスの構成を
示した図である。
FIG. 11 is a diagram showing a configuration of a photographing box according to a second embodiment.

【図12】第2の実施の形態におけるステレオペア画像
を示した図である。
FIG. 12 is a diagram showing a stereo pair image according to the second embodiment.

【図13】第2の実施の形態に係る3DCG作成装置の
構成の一例を示した図である。
FIG. 13 is a diagram showing an example of a configuration of a 3DCG creating apparatus according to a second embodiment.

【図14】3DCG作成装置の動作を説明するためのフ
ローチャートである。
FIG. 14 is a flowchart for explaining the operation of the 3DCG creation device.

【図15】第2の実施の形態の変形例に係る撮影ボック
スを示した図である。
FIG. 15 is a diagram showing a photographing box according to a modification of the second embodiment.

【符号の説明】[Explanation of symbols]

6 目線目標線 7 鏡 10 撮影ボックス 11 3DCG作成装置 26 制御部 28 CPU 30 ROM 32 RAM 34 入力手段 38 出力手段 42 通信制御装置 43 バスライン 44 入出力インターフェース 46 記憶媒体駆動装置 48 記憶装置 50 3DCGプログラム 52 カメラデータ 54 カメラ制御プログラム 56 画像データベース 58 3DCGデータベース 61 左カメラ 62 右カメラ 72 写真測量部 73 3DCGファイル生成部 75 画像取得部 77 対応点取得部 78 内部標定部 80 観測点選定部 81 相互標定部 82 絶対標定部 83 評価・判断部 84 準最適解探索部 86 観測点座標計算部 88 ポリゴン生成部 90 VRMLファイル生成部 92 テクスチャ生成部 94 テクスチャ貼り付け部 100 撮影ボックス 101 左カメラ 102 右カメラ 104 左カメラ 105 右カメラ 107 左カメラ 108 右カメラ 121 正面CG格納部 122 左側面CG格納部 123 右側面CG格納部 124 後頭部CG格納部 125 合成部 200 撮影ボックス 300 撮影ボックス 6th line target line 7 mirror 10 shooting box 11 3DCG creation device 26 Control unit 28 CPU 30 ROM 32 RAM 34 Input means 38 Output means 42 Communication control device 43 bus line 44 I / O interface 46 storage medium drive 48 storage 50 3DCG Program 52 camera data 54 Camera Control Program 56 image database 58 3DCG database 61 left camera 62 right camera 72 Photographic Survey Department 73 3DCG file generator 75 Image acquisition unit 77 Corresponding point acquisition part 78 Internal orientation section 80 Observation point selection section 81 Mutual orientation section 82 Absolute orientation section 83 Evaluation / Judgment Department 84 Suboptimal solution search unit 86 Observation point coordinate calculator 88 Polygon generator 90 VRML file generator 92 Texture generator 94 Texture pasting section 100 shooting boxes 101 left camera 102 right camera 104 left camera 105 Right camera 107 left camera 108 Right camera 121 Front CG storage 122 Left side CG storage 123 Right side CG storage 124 Back head CG storage 125 Synthesis Department 200 shooting boxes 300 shooting boxes

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 15/00 300 G06T 17/40 F 5L096 17/40 G01B 11/24 K (71)出願人 501069555 株式会社関西総合情報研究所 大阪府大阪市淀川区宮原5丁目1番28号 新大阪八千代ビル別館3階 (71)出願人 394024477 福井コンピュータ株式会社 福井県福井市高木中央1丁目2501番地 (72)発明者 田中 成典 大阪府吹田市竹見台4丁目7番2−606 (72)発明者 古田 均 京都府宇治市羽戸山2丁目1−246 (72)発明者 北川 悦司 大阪府大阪市淀川区宮原5丁目1番28号 新大阪八千代ビル別館3階 株式会社関西 総合情報研究所内 (72)発明者 中山 浩太郎 大阪府大阪市淀川区宮原5丁目1番28号 新大阪八千代ビル別館3階 株式会社関西 総合情報研究所内 (72)発明者 南 佳孝 大阪府大阪市淀川区宮原5丁目1番28号 新大阪八千代ビル別館3階 株式会社関西 総合情報研究所内 (72)発明者 池辺 正典 大阪府大阪市淀川区宮原5丁目1番28号 新大阪八千代ビル別館3階 株式会社関西 総合情報研究所内 (72)発明者 吉田 博哉 大阪府大阪市淀川区宮原5丁目1番28号 新大阪八千代ビル別館3階 株式会社関西 総合情報研究所内 Fターム(参考) 2F065 AA04 AA53 BB05 CC16 DD06 FF05 JJ03 JJ05 JJ26 PP12 QQ03 QQ24 QQ27 QQ28 QQ32 QQ36 QQ41 SS02 SS06 SS13 2F112 AC06 BA05 CA08 DA28 FA03 FA07 FA21 FA31 FA38 FA41 FA45 FA50 5B050 AA09 BA04 BA09 BA15 DA07 EA05 EA26 FA02 FA06 5B057 AA20 CA12 CB13 CD14 CH01 DA07 DC05 DC34 5B080 AA13 GA22 5L096 BA20 DA04 FA09 FA69 FA76 JA11 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 15/00 300 G06T 17/40 F 5L096 17/40 G01B 11/24 K (71) Applicant 501069555 Co., Ltd. Kansai Research Institute, Osaka Prefecture, Osaka City Yodogawa-ku 5-chome 1-28 Shin-Osaka Yachiyo Building Annex 3F (71) Applicant 394024477 Fukui Computer Co., Ltd. Fukui-City Fukui-Chuo 1250-1 (72) Inventor Shigenori Tanaka 4-7-1 Takemidai, Suita-shi, Osaka 2-606 (72) Inventor Hitoshi Furuta 2-1-246, Hatoyama, Uji-shi, Kyoto (72) Inventor Etsushi Kitagawa 5-chome, Miyahara, Yodogawa-ku, Osaka-shi, Osaka No. 28 Shin-Osaka Yachiyo Building Annex 3F Kansai Research Institute (72) Inventor Kotaro Nakayama 5 Miyahara, Yodogawa-ku, Osaka-shi, Osaka No. 1-28 Shin-Osaka Yachiyo Building Annex 3F Kansai Research Institute (72) Inventor Yoshitaka Minami 5-1-2 Miyahara, Yodogawa-ku, Osaka-shi Osaka Prefecture Kansai Sogo Inc. 3F In-house (72) Inventor Masanori Ikebe 5-1-2 Miyahara, Yodogawa-ku, Osaka-shi, Osaka 3rd floor, Annex, Shin-Osaka Yachiyo Building Kansai Co., Ltd. Inside Information Laboratory (72) Hiroya Yoshida, Yodogawa-ku, Osaka-shi, Osaka Miyahara 5-1-28 Shin-Osaka Yachiyo Building Annex 3F Kansai Research Institute F-Term (reference) 2F065 AA04 AA53 BB05 CC16 DD06 FF05 JJ03 JJ05 JJ26 PP12 QQ03 QQ24 QQ27 QQ28 QQ32 QQ36 QQ41 SS02 SS06 SS13 2F112 AC06 2 CA08 DA28 FA03 FA07 FA21 FA31 FA38 FA41 FA45 FA50 5B050 AA09 BA04 BA09 BA15 DA07 EA05 EA26 FA02 FA06 5B057 AA20 CA12 CB13 CD14 CH01 DA07 DC05 DC34 5B080 AA13 GA22 5L096 BA20 DA04 FA09 FA69 FA76 JA11

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 被写体を所定の方向から撮影した第1の
画像を取得する第1の画像取得手段と、 前記被写体を前記所定の方向とは異なった方向から撮影
した第2の画像を取得する第2の画像取得手段と、 前記第1の画像から前記被写体の特徴的な点を抽出し、
かつ前記第2の画像から前記被写体の特徴的な点を抽出
し、前記第1の画像から抽出した点と、前記第2の画像
から抽出した点を対応させる対応点抽出手段と、 前記抽出した点の前記第1の画像上での2次元座標値と
前記第2の画像上での2次元座標値を用いて、前記被写
体を写真測量し、前記被写体の3次元情報を取得する写
真測量手段と、 を具備したことを特徴とする画像処理装置。
1. A first image acquisition unit for acquiring a first image of a subject photographed from a predetermined direction, and a second image of the subject photographed from a direction different from the predetermined direction. Second image acquisition means, extracting characteristic points of the subject from the first image,
And a corresponding point extracting unit that extracts the characteristic points of the subject from the second image and associates the points extracted from the first image with the points extracted from the second image. Photogrammetric means for photogrammetrically measuring the subject and acquiring three-dimensional information of the subject using the two-dimensional coordinate values of the points on the first image and the two-dimensional coordinate values on the second image. An image processing apparatus comprising:
【請求項2】 前記第1の画像及び前記第2の画像は、
特徴的な特徴点の分布の傾向が予め分かっている被写体
を、前記被写体に対して所定の位置から撮影した画像で
あって、前記第1の画像及び前記第2の画像中に記録さ
れる前記特徴点の分布の傾向は分かっており、 前記対応点抽出手段は、前記被写体の特徴点の予め分か
っている分布の傾向を用いて前記第1の画像と前記第2
の画像から抽出した特徴点を対応付けることを特徴とす
る請求項1に記載の画像処理装置。
2. The first image and the second image are
An image obtained by photographing a subject whose distribution of characteristic feature points is known in advance from a predetermined position with respect to the subject, the image being recorded in the first image and the second image. The tendency of the distribution of the characteristic points is known, and the corresponding point extracting means uses the known tendency of the distribution of the characteristic points of the subject to obtain the first image and the second image.
The image processing apparatus according to claim 1, wherein the feature points extracted from the image are associated with each other.
【請求項3】 前記写真測量手段は、 前記対応点取得手段にて取得した点から点の組み合わせ
を複数生成する組み合わせ生成手段と、 前記生成された組み合わせの個々について標定する標定
手段と、 前記標定結果の収束を判断する収束判断手段と、 前記収束判断手段で前記計算値が収束したと判断される
まで、遺伝的アルゴリズムにおける遺伝的操作によっ
て、前記組み合わせを更新する更新手段と、 を具備したことを特徴とする請求項1又は請求項2に記
載の画像処理装置。
3. The photogrammetric means includes combination generating means for generating a plurality of point combinations from the points acquired by the corresponding point acquiring means, orientation means for orienting each of the generated combinations, and the orientation Convergence determining means for determining the convergence of the result, and updating means for updating the combination by a genetic operation in a genetic algorithm until the convergence determining means determines that the calculated value has converged. The image processing apparatus according to claim 1 or 2, wherein
【請求項4】 前記写真測量手段で得られた測量結果を
用いて、前記被写体の立体モデルを生成するためのポリ
ゴンを生成するポリゴン生成手段と、を更に具備したこ
とを特徴とする請求項1、請求項2又は請求項3に記載
の画像処理装置。
4. A polygon generating means for generating a polygon for generating a three-dimensional model of the subject using the surveying result obtained by the photogrammetric means, and further comprising: The image processing apparatus according to claim 2 or claim 3.
【請求項5】 前記ポリゴン生成手段は、 写真測量により3次元座標値が分かっている被写体上の
点からボロノイを生成するボロノイ領域生成手段と、 前記生成されたボロノイ領域をドロネー分割してポリゴ
ンを生成するドロネー分割手段と、 を具備したことを特徴とする請求項4に記載の画像処理
装置。
5. The polygon generating means includes Voronoi area generating means for generating Voronoi from points on a subject whose three-dimensional coordinate values are known by photogrammetry, and the generated Voronoi area is Delaunay divided to form polygons. The image processing apparatus according to claim 4, further comprising a Delaunay dividing unit that generates the image.
【請求項6】 前記生成されたポリゴンにて表現された
前記被写体の立体モデルを所定のコンピュータ言語で記
述する記述手段と、 前記記述手段にて記述された内容を所定のファイルにて
出力する出力手段と、を更に具備したことを特徴とする
請求項4又は請求項5に記載の画像処理装置。
6. A description means for describing the three-dimensional model of the subject represented by the generated polygon in a predetermined computer language, and an output for outputting the contents described by the description means in a predetermined file. An image processing apparatus according to claim 4, further comprising: a means.
【請求項7】 前記被写体の立体モデルにマッピングす
るテクスチャを前記第1の画像又は第2の画像の少なく
とも一方から取得するテクスチャ取得手段と、 前記テクスチャ取得手段にて取得したテクスチャを前記
被写体の立体モデルにマッピングし、前記ファイルを更
新する更新手段と、 を更に具備したことを特徴とする請求項6に記載の画像
処理装置。
7. A texture acquisition unit for acquiring a texture to be mapped to the stereo model of the subject from at least one of the first image and the second image; and a texture acquired by the texture acquisition unit for the stereo of the subject. The image processing apparatus according to claim 6, further comprising: an updating unit that maps the model and updates the file.
【請求項8】 前記所定のコンピュータ言語はVRML
であることを特徴とする請求項6又は請求項7に記載の
画像処理装置。
8. The predetermined computer language is VRML
The image processing apparatus according to claim 6 or 7, wherein
【請求項9】 被写体を所定の方向から撮影した第1の
画像を取得する第1の画像取得機能と、 前記被写体を前記所定の方向とは異なった方向から撮影
した第2の画像を取得する第2の画像取得機能と、前記
第1の画像から前記被写体の特徴的な点を抽出し、かつ
前記第2の画像から前記被写体の特徴的な点を抽出し、
前記第1の画像から抽出した点と、前記第2の画像から
抽出した点を対応させる対応点抽出機能と、 前記抽出した点の前記第1の画像上での2次元座標値と
前記第2の画像上での2次元座標値を用いて、前記被写
体を写真測量し、前記被写体の3次元情報を取得する写
真測量機能とを具備したことを特徴とする画像処理プロ
グラム。
9. A first image acquisition function for acquiring a first image obtained by photographing a subject from a predetermined direction, and a second image obtained by photographing the subject from a direction different from the predetermined direction. A second image acquisition function, extracting characteristic points of the subject from the first image, and extracting characteristic points of the subject from the second image,
A corresponding point extraction function that associates the points extracted from the first image with the points extracted from the second image; two-dimensional coordinate values of the extracted points on the first image; An image processing program, comprising: a photogrammetric function of photogrammetrically measuring the subject and acquiring three-dimensional information of the subject using the two-dimensional coordinate values on the image.
JP2001283214A 2001-09-18 2001-09-18 Image processing apparatus and image processing program Pending JP2003090714A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001283214A JP2003090714A (en) 2001-09-18 2001-09-18 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001283214A JP2003090714A (en) 2001-09-18 2001-09-18 Image processing apparatus and image processing program

Publications (1)

Publication Number Publication Date
JP2003090714A true JP2003090714A (en) 2003-03-28

Family

ID=19106736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001283214A Pending JP2003090714A (en) 2001-09-18 2001-09-18 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP2003090714A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100612890B1 (en) 2005-02-17 2006-08-14 삼성전자주식회사 Method and apparatus for expressing multiple special effects of 3D images
JP2007518970A (en) * 2003-11-21 2007-07-12 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting occupant and head poses using a stereo detector
JP2007249591A (en) * 2006-03-15 2007-09-27 Japan Science & Technology Agency 3D shape model generation system
JP2007272318A (en) * 2006-03-30 2007-10-18 Rozefu Technol:Kk Processing method of personal photographic image
WO2009025323A1 (en) * 2007-08-22 2009-02-26 Katsunori Shimomura Three-dimensional image data creating system and creating method
JP2009075825A (en) * 2007-09-20 2009-04-09 Tokyo Univ Of Science Image geometric distortion correction method, program, and image geometric distortion correction apparatus
WO2009116663A1 (en) * 2008-03-21 2009-09-24 Takahashi Atsushi Three-dimensional digital magnifier operation supporting system
JP2009277205A (en) * 2008-05-15 2009-11-26 Kazuo Aisaka Image recognition method
CN102236911A (en) * 2010-03-17 2011-11-09 卡西欧计算机株式会社 3d modeling apparatus and 3d modeling method
JP2011252917A (en) * 2011-07-20 2011-12-15 Japan Atomic Energy Agency Method for arranging marker in on-site operation support system
JP2012156961A (en) * 2011-01-28 2012-08-16 Hitachi Solutions Ltd Stereoscopic image processing system, stereoscopic image processing device, and stereoscopic image processing method
KR102006593B1 (en) * 2019-03-22 2019-08-01 학교법인 정화예술대학 Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this
CN112765367A (en) * 2021-01-28 2021-05-07 杭州泰一指尚科技有限公司 Method and device for constructing theme knowledge graph
CN118967818A (en) * 2024-10-10 2024-11-15 浙江华锐捷技术有限公司 A method for collecting line of sight data, electronic device and computer-readable storage medium

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0755469A (en) * 1993-08-11 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> Multi-view stereo image measurement method
JPH08122030A (en) * 1994-10-20 1996-05-17 Canon Inc Three-dimensional image forming method and apparatus
JPH09138865A (en) * 1995-11-14 1997-05-27 Minolta Co Ltd Three-dimensional shape data processor
JPH09251534A (en) * 1996-03-18 1997-09-22 Toshiba Corp Person authentication device and person authentication method
JPH1163927A (en) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd Head position and posture measuring device, and operation monitoring device
JP2000099741A (en) * 1998-09-25 2000-04-07 Atr Media Integration & Communications Res Lab Method for estimating personal three-dimensional posture by multi-eye image processing
JP2000097676A (en) * 1998-09-24 2000-04-07 Sanyo Electric Co Ltd Method and apparatus for detecting direction of face
JP2000099738A (en) * 1998-09-28 2000-04-07 Sony Corp Information recording apparatus and method, measuring apparatus and method, image processing apparatus and method, image processing system, and providing medium
JP2000106681A (en) * 1998-09-28 2000-04-11 Sony Corp Image printing apparatus and image printing method
JP2001022936A (en) * 1999-07-08 2001-01-26 Fujitsu Ltd 3D shape generator
JP2001067463A (en) * 1999-06-22 2001-03-16 Nadeisu:Kk Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
JP2001229402A (en) * 2000-02-16 2001-08-24 Mitsubishi Electric Corp Three-dimensional image display device, three-dimensional image display method, and computer-readable recording medium storing a program for causing a computer to execute the method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0755469A (en) * 1993-08-11 1995-03-03 Nippon Telegr & Teleph Corp <Ntt> Multi-view stereo image measurement method
JPH08122030A (en) * 1994-10-20 1996-05-17 Canon Inc Three-dimensional image forming method and apparatus
JPH09138865A (en) * 1995-11-14 1997-05-27 Minolta Co Ltd Three-dimensional shape data processor
JPH09251534A (en) * 1996-03-18 1997-09-22 Toshiba Corp Person authentication device and person authentication method
JPH1163927A (en) * 1997-08-27 1999-03-05 Mitsubishi Heavy Ind Ltd Head position and posture measuring device, and operation monitoring device
JP2000097676A (en) * 1998-09-24 2000-04-07 Sanyo Electric Co Ltd Method and apparatus for detecting direction of face
JP2000099741A (en) * 1998-09-25 2000-04-07 Atr Media Integration & Communications Res Lab Method for estimating personal three-dimensional posture by multi-eye image processing
JP2000099738A (en) * 1998-09-28 2000-04-07 Sony Corp Information recording apparatus and method, measuring apparatus and method, image processing apparatus and method, image processing system, and providing medium
JP2000106681A (en) * 1998-09-28 2000-04-11 Sony Corp Image printing apparatus and image printing method
JP2001067463A (en) * 1999-06-22 2001-03-16 Nadeisu:Kk Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
JP2001022936A (en) * 1999-07-08 2001-01-26 Fujitsu Ltd 3D shape generator
JP2001229402A (en) * 2000-02-16 2001-08-24 Mitsubishi Electric Corp Three-dimensional image display device, three-dimensional image display method, and computer-readable recording medium storing a program for causing a computer to execute the method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169957A (en) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc How to test image pairs
JP2007518970A (en) * 2003-11-21 2007-07-12 シーメンス コーポレイト リサーチ インコーポレイテツド System and method for detecting occupant and head poses using a stereo detector
JP2009169958A (en) * 2003-11-21 2009-07-30 Siemens Corporate Res Inc Method for detecting vehicle occupants
KR100612890B1 (en) 2005-02-17 2006-08-14 삼성전자주식회사 Method and apparatus for expressing multiple special effects of 3D images
JP2007249591A (en) * 2006-03-15 2007-09-27 Japan Science & Technology Agency 3D shape model generation system
JP2007272318A (en) * 2006-03-30 2007-10-18 Rozefu Technol:Kk Processing method of personal photographic image
WO2009025323A1 (en) * 2007-08-22 2009-02-26 Katsunori Shimomura Three-dimensional image data creating system and creating method
JP2009047642A (en) * 2007-08-22 2009-03-05 Katsunori Shimomura Three-dimensional image data generation system and generation method
JP2009075825A (en) * 2007-09-20 2009-04-09 Tokyo Univ Of Science Image geometric distortion correction method, program, and image geometric distortion correction apparatus
WO2009116663A1 (en) * 2008-03-21 2009-09-24 Takahashi Atsushi Three-dimensional digital magnifier operation supporting system
JP2009277205A (en) * 2008-05-15 2009-11-26 Kazuo Aisaka Image recognition method
CN102236911A (en) * 2010-03-17 2011-11-09 卡西欧计算机株式会社 3d modeling apparatus and 3d modeling method
JP2012156961A (en) * 2011-01-28 2012-08-16 Hitachi Solutions Ltd Stereoscopic image processing system, stereoscopic image processing device, and stereoscopic image processing method
JP2011252917A (en) * 2011-07-20 2011-12-15 Japan Atomic Energy Agency Method for arranging marker in on-site operation support system
KR102006593B1 (en) * 2019-03-22 2019-08-01 학교법인 정화예술대학 Digital waorking system for special makeup using photogrammetry and 3d printer and the digital working method using this
CN112765367A (en) * 2021-01-28 2021-05-07 杭州泰一指尚科技有限公司 Method and device for constructing theme knowledge graph
CN112765367B (en) * 2021-01-28 2023-06-30 浙江富润数链科技有限公司 Method and device for constructing topic knowledge graph
CN118967818A (en) * 2024-10-10 2024-11-15 浙江华锐捷技术有限公司 A method for collecting line of sight data, electronic device and computer-readable storage medium

Similar Documents

Publication Publication Date Title
JP5093053B2 (en) Electronic camera
JP3288353B2 (en) How to create a 3D face model starting from a face image
CN111768496B (en) Image processing method, device, server and computer readable storage medium
JP3634677B2 (en) Image interpolation method, image processing method, image display method, image processing apparatus, image display apparatus, and computer program storage medium
JP4804256B2 (en) Information processing method
JP4679033B2 (en) System and method for median fusion of depth maps
CN112669447A (en) Model head portrait creating method and device, electronic equipment and storage medium
JP2023514289A (en) 3D face model construction method, 3D face model construction device, computer equipment, and computer program
JP7234264B2 (en) MIXED REALITY DISPLAY DEVICE AND MIXED REALITY DISPLAY METHOD
JP2006053694A (en) Space simulator, space simulation method, space simulation program, recording medium
JP5299173B2 (en) Image processing apparatus, image processing method, and program
JP5842541B2 (en) 3D portrait creation device
JP2002133446A (en) Face image processing method and system
JP2003090714A (en) Image processing apparatus and image processing program
JP2002058045A (en) System and method for causing a real object to appear in a virtual three-dimensional space
CN108537126B (en) Face image processing method
JP4284664B2 (en) Three-dimensional shape estimation system and image generation system
JP2010128742A (en) Three-dimensional data creation device
CN113989434B (en) A method and device for three-dimensional reconstruction of human body
JP2001022936A (en) 3D shape generator
CN110291560A (en) Method for creating a three-dimensional virtual representation of a person
WO2019123547A1 (en) Image generator, reference image data generator, image generation method, and reference image data generation method
CN112561784A (en) Image synthesis method, image synthesis device, electronic equipment and storage medium
JP2002245438A (en) Three-dimensional computer graphics creation support device, three-dimensional computer graphics creation support method, and three-dimensional computer graphics creation support program
KR100515085B1 (en) System and method for acquiring a 3D face digital data from 2D photograph

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20061206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110415