[go: up one dir, main page]

JPH11185059A - Three-dimensional shaped data processor and modeling system - Google Patents

Three-dimensional shaped data processor and modeling system

Info

Publication number
JPH11185059A
JPH11185059A JP9350394A JP35039497A JPH11185059A JP H11185059 A JPH11185059 A JP H11185059A JP 9350394 A JP9350394 A JP 9350394A JP 35039497 A JP35039497 A JP 35039497A JP H11185059 A JPH11185059 A JP H11185059A
Authority
JP
Japan
Prior art keywords
dimensional
model
data
shape
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9350394A
Other languages
Japanese (ja)
Inventor
Shinichi Ban
慎一 伴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP9350394A priority Critical patent/JPH11185059A/en
Priority to US09/198,534 priority patent/US7068835B1/en
Publication of JPH11185059A publication Critical patent/JPH11185059A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To permit creation of a model on the shape of which visual characteristics of an object are reflected and exaggerated if necessary. SOLUTION: Characteristic areas a1 to a4 in first classification to satisfy a first setting condition are extracted from a two-dimensional image G2 formed by picking up the object, characteristic areas b1, b2 in second classification to satisfy a second setting condition are extracted from a distance image G3 obtained by three-dimensional measurement for the object and data correction to deform a part corresponding to the extracted characteristics areas in the first classification and the second classification is added to a shape model of the object obtained by the three-dimensional measurement.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、実存する物体の模
型を作成するための3次元形状データ処理に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to three-dimensional shape data processing for creating a model of an existing object.

【0002】[0002]

【従来の技術】可搬型の非接触式3次元計測装置(3次
元カメラ)が商品化され、CGシステムやCADシステ
ムへのデータ入力、身体計測、ロボットの視覚認識など
に利用されている。非接触の計測方法としては、スリッ
ト光投影法(光切断法)が一般的であるが、他にもパタ
ーン光投影法、ステレオ視法、干渉縞法などが知られて
いる。
2. Description of the Related Art A portable non-contact type three-dimensional measuring device (three-dimensional camera) has been commercialized and used for data input to a CG system or a CAD system, body measurement, visual recognition of a robot, and the like. As a non-contact measurement method, a slit light projection method (light cutting method) is generally used, but a pattern light projection method, a stereo vision method, an interference fringe method, and the like are also known.

【0003】また、パーソナルコンピュータで利用可能
な3次元CGソフトウェア、及びホビー用の小型の3次
元切削マシンが市販されている。これらを用いれば、一
般家庭でも模型や創作物を手軽に製作することができ
る。
[0003] Also, three-dimensional CG software that can be used in personal computers and small three-dimensional cutting machines for hobbies are commercially available. If these are used, models and creations can be easily manufactured even in ordinary households.

【0004】一方、利用客の顔写真シールをその場で作
成する一種の自動販売機が人気を集めている。利用客は
料金分の硬貨を投入し、モニタ画面を見ながらカメラの
前で好みのポーズをとる。そして、所定の操作を行う
と、一定数のシールが並んだシートが作成されて取出口
に排出される。大半の機種では、顔写真の形状や写し込
み模様などについて複数の選択肢が設けられている。
[0004] On the other hand, a kind of vending machine for creating a face photograph sticker of a customer on the spot is gaining in popularity. The customer inserts coins for the fee and takes a desired pose in front of the camera while watching the monitor screen. Then, when a predetermined operation is performed, a sheet on which a fixed number of seals are arranged is created and discharged to an outlet. Most models have multiple options for the shape of the facial photograph, the imprint pattern, and the like.

【0005】[0005]

【発明が解決しようとする課題】上述の3次元計測装置
によれば、写真をとるのと同程度の手軽さで人体を含む
各種物体の形状をデータ化することができる。非接触式
であるので、人体を計測する場合であっても、計測対象
者が煩わしさを感じることはない。そこで、この3次元
計測装置を顔写真ならぬ顔面模型の作成に利用すること
が考えられる。つまり、3次元加工機と組み合わせれ
ば、人物の顔を計測してその場で適当な倍率の模型を作
成することが可能である。
According to the above-described three-dimensional measuring apparatus, the shapes of various objects including a human body can be converted into data with the same ease as taking a photograph. Since it is a non-contact type, even when measuring a human body, the person to be measured does not feel troublesome. Therefore, it is conceivable to use this three-dimensional measuring device for creating a facial model that is not a facial photograph. That is, when combined with a three-dimensional processing machine, it is possible to measure a person's face and create a model with an appropriate magnification on the spot.

【0006】しかし、非接触の3次元計測では、形状的
に他と区別されない顔の要素が模型に現れないことにな
る。例えば、眼球のうちのいわゆる黒目部分は顔を特徴
づける重要な要素であるにも係わらず白目部分と区別さ
れない。化粧用具で描かれた眉も額と同化してしまう。
[0006] However, in the non-contact three-dimensional measurement, no facial element indistinguishable in shape does not appear on the model. For example, the so-called iris portion of the eyeball is not distinguished from the iris portion even though it is an important element characterizing the face. Eyebrows drawn with makeup tools also assimilate with the forehead.

【0007】一方、顔の起伏を忠実に再現した模型に当
の本人が違和感をもつことがある。これは、暖色系の唇
が実際よりも盛り上がって見えるというように、起伏の
知覚には色彩が影響するからである。形状が忠実であっ
ても、無着色の模型は見慣れた顔と比べて平坦に見えて
しまう。また、意図的に顔の要素を誇張した模型が好ま
れたり、鼻を実際より少し高くした模型が喜ばれたりす
る。
[0007] On the other hand, there is a case where the person himself has a sense of incompatibility with a model that faithfully reproduces the undulation of the face. This is because the color affects the perception of undulation, such as the warm-colored lips appearing more raised than they actually are. Even though the shape is faithful, the uncolored model looks flatter than a familiar face. Also, a model that intentionally exaggerates facial elements is preferred, and a model whose nose is slightly higher than the actual one is delighted.

【0008】つまり、人の顔面の模型を作成する場合に
は、3次元計測で得られた形状モデルのうち、目、黒
目、唇、鼻などの顔の要素の部分について修正が必要と
なる。本発明は、物体の視覚上の特徴が形状に反映し且
つ必要に応じて誇張された模型の作成を可能にすること
を目的としている。
In other words, when creating a model of a human face, it is necessary to correct the face elements such as the eyes, irises, lips, and nose in the shape model obtained by the three-dimensional measurement. It is an object of the present invention to allow the visual features of an object to be reflected in the shape and, if necessary, to create an exaggerated model.

【0009】[0009]

【課題を解決するための手段】本発明においては、物体
の2次元撮影情報及び3次元計測で得られた距離画像の
両方を用いて部分を特定し、局部的に強調した形状モデ
ルを生成する。
According to the present invention, a portion is specified using both two-dimensional photographing information of an object and a range image obtained by three-dimensional measurement, and a shape model that is locally emphasized is generated. .

【0010】請求項1の発明に係る装置は、物体を撮影
した2次元画像から第1設定条件を満たす第1分類の特
徴領域を抽出し、前記物体に対する3次元計測によって
得られた距離画像から第2設定条件を満たす第2分類の
特徴領域を抽出し、前記3次元計測によって得られた前
記物体の形状モデルに対して、抽出された第1分類及び
第2分類の特徴領域に対応する部分を変形するデータ修
正を加えるものである。
According to a first aspect of the present invention, a first-class characteristic region satisfying a first set condition is extracted from a two-dimensional image obtained by photographing an object, and extracted from a distance image obtained by three-dimensional measurement of the object. A feature area of a second classification that satisfies a second setting condition is extracted, and a part corresponding to the extracted feature area of the first and second classifications is extracted from the shape model of the object obtained by the three-dimensional measurement. Is modified to modify the data.

【0011】請求項2の発明に係る3次元形状データ処
理装置は、前記第1分類の特徴領域の抽出に際して、前
記物体における陰の部分についてはその周囲の画像情報
を参照して領域分割を行うものである。
In the three-dimensional shape data processing apparatus according to the second aspect of the present invention, at the time of extracting the feature area of the first classification, a shaded part of the object is divided by referring to image information around the shaded part. Things.

【0012】請求項3の発明に係るモデリングシステム
は、物体を撮影する光電変換装置と、前記物体の形状を
計測する3次元計測装置と、前記光電変換装置によって
得られた前記物体の2次元画像、及び前記3次元計測装
置によって得られた距離画像に基づいて、前記3次元計
測装置によって得られた前記物体の形状モデルに対して
データ修正を加える3次元形状データ処理装置と、を備
えている。
According to a third aspect of the present invention, there is provided a modeling system comprising: a photoelectric conversion device for photographing an object; a three-dimensional measuring device for measuring a shape of the object; and a two-dimensional image of the object obtained by the photoelectric conversion device. And a three-dimensional shape data processing device for correcting data on the shape model of the object obtained by the three-dimensional measurement device based on the distance image obtained by the three-dimensional measurement device. .

【0013】[0013]

【発明の実施の形態】図1は本発明に係る立体模型作成
装置1の外観図である。立体模型作成装置1は、物体形
状を計測し、その計測データに基づいて素材をその場で
加工する機能を有しており、利用客の顔をかたどった小
物品の自動販売機として使用される。作成される物品
は、所定形状(例えば四角形)の板面から顔面の模型が
突き出た立体である。板面(背景部分)に特定の起伏模
様を付加することも可能である。このような物品に適当
な金具を取り付ければ、ペンダント、ブローチ、キーホ
ルダなどのアクセサリーとなる。予め素材に金具を取り
付けておいてもよい。
FIG. 1 is an external view of a three-dimensional model forming apparatus 1 according to the present invention. The three-dimensional model creation device 1 has a function of measuring the shape of an object and processing the material on the spot based on the measurement data, and is used as a vending machine for small articles in the shape of a customer's face. . The created article is a three-dimensional object in which a model of the face protrudes from a plate of a predetermined shape (for example, a square). It is also possible to add a specific undulating pattern to the plate surface (background portion). If an appropriate metal fitting is attached to such an article, it becomes an accessory such as a pendant, a broach, or a key holder. A metal fitting may be attached to the material in advance.

【0014】ほぼ等身大の筐体10の上半部の前面に、
利用客がポーズを確認するためのディスプレイ16とと
もに、光学式3次元計測のための投光窓12及び受光窓
14が設けられている。受光窓14は2次元のカラー撮
影にも用いられる。筐体10の下半部は上半部よりも前
方側に張り出しており、その上面が操作パネル18とな
っている。商品の取出口20は下半部の前面に設けられ
ている。
On the front surface of the upper half of the substantially life-size housing 10,
A light emitting window 12 and a light receiving window 14 for optical three-dimensional measurement are provided together with a display 16 for a user to check a pose. The light receiving window 14 is also used for two-dimensional color photography. The lower half of the housing 10 projects forward from the upper half, and the upper surface thereof is an operation panel 18. The product outlet 20 is provided on the front surface of the lower half.

【0015】利用客は立体模型作成装置1に向かって立
ち、料金分の硬貨を投入する。その後に利用客がスター
ト操作を行うと、立体模型作成装置1は正面の一定範囲
内に存在する物体の形状を計測するとともに、計測結果
を示す3次元形状モデル(例えばサーフェスモデル)を
表示する。そして、利用客が構図の決定を指示する確認
操作を行うと、立体模型作成装置1は計測結果に応じた
3次元加工を開始する。数分程度の時間で商品が完成す
る。利用客は取出口20から商品を取り出す。
The user stands toward the three-dimensional model forming device 1 and inserts coins for the fee. Thereafter, when the user performs a start operation, the three-dimensional model creation device 1 measures the shape of the object existing within a certain range in front and displays a three-dimensional shape model (for example, a surface model) indicating the measurement result. Then, when the user performs a confirmation operation for instructing determination of the composition, the three-dimensional model creation device 1 starts three-dimensional processing according to the measurement result. The product is completed in a matter of minutes. The user takes out the product from the outlet 20.

【0016】図2は操作パネル18の平面図である。操
作パネル18には、スタートボタン181、確認ボタン
182、キャンセルボタン183、ジョイスティック1
84、及び硬貨の投入口185が設けられている。スタ
ートボタン181はスタート操作手段であり、確認ボタ
ン182は確認操作手段である。ジョイスティック18
4は模型の構図の変更指示に用いられる。左右に傾ける
パーン操作、上下に傾けるチルト操作、及びノブを回転
させるロール操作に呼応して3次元形状モデルの回転処
理が行われ、処理結果が逐次に表示される。また、キャ
ンセルボタン183は、利用客が表示された3次元形状
モデルが気に入らないときなどに再計測を指示するため
の操作手段である。ただし、キャンセルボタン183に
は有効回数が設定されており、無制限に再計測を指示す
ることはできない。
FIG. 2 is a plan view of the operation panel 18. The operation panel 18 includes a start button 181, a confirmation button 182, a cancel button 183, a joystick 1
84 and a coin slot 185 are provided. The start button 181 is a start operation unit, and the confirmation button 182 is a confirmation operation unit. Joystick 18
Reference numeral 4 is used for changing the composition of the model. Rotation processing of the three-dimensional shape model is performed in response to a pan operation for tilting left and right, a tilt operation for tilting up and down, and a roll operation for rotating a knob, and the processing results are sequentially displayed. The cancel button 183 is an operation unit for instructing re-measurement when the user does not like the displayed three-dimensional shape model. However, the number of valid times is set in the cancel button 183, and it is not possible to instruct re-measurement without any restriction.

【0017】図3は立体模型作成装置1の機能ブロック
図である。立体模型作成装置1は、模型サイズの3次元
形状モデルを生成するモデリングシステム1Aと、3次
元形状モデルを顕在化する加工システム1Bとから構成
されている。
FIG. 3 is a functional block diagram of the three-dimensional model creation device 1. The three-dimensional model creation device 1 includes a modeling system 1A that generates a three-dimensional shape model having a model size, and a processing system 1B that makes the three-dimensional shape model visible.

【0018】モデリングシステム1Aは、オリジナル物
体である利用客の外観情報をディジタルデータに変換
(データ化)する撮影システム30を含んでいる。撮影
システム30は、スリット光投影法で形状情報をデータ
化する3次元計測装置34、色情報をデータ化する2次
元撮影装置36、及びコントローラ38からなる。な
お、3次元計測にスリット光投影法に代えて他の手法を
用いてもよい。3次元計測装置34による計測情報であ
る形状データDS、及び2次元撮影装置36による撮影
情報であるカラー画像データDCはデータ処理装置40
に入力される。3次元計測と2次元撮影とのカメラ座標
の相対関係は既知であるので、形状データDSに基づく
3次元形状モデルと2次元撮影像とを位置合わせするこ
とは容易である。例えば特開平9−145319号公報
に示された3次元入力装置のように構成すれば2次元撮
影と3次元計測とが同じ視点で行えるので、この位置合
わせはより容易に行うことができる。データ処理装置4
0は図示しない画像処理回路を備えており、本発明に特
有のデータ修正を含む各種のデータ処理を行う。データ
処理装置40のコントローラ42は、立体模型作成装置
1の全体的な制御をも担い、撮影システム30のコント
ローラ38及び加工システム1Bのコントローラ76に
適切な指示を与える。このコントローラ42には、ディ
スプレイ16及び操作入力システム80が接続されてい
る。操作入力システム80は、上述の操作パネル18と
料金受領機構とからなる。
The modeling system 1A includes a photographing system 30 for converting (converting) the appearance information of a user who is an original object into digital data. The imaging system 30 includes a three-dimensional measurement device 34 for converting shape information into data by a slit light projection method, a two-dimensional imaging device 36 for converting color information into data, and a controller 38. Note that other methods may be used for the three-dimensional measurement instead of the slit light projection method. The shape data DS, which is information measured by the three-dimensional measuring device 34, and the color image data DC, which is image information obtained by the two-dimensional image capturing device 36,
Is input to Since the relative relationship between the camera coordinates of the three-dimensional measurement and the two-dimensional imaging is known, it is easy to align the three-dimensional shape model based on the shape data DS with the two-dimensional image. For example, if the apparatus is configured as a three-dimensional input device disclosed in Japanese Patent Application Laid-Open No. 9-145319, two-dimensional imaging and three-dimensional measurement can be performed from the same viewpoint, so that this alignment can be performed more easily. Data processing device 4
0 is provided with an image processing circuit (not shown), and performs various data processing including data correction specific to the present invention. The controller 42 of the data processing device 40 also performs overall control of the three-dimensional model creation device 1 and gives appropriate instructions to the controller 38 of the imaging system 30 and the controller 76 of the processing system 1B. The display 16 and the operation input system 80 are connected to the controller 42. The operation input system 80 includes the above-described operation panel 18 and a fee receiving mechanism.

【0019】一方、加工システム1Bは、樹脂ブロック
などの材料を切削する加工装置72、材料の加工位置へ
の供給と加工品の取出口20への搬送を行う材料供給装
置74、コントローラ76、及び取出口センサ78を備
えている。取出口センサ78の検出信号はコントローラ
42に入力される。
On the other hand, the processing system 1B includes a processing device 72 for cutting a material such as a resin block, a material supply device 74 for supplying a material to a processing position and transporting the processed product to the outlet 20; a controller 76; An outlet sensor 78 is provided. The detection signal of the outlet sensor 78 is input to the controller 42.

【0020】なお、撮影システム30及び加工システム
1Bの制御をコントローラ42に受け持たせ、コントロ
ーラ38及びコントローラ76を省略した回路構成を採
用してもよい。
It is also possible to adopt a circuit configuration in which the controller 42 is in charge of the control of the photographing system 30 and the processing system 1B, and the controller 38 and the controller 76 are omitted.

【0021】図4は加工システム1Bの機構構成の一例
を示す斜視図である。材料供給装置74は、計8種の形
状の材料を収納するストック部210を有している。収
納空間は直線状の移送路212の両側に設けられ、各側
の収納空間に移送路212に沿って4個ずつエレベータ
220が配置されている。各エレベータ220に同一種
類の複数個の材料が積み重ねられ、最上の材料が所定高
さに位置するようにエレベータ220の上下移動制御が
行われる。作成しようとする模型に適した一種類の材料
が指定されると、指定された材料がワーク216として
押出しロッド218によって収納空間から移送路212
へ送り出される。そして、移送路212上のワーク21
6は、チャック付き移送ロッド214によって加工装置
72のテーブル200に送り込まれる。
FIG. 4 is a perspective view showing an example of the mechanism configuration of the processing system 1B. The material supply device 74 has a stock section 210 for storing a total of eight types of materials. The storage spaces are provided on both sides of the linear transfer path 212, and four elevators 220 are arranged along the transfer path 212 in the storage spaces on each side. A plurality of materials of the same type are stacked on each elevator 220, and the vertical movement of the elevator 220 is controlled so that the uppermost material is located at a predetermined height. When one type of material suitable for the model to be created is designated, the designated material is transferred from the storage space to the transfer path 212 by the pushing rod 218 as the work 216.
Sent out to Then, the work 21 on the transfer path 212
6 is sent to the table 200 of the processing device 72 by the transfer rod 214 with the chuck.

【0022】テーブル200において、ワーク216は
2個のストッパ202とクランプ治具204とによって
固定される。そして、上下・左右・前後に移動可能な回
転軸206に取り付けられた刃物208によって切削さ
れる。
In the table 200, the work 216 is fixed by two stoppers 202 and a clamp jig 204. Then, it is cut by a blade 208 attached to a rotating shaft 206 that can move up and down, left and right, and back and forth.

【0023】3次元加工が終了すると、ワーク216は
移送ロッド214の先端のチャックで挟持されて移送路
212の排出側の端部へ運ばれ、排出口222に送り込
まれる。移送ロッド214によらず、滑り台形式でワー
ク216をテーブル200から排出口222へ移動させ
てもよい。
When the three-dimensional processing is completed, the work 216 is nipped by the chuck at the tip of the transfer rod 214, carried to the discharge-side end of the transfer path 212, and sent to the discharge port 222. Instead of using the transfer rod 214, the work 216 may be moved from the table 200 to the discharge port 222 in the form of a slide.

【0024】加工システム1Bの機構構成は例示に限ら
ない。例えば多段の各棚に同一種類の材料を水平方向に
並べ、その配列方向の一端にエレベータを配置し、棚か
らエレベータに材料を押し出すようにすれば、エレベー
タ数を低減することができる。アームロボットによって
ワークを収納位置→加工位置→排出位置へと運んでもよ
い。切削に代えて、積層造形法(光造形法を含む)、レ
ーザー加工(熱加工)、成型加工(加圧など)などの手
法で模型を作成することも可能である。また、材料形状
については、利用客が好みの外形を選択できるようにし
てもよいし、予め標準的な顔の模型を作り込んだ複数種
の材料から加工時間が最も短くなるものを自動選択する
ようにしてもよい。
The mechanism configuration of the processing system 1B is not limited to the example. For example, the number of elevators can be reduced by arranging the same type of material horizontally on each of the multi-stage shelves, arranging an elevator at one end in the arrangement direction, and extruding the materials from the shelves to the elevators. The work may be carried from the storage position to the processing position to the discharge position by the arm robot. Instead of cutting, it is also possible to create a model by a method such as an additive manufacturing method (including a stereolithography method), a laser processing (thermal processing), and a molding processing (pressing and the like). In addition, regarding the material shape, the user may be able to select a desired external shape, or a material having the shortest processing time is automatically selected from a plurality of types of materials in which a standard face model has been created in advance. You may do so.

【0025】以上の構成の立体模型作成装置1において
は、黒目及び眉を表す起伏を有し且つ鼻や唇の強調され
た顔面模型を作成するため、3次元計測で得られた3次
元形状モデルを顔面のカラー撮影情報を利用して自動的
に変形するデータ修正がデータ処理装置40によって行
われる。
In the three-dimensional model creating apparatus 1 having the above configuration, a three-dimensional model obtained by three-dimensional measurement is used to create a face model having undulations representing irises and eyebrows and having emphasized nose and lips. Is automatically corrected by the data processing device 40 by using the color photographing information of the face.

【0026】図5は顔面要素の抽出の模式図である。デ
ータ処理装置40は、カラー画像データDCが表す2次
元画像G2、及び形状データDSが表す距離データG3
から特定の顔面要素の領域を抽出する。本実施形態で
は、2次元画像G2からは眉、目、黒目(虹彩と瞳)、
及び唇が抽出される。これらの顔面要素は起伏が微小で
あって距離データG3からの抽出が難しいからである。
一方、距離データG3からは鼻及び首が抽出される。鼻
はその周囲(頬など)と色彩が似通っており、2次元画
像G2からの抽出が難しいからである。首も同様であ
る。
FIG. 5 is a schematic diagram of extraction of a face element. The data processing device 40 includes a two-dimensional image G2 represented by the color image data DC and a distance data G3 represented by the shape data DS.
, A region of a specific face element is extracted. In this embodiment, the eyebrows, eyes, irises (iris and pupil),
And the lips are extracted. This is because these facial elements have minute undulations and are difficult to extract from the distance data G3.
On the other hand, the nose and neck are extracted from the distance data G3. This is because the nose is similar in color to its surroundings (such as the cheek) and is difficult to extract from the two-dimensional image G2. The same goes for the neck.

【0027】2次元画像G2からの抽出は以下の要領で
行われる。特定の色空間(例えばL* * * 色空
間)においてクラスタリングを行うことにより、2次元
画像G2を同色相の領域に分割する。その結果に対し
てラベリングを行って同色相で且つ連続した領域を抽出
する。あらかじめ顔面要素の位置及び色に関する統計
に基づいて作成されたテンプレートを用いてマッチング
を行い、眉、目、黒目、及び唇に相当する特徴領域a
1,a2,a3,a4を選び出す。なお、例えば下唇の
下側が陰になって本来より暗くなっている場合には、赤
色系の唇と陰との境界、及び陰と肌色の顎との境界を抽
出し、これらの境界の中間部を通る仮想線を求め、この
仮想線を下唇の輪郭の一部とする。つまり、陰の部分に
ついてはその周囲の色彩情報を参照して領域分割を行
う。
The extraction from the two-dimensional image G2 is performed in the following manner. By performing clustering in a specific color space (for example, L * a * b * color space), the two-dimensional image G2 is divided into regions of the same hue. Labeling is performed on the result to extract a continuous area having the same hue. Matching is performed using a template created in advance based on statistics on the position and color of the face element, and a feature region a corresponding to eyebrows, eyes, irises, and lips
1, a2, a3, and a4 are selected. For example, if the lower side of the lower lip is shaded and darker than it should be, the boundary between the red lip and the shade and the boundary between the shade and the flesh-colored chin are extracted, and the middle between these boundaries is extracted. A virtual line passing through the part is determined, and this virtual line is defined as a part of the contour of the lower lip. In other words, region division is performed on the shaded portion with reference to the surrounding color information.

【0028】距離データG3からの抽出は以下の要領で
行われる。3次元計測基準点からの距離分布において
クラスタリングを行うことにより、距離データG3を同
一距離範囲の領域に分割する。その結果に対してラベ
リングを行って同一距離範囲で且つ連続した特徴領域
(鼻、首に相当する)b1,b2を選び出す。
The extraction from the distance data G3 is performed in the following manner. By performing clustering on the distance distribution from the three-dimensional measurement reference point, the distance data G3 is divided into regions within the same distance range. The result is subjected to labeling to select continuous characteristic regions (corresponding to the nose and neck) b1 and b2 within the same distance range.

【0029】図6は部分データ修正の模式図である。ま
ず、形状データDSによって特定される3次元形状モデ
ルのうち、上述の要領で2次元画像G2から抽出した第
1分類の特徴領域a1〜a4及び距離画像G3から抽出
した第2分類の特徴領域b1,b2に対応した部分を修
正対象に設定する。次に、各修正対象部分Upについて
予め設定された度合いの変形を行う。
FIG. 6 is a schematic diagram of partial data correction. First, among the three-dimensional shape models specified by the shape data DS, the first-class feature regions a1 to a4 extracted from the two-dimensional image G2 and the second-class feature regions b1 extracted from the distance image G3 in the manner described above. , B2 are set as correction targets. Next, a deformation of a preset degree is performed for each correction target portion Up.

【0030】変形は以下の要領で行われる。修正対象
部分Upに対してカメラ視線に垂直なメッシュMを投影
し、修正対象部分UpにおけるメッシュMの格子点が投
影された位置をサンプリング点pとする。サンプリン
グ点pを起点としてカメラ側に向かい且つモデル面に対
して垂直な設定長さの修正ベクトルvを算定する。修正
ベクトルvの長さは顔面要素毎に設定されている。例え
ば、眉は目より長い。メッシュMと修正対象部分Up
の輪郭との交点(これを輪郭点という)qを求める。
修正ベクトルvの先端の位置(先端点)p2と輪郭点q
とを通る曲面を求める。求めた曲面と元の3次元形状
モデルとを合成する。すなわち、3次元形状モデルのう
ちの修正対象部分Upを求めた曲面Up2に置き換え
る。これにより、修正対象部分Upが盛り上がり、例え
ば目や黒目の位置が形状によって表現されることにな
る。眉墨で描かれた眉についても同様である。鼻や唇は
起伏が強調される。また、首は背景と同化される。輪郭
点qの位置は変化しないので、眉及び黒目とそれらの周
囲との間で面の連続性が保たれる。
The deformation is performed in the following manner. A mesh M perpendicular to the camera line of sight is projected on the correction target portion Up, and the position where the grid point of the mesh M is projected on the correction target portion Up is set as a sampling point p. A correction vector v having a set length that is directed to the camera side from the sampling point p and is perpendicular to the model plane is calculated. The length of the correction vector v is set for each face element. For example, eyebrows are longer than eyes. Mesh M and correction target part Up
(This is referred to as a contour point) q is determined.
The position (tip point) p2 of the tip of the correction vector v and the contour point q
Find the surface passing through The obtained curved surface and the original three-dimensional shape model are synthesized. That is, the correction target portion Up of the three-dimensional shape model is replaced with the obtained curved surface Up2. As a result, the correction target portion Up rises, and, for example, the positions of the eyes and irises are represented by shapes. The same applies to eyebrows drawn with eyebrows. Undulating nose and lips are emphasized. The neck is assimilated with the background. Since the position of the contour point q does not change, the continuity of the surface is maintained between the eyebrows and irises and their surroundings.

【0031】以下、フローチャートを用いて立体模型作
成装置1の動作を説明する。図7は概略の動作を示すメ
インフローチャートである。電源が投入された後、利用
客による操作を待つ待機期間において、2次元撮影と撮
影結果の表示とを繰り返す(#10、#12、#1
4)。また、定期的に案内メッセージを表示する。料金
が投入されてスタートボタン181が押されると、改め
て2次元撮影を行うとともに3次元計測を行う(#1
6、#18)。所定のデータ処理を行い(#20)、得
られた3次元形状モデルを表示する(#22)。このと
き、影を付すといった公知のグラフィック手法を適用し
て見栄えを高める。そして、指示操作を待つ。ただし、
待ち時間は有限であり、時限を過ぎれば確認操作が行わ
れたものとみなす。
Hereinafter, the operation of the three-dimensional model forming apparatus 1 will be described with reference to a flowchart. FIG. 7 is a main flowchart showing a schematic operation. After the power is turned on, the two-dimensional imaging and the display of the imaging result are repeated in a standby period waiting for the operation by the user (# 10, # 12, # 1).
4). In addition, a guidance message is displayed periodically. When a fee is input and the start button 181 is pressed, two-dimensional imaging is performed again and three-dimensional measurement is performed (# 1).
6, # 18). Predetermined data processing is performed (# 20), and the obtained three-dimensional shape model is displayed (# 22). At this time, the appearance is enhanced by applying a known graphic method such as adding a shadow. Then, it waits for an instruction operation. However,
The waiting time is finite, and after the time limit, it is considered that the confirmation operation has been performed.

【0032】ジョイスティック184が操作されると、
上述のように3次元形状モデルを操作に応じて回転させ
て表示する(#24、#38)。キャンセルボタン18
3が押されると、待機期間の動作に戻る(#40、#1
0)。ただし、この場合、利用客が料金を改めて投入す
る必要はなく、スタートボタン181を押せば、再計測
が行われる。
When the joystick 184 is operated,
As described above, the three-dimensional shape model is rotated and displayed according to the operation (# 24, # 38). Cancel button 18
When 3 is pressed, the operation returns to the operation in the standby period (# 40, # 1).
0). However, in this case, there is no need for the customer to re-enter the fee, and if the start button 181 is pressed, re-measurement is performed.

【0033】確認ボタン182が押されると(#2
6)、3次元形状モデルに基づいて加工条件データベー
スを参照して加工制御用のデータを生成し(#28)。
材料の加工を行う(#30)。加工が終わると、商品を
排出し(#32)、取出口センサ78によって商品が取
り出されたのを確認して待機動作に戻る(#34、#1
0)。
When the confirmation button 182 is pressed (# 2
6) Data for processing control is generated with reference to the processing condition database based on the three-dimensional shape model (# 28).
The material is processed (# 30). When the processing is completed, the product is discharged (# 32), and it is confirmed that the product has been taken out by the takeout port sensor 78, and the process returns to the standby operation (# 34, # 1).
0).

【0034】図8は図7のデータ処理の内容を示すフロ
ーチャートである。ここでは、上述したように部分的に
隆起させるデータ修正、及び加工時間の短縮やデザイン
上の意図的な平面化のための奥行き方向の圧縮を含む次
の処理が行われる。
FIG. 8 is a flowchart showing the contents of the data processing of FIG. Here, as described above, the following processing including data correction for partially raising the projection and compression in the depth direction for shortening the processing time and intentionally flattening the design is performed.

【0035】平滑化処理を行って、ノイズによる異常デ
ータを除くとともに、細かな凹凸まで過度に再現される
のを避ける(#200)。再標本化処理を行う(#21
0)。これは、顔が斜めを向いていた場合などにおい
て、入力データを加工方向に正対させるため、ある方向
から平行投影した等間隔の格子点により整列されたデー
タに変換する処理である。例えば、人の顔の耳の下が陰
になって測定できない場合、顔を上向きにして3次元測
定をした後で、通常の正面を向いた顔を表すようにデー
タを変換できる。格子点が射影された位置に計測点がな
い場合には、その周囲の計測値により線形補完を行う。
このとき、射影された方向が加工する際の鉛直上方とな
り、それぞれの格子点は、高さのデータを持つ。また、
入力データが透視投影による場合でも、この処理により
入力データを平行投影データに変換できる。
A smoothing process is performed to remove abnormal data due to noise and to avoid excessive reproduction of fine irregularities (# 200). Perform re-sampling processing (# 21
0). This is a process of converting input data into data aligned with grid points at equal intervals projected in parallel from a certain direction in order to directly face the input data in the processing direction when the face is oblique. For example, if a person's face cannot be measured due to shadows below the ears, the data can be converted to represent a normal face-up face after three-dimensional measurement with the face facing up. If there is no measurement point at the position where the grid point is projected, linear interpolation is performed using the measurement values around the measurement point.
At this time, the projected direction is vertically above when processing, and each grid point has height data. Also,
Even when the input data is perspective projection, the input data can be converted to parallel projection data by this processing.

【0036】データのない欠損部分を補完する(#22
0)。補完手法としては、線形補完、重み付け捕完など
の種々の手法が適用可能である。例えば、データの欠損
している部分をすべて固定値で置き換える(単純補
完)。その固定値としては、設定値、最小の高さ、顔の
外周位置の平均値が考えられる。欠損部が有効データ部
分で完全に囲まれている場合は、周りのデータから線形
補完をする。また、人の顔における黒い眉や髪などのよ
うに対象の性質から光学式の3次元計測で正確なデータ
が得られないことが予想できる部分については、既存の
3次元形状データと置き換えてもよい。この場合、顔面
(頭部の前半面)の標準モデルを用意しておき、データ
欠損部分については位置及びサイズを調整した標準モデ
ルのデータを使用する。標準モデルの調整は、次の手順
で行う。上述したデータ修正の場合と同様の要領で2次
元画像から両目及び口を抽出し、3つの基準点の位置を
算定する。そして、標準モデルの各基準点が実測の形状
モデルと一致するように標準モデルの線型変換をする。
なお、このような合成は、顔の欠損部分に限らず、任意
の部分に適用可能である。
Completion of missing part without data (# 22)
0). Various methods such as linear interpolation and weighted completion can be applied as the complementing method. For example, all missing parts of the data are replaced with fixed values (simple interpolation). As the fixed value, a set value, a minimum height, and an average value of the outer peripheral position of the face can be considered. If the missing part is completely surrounded by the valid data part, linear interpolation is performed from the surrounding data. In addition, for parts where it is expected that accurate data cannot be obtained by optical three-dimensional measurement due to the properties of the target, such as black eyebrows and hair on a human face, existing three-dimensional shape data can be replaced. Good. In this case, a standard model of the face (front half of the head) is prepared, and the data of the standard model whose position and size have been adjusted are used for the data missing part. The adjustment of the standard model is performed in the following procedure. The eyes and mouth are extracted from the two-dimensional image in the same manner as in the case of the data correction described above, and the positions of the three reference points are calculated. Then, the standard model is linearly converted so that each reference point of the standard model matches the actually measured shape model.
It should be noted that such a combination is applicable not only to the missing part of the face but also to any part.

【0037】以上の各処理で実物形状に忠実な3次元形
状モデルを得た後、上述したように眉及び黒目を顕在化
し唇や鼻を強調する本発明に特有のデータ修正を行う
(#230)。なお、データ修正を行うか否か、行う場
合にどの部分(顔の要素)を修正するかを利用客又は装
置管理者が選択できるようにモード切換え機能を設ける
ことも可能である。
After obtaining a three-dimensional shape model that is faithful to the real shape in each of the above-described processes, as described above, data correction specific to the present invention, which makes the eyebrows and irises visible and emphasizes the lips and nose, is performed (# 230). ). It is also possible to provide a mode switching function so that the user or the device manager can select whether or not to perform data correction and which part (face element) to correct.

【0038】高さ圧縮処理を行って、3次元形状モデル
の寸法を奥行き方向に縮める(#240)。すなわち、
奥行き方向の高低差を小さくして加工時間を短縮する。
また、ペンダントやメダルの用途では平面的な模型が好
適である。圧縮には、一様圧縮及び非一様圧縮のどちら
の手法も適用可能であり、部分毎に使い分けることもで
きる。
A height compression process is performed to reduce the size of the three-dimensional model in the depth direction (# 240). That is,
Reduce the height difference in the depth direction to shorten the processing time.
A flat model is suitable for pendants and medals. Either the uniform compression method or the non-uniform compression method can be applied to the compression, and the compression can be used for each part.

【0039】3次元形状モデルのうちの背景部分を検出
する(#250)。これは背景部分を修正するための前
処理である。利用客の背面をブルーバックとしておき、
2次元画像の色判別の結果を利用すれば、背景部分の検
出が容易且つ確実になる。
The background portion of the three-dimensional shape model is detected (# 250). This is a pre-process for correcting the background portion. Leave the back of the customer as a blue background,
If the result of the color determination of the two-dimensional image is used, the background portion can be easily and reliably detected.

【0040】背景部分について他のデータに置き換える
背景変換を行う(#260)。例えば、背景部分は極端
に奥行きが深いので、加工時間を短縮するために奥行き
の浅いデータに変換する。置き換えるデータは、平面デ
ータでも花木などの絵柄や幾何模様を表す立体面データ
でもよい。
A background conversion for replacing the background portion with other data is performed (# 260). For example, since the background portion is extremely deep, the data is converted into data having a small depth in order to reduce the processing time. The data to be replaced may be plane data or three-dimensional plane data representing a pattern such as a flower or a tree or a geometric pattern.

【0041】実物大の3次元形状モデルを商品サイズに
適合させるサイズ調整を行う(#270)。また、加工
装置72の精度にデータ量を適合させる解像度変換を行
う(#280)。この処理は、所定格子幅のメッシュを
投影して格子点で再標本化するものであるが、投影する
方向は加工時の鉛直方向に固定されている。解像度変換
(データ数変換)の要領としては、まず、加工用の形状
モデルの構成点群を点間ピッチとべクトル変化量とで定
義し、べクトル変化量に対応する点間ピッチ範囲をあら
かじめ記憶されている特性データテーブルから読み出し
て設定する。すなわち、データを間引いてピッチを大き
くしたり、データを補間してピッチを小さくしたりす
る。計測の分解能が十分に大きい場合には、間引きのみ
を行えばよい。解像度変換機能を設けておけば、3次元
計測装置34の分解能が限定されないので、用途に応じ
て計測手段を取り換えるといった使用形態が許容される
ことになる。
The size of the full-size three-dimensional shape model is adjusted to match the product size (# 270). Further, resolution conversion is performed to adapt the data amount to the accuracy of the processing device 72 (# 280). In this processing, a mesh having a predetermined grid width is projected and resampled at grid points, but the projection direction is fixed to the vertical direction during processing. As a point of the resolution conversion (data number conversion), first, the constituent points of the shape model for machining are defined by the point pitch and the vector change amount, and the point pitch range corresponding to the vector change amount is stored in advance. Read from the specified characteristic data table and set. That is, the pitch is increased by thinning out the data, or the pitch is reduced by interpolating the data. When the measurement resolution is sufficiently large, only the thinning may be performed. If the resolution conversion function is provided, the resolution of the three-dimensional measuring device 34 is not limited, so that a usage form in which the measuring means is replaced depending on the application is allowed.

【0042】最後に、3次元形状モデルの基準位置が加
工の基準位置に合うように座標の原点を平行移動させる
位置合わせを行う(#290)。なお、加工に際して上
述のように予め所定の凹凸が作り込まれた材料を用いる
場合には、確認操作に呼応した加工データ生成処理(図
7の#28)において、以上の処理によって得られた3
次元形状モデルと作り込まれている凹凸とを比較して切
削量が算出される。
Lastly, positioning is performed by moving the origin of the coordinates in parallel so that the reference position of the three-dimensional shape model matches the reference position of machining (# 290). In the case of using a material in which predetermined irregularities have been formed in advance as described above in the processing, in the processing data generation processing (# 28 in FIG. 7) corresponding to the confirmation operation, 3
The cutting amount is calculated by comparing the three-dimensional shape model with the built-in irregularities.

【0043】図9は図8の部分データ修正処理の内容を
示すフローチャートである。図5で説明したように、2
次元画像G2から眉や目などの形状での判別が難しい第
1分類の顔面要素を抽出し(#2310)、距離画像G
3から鼻や首などの色彩での判別が難しい第2分類の顔
面要素を抽出する(#2320)。第1分類と第2分類
とについてはどちらを先に抽出してもよく、両分類の抽
出処理を並行して行うこともできる。
FIG. 9 is a flowchart showing the contents of the partial data correction processing of FIG. As described with reference to FIG.
From the two-dimensional image G2, the face elements of the first classification, which are difficult to be distinguished by the shapes such as eyebrows and eyes, are extracted (# 2310).
A face element of the second classification, which is difficult to discriminate by color such as nose and neck, is extracted from # 3 (# 2320). Either the first classification or the second classification may be extracted first, and the extraction processing of both classifications may be performed in parallel.

【0044】3次元形状モデルに対して修正対象部分U
pを設定し(#2330)、メッシュMを投影して修正
ベクトルvを算定する(#2340、#2350)。ま
た、修正対象部分Upの輪郭とメッシュMとの交点(輪
郭点)qを求める(#2360)。修正対象部分Upと
輪郭点qとについてはどちらを先に求めてもよく、それ
らを求める演算を並行して行うこともできる。
The part U to be corrected for the three-dimensional shape model
p is set (# 2330), and the correction vector v is calculated by projecting the mesh M (# 2340, # 2350). Further, an intersection (contour point) q between the contour of the correction target portion Up and the mesh M is obtained (# 2360). Either the correction target portion Up or the contour point q may be obtained first, and the operations for obtaining them may be performed in parallel.

【0045】そして、修正ベクトルvの先端点p2と輪
郭点qとを含む面を修正部分モデルとして求め(#23
70)、求めた面と元の3次元形状モデルとを合成する
(#2380)。
Then, a surface including the tip point p2 and the contour point q of the correction vector v is obtained as a correction partial model (# 23).
70), the obtained surface and the original three-dimensional shape model are combined (# 2380).

【0046】上述の実施形態では、自動販売機としての
使用を想定した立体模型作成装置1を例示したが、本発
明に係るデータ処理は模型作成が有償であるか無償であ
るかを問わない。模型のサイズは縮小サイズに限らず、
実物大でも拡大サイズでもよい。オリジナル物体は、人
物以外の生物でもよい。
In the above-described embodiment, the three-dimensional model creating apparatus 1 is supposed to be used as a vending machine. However, the data processing according to the present invention does not matter whether the model creation is charged or free. The size of the model is not limited to the reduced size,
It may be full size or enlarged size. The original object may be a creature other than a person.

【0047】[0047]

【発明の効果】請求項1乃至請求項3の発明によれば、
物体の視覚上の特徴が形状に反映し且つ必要に応じて誇
張された模型の作成を可能にすることができる。
According to the first to third aspects of the present invention,
The visual features of the object can be reflected in the shape and enable the creation of exaggerated models as needed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る立体模型作成装置の外観図であ
る。
FIG. 1 is an external view of a three-dimensional model forming apparatus according to the present invention.

【図2】操作パネルの平面図である。FIG. 2 is a plan view of an operation panel.

【図3】立体模型作成装置の機能ブロック図である。FIG. 3 is a functional block diagram of the three-dimensional model creation device.

【図4】加工システムの機構構成の一例を示す斜視図で
ある。
FIG. 4 is a perspective view showing an example of a mechanism configuration of the processing system.

【図5】顔面要素の抽出の模式図である。FIG. 5 is a schematic diagram of extraction of a face element.

【図6】部分的データ修正の模式図である。FIG. 6 is a schematic diagram of a partial data correction.

【図7】概略の動作を示すメインフローチャートであ
る。
FIG. 7 is a main flowchart showing a schematic operation.

【図8】図7のデータ処理の内容を示すフローチャート
である。
FIG. 8 is a flowchart showing the contents of the data processing of FIG. 7;

【図9】図8の部分データ修正処理の内容を示すフロー
チャートである。
FIG. 9 is a flowchart showing the contents of a partial data correction process of FIG. 8;

【符号の説明】[Explanation of symbols]

40 データ処理装置(3次元形状データ処理装置) 1A モデリングシステム 36 2次元撮影装置(光電変換装置) 34 3次元計測装置 DS 形状データ(形状モデル) G2 2次元画像 G3 距離データ Up 修正対象部分(特徴領域に対応する部分) 40 data processing device (three-dimensional shape data processing device) 1A modeling system 36 two-dimensional photographing device (photoelectric conversion device) 34 three-dimensional measuring device DS shape data (shape model) G2 two-dimensional image G3 distance data Up Correction target part (feature Part corresponding to the area)

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】物体を撮影した2次元画像から第1設定条
件を満たす第1分類の特徴領域を抽出し、 前記物体に対する3次元計測によって得られた距離画像
から第2設定条件を満たす第2分類の特徴領域を抽出
し、 前記3次元計測によって得られた前記物体の形状モデル
に対して、抽出された第1分類及び第2分類の特徴領域
に対応する部分を変形するデータ修正を加えることを特
徴とする模型作成のための3次元形状データ処理装置。
1. A first classification feature region that satisfies a first setting condition is extracted from a two-dimensional image obtained by photographing an object, and a second classification feature region that satisfies a second setting condition is obtained from a distance image obtained by three-dimensional measurement of the object. Extracting a characteristic region of the classification, and modifying the shape model of the object obtained by the three-dimensional measurement to modify a portion corresponding to the extracted characteristic region of the first classification and the second classification. A three-dimensional shape data processing apparatus for creating a model characterized by the following.
【請求項2】前記第1分類の特徴領域の抽出に際して、
前記物体における陰の部分についてはその周囲の画像情
報を参照して領域分割を行う請求項1記載の模型作成の
ための3次元形状データ処理装置。
2. The method according to claim 1, further comprising the steps of:
2. The three-dimensional shape data processing apparatus for model creation according to claim 1, wherein a region of a shadow in the object is divided by referring to image information around the shadow portion.
【請求項3】物体を撮影する光電変換装置と、 前記物体の形状を計測する3次元計測装置と、 前記光電変換装置によって得られた前記物体の2次元画
像に基づいて、前記3次元計測装置によって得られた前
記物体の形状モデルに対してデータ修正を加える請求項
1又は請求項2記載の3次元形状データ処理装置と、を
備えたことを特徴とする模型作成のためのモデリングシ
ステム。
3. A photoelectric conversion device for photographing an object, a three-dimensional measurement device for measuring a shape of the object, and the three-dimensional measurement device based on a two-dimensional image of the object obtained by the photoelectric conversion device. 3. A modeling system for creating a model, comprising: the three-dimensional shape data processing device according to claim 1 or 2, wherein data correction is performed on the shape model of the object obtained by the method.
JP9350394A 1997-11-28 1997-12-19 Three-dimensional shaped data processor and modeling system Pending JPH11185059A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP9350394A JPH11185059A (en) 1997-12-19 1997-12-19 Three-dimensional shaped data processor and modeling system
US09/198,534 US7068835B1 (en) 1997-11-28 1998-11-24 Data processing apparatus for processing a 3-dimensional data of an object and a method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9350394A JPH11185059A (en) 1997-12-19 1997-12-19 Three-dimensional shaped data processor and modeling system

Publications (1)

Publication Number Publication Date
JPH11185059A true JPH11185059A (en) 1999-07-09

Family

ID=18410197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9350394A Pending JPH11185059A (en) 1997-11-28 1997-12-19 Three-dimensional shaped data processor and modeling system

Country Status (1)

Country Link
JP (1) JPH11185059A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010287156A (en) * 2009-06-15 2010-12-24 Mitsubishi Electric Corp Model generation apparatus, model generation method, model generation program, point cloud image generation method, and point cloud image generation program
KR101183161B1 (en) 2010-10-14 2012-09-17 경북대학교 산학협력단 Portable 3-dimensional scanner and method of reconstructing 3-dimensional image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010287156A (en) * 2009-06-15 2010-12-24 Mitsubishi Electric Corp Model generation apparatus, model generation method, model generation program, point cloud image generation method, and point cloud image generation program
KR101183161B1 (en) 2010-10-14 2012-09-17 경북대학교 산학협력단 Portable 3-dimensional scanner and method of reconstructing 3-dimensional image

Similar Documents

Publication Publication Date Title
US6775403B1 (en) Device for and method of processing 3-D shape data
EP0991023B1 (en) A method of creating 3-D facial models starting from face images
CN108537628B (en) Method and system for creating customized products
US6738516B1 (en) Monitor display apparatus
CN114375177A (en) Body measurement device and control method thereof
US7068835B1 (en) Data processing apparatus for processing a 3-dimensional data of an object and a method therefor
US20020048396A1 (en) Apparatus and method for three-dimensional scanning of a subject, fabrication of a natural color model therefrom, and the model produced thereby
JP2011113421A (en) Three-dimensional modeling system
JP2000321050A (en) Method and apparatus for acquiring three-dimensional data
JP2000339498A (en) Three-dimensional shape data processor
JP2001012922A (en) Three-dimensional data-processing device
JP3832065B2 (en) 3D shape data processing device
JPH11312228A (en) Three-dimensional shape data processor
JP2024543707A (en) Method, apparatus, terminal device, and readable storage medium for virtually wearing a mask
JPH11185059A (en) Three-dimensional shaped data processor and modeling system
JPH11216273A (en) Manufacture of model and material for the same
JPH11161821A (en) Three-dimensional form data processor and modeling system
CN118071937B (en) Method and system for generating three-dimensional model based on image uploading
JP3743171B2 (en) 3D shape data processing device
CN108182588A (en) A kind of hair style design and clipping device, system and method, equipment and medium
JPH11328444A (en) Modeling system
JPH11191162A (en) Three-dimensional shape data processor and modeling system
JP2001045519A (en) Three-dimensional data generation device, three-dimensional data generation method, and recording medium
JP2000346617A (en) Three-dimensional shape data processor
JP2001208521A (en) Three-dimensional data processor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040622

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041012

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050222