[go: up one dir, main page]

JP2008117113A - Image forming device and method, and image forming program - Google Patents

Image forming device and method, and image forming program Download PDF

Info

Publication number
JP2008117113A
JP2008117113A JP2006298763A JP2006298763A JP2008117113A JP 2008117113 A JP2008117113 A JP 2008117113A JP 2006298763 A JP2006298763 A JP 2006298763A JP 2006298763 A JP2006298763 A JP 2006298763A JP 2008117113 A JP2008117113 A JP 2008117113A
Authority
JP
Japan
Prior art keywords
image
dimensional
image data
virtual
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006298763A
Other languages
Japanese (ja)
Other versions
JP2008117113A5 (en
Inventor
Akihisa Yoshida
晃久 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FRESH REMIX KK
Original Assignee
FRESH REMIX KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FRESH REMIX KK filed Critical FRESH REMIX KK
Priority to JP2006298763A priority Critical patent/JP2008117113A/en
Publication of JP2008117113A publication Critical patent/JP2008117113A/en
Publication of JP2008117113A5 publication Critical patent/JP2008117113A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily provide a 3D expression based on two-dimensional image data even when an image includes a plurality of three-dimensional objects in one screen. <P>SOLUTION: An image forming device has an image forming part 3 for selecting two-dimensional image data conforming to the direction of a virtual camera from among one or more two-dimensional image data stored in a two-dimensional image storage part 1 and for forming an image showing a view seen from the virtual camera within a 3D space, based on the two-dimensional image data selected. The image forming part 3 includes a virtual model layout part 11 for laying out virtual rectangular parallelepiped three-dimensional models within the 3D space, and an image layout part 12 for laying out within the rectangular parallelepipeds the image planes of the two-dimensional image data selected by the image selecting part 2, so that overlap of the image planes laid out within the rectangular parallelepipeds conforms to the overlap of the rectangular parallelepiped three-dimensional models, so that even the overlapped three-dimensional objects on the 3D space are appropriately expressed by the two-dimensional image data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像生成装置および方法、画像生成プログラムに関し、特に、2次元画像データから3次元的な画像を生成する装置等に用いて好適なものである。   The present invention relates to an image generation apparatus and method, and an image generation program, and is particularly suitable for use in an apparatus that generates a three-dimensional image from two-dimensional image data.

従来、コンピュータの平面的な表示画面上で物体を立体的に見せるための技術として、仮想的な3次元空間であるオブジェクト空間内の所与の視点から見える画像を生成する3次元モデリングの技術が用いられてきた。3次元モデリングには、物体を稜線だけで表すワイヤフレームモデル、物体を面の組み合わせで表すサーフェスモデル、面に加えて物体の中身の情報まで扱うソリッドモデルの3種類がある。このような3次元モデリングにより表された画像は、一般に「3D画像」などと呼ばれている。   Conventionally, as a technique for making an object appear three-dimensionally on a flat display screen of a computer, there is a three-dimensional modeling technique for generating an image that can be seen from a given viewpoint in an object space that is a virtual three-dimensional space. Has been used. There are three types of three-dimensional modeling: a wire frame model that represents an object only by ridgelines, a surface model that represents an object by a combination of surfaces, and a solid model that handles information about the contents of the object in addition to the surface. An image represented by such three-dimensional modeling is generally called a “3D image” or the like.

3D画像は、例えば仮想現実(Virtual Reality=VR)の技術に応用されている。このVR技術を用いた画像生成システムでは、キャラクタや乗り物などの表示物をモデル化した立体的な単一の3次元モデル(ポリゴンデータ)をオブジェクト空間内に配置し、ジオメトリ処理(3次元座標演算)を行って、仮想カメラから見える画像を自動生成する。したがって、1つの3次元モデルを用意しておけば、仮想カメラにより様々な方向からこの3次元モデルを見た場合にも、矛盾の無い画像を生成できるようになる。   The 3D image is applied to, for example, a virtual reality (VR) technology. In this image generation system using the VR technology, a three-dimensional single three-dimensional model (polygon data) that models a display object such as a character or a vehicle is arranged in an object space, and geometry processing (three-dimensional coordinate calculation) is performed. ) To automatically generate an image visible from the virtual camera. Therefore, if one three-dimensional model is prepared, even if this three-dimensional model is viewed from various directions with a virtual camera, it is possible to generate an image having no contradiction.

ところが、3D画像は情報量が非常に多く、これを表示するためには複雑で膨大な処理が必要になる。特に、1画面内において複数の3次元モデルを3D表示する場合には、各々の3次元モデル毎にポリゴンデータのジオメトリ処理が必要になって、演算の負荷が非常に重くなってしまうという問題がある。   However, a 3D image has a very large amount of information, and complicated and enormous processing is required to display it. In particular, when a plurality of three-dimensional models are displayed in 3D on one screen, polygon processing is required for each three-dimensional model, and the calculation load becomes very heavy. is there.

また、3次元モデルのポリゴンデータは2次元データと異なり、簡易に入力する装置がなく、データ取得が困難である。表示しようとする対象物のポリゴンデータは、既存のポリゴンデータを買うか、専門の業者または専門の技術を有する要員に作成を依頼する必要があり、手間とコストがかかるものであった。   Further, unlike the two-dimensional data, polygon data of the three-dimensional model is difficult to obtain because there is no simple input device. The polygon data of the object to be displayed needs to purchase existing polygon data, or ask a specialist or a person with specialized skills to create it, which is laborious and costly.

これに対して、単一の3次元モデルを異なる視点から見た複数の2次元画像データを用意しておき、仮想カメラの方向と3次元モデルの方向との相対角度に合った2次元画像データを選択し、選択した2次元画像データに基づきオブジェクト空間内において仮想カメラから見える画像を生成するようにした技術も存在する(例えば、特許文献1参照)。この技術によれば、ある視点から見た3次元モデルの画像を効率的に生成することができる。
特開2001−84402号公報
In contrast, a plurality of two-dimensional image data obtained by viewing a single three-dimensional model from different viewpoints are prepared, and two-dimensional image data that matches the relative angle between the direction of the virtual camera and the direction of the three-dimensional model. There is also a technique for generating an image that can be viewed from a virtual camera in the object space based on the selected two-dimensional image data (see, for example, Patent Document 1). According to this technique, an image of a three-dimensional model viewed from a certain viewpoint can be efficiently generated.
JP 2001-84402 A

しかしながら、上記特許文献1に記載の従来技術は、1つの3次元物体についてある視点から見た画像を2次元画像データから生成する方法については言及しているものの、1画面内に複数の3次元物体が存在する場合の生成方法については言及していない。例えば、陳列棚の上に複数種類の商品を並べて載せた状態の画像を表示する場合など、複数の3次元物体を部分的に重ねて表示する場合には、上記特許文献1に記載の従来技術では対応できない。   However, although the prior art described in Patent Document 1 refers to a method of generating an image viewed from a certain viewpoint for one three-dimensional object from two-dimensional image data, a plurality of three-dimensional objects are included in one screen. No mention is made of a generation method when an object exists. For example, in the case where a plurality of three-dimensional objects are displayed in a partially overlapped manner, for example, when displaying an image in which a plurality of types of products are placed side by side on a display shelf, the prior art described in Patent Document 1 is used. Can not cope.

本発明は、このような問題を解決するために成されたものであり、1画面内に複数の3次元物体が存在する画像についても2次元画像データに基づいて3D表現を簡易的に行うことができるようにすることを目的とする。   The present invention has been made to solve such a problem, and it is possible to easily perform 3D representation of an image in which a plurality of three-dimensional objects exist within one screen based on two-dimensional image data. The purpose is to be able to.

上記した課題を解決するために、本発明では、オブジェクト空間内に直方体の仮想的な3次元モデルを配置し、仮想カメラの方向に合った2次元画像データを2次元画像記憶部の中から選択的に読み出す。そして、上述のように配置した1以上の仮想3次元モデルから成る直方体の中に設定した位置に、選択した2次元画像データの画像平面を配置することにより、オブジェクト空間内において仮想カメラから見える画像を生成する。   In order to solve the above problems, in the present invention, a virtual three-dimensional model of a rectangular parallelepiped is arranged in the object space, and two-dimensional image data matching the direction of the virtual camera is selected from the two-dimensional image storage unit. Read out automatically. Then, by arranging the image plane of the selected two-dimensional image data at the position set in the rectangular parallelepiped composed of one or more virtual three-dimensional models arranged as described above, an image seen from the virtual camera in the object space Is generated.

上記のように構成した本発明によれば、画像の3D表現を行うのに使用する3次元モデルは簡易的な直方体のポリゴンデータであり、形状が複雑ではないのでそれほど情報量は多くなく、演算の負荷は非常に軽くて済む。そして、この3次元モデルの直方体の中に2次元画像データの画像平面を配置するだけで3D表現が実現されるので、仮想カメラにより様々な方向から見た3次元モデルの画像を効率的に生成することができる。   According to the present invention configured as described above, the three-dimensional model used to perform 3D representation of an image is simple rectangular parallelepiped polygon data, and since the shape is not complicated, the amount of information is not so large. The load is very light. Since 3D representation is realized simply by placing the image plane of the 2D image data in the rectangular parallelepiped of the 3D model, the virtual camera efficiently generates the 3D model image viewed from various directions. can do.

また、本発明によれば、1以上の直方体の中に配置される画像平面どうしの重なり具合は、直方体の3次元モデルの重なり具合に従う。つまり、ある2つの直方体が重なるときに、その中にある2次元画像平面も同じように重なり、どちらの2次元画像が手前にくるかが決まる。これにより、3次元物体をオブジェクト空間上で積んだり配置したりすると当然に重なる部分も、2次元画像データによって適切に表現されるようになる。   Further, according to the present invention, the overlapping degree of the image planes arranged in one or more rectangular parallelepipeds follows the overlapping degree of the three-dimensional model of the rectangular parallelepiped. That is, when two rectangular parallelepipeds overlap, the two-dimensional image planes in the same overlap, and it is determined which two-dimensional image comes to the front. As a result, when a three-dimensional object is stacked or arranged in the object space, naturally the overlapping portion is appropriately represented by the two-dimensional image data.

したがって、1画面内に複数の3次元物体が存在する画像についても2次元画像データに基づいて3D表現を簡易的に行うことができる。   Therefore, 3D expression can be easily performed on an image in which a plurality of three-dimensional objects exist within one screen based on the two-dimensional image data.

以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による画像生成装置の機能構成例を示すブロック図である。図1に示すように、本実施形態の画像生成装置は、その機能構成として、2次元画像記憶部1、画像選択部2および画像生成部3を備えている。また、画像生成部3は、仮想モデル配置部11、画像配置部12、3次元モデル処理部13および画像出力部14を備えている。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a functional configuration example of the image generation apparatus according to the present embodiment. As shown in FIG. 1, the image generation apparatus of this embodiment includes a two-dimensional image storage unit 1, an image selection unit 2, and an image generation unit 3 as functional configurations. The image generation unit 3 includes a virtual model arrangement unit 11, an image arrangement unit 12, a three-dimensional model processing unit 13, and an image output unit 14.

図2は、本実施形態の画像生成装置で生成する画像(3D画像そのものではないが、あたかも3D画像のように見せた3D表現画像)の例を示す図である。この図2に示す3D表現画像は、陳列テーブルの上に複数種類の野菜(本発明の3次元物体に相当)を並べて載せた状態の棚割りを示す画像である。この図2に示す画像は3D画像のように見えるが、実際は陳列テーブルのみが3D画像(ポリゴンデータに基づく画像)であり、野菜の部分は2D画像である。すなわち、詳しくは以下に説明するが、3Dのオブジェクト空間上にできるだけ自然に2D画像を配置することで、簡易的な3D表現を行っているものである。   FIG. 2 is a diagram illustrating an example of an image (not a 3D image itself but a 3D expression image that looks like a 3D image) generated by the image generation apparatus according to the present embodiment. The 3D representation image shown in FIG. 2 is an image showing a shelf layout in which a plurality of types of vegetables (corresponding to the three-dimensional object of the present invention) are arranged and placed on a display table. Although the image shown in FIG. 2 looks like a 3D image, only the display table is actually a 3D image (an image based on polygon data), and the vegetable portion is a 2D image. That is, as will be described in detail below, simple 3D representation is performed by arranging 2D images as naturally as possible in a 3D object space.

図1において、2次元画像記憶部1は、単一の3次元物体を異なる視点から見た1以上の2次元画像データを記憶する。ここでは、オブジェクト空間上に表示したい3次元物体の対象物について1以上の2次元画像データを用意する。表示したい対象物が複数ある場合は、それぞれ毎に1以上の2次元画像データを用意する。1つの対象物に対して用意する2次元画像データの枚数は、対象物の形状により異なり、1枚〜40枚程度となる。図3は、40枚の2次元画像データを用意する場合の視点の例を示す図である。空欄部分は、その上下(又は左右)の間の視点から見た2次元画像データ、つまり斜めの位置の2次元画像データになる。なお、図3に示す表の右端列は左端列につながっている。   In FIG. 1, a two-dimensional image storage unit 1 stores one or more two-dimensional image data obtained by viewing a single three-dimensional object from different viewpoints. Here, one or more two-dimensional image data is prepared for a target object of a three-dimensional object to be displayed in the object space. When there are a plurality of objects to be displayed, one or more two-dimensional image data is prepared for each. The number of two-dimensional image data prepared for one object differs depending on the shape of the object and is about 1 to 40 sheets. FIG. 3 is a diagram illustrating an example of a viewpoint when 40 pieces of two-dimensional image data are prepared. The blank portion is two-dimensional image data viewed from the viewpoint between the upper and lower sides (or left and right), that is, two-dimensional image data at an oblique position. Note that the rightmost column in the table shown in FIG. 3 is connected to the leftmost column.

例えば、対象物がパイナップルの場合は、図4に示すように正面、真上、斜め上の3枚の2次元画像データのみを利用している。その根拠は、パイナップルはその形状上、正面、側面、後部のいずれから見ても、特に形状に変化は無い。そのため、図3に示す表の横列はすべて同じ画像で良いと判断できる。つまり、正面・右側面・左側面・後部・これらの間の画像がすべて同じでも良いということである。そして、パイナップルが陳列テーブルに置かれる都合上、下部の画像は必要ない。そのため、斜め下・下部の行はすべて省略できる。   For example, when the object is a pineapple, as shown in FIG. 4, only three pieces of two-dimensional image data on the front, right above, and diagonally above are used. The grounds for this are that there is no particular change in the shape of the pineapple when viewed from the front, side, or rear part. Therefore, it can be determined that all the rows in the table shown in FIG. That is, the front, right side, left side, rear, and the images between them may all be the same. And because the pineapple is placed on the display table, the lower image is not necessary. For this reason, all the lower and lower rows can be omitted.

1つの対象物について用意すべき2次元画像データの数が、最も少ない1枚で済む場合もある。それは、対象物がどこから見ても大きな違いが無いものの場合である。例えば、ボールのようなものであれば、正面から見た2次元画像データを1枚用意すれば良い。このように2次元画像データの枚数を大幅に減らせることも、本実施形態によるアルゴリズムのポイントの1つである。   There may be a case where the number of two-dimensional image data to be prepared for one object is the smallest one. That is the case where the object is not much different from where it is seen. For example, in the case of a ball, one piece of two-dimensional image data viewed from the front may be prepared. Thus, the fact that the number of two-dimensional image data can be greatly reduced is one of the points of the algorithm according to the present embodiment.

2次元画像記憶部1は、各対象物の2次元画像データと共に、その対象物の現実の大きさを表す情報も記憶する。大きさ情報は、対象物の高さ・幅・奥行きの3つの値から成る。この大きさ情報は、後述する直方体の仮想3次元モデル(ポリゴンデータ)を生成する際に利用される。   The two-dimensional image storage unit 1 stores information representing the actual size of the target object together with the two-dimensional image data of each target object. The size information consists of three values of the height, width, and depth of the object. This size information is used when generating a cuboid virtual three-dimensional model (polygon data), which will be described later.

画像選択部2は、図示しないマウス等の操作部をユーザが操作することによって入力される仮想カメラの方向(対象物を見る視点)を表す情報に基づいて、2次元画像記憶部1に記憶されている1以上の2次元画像データの中から、仮想カメラの方向に合った2次元画像データを選択して読み出す。図2のように3種類の野菜を表示する場合、画像選択部2は、当該3種類の野菜のそれぞれについて、仮想カメラの方向に合った2次元画像データを選択して読み出す。この選択方法の詳細は後述する。   The image selection unit 2 is stored in the two-dimensional image storage unit 1 on the basis of information representing the direction of the virtual camera (viewpoint of viewing the object) input by the user operating an operation unit such as a mouse (not shown). Among the one or more two-dimensional image data, the two-dimensional image data matching the direction of the virtual camera is selected and read. When three types of vegetables are displayed as shown in FIG. 2, the image selection unit 2 selects and reads out two-dimensional image data that matches the direction of the virtual camera for each of the three types of vegetables. Details of this selection method will be described later.

画像生成部3は、画像選択部2により選択された野菜の2次元画像データと、画像生成部3自身が生成する陳列テーブルの3次元画像データとに基づいて、オブジェクト空間内において仮想カメラから見える画像、すなわち、図1のように陳列テーブルの上に複数種類の野菜が載置された3D表現画像を生成する。ここで、陳列テーブルの3次元画像データは、3次元モデル処理部13が生成する。この3次元画像データは、通常の3D表示アルゴリズム(ジオメトリ処理等)を用いて生成されるため、360度どの方向から見た画像も生成することができる。   The image generation unit 3 is visible from the virtual camera in the object space based on the two-dimensional image data of the vegetable selected by the image selection unit 2 and the three-dimensional image data of the display table generated by the image generation unit 3 itself. An image, that is, a 3D expression image in which a plurality of types of vegetables are placed on a display table as shown in FIG. 1 is generated. Here, the 3D model processing unit 13 generates the 3D image data of the display table. Since the 3D image data is generated using a normal 3D display algorithm (geometry processing or the like), an image viewed from any direction of 360 degrees can be generated.

仮想モデル配置部11は、オブジェクト空間内に直方体の仮想的な3次元モデルを配置する。すなわち、2次元画像データを3Dのオブジェクト空間上に配置するには、2次元画像データにはない「奥行き」の概念を考慮することが必要になる。この概念を補完するために、2次元画像データをオブジェクト空間上に配置する前に、配置したい箇所に、直方体の仮想的な3次元モデル(ポリゴンデータ)を配置していく。1つの直方体の大きさは、2次元画像記憶部1に記憶されている対象物の大きさ情報を利用して決定する。   The virtual model placement unit 11 places a cuboid virtual three-dimensional model in the object space. That is, in order to arrange 2D image data on the 3D object space, it is necessary to consider the concept of “depth” that is not found in 2D image data. In order to complement this concept, before placing the two-dimensional image data on the object space, a virtual three-dimensional model (polygon data) of a rectangular parallelepiped is arranged at a place to be arranged. The size of one rectangular parallelepiped is determined using the size information of the object stored in the two-dimensional image storage unit 1.

図5は、複数の直方体(仮想3次元モデル)をオブジェクト空間上に配置した状態の例を示す図である。この仮想3次元モデルの配置処理も、通常の3D表示アルゴリズム(ジオメトリ処理等)を用いて行う。なお、配置した直方体は最終的には表示せず、計算上使用するだけである。   FIG. 5 is a diagram illustrating an example of a state in which a plurality of rectangular parallelepipeds (virtual three-dimensional models) are arranged on the object space. The placement process of the virtual three-dimensional model is also performed using a normal 3D display algorithm (geometry processing or the like). The arranged rectangular parallelepiped is not displayed in the end, but only used for calculation.

画像配置部12は、仮想モデル配置部11により図5のように配置された1以上の仮想3次元モデルから成る直方体の中に、画像選択部2により選択された2次元画像データの画像平面を配置する。その際に画像配置部12は、直方体の中心点を画像平面の中心点が通るような位置に、画像選択部2により選択された2次元画像データの画像平面を配置する。また、画像配置部12は、仮想カメラの方向に対して画像平面が垂直となるように、直方体の中での配置角度を調整して2次元画像データの画像平面を配置する。   The image placement unit 12 displays an image plane of the two-dimensional image data selected by the image selection unit 2 in a rectangular parallelepiped composed of one or more virtual three-dimensional models arranged by the virtual model placement unit 11 as shown in FIG. Deploy. At that time, the image placement unit 12 places the image plane of the two-dimensional image data selected by the image selection unit 2 at a position where the center point of the image plane passes through the center point of the rectangular parallelepiped. The image placement unit 12 places the image plane of the two-dimensional image data by adjusting the placement angle in the rectangular parallelepiped so that the image plane is perpendicular to the direction of the virtual camera.

画像出力部14は、3次元モデル処理部13により生成された陳列テーブルの3次元画像データと、画像配置部12により配置された野菜の2次元画像データとがオブジェクト空間上で合成された3D表現画像を出力する。   The image output unit 14 is a 3D representation in which the 3D image data of the display table generated by the 3D model processing unit 13 and the 2D image data of the vegetables arranged by the image arrangement unit 12 are synthesized on the object space. Output an image.

図6は、直方体の内部に2次元画像データの画像平面を配置した状態の例を示す図である。図6において、21は3次元モデルの直方体、22は2次元画像データの画像平面を示す。点Pは直方体21の中心点であり、この点Pを必ず画像平面22が通るような位置に2次元画像データの画像平面22が配置される。本実施形態では、直方体21の中心点Pが画像平面22の中心となるように配置する。直方体21の中で画像平面22の角度を変える際も同様に、画像平面22の中心が直方体21の中心点Pを通るようにする。画像平面22の角度は、仮想カメラの方向に対して常に垂直となるようにする。つまり、常に画像平面22を正面から見ることになる。   FIG. 6 is a diagram illustrating an example of a state in which an image plane of two-dimensional image data is arranged inside a rectangular parallelepiped. In FIG. 6, 21 indicates a rectangular parallelepiped of the three-dimensional model, and 22 indicates an image plane of the two-dimensional image data. The point P is the center point of the rectangular parallelepiped 21, and the image plane 22 of the two-dimensional image data is arranged at a position where the image plane 22 always passes through this point P. In the present embodiment, the cuboid 21 is arranged so that the center point P of the rectangular parallelepiped 21 is the center of the image plane 22. Similarly, when the angle of the image plane 22 is changed in the rectangular parallelepiped 21, the center of the image plane 22 passes through the center point P of the rectangular parallelepiped 21. The angle of the image plane 22 is always perpendicular to the direction of the virtual camera. That is, the image plane 22 is always viewed from the front.

ここで、直方体21の中に配置する画像平面22の位置(座標)の算出方法を図7に基づいて説明する。図7に示すように、2次元画像データが作る画像平面22の幅、高さをそれぞれw,hとする。また、当該画像平面22の中心座標を(a,b,c)とする。この中心座標は、図6に示した直方体の中心点Pの座標と同じであり、通常の3D表示アルゴリズム等を用いて容易に求めることができる。   Here, a method of calculating the position (coordinates) of the image plane 22 arranged in the rectangular parallelepiped 21 will be described with reference to FIG. As shown in FIG. 7, the width and height of the image plane 22 created by the two-dimensional image data are w and h, respectively. Further, the center coordinates of the image plane 22 are assumed to be (a, b, c). The center coordinates are the same as the coordinates of the center point P of the rectangular parallelepiped shown in FIG. 6, and can be easily obtained using a normal 3D display algorithm or the like.

また、基準となる方向と画像平面22との角度(仮想カメラの方向)は、以下の通りとする。
X−Y平面上の角度(Z軸を固定した際の回転角度):0°
Y−Z平面上の角度(X軸を固定した際の回転角度):0°
Z−X平面上の角度(Y軸を固定した際の回転角度):90°
The angle between the reference direction and the image plane 22 (the direction of the virtual camera) is as follows.
Angle on the XY plane (rotation angle when the Z axis is fixed): 0 °
Angle on YZ plane (rotation angle when X axis is fixed): 0 °
Angle on the Z-X plane (rotation angle when the Y axis is fixed): 90 °

この場合、仮想カメラの方向が基準方向にあるときに2次元画像データが作る画像平面22の四隅の点A,B,C,Dの座標はそれぞれ、以下のようになる。
点A:(a−w/2,b+h/2,c)
点B:(a+w/2,b+h/2,c)
点C:(a−w/2,b−h/2,c)
点D:(a+w/2,b−h/2,c)
In this case, the coordinates of the four corner points A, B, C, D of the image plane 22 created by the two-dimensional image data when the direction of the virtual camera is in the reference direction are as follows.
Point A: (aw−2, b + h / 2, c)
Point B: (a + w / 2, b + h / 2, c)
Point C: (aw / 2, bh / 2, c)
Point D: (a + w / 2, b−h / 2, c)

以下、仮想カメラの方向が基準方向から変化したときに、移動後の仮想カメラの方向に対して垂直となるように配置角度が調整された画像平面の四隅の点A’,B’,C’,D’の座標を求める。移動後の仮想カメラの方向が以下のように表されるとき、一般的な3次元の回転行列の式から、次の(式1)のような回転行列が得られる。
X−Y平面上の角度:xy°
Y−Z平面上の角度:yz°
Z−X平面上の角度:zx°
Hereinafter, when the direction of the virtual camera changes from the reference direction, points A ′, B ′, and C ′ at the four corners of the image plane whose arrangement angles are adjusted to be perpendicular to the direction of the virtual camera after movement. , D ′ coordinates are obtained. When the direction of the virtual camera after movement is expressed as follows, a rotation matrix such as the following (Expression 1) is obtained from a general three-dimensional rotation matrix expression.
Angle on XY plane: xy °
Angle on YZ plane: yz °
Angle on the Z-X plane: zx °

この(式1)に示す回転行列から、移動後の仮想カメラの方向に対して垂直な画像平面の四隅の点A’,B’,C’,D’の座標は、以下の(式2)により求めることができる。なお、(式2)において、(x,y,z)は点A,B,C,Dの座標、(x’,y’,z’)は点A’,B’,C’,D’の座標を示す。   From the rotation matrix shown in (Equation 1), the coordinates of the four corner points A ′, B ′, C ′, D ′ of the image plane perpendicular to the direction of the virtual camera after movement are as follows (Equation 2): It can ask for. In (Expression 2), (x, y, z) is the coordinates of the points A, B, C, D, and (x ′, y ′, z ′) is the points A ′, B ′, C ′, D ′. Indicates the coordinates.

次に、上述した画像選択部2による2次元画像データの選択方法について詳しく説明する。画像選択部2は、3次元モデルの直方体を見る角度、すなわち仮想カメラの方向により、選択する2次元画像データを切り替える。仮想カメラの方向は、図8(a)に示すように、X−Y座標軸の角度θ1と、X−Z座標軸の角度θ2との2つの角度で表現する。 Next, a method for selecting two-dimensional image data by the image selection unit 2 described above will be described in detail. The image selection unit 2 switches the two-dimensional image data to be selected according to the angle at which the cuboid of the three-dimensional model is viewed, that is, the direction of the virtual camera. As shown in FIG. 8A, the direction of the virtual camera is expressed by two angles, an angle θ 1 of the XY coordinate axis and an angle θ 2 of the XZ coordinate axis.

図8(b)に示す表は、2つの角度θ1,θ2に応じて2次元画像データをどのように選択するかを示したものである。例えば、2つの角度θ1,θ2がそれぞれθ1=60°〜90°、θ2=330°〜30°の値をとる範囲内に仮想カメラがある場合、画像選択部2は、対象物を上部(真上)から見た2次元画像データを選択する。また、θ1=300°〜30°、θ2=330°〜30°の値をとる範囲内に仮想カメラがある場合、画像選択部2は、対象物を正面から見た2次元画像データを選択する。 The table shown in FIG. 8B shows how the two-dimensional image data is selected according to the two angles θ 1 and θ 2 . For example, when the virtual camera is within a range in which the two angles θ 1 and θ 2 take values of θ 1 = 60 ° to 90 ° and θ 2 = 330 ° to 30 °, the image selection unit 2 selects the object. 2D image data viewed from above (directly above) is selected. In addition, when the virtual camera is within the range of θ 1 = 300 ° to 30 ° and θ 2 = 330 ° to 30 °, the image selection unit 2 displays the two-dimensional image data when the object is viewed from the front. select.

図8(b)の表に示す40枚すべての2次元画像データがある場合は問題ないが、足りない場合は「正面」側に1つ近い画像を使用する。つまり、左側面の2次元画像データが無い場合、その画像を表示することができないので、1つ右のセル(θ1=300°〜30°、θ2=300°〜330°)の2次元画像データを選択する。それも無い場合は、正面の2次元画像データを選択する。 There is no problem when there are all 40 pieces of two-dimensional image data shown in the table of FIG. 8B, but when there is not enough, one image closer to the “front” side is used. In other words, if there is no two-dimensional image data on the left side, the image cannot be displayed, so the two-dimensional one cell (θ 1 = 300 ° to 30 °, θ 2 = 300 ° to 330 °). Select image data. If not, the front two-dimensional image data is selected.

なお、正面、真上、斜め上の3枚の2次元画像データが用意されたパイナップルの場合、X−Z座標軸の角度θ2は、2次元画像データを選択する際に無関係のパラメータである。この場合、画像選択部2は、X−Y座標軸の角度θ1のみに基づいて、正面、真上、斜め上の何れかの2次元画像データを選択する。 In the case of a pineapple in which three pieces of two-dimensional image data are prepared in front, right above, and obliquely, the angle θ 2 of the XZ coordinate axis is an irrelevant parameter when selecting two-dimensional image data. In this case, the image selection unit 2 selects any two-dimensional image data from the front, directly above, or diagonally based on only the angle θ 1 of the XY coordinate axes.

例えば、X−Y座標軸の角度θ1がθ1=60°〜90°の値をとる範囲内に仮想カメラがあるときは、画像選択部2は、対象物を真上から見た2次元画像データを選択する。画像配置部12は、選択された2次元画像データを、仮想モデル配置部11により配置された3次元モデルの直方体の中に配置する。 For example, when the virtual camera is within a range in which the angle θ 1 of the XY coordinate axes takes a value of θ 1 = 60 ° to 90 °, the image selection unit 2 displays a two-dimensional image when the object is viewed from directly above. Select data. The image placement unit 12 places the selected 2D image data in the rectangular parallelepiped of the 3D model placed by the virtual model placement unit 11.

この状態で、図示しない操作部をユーザが操作して仮想カメラの方向を下方に動かしていったとする。このとき、仮想カメラの方向の移動に伴って、陳列テーブルおよび直方体の3次元モデルがジオメトリ処理等により視点変換される。一方、X−Y座標軸の角度θ1がθ1=60°〜90°の範囲内にある間は、真上の2次元画像データが選択され続ける。その間、仮想カメラの方向の移動に伴い、移動した方向に対して2次元画像データの画像平面が常に垂直となるように、直方体の中で画像平面の配置角度が徐々に変化していく。これにより、仮想カメラの方向を動かしても、選択中である2次元画像データの画像平面が常に正面から見える状態となっている。そして、仮想カメラの移動によって角度θ1がθ1=30°〜60°の範囲に移ると、画像選択部2は、斜め上の2次元画像データを選択するように切り替える。 In this state, it is assumed that the user operates an operation unit (not shown) to move the direction of the virtual camera downward. At this time, as the virtual camera moves in the direction, the display table and the three-dimensional model of the rectangular parallelepiped are subjected to viewpoint conversion by geometry processing or the like. On the other hand, while the angle θ 1 of the XY coordinate axis is in the range of θ 1 = 60 ° to 90 °, the two-dimensional image data directly above is continuously selected. Meanwhile, as the direction of the virtual camera moves, the arrangement angle of the image plane gradually changes in the rectangular parallelepiped so that the image plane of the two-dimensional image data is always perpendicular to the moved direction. Thereby, even if the direction of the virtual camera is moved, the image plane of the two-dimensional image data being selected is always visible from the front. When the angle θ 1 moves to a range of θ 1 = 30 ° to 60 ° due to the movement of the virtual camera, the image selection unit 2 switches so as to select the two-dimensional image data on the upper side.

次に、以上のように構成した本実施形態による画像生成装置の動作、すなわち本実施形態による画像生成方法を説明する。図9は、本実施形態による画像生成装置の動作例を示すフローチャートである。   Next, the operation of the image generation apparatus according to the present embodiment configured as described above, that is, the image generation method according to the present embodiment will be described. FIG. 9 is a flowchart illustrating an operation example of the image generation apparatus according to the present embodiment.

図9において、まず3次元モデル処理部13は、陳列テーブルの3次元画像データを生成する(ステップS1)。次に、仮想モデル配置部11は、ステップS1で生成したオブジェクト空間内の陳列テーブルの上に並べるように、1以上の直方体の仮想3次元モデルを配置する(ステップS2)。ここでは、図2のような3D表現画像を生成するために、3種類の大きさの直方体を設定し、それぞれを複数ずつ陳列テーブルの適切な位置に並べて配置する。   In FIG. 9, first, the 3D model processing unit 13 generates 3D image data of a display table (step S1). Next, the virtual model placement unit 11 places one or more cuboid virtual three-dimensional models so as to be arranged on the display table in the object space generated in step S1 (step S2). Here, in order to generate a 3D representation image as shown in FIG. 2, three types of rectangular parallelepipeds are set, and a plurality of them are arranged side by side at appropriate positions on the display table.

そして、画像配置部12は、仮想カメラの方向を表す情報に基づいて、仮想カメラの方向に合った野菜の2次元画像データを選択して2次元画像記憶部1から読み出す(ステップS3)。ここでは、3種類の直方体に配置するために必要な3種類の野菜の2次元画像データをそれぞれ選択する。また、画像配置部12は、ステップS2で配置した直方体の中に、仮想カメラの方向に応じて角度を調整した位置にて、ステップS3で選択した2次元画像データの画像平面を配置することにより、図2のような3D表現画像を生成する(ステップS4)。   And the image arrangement | positioning part 12 selects the two-dimensional image data of the vegetables suitable for the direction of a virtual camera based on the information showing the direction of a virtual camera, and reads it from the two-dimensional image storage part 1 (step S3). Here, two-dimensional image data of three kinds of vegetables necessary for arranging in three kinds of rectangular parallelepipeds are selected. Further, the image placement unit 12 places the image plane of the two-dimensional image data selected in step S3 in the rectangular parallelepiped placed in step S2 at a position where the angle is adjusted according to the direction of the virtual camera. Then, a 3D representation image as shown in FIG. 2 is generated (step S4).

以上に説明した本実施形態による画像生成の手法は、ハードウェア構成、DSP、ソフトウェアの何れによっても実現することが可能である。例えばソフトウェアによって実現する場合、本実施形態の画像生成装置は、実際にはコンピュータのCPUあるいはMPU、RAM、ROMなどを備えて構成され、RAMやROMに記憶されたプログラムが動作することによって実現できる。   The image generation method according to the present embodiment described above can be realized by any of a hardware configuration, a DSP, and software. For example, when realized by software, the image generation apparatus according to the present embodiment is actually configured by including a CPU or MPU of a computer, RAM, ROM, and the like, and can be realized by operating a program stored in the RAM or ROM. .

したがって、コンピュータが上記実施形態の機能を果たすように動作させるプログラムを例えばCD−ROMのような記録媒体に記録し、コンピュータに読み込ませることによって実現できるものである。上記プログラムを記録する記録媒体としては、CD−ROM以外に、フレキシブルディスク、ハードディスク、磁気テープ、光ディスク、光磁気ディスク、DVD、不揮発性メモリカード等を用いることができる。また、上記プログラムをインターネット等のネットワークを介してコンピュータにダウンロードすることによっても実現できる。   Therefore, it can be realized by recording a program that causes a computer to perform the functions of the above-described embodiments on a recording medium such as a CD-ROM and causing the computer to read the program. As a recording medium for recording the program, a flexible disk, a hard disk, a magnetic tape, an optical disk, a magneto-optical disk, a DVD, a nonvolatile memory card, and the like can be used in addition to the CD-ROM. It can also be realized by downloading the program to a computer via a network such as the Internet.

以上詳しく説明したように、本実施形態では、オブジェクト空間内に直方体の仮想的な3次元モデルを配置し、仮想カメラの方向に合った2次元画像データを2次元画像記憶部1の中から選択的に読み出す。そして、上述のように配置した1以上の仮想3次元モデルから成る直方体の中に、選択した2次元画像データの画像平面を配置することにより、オブジェクト空間内において仮想カメラから見える3D表現画像を生成するようにしている。   As described above in detail, in the present embodiment, a virtual three-dimensional model of a rectangular parallelepiped is arranged in the object space, and two-dimensional image data matching the direction of the virtual camera is selected from the two-dimensional image storage unit 1. Read out automatically. Then, by arranging the image plane of the selected two-dimensional image data in a rectangular parallelepiped composed of one or more virtual three-dimensional models arranged as described above, a 3D representation image that can be seen from the virtual camera in the object space is generated. Like to do.

このように構成した本実施形態の画像生成装置では、画像の3D表現を行うのに使用する3次元モデルは簡易的な直方体のポリゴンデータであり、形状が複雑ではないのでそれほど情報量は多くなく、演算の負荷は非常に軽くて済む。そして、この3次元モデルの直方体の中に2次元画像データの画像平面を配置するだけで3D表現が実現されるので、仮想カメラにより様々な方向から見た3次元モデルの画像を効率的に生成することができる。   In the image generating apparatus of the present embodiment configured as described above, the 3D model used to perform 3D representation of an image is simple rectangular parallelepiped polygon data, and since the shape is not complicated, the amount of information is not so much. The calculation load is very light. Since 3D representation is realized simply by placing the image plane of the 2D image data in the rectangular parallelepiped of the 3D model, the virtual camera efficiently generates the 3D model image viewed from various directions. can do.

また、本実施形態によれば、1以上の直方体の中に配置される画像平面どうしの重なり具合は、直方体の3次元モデルの重なり具合に従う。つまり、ある2つの直方体が重なるときに、その中にある2次元画像平面も同じように重なり、どちらの2次元画像が手前にくるかが決まる。これにより、3次元物体をオブジェクト空間上で積んだり配置したりすると当然に重なる部分も、2次元画像データによって適切に表現されるようになる。   Further, according to the present embodiment, the overlapping degree of the image planes arranged in one or more rectangular parallelepipeds follows the overlapping degree of the three-dimensional model of the rectangular parallelepiped. That is, when two rectangular parallelepipeds overlap, the two-dimensional image planes in the same overlap, and it is determined which two-dimensional image comes to the front. As a result, when a three-dimensional object is stacked or arranged in the object space, naturally the overlapping portion is appropriately represented by the two-dimensional image data.

以上のことから、1画面内に複数の3次元物体が存在する画像についても2次元画像データに基づいて3D表現を簡易的に行うことができる。   From the above, 3D expression can be easily performed based on two-dimensional image data even for an image in which a plurality of three-dimensional objects exist within one screen.

なお、上記実施形態では、図2のように陳列テーブルの上に複数種類の商品を並べて配置する棚割りの画像を生成する例について説明したが、これに限定されるものではない。   In the above-described embodiment, an example of generating a shelf image in which a plurality of types of products are arranged and arranged on the display table as shown in FIG. 2 has been described, but the present invention is not limited to this.

また、上記実施形態では、陳列テーブルについてはポリゴンデータに基づき通常の3D画像を生成する例について説明したが、これも2次元画像データから2D画像を生成するようにしても良い。   In the above-described embodiment, an example in which a normal 3D image is generated based on polygon data for the display table has been described. However, a 2D image may also be generated from 2D image data.

また、上記実施形態では、1つの対象物について様々な視点から見た画像として用意する2次元画像データを最大で40枚としたが、これより多くても良い。用意する2次元画像データの数を多くすれば、いろんな角度から見た対象物をよりリアルに表現することができる。ただし、この場合は2次元画像記憶部1に記憶するデータ量が多くなるので、2次元画像データの数をあまり多くし過ぎるのは好ましくない。   In the above-described embodiment, the maximum number of two-dimensional image data prepared as images viewed from various viewpoints for one object is 40, but the number may be larger than this. If the number of two-dimensional image data to be prepared is increased, an object viewed from various angles can be expressed more realistically. However, in this case, since the amount of data stored in the two-dimensional image storage unit 1 increases, it is not preferable to increase the number of two-dimensional image data too much.

その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   In addition, each of the above-described embodiments is merely an example of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. In other words, the present invention can be implemented in various forms without departing from the spirit or main features thereof.

本実施形態による画像生成装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image generation apparatus by this embodiment. 本実施形態の画像生成装置で生成する3D表現画像の例を示す図である。It is a figure which shows the example of the 3D expression image produced | generated with the image production | generation apparatus of this embodiment. 40枚の2次元画像データを用意する場合の視点の例を示す図である。It is a figure which shows the example of a viewpoint in the case of preparing 40 two-dimensional image data. 各視点の2次元画像データの例を示す図である。It is a figure which shows the example of the two-dimensional image data of each viewpoint. 複数の直方体(仮想3次元モデル)をオブジェクト空間上に配置した状態の例を示す図である。It is a figure which shows the example of the state which has arrange | positioned several rectangular parallelepiped (virtual three-dimensional model) on object space. 直方体の内部に2次元画像データの画像平面を配置した状態の例を示す図である。It is a figure which shows the example of the state which has arrange | positioned the image plane of two-dimensional image data inside a rectangular parallelepiped. 直方体の中に配置する画像平面の位置(座標)の算出方法を説明するための図である。It is a figure for demonstrating the calculation method of the position (coordinate) of the image plane arrange | positioned in a rectangular parallelepiped. 2次元画像データの選択方法を説明するための図である。It is a figure for demonstrating the selection method of two-dimensional image data. 本実施形態による画像生成装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the image generation apparatus by this embodiment.

符号の説明Explanation of symbols

1 2次元画像記憶部
2 画像選択部
3 画像生成部
11 仮想モデル配置部
12 画像配置部
13 3次元モデル処理部
14 画像出力部
DESCRIPTION OF SYMBOLS 1 2D image memory | storage part 2 Image selection part 3 Image generation part 11 Virtual model arrangement | positioning part 12 Image arrangement | positioning part 13 3D model processing part 14 Image output part

Claims (6)

単一の3次元物体を異なる視点から見た1以上の2次元画像データを記憶する2次元画像記憶部と、
仮想カメラの方向を表す情報に基づいて、上記2次元画像記憶部に記憶されている1以上の2次元画像データの中から、上記仮想カメラの方向に合った2次元画像データを選択して読み出す画像選択部と、
上記画像選択部により選択された2次元画像データに基づいて、オブジェクト空間内において上記仮想カメラから見える画像を生成する画像生成部とを備え、
上記画像生成部は、上記オブジェクト空間内に直方体の仮想的な3次元モデルを配置する仮想モデル配置部と、
上記仮想モデル配置部により配置された1以上の仮想3次元モデルから成る直方体の中に設定した位置に、上記画像選択部により選択された2次元画像データの画像平面を配置する画像配置部とを備えることを特徴とする画像生成装置。
A two-dimensional image storage unit that stores one or more two-dimensional image data obtained by viewing a single three-dimensional object from different viewpoints;
Based on the information indicating the direction of the virtual camera, two-dimensional image data matching the direction of the virtual camera is selected and read from one or more two-dimensional image data stored in the two-dimensional image storage unit. An image selector;
An image generation unit that generates an image visible from the virtual camera in the object space based on the two-dimensional image data selected by the image selection unit;
The image generation unit includes a virtual model arrangement unit that arranges a virtual three-dimensional model of a rectangular parallelepiped in the object space;
An image placement unit for placing an image plane of the two-dimensional image data selected by the image selection unit at a position set in a rectangular parallelepiped composed of one or more virtual three-dimensional models placed by the virtual model placement unit; An image generation apparatus comprising:
上記画像配置部は、上記直方体の中心点を上記画像平面の中心点が通るような位置に、上記画像選択部により選択された2次元画像データの画像平面を配置することを特徴とする請求項1に記載の画像生成装置。 The image arranging unit arranges the image plane of the two-dimensional image data selected by the image selecting unit at a position where the center point of the image plane passes through the center point of the rectangular parallelepiped. The image generating apparatus according to 1. 上記画像配置部は、上記仮想カメラの方向に対して上記画像平面が垂直となるように、上記直方体の中での配置角度を調整して上記画像平面を配置することを特徴とする請求項2に記載の画像生成装置。 3. The image arranging unit arranges the image plane by adjusting an arrangement angle in the rectangular parallelepiped so that the image plane is perpendicular to a direction of the virtual camera. The image generating apparatus described in 1. オブジェクト空間内に直方体の仮想的な3次元モデルを配置する第1のステップと、
仮想カメラの方向を表す情報に基づいて、単一の3次元物体を異なる視点から見た1以上の2次元画像データを記憶した2次元画像記憶部の中から、上記仮想カメラの方向に合った2次元画像データを選択して読み出す第2のステップと、
上記第1のステップで配置された1以上の仮想3次元モデルから成る直方体の中に設定した位置に、上記第2のステップで選択された2次元画像データの画像平面を配置することにより、上記オブジェクト空間内において上記仮想カメラから見える画像を生成する第3のステップとを有することを特徴とする画像生成方法。
A first step of arranging a virtual three-dimensional model of a rectangular parallelepiped in the object space;
Based on the information indicating the direction of the virtual camera, it matches the direction of the virtual camera from the two-dimensional image storage unit storing one or more two-dimensional image data obtained by viewing a single three-dimensional object from different viewpoints. A second step of selecting and reading out two-dimensional image data;
By arranging the image plane of the two-dimensional image data selected in the second step at the position set in the rectangular parallelepiped composed of one or more virtual three-dimensional models arranged in the first step, And a third step of generating an image visible from the virtual camera in the object space.
請求項1〜3の何れか1項に記載の各手段としてコンピュータを機能させるための画像生成プログラム。 The image generation program for functioning a computer as each means of any one of Claims 1-3. 請求項4に記載の画像生成方法の処理手順をコンピュータに実行させるための画像生成プログラム。 An image generation program for causing a computer to execute the processing procedure of the image generation method according to claim 4.
JP2006298763A 2006-11-02 2006-11-02 Image forming device and method, and image forming program Pending JP2008117113A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006298763A JP2008117113A (en) 2006-11-02 2006-11-02 Image forming device and method, and image forming program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006298763A JP2008117113A (en) 2006-11-02 2006-11-02 Image forming device and method, and image forming program

Publications (2)

Publication Number Publication Date
JP2008117113A true JP2008117113A (en) 2008-05-22
JP2008117113A5 JP2008117113A5 (en) 2008-07-03

Family

ID=39502978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006298763A Pending JP2008117113A (en) 2006-11-02 2006-11-02 Image forming device and method, and image forming program

Country Status (1)

Country Link
JP (1) JP2008117113A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123846A (en) * 2012-03-27 2012-06-28 Denso Wave Inc Image data generation device of simulation device
JP2012123847A (en) * 2012-03-27 2012-06-28 Denso Wave Inc Image data generation device of simulation device
JP2014002722A (en) * 2012-05-11 2014-01-09 Dassault Systemes Comparing virtual and real images in shopping experience
JP2014511537A (en) * 2011-03-01 2014-05-15 ザ プロクター アンド ギャンブル カンパニー Display of data about physical retail environment on virtual illustration of physical retail environment
JP2017097567A (en) * 2015-11-20 2017-06-01 株式会社スクウェア・エニックス Program, computer device, and execution method
US10074121B2 (en) 2013-06-20 2018-09-11 Dassault Systemes Shopper helper
JP2019121158A (en) * 2018-01-04 2019-07-22 凸版印刷株式会社 Data display apparatus, method, and program
JP2021135951A (en) * 2020-02-28 2021-09-13 株式会社ドワンゴ Distribution system, video generator, and video generation method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166277A (en) * 1997-08-18 1999-03-09 Nri & Ncc Co Ltd Simplified display device for three-dimensional terrain model with a large number of objects arranged on its surface and simplified display method
JP2001084402A (en) * 1999-09-09 2001-03-30 Namco Ltd Image generation system and information storage medium
JP2002279448A (en) * 2001-03-16 2002-09-27 Toshiba Corp Simulation device for 3D image construction
JP2004021930A (en) * 2002-06-20 2004-01-22 Toppan Printing Co Ltd Rendering device and rendering method
JP2004234350A (en) * 2003-01-30 2004-08-19 Univ Tokyo Image processing apparatus, image processing method, and image processing program
JP2005215724A (en) * 2004-01-27 2005-08-11 Sanyo Electric Co Ltd Texture information generation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1166277A (en) * 1997-08-18 1999-03-09 Nri & Ncc Co Ltd Simplified display device for three-dimensional terrain model with a large number of objects arranged on its surface and simplified display method
JP2001084402A (en) * 1999-09-09 2001-03-30 Namco Ltd Image generation system and information storage medium
JP2002279448A (en) * 2001-03-16 2002-09-27 Toshiba Corp Simulation device for 3D image construction
JP2004021930A (en) * 2002-06-20 2004-01-22 Toppan Printing Co Ltd Rendering device and rendering method
JP2004234350A (en) * 2003-01-30 2004-08-19 Univ Tokyo Image processing apparatus, image processing method, and image processing program
JP2005215724A (en) * 2004-01-27 2005-08-11 Sanyo Electric Co Ltd Texture information generation device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014511537A (en) * 2011-03-01 2014-05-15 ザ プロクター アンド ギャンブル カンパニー Display of data about physical retail environment on virtual illustration of physical retail environment
JP2012123846A (en) * 2012-03-27 2012-06-28 Denso Wave Inc Image data generation device of simulation device
JP2012123847A (en) * 2012-03-27 2012-06-28 Denso Wave Inc Image data generation device of simulation device
JP2014002722A (en) * 2012-05-11 2014-01-09 Dassault Systemes Comparing virtual and real images in shopping experience
US10074121B2 (en) 2013-06-20 2018-09-11 Dassault Systemes Shopper helper
JP2017097567A (en) * 2015-11-20 2017-06-01 株式会社スクウェア・エニックス Program, computer device, and execution method
JP2019121158A (en) * 2018-01-04 2019-07-22 凸版印刷株式会社 Data display apparatus, method, and program
JP7206591B2 (en) 2018-01-04 2023-01-18 凸版印刷株式会社 Data display device, method and program
JP2021135951A (en) * 2020-02-28 2021-09-13 株式会社ドワンゴ Distribution system, video generator, and video generation method

Similar Documents

Publication Publication Date Title
US11144679B2 (en) Engraving a 2D image on a subdivision surface
US9401044B1 (en) Method for conformal visualization
JP6888411B2 (en) 3D shape data editing device and 3D shape data editing program
TW201317937A (en) System and method for generating an image measurement program of a product
CN103049592A (en) Immersive dimensional variation
EP2595040A1 (en) Information processing device, method of processing information, and program
JP2015087846A (en) Three-dimensional model generation system
JP4838079B2 (en) Part identification image creating apparatus, program, and computer-readable storage medium
US8311320B2 (en) Computer readable recording medium storing difference emphasizing program, difference emphasizing method, and difference emphasizing apparatus
JP4809121B2 (en) Parts catalog creation method, parts catalog creation apparatus and program
JP2000298734A (en) 3D model section generator
US8149239B2 (en) Image processing apparatus, image processing method, and storage medium storing a program for causing an image processing apparatus to execute an image processing method
JP2008117113A (en) Image forming device and method, and image forming program
JP2007325043A (en) Image display apparatus and image display program
TW202208934A (en) Method and head-mounted device for capturing real-world information into virtual environment
JP2008117113A5 (en)
JP4810467B2 (en) COMPONENT SELECTION PROGRAM, RECORDING MEDIUM CONTAINING THE PROGRAM, COMPONENT SELECTION METHOD, AND COMPONENT SELECTION DEVICE
TWI844180B (en) Image processing method and virtual reality display system
JPH0620030A (en) Image information generated from three-dimensional image information and image display data reproducing device
JP2000163469A (en) Method and device for stocktaking simulation and recording medium where stocktaking simulation program is recorded
JP2009187147A (en) Program and computer
JP2019159886A (en) Image generation method and image generation device
JP2008299663A (en) Image display device and image display method
WO2017204196A1 (en) Three-dimensional shape data creation device and three-dimensional shape data creation assist method
JP2010003136A (en) Device and method for creating three-dimensional model data

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308