[go: up one dir, main page]

JP2019046213A - Method and program for generating an image obtained by interpolating a plurality of images - Google Patents

Method and program for generating an image obtained by interpolating a plurality of images Download PDF

Info

Publication number
JP2019046213A
JP2019046213A JP2017169190A JP2017169190A JP2019046213A JP 2019046213 A JP2019046213 A JP 2019046213A JP 2017169190 A JP2017169190 A JP 2017169190A JP 2017169190 A JP2017169190 A JP 2017169190A JP 2019046213 A JP2019046213 A JP 2019046213A
Authority
JP
Japan
Prior art keywords
area
image
rotation
closed
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017169190A
Other languages
Japanese (ja)
Other versions
JP6482620B1 (en
Inventor
智明 横塚
Tomoaki Yokozuka
智明 横塚
龍之介 橋本
Ryunosuke Hashimoto
龍之介 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Celsys Inc
Original Assignee
Celsys Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Celsys Inc filed Critical Celsys Inc
Priority to JP2017169190A priority Critical patent/JP6482620B1/en
Application granted granted Critical
Publication of JP6482620B1 publication Critical patent/JP6482620B1/en
Publication of JP2019046213A publication Critical patent/JP2019046213A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To provide a method and program for creating a bisected image.SOLUTION: The method allows a computer to execute a first estimation procedure on an area a included in an image A and an area c included in an image C and corresponding to the area a in such a way that a display image B at time tB between time tA and time tC is generated from the image A and the image C at the time tC later than the time tA for displaying the image A, wherein a correspondence relationship includes rotation of an area about an axis substantially perpendicular to the image. The method includes: a central coordinate acquisition step of acquiring a central coordinate Oa of rotation of the area a and a central coordinate Oc of rotation of the area c; a rotation recognition step of recognizing a direction and an angle of rotation; and an area forming step of forming, through interpolation of a shape of the area a and a shape of the area c, a shape of an area b which is included in the image B and which corresponds to the area a based on the time tA, the time tB, the time tC, the center coordinate Oa, the center coordinate Oc, and the direction and angle of rotation.SELECTED DRAWING: None

Description

本発明は、複数の画像を補間した画像を生成する方法及びプログラムに関する。   The present invention relates to a method and program for generating an image obtained by interpolating a plurality of images.

複数の二次元画像を作成し、複数の二次元画像の各々を時系列的に順次表示することによって、二次元アニメーションを作成することが一般に行われている。二次元アニメーションは、手書きなどで作成された静止画像を時間軸上の各フレームに対応づけて再生することで、動画を構成する表現技法である。   It is generally performed to create a two-dimensional animation by creating a plurality of two-dimensional images and sequentially displaying each of the plurality of two-dimensional images in chronological order. Two-dimensional animation is an expression technique that composes a moving image by reproducing a still image created by handwriting or the like in association with each frame on the time axis.

古くは、手書きの画像を複数枚作成し、複数枚の画像を順次映画フィルムに撮影し、映画フィルムを投影することによって、テレビや映画などの漫画(二次元アニメーション)を制作することが行われてきた。複数の画像は、それぞれ、キャラクタなどの動きを少しずつ変えた画像となっているため、複数の画像を連続的に表示することによって、動きのあるキャラクタの動画が生成できる。また、より原始的な技法として、複数の紙に描かれた複数毎の画像を、指によってパラパラとめくることによって、動きのあるキャラクタを表現するパラパラ漫画などが存在していた。   In the old days, cartoons (two-dimensional animation) such as televisions and movies are performed by creating multiple handwritten images, shooting multiple images sequentially on movie films, and projecting movie films. It has Each of the plurality of images is an image in which the motion of the character or the like is changed little by little, so by displaying the plurality of images continuously, it is possible to generate a moving image of the character with motion. Also, as a more primitive technique, there has been a Parapara cartoon or the like that expresses a moving character by flipping a plurality of images drawn on a plurality of sheets of paper with a finger.

一般的な、二次元アニメーションは、以下の工程で作成されることが多い。   A general, two-dimensional animation is often created in the following steps.

・行程(1)原画の作成:一連の動画の画像のうちの所定のタイミングに散在する要のフレームであるキーフレームに含まれる画像を原画と呼ぶ。主にデザイナーが原画を作成する。 Process (1) Creation of original image: An image included in a key frame which is a necessary frame scattered at a predetermined timing in a series of moving image images is called an original image. The designer mainly creates the original.

・行程(2)中割り画像の作成:時間軸上、あるキーフレームと次のキーフレームとの間に位置し、前後の原画をなめらかに補間した画像(この画像を「中割り画像」という)を作成する。
・行程(3)彩色:原画と中割り画像の中に存在する複数の閉領域の着色を行う。
・行程(4)撮影:原画と背景との合成、及び中割り画像と背景との合成を行い各々のフレームを作成する。
-Process (2) creation of a split image: An image which is located between a key frame and the next key frame on the time axis and which smoothly interpolates the preceding and following original images (this image is called a "split image") Create
Process (3) coloring: coloring of a plurality of closed regions present in the original image and the split image.
Process (4) shooting: A combination of the original image and the background, and a combination of the split image and the background are performed to create each frame.

上記行程(1)の原画については、デザイナーが作成するのが基本である。原画は、動きのあるキャラクタの特徴的な動作部分をデザイナーが手書き又は、コンピュータグラフィクスのソフトウエア等を用いて作成する。通常、デザイナーは、動画の全てのフレームを作成することはなく、キーフレームのための原画を描く。幾つかのフレームを隔てて原画が描かれる。   About the original picture of the above-mentioned process (1), it is basic that a designer creates. The original image is created by a designer by handwriting or using computer graphics software or the like for the characteristic movement part of the moving character. Usually, the designer does not create every frame of the animation, but draws the original for the key frame. The original picture is drawn with several frames apart.

上記行程(2)は、中割り画像の作成である。1つの原画と、時間的にその次に位置する原画との間は、デザイナー以外の者が中割り画像を作成する場合が多い。中割り画像は、時間軸上で隣り合う原画の間に位置する空白のフレームに用いられる画像である。中割り画像を作成する目的は、なめらかな動画を作成するために、時間軸上で隣り合う原画を含むキーフレームを補間した画像を作成することで、空白のフレームを埋めることである。   The above-mentioned process (2) is creation of a middle division image. A person other than the designer often creates a split image between one original image and the original image positioned next in time. The split image is an image used for a blank frame located between adjacent originals on the time axis. The purpose of creating a split image is to fill a blank frame by creating an image obtained by interpolating key frames including adjacent originals on a time axis in order to create a smooth moving image.

したがって、中割り画像は、動画全体がスムーズなものとなるように描かれる。中割り画像は、手書きで作成されていることが多いが、原画に比べて、作成する枚数が多くなるため、多くのリソースが必要となる。また、自動的に中割り画像を作成することも試みられているが、自然な動画を作成する上で、自動的な中割り画像の作成には困難を伴う。   Therefore, the split image is drawn so that the entire moving image is smooth. The split image is often created by handwriting, but since the number of images to be created is larger than that of the original image, more resources are required. Also, although it has been attempted to automatically create split images, it is difficult to automatically create split images in creating natural moving images.

上記行程(3)は、彩色である。原画及び中割り画像は、共に、線画で描かれていることが多いため、線画によって形成されたそれぞれの閉領域を、適切な色で着色する作業(彩色)が行われる。彩色についても、ディジタル化された処理が普及している。   The above step (3) is coloring. Since both the original image and the split image are often drawn as line drawings, an operation (coloring) is performed to color the respective closed regions formed by the line drawings with appropriate colors. Digitized processing is also widespread for coloring.

上記工程(4)は、撮影である。古くは、各フレームが銀塩フィルムに撮影されていた。撮影工程(4)は、ディジタル化された処理が普及しており、ディジタルの動画が生成される。   The above step (4) is photographing. In the old days, each frame was photographed on a silver halide film. In the photographing process (4), digitized processing is widespread, and digital moving images are generated.

上記工程(2)及び工程(3)については、手作業を必要とする部分が多く、繁雑な作業をオペレータが行う割合が多い。これは、原画に存在する複数のオブジェクトの画像が重なり合っていたり、変形していたりするためである。すなわち、2つの原画における対応する閉領域が変形し、又は対応する交点(閉領域の境界線が交わる交点など)が移動してしまうため、自動的な対応付けが困難となることなどに起因している。   In the above steps (2) and (3), there are many parts that require manual work, and the ratio at which the operator performs complicated work is high. This is because the images of a plurality of objects present in the original image overlap or are deformed. That is, the corresponding closed regions in the two original images are deformed, or the corresponding intersection points (such as the intersection points where the boundaries of the closed regions intersect) are moved, which makes automatic matching difficult. ing.

2つの画像に存在する対応する交点を発見する技術としては以下の技術が存在する。   The following techniques exist as techniques for finding corresponding intersection points present in two images.

2枚のキーフレームとなるビットマップイメージのそれぞれに、双方のビットマップイメージの対応し合う位置関係を示すためのコントロールポイントを指定し、その対応するコントロールポイント間を結んだ直線上に決定された内分点にコントロールポイントを変更することにより補間フレームを生成する技術が存在する(例えば、特許文献1)。   Control points for indicating the corresponding positional relationship between the two bitmap images are specified for each of the two key frame bitmap images, and they are determined on a straight line connecting the corresponding control points. There exists a technique which produces | generates an interpolation frame by changing a control point to an internal division point (for example, patent document 1).

また、効率よくマッチング処理を行うため、マッチング部が、動的計画法を用いて、第1形状データの輪郭点とマッチングする第2形状データの輪郭点を求める技術が存在する(例えば、特許文献2)。
2つの画像に存在する対応する閉領域を発見する技術としては以下の技術が存在する。
In addition, in order to efficiently perform matching processing, there is a technique in which the matching unit obtains a contour point of the second shape data that matches the contour point of the first shape data using dynamic programming (for example, patent document 2).
The following techniques exist as techniques for finding corresponding closed regions present in two images.

例えば、頭や手などの閉領域をチェーンとしてリスト化して記憶しておき、閉領域の特徴をトラッキングする技術が存在する(例えば、非特許文献1参照)。   For example, there is a technique of tracking and storing the closed area such as the head and the hand as a chain and tracking the characteristics of the closed area (see, for example, Non-Patent Document 1).

また、輪郭のマッチングを行い、似ている画像閉領域を対応づける技術が存在する(例えば、非特許文献2参照)。   In addition, there is a technique of performing contour matching to associate similar image closed regions (see, for example, Non-Patent Document 2).

特開平11−7539号公報Japanese Patent Application Laid-Open No. 11-7539 特開2015−115047号公報JP, 2015-115047, A

P. Garcia Trigo,H. Johan,T. Imagire,and T. Nishita. Interactive Region Matching for 2D Animation Coloring Based on Feature’s Variation. IEICE ransactions(E92-D),No.6,pp.1289-1295 (2009).P. Garcia Trigo, H. Johan, T. Imagire, and T. Nishita. Interactive Region Matching for 2D Animation Coloring Based on Feature ’s Variation. IEICE ransactions (E92-D), No. 6, pp. 1289-1295 (2009). J. S. Madeira,A. Stork,and M. H. Gross. An approach to computer-supported cartooning.The Visual Computer,Vol.12,No.1,pp.1-17 (1996).J. S. Madeira, A. Stork, and M. H. Gross. An approach to computer-supported cartooning. The Visual Computer, Vol. 12, No. 1, pp. 1-17 (1996).

上述のように、中割り画像の作成工程(2)では、中割り画像の作成に多くのリソースを必要とする。また、彩色工程(3)には、手作業を伴う彩色の行程が存在する。この彩色の工程では、原画及び中割り画像の各々に対して、対応する閉領域に同じ彩色を施す必要がある。したがって、彩色を行う場合には、複数の原画及び複数の中割り画像の各々のフレームに存在する対応する閉領域を特定する作業が必要である。通常、対応する閉領域の判断は、オペレータによる目視の作業が必要とされる。   As described above, in the split image creation step (2), a lot of resources are required to create the split image. Also, in the coloring step (3), there is a coloring step involving manual work. In this coloring process, it is necessary to apply the same coloring to the corresponding closed regions for each of the original image and the split image. Therefore, in the case of coloring, it is necessary to specify a corresponding closed area present in each frame of a plurality of original images and a plurality of middle-cut images. Usually, the determination of the corresponding closed area requires a visual task by the operator.

以下に開示する実施形態は、特に中割り画像の作成工程及び彩色行程等における、オペレータの作業の軽減を図ることにより、二次元アニメーションの作成をよりスムーズに行うことができるようにすることを目的とする。   The embodiments disclosed below aim at enabling the creation of two-dimensional animation to be performed more smoothly by reducing the work of the operator, particularly in the process of creating split images and the coloring process. I assume.

一実施形態は、既知の画像Aと、前記画像Aが表示される時刻tAよりも後の時刻tCに表示される既知の画像Cとから、前記時刻tAと前記時刻tCとの間の時刻tBに表示される画像Bを生成するように、前記画像Aに含まれる領域aと、前記画像Cに含まれかつ前記領域aと対応関係を有する領域cとに対して、コンピュータに第1の推定手順を実行させる方法であって、前記第1の推定手順は、前記対応関係が、画像に略垂直の方向の軸を中心とした領域の回転を含み、前記領域aの回転の中心座標Oaと、前記領域cの回転の中心座標Ocとを取得する、中心座標取得ステップと、前記回転の方向と前記回転の角度とを認識する回転認識ステップと、前記時刻tAと前記時刻tBと前記時刻tCと前記中心座標Oaと前記中心座標Ocと前記回転の方向と前記回転の角度とに基づいて、前記領域aの形状と前記領域cの形状とを補間することで前記画像Bに含まれる領域であって前記領域aに対応する領域である領域bの形状を形成する領域形成ステップと、を有する方法を提供する。   In one embodiment, a time tB between the time tA and the time tC from the known image A and the known image C displayed at the time tC after the time tA when the image A is displayed To generate an image B to be displayed on the first estimation in a computer with respect to an area a included in the image A and an area c included in the image C and having a correspondence with the area a A method of performing a procedure, wherein the first estimation procedure includes rotation of a region about an axis in a direction substantially perpendicular to an image, and the central coordinate Oa of the rotation of the region a A central coordinate acquisition step of acquiring the central coordinate Oc of the rotation of the area c; a rotation recognition step of recognizing the direction of the rotation and the angle of the rotation; the time tA, the time tB, and the time tC. And the center coordinates Oa and the center coordinates An area included in the image B by interpolating the shape of the area a and the shape of the area c based on c, the direction of rotation, and the angle of rotation, and an area corresponding to the area a And b. Forming a shape of the region b.

複数の画像を補間した画像を生成することで、アニメーションの作成工程における人的作業負担を軽減させることにより、アニメーションの作成をよりスムーズに行うことができる。   By creating an image obtained by interpolating a plurality of images, it is possible to create animation more smoothly by reducing the human work load in the animation creation process.

原画及び中割り画像を含む複数のフレームにより二次元アニメーションを構成する例を示す図である。It is a figure showing an example which constitutes a two-dimensional animation by a plurality of frames containing an original picture and a middle division picture. 原画を構成する各画素の特徴抽出の例を示す図である。It is a figure which shows the example of feature extraction of each pixel which comprises an original image. 原画を構成する各閉領域を管理する表の例を示す図である。It is a figure which shows the example of the table which manages each closed area which comprises an original drawing. 複数の閉領域を含む2つの画像のそれぞれの閉領域を対応づける手法の例を示す図である。It is a figure which shows the example of the method of matching each closed area of two images which contain several closed area. 複数の閉領域を含む2つの画像のそれぞれの閉領域の対応づけの結果を示す図である。It is a figure which shows the result of matching of the closed area of each of two images containing a several closed area. 領域の対応付けの例を示すフローチャートである。It is a flowchart which shows the example of matching of an area | region. 複数の閉領域を含む2つの画像のそれぞれに存在する交点の対応付けの例を示す図である。It is a figure which shows the example of matching of the intersection which exists in each of two images which contain several closed area | regions. 複数の閉領域を含む2つの画像のそれぞれの交点の対応づけの結果を示す図である。It is a figure which shows the result of matching of each intersection of two images which contain several closed area | regions. 複数の閉領域を含む2つの画像のそれぞれに存在する交点の対応付けの際に発生する第1の課題の例を示す図である。It is a figure which shows the example of the 1st subject generate | occur | produced in the case of the matching of the intersection which exists in each of two images which contain several closed area | regions. 複数の閉領域を含む画像に存在する交点及び境界線を修正する処理の例を示す図である。It is a figure which shows the example of the process which corrects the intersection and boundary line which exist in the image containing several closed area | regions. 複数の閉領域を含む画像に存在する交点及び境界線を修正する処理の結果に基づいて、交点の対応付けの例を示す図である。It is a figure which shows the example of matching of an intersection based on the result of the process which corrects the intersection and boundary which exist in the image containing a several closed area. 2つの交点をまとまりとして捉えた場合に、それらの周囲に存在する複数の閉領域のパターンが同一である場合を発見するフローチャートである。When two intersection points are regarded as a group, it is a flow chart which discovers the case where the pattern of a plurality of closed regions which exist around them is the same. 交点の対応付けを行う処理を示すフローチャートである。It is a flowchart which shows the process which matches the intersection. 中割り画像を自動的に作成する第1の例を示す図である。It is a figure which shows the 1st example which produces a middle division image automatically. 複数の中割り画像を生成する例を示す図である。It is a figure showing an example which generates a plurality of middle division images. 孤立した閉路上に交点が無い場合に交点を付与する例を示す図である。It is a figure which shows the example which provides an intersection, when there is no intersection in the isolated closed path. 2つの原画の片方が孤立した閉路を持つ場合の交点の処理の例を示す図である。It is a figure which shows the example of a process of the intersection in case one of two original pictures has a closed circuit isolated. 原画をレイヤーに分ける処理を行う例、閉領域の一部が対応している場合の処理の例を示す図である。FIG. 8 is a diagram showing an example of performing processing of dividing an original image into layers, and an example of processing when a part of closed regions correspond to each other. 本実施形態のハードウエア構成の例を示す図である。It is a figure which shows the example of the hardware constitutions of this embodiment. 領域が回転を伴う場合に、補間を用いて中割画像を生成する例を示す図である。It is a figure which shows the example which produces | generates a middle division image using interpolation, when an area | region involves rotation. 中割画像の領域を生成する例を概念的に示す図である。It is a figure which shows notionally the example which produces | generates the area | region of a middle division image. 中割画像の領域を生成する他の例を概念的に示す図である。It is a figure which shows notionally the other example which produces | generates the area | region of a middle division image. 中割画像の領域を生成する手順の例を示す図である。It is a figure which shows the example of the procedure which produces | generates the area | region of a middle division image. 2つの領域が関節で連結している場合に領域の一の修正をする例を示す図である。It is a figure which shows the example which corrects one of area | regions, when two area | regions are connected by the joint. 2つの領域が関節で連結している2つの画像の例を示す図である。It is a figure which shows the example of two images in which two area | regions are connected by the joint. 領域を分割して、レイヤーの別の層に分ける例を示す図である。It is a figure which shows the example which divides | segments an area | region and divides it into another layer of a layer. 2つのレイヤーのそれぞれから中割画像を形成したときの中割画像における領域のずれを示す図である。It is a figure which shows the shift | offset | difference of the area | region in a half-divided image when a half-divided image is formed from each of two layers. 関節点を与えることによって、中割画像における2つの領域のずれを解消する例を示す図である。It is a figure which shows the example which eliminates the shift | offset | difference of two area | regions in a middle division image by giving a joint point.

図1は、原画及び中割り画像を含む複数のフレームにより二次元アニメーションを構成する例を示す図である。   FIG. 1 is a diagram showing an example in which a two-dimensional animation is configured by a plurality of frames including an original image and a split image.

図1には、時間軸tが示されている。デザイナーが、原画1と原画2とを描く。時刻t1からt2までの間、原画1を含むフレームが表示される。そして、時刻t3から原画2を含むフレームが表示される。この場合、時刻t2からt3のフレームを空白の画像とすることはできないため、中割り画像Nを作成して、中割り画像Nを含むフレームを時刻t2からt3までの間表示することで、動画がスムーズに表示されるようにすることができる。図1の例では、中割り画像Nを1つ追加する場合を例示しているが、実際には、原画1と原画2との間に、2つ以上の中割り画像を作成する場合もある。図1は、説明を簡略化するために、1つの中割り画像Nが図示されている。   A time axis t is shown in FIG. A designer draws an original 1 and an original 2. From time t1 to t2, a frame including the original picture 1 is displayed. Then, a frame including the original image 2 is displayed from time t3. In this case, since a frame from time t2 to t3 can not be a blank image, a middle split image N is created, and a frame including the middle split image N is displayed from time t2 to t3 to create a moving image. Can be displayed smoothly. In the example of FIG. 1, although the case where one middle division image N is added is illustrated, in fact, two or more middle division images may be created between original picture 1 and original picture 2 . FIG. 1 shows one split image N in order to simplify the explanation.

原画1と原画2との中間の動きを表現する画像を生成することができれば、中割り画像Nを自動的に描くことができる。中割り画像Nを描くためには、例えば原画1と原画2における主要な交点の対応関係がわかっていれば、例えば、対応する交点どうしの位置を補間した交点(例えば中点)を求めることによって、中割り画像において対応する交点を求めてもよい。例えば、原画1の交点11と原画2の交点21は、対応する交点であることがわかる。したがって、例えば、交点11の座標と、交点21の座標を補間した交点(例えば中点)の座標)(例えばフレームの画素位置)を求めることによって、中割り画像Nの交点N1の座標を求めることができる。   If it is possible to generate an image that represents an intermediate movement between the original image 1 and the original image 2, it is possible to automatically draw the middle divided image N. In order to draw the middle divided image N, for example, if the correspondence between the main intersections in the original image 1 and the original image 2 is known, for example, the intersection point (for example, midpoint) obtained by interpolating the positions of corresponding intersection points is obtained. The corresponding intersection points may be determined in the middle divided image. For example, it is understood that the intersection 11 of the original image 1 and the intersection 21 of the original image 2 are corresponding intersection points. Therefore, for example, the coordinates of the intersection N1 of the middle divided image N are determined by determining the coordinates of the intersection 11 and the coordinates of the intersection (for example, the midpoint of the frame) obtained by interpolating the coordinates of the intersection 21 (for example, the pixel position of the frame). Can.

原画1と原画2における各交点の対応関係は以下のとおりである。すなわち、原画1における交点11、交点12、交点13、交点14は、それぞれ原画2における交点21、交点22、交点23、交点24に対応している。原画1及び原画2におけるこれらの複数の交点の対応付けを発見することができれば、中割り画像Nの複数の交点N1、交点N2、交点N3、交点N4の座標は、例えば、原画1と原画2との対応する交点を補間することで、求めることができる。   The correspondence between the intersections of the original 1 and the original 2 is as follows. That is, the intersection 11, the intersection 12, the intersection 13 and the intersection 14 in the original image 1 correspond to the intersection 21, the intersection 22, the intersection 23 and the intersection 24 in the original image 2 respectively. If it is possible to find the correspondence between the plurality of intersections in the original image 1 and the original image 2, the coordinates of the plurality of intersection points N1, intersection points N2, intersection points N3, and intersection points N4 of the middle divided image N are, for example, the original 1 and the original 2 It can obtain | require by interpolating the corresponding intersection of and.

上記の処理では、原画1の各交点と原画2の各交点の対応関係が既知であることを前提として説明した。しかしながら、現実には、原画1の各交点と原画2の各交点の対応関係をオペレータの指示に頼ることは、オペレータに多くの労力を強いることとなる。したがって、原画1の各交点と原画2の各交点の対応関係を自動的に推定することが求められる。   The above process is described on the premise that the correspondence between each intersection of the original image 1 and each intersection of the original image 2 is known. However, in reality, relying on the instruction of the operator on the correspondence between the respective intersections of the original image 1 and the respective intersections of the original image 2 forces the operator to do a lot of work. Therefore, it is required to automatically estimate the correspondence between each intersection of the original 1 and each intersection of the original 2.

図7に移る。図7は、原画1の交点13と原画2の交点23が対応関係にあることを推定するために、複数の閉領域を含む2つの画像のそれぞれに存在する交点の対応付けの例を示す図である。   Turning to FIG. FIG. 7 is a diagram showing an example of the correspondence of the intersection points present in each of two images including a plurality of closed regions in order to estimate that the intersection point 13 of the original image 1 and the intersection point 23 of the original image 2 are in correspondence. It is.

図7(A)の交点13の周辺を拡大した図が図7(C)である。また、図7(B)の交点23の周辺を拡大した図が図7(D)である。   The figure which expanded the periphery of the intersection 13 of FIG. 7 (A) is FIG. 7 (C). Moreover, the figure which expanded the periphery of the intersection 23 of FIG. 7 (B) is FIG. 7 (D).

図7(C)に示されるように、交点13は、背景Yと、閉領域1Bと、閉領域1Cとで作られる境界線上の交点であることがわかる。図7(D)に示されるように、交点23は、背景Yと、閉領域2Bと、閉領域2Cとで作られる境界線上の交点であることがわかる。   As shown in FIG. 7C, it can be seen that the intersection point 13 is an intersection point on the boundary line formed by the background Y, the closed region 1B, and the closed region 1C. As shown in FIG. 7D, it can be seen that the intersection point 23 is an intersection point on the boundary line formed by the background Y, the closed region 2B, and the closed region 2C.

ここで、閉領域2Bが閉領域1Bと対応関係にあること、及び閉領域1Cと閉領域2Cとが対応関係にあることが既知であると仮定する。なお、背景Yは、原画1と原画2とで同種の背景であり対応関係にあることが既知であると仮定する。図7(C)における交点13の周囲に存在する複数の閉領域は、左回りに閉領域1B、背景Y、閉領域1Cの順に存在しており、同様に図7(D)における交点23の周囲に存在する複数の閉領域は、左回りに閉領域1Bに対応する閉領域2B、背景Y、閉領域1Cに対応する閉領域2Cの順に存在している。このことから、交点13と交点23は、対応関係にあることを自動的に推定することが可能である。   Here, it is assumed that it is known that the closed region 2B is in correspondence with the closed region 1B and that the closed region 1C and the closed region 2C are in correspondence. It is assumed that background Y is the same kind of background in original picture 1 and original picture 2 and it is known that they are in correspondence. A plurality of closed regions existing around the intersection 13 in FIG. 7C exist in the order of the closed region 1B, the background Y, and the closed region 1C in the counterclockwise direction, and similarly, the intersections 23 in FIG. The plurality of closed regions present in the periphery are present in the order of the closed region 2B corresponding to the closed region 1B counterclockwise, the background Y, and the closed region 2C corresponding to the closed region 1C. From this, it is possible to automatically estimate that the intersection point 13 and the intersection point 23 are in a corresponding relationship.

上記の推定においては、原画1の交点13の周りに存在する複数の閉領域と、原画2の周りに存在する複数の閉領域同士の対応関係が既知であることを前提とした。しかしながら、原画1の複数の閉領域と原画2の複数の閉領域のそれぞれの対応関係を、オペレータの指示に頼ることは、オペレータに多くの労力を強いることとなる。したがって、原画1の各交点と原画2の各交点との対応関係を、可能な限り自動的に推定することが求められる。   In the above estimation, it is assumed that the correspondence between a plurality of closed regions existing around the intersection 13 of the original image 1 and a plurality of closed regions existing around the original image 2 is known. However, relying on the instruction of the operator for the correspondence between each of the plurality of closed regions of the original image 1 and the plurality of closed regions of the original image 2 imposes much labor on the operator. Therefore, it is required to automatically estimate, as much as possible, the correspondence between each of the intersections of the original image 1 and each of the intersections of the original image 2.

図1に戻ると、上記のことは、原画1の閉領域1A、閉領域1B及び閉領域1Cが、それぞれ原画2の閉領域2A、閉領域2B及び閉領域2Cと対応することを、自動的に推定することが求められる。   Returning to FIG. 1, the above automatically determines that the closed area 1A, the closed area 1B and the closed area 1C of the original image 1 correspond to the closed area 2A, the closed area 2B and the closed area 2C of the original image 2, respectively. It is required to estimate.

以上のことから、時間的に連続する2つの原画1及び原画2の時間軸上の中間に位置する中割り画像Nを自動的に生成するためには、上記の手順と逆の推定の処理を以下のとおり実行することが求められる。
(a)原画1と原画2とにおいて、それぞれに存在する閉領域の対応づけを推定すること。
(b)閉領域の対応付けの情報を用いて、原画1と原画2とにおいて、それぞれに存在する閉領域を分ける境界線の交点の対応づけを推定すること。
(c)対応づけられた交点を補間する交点の座標を求めること。
(d)原画1と原画2の対応する閉領域の形状及び補間された交点の座標を用いて、中割り画像を生成すること。
From the above, in order to automatically generate a split image N located midway on the time axis of two originals 1 and 2 continuous in time, the process of estimation reverse to the above procedure is used. It is required to execute as follows.
(A) Estimating the correspondence between closed regions existing in original picture 1 and original picture 2;
(B) Estimating the correspondence of the intersection points of the boundaries dividing the closed regions present in the original image 1 and the original image 2 using the information on the correspondence of the closed regions.
(C) Determining the coordinates of an intersection that interpolates the associated intersection.
(D) Generating a split image using the shapes of the corresponding closed regions of the original image 1 and the original image 2 and the coordinates of the interpolated intersection point.

なお、上記(a)の行程において、閉領域の対応付けが行われるため、例えば原画1の彩色の指定を行えば、略自動的に原画2における対応する閉領域の彩色が行える。更に、上記工程(d)において生成された中割り画像においても、原画における閉領域と対応する閉領域がわかるため、中割り画像の閉領域の彩色も略自動で行うことができることとなる。   In the process of (a), since the closed regions are associated, if, for example, the coloring of the original image 1 is specified, the corresponding closed regions in the original image 2 can be almost automatically colored. Furthermore, since the closed area corresponding to the closed area in the original image is known even in the intermediately divided image generated in the step (d), the coloring of the closed area of the intermediately divided image can also be performed substantially automatically.

したがって、上述の従来技術の説明では、中割り画像の作成の工程の後に彩色の工程が位置していたが、本実施形態では、中割り画像の作成工程と、彩色の工程が逆の順序になってもよいことがわかる。   Therefore, in the above description of the prior art, the coloring process is located after the process of creating the split image, but in the present embodiment, the creating process of the split image and the coloring process are performed in the reverse order. Know that it may be

以下、順に、詳細な実施形態を説明する。   Hereinafter, detailed embodiments will be described in order.

<1>実施形態1:閉領域の対応付け
<1−1> 用語の定義
<1> Embodiment 1: Correspondence of Closed Areas <1-1> Definition of Terms

実施形態1では、2つの原画に存在する複数の閉領域の対応付けを自動的に行うための処理の例を示す。なお、以下の実施形態1は、処理の一例であって、この例に限られるものではない。   The first embodiment shows an example of processing for automatically correlating a plurality of closed regions present in two original images. The following first embodiment is an example of processing, and is not limited to this example.

図2は、原画を構成する各画素の特徴抽出の例を示す図である。   FIG. 2 is a diagram showing an example of feature extraction of each pixel constituting an original image.

ここで、図2(A)を用いて、以下の定義を行う。   Here, the following definition is performed using FIG. 2 (A).

「閉領域」:画像において、線で閉じられた領域を「閉領域」と呼ぶ。たとえば、図2(A)において、閉領域1A、閉領域1C及び閉領域1Bは、それぞれ線で閉じられた「閉領域」である。原画の背景は、閉領域ではない。また、直線及び点も画像も閉領域ではない。   "Closed region": In the image, a region closed by a line is called "closed region". For example, in FIG. 2A, the closed area 1A, the closed area 1C, and the closed area 1B are respectively "closed areas" closed by lines. The background of the original is not a closed area. Also, neither straight lines or points nor images are closed regions.

「境界線」:閉領域を囲む線を境界線という。境界線を隔てて閉領域と閉領域又は背景とが隣接することになる。   "Border": A line surrounding a closed area is called a border. The closed area and the closed area or background are adjacent to each other across the boundary.

「隣接」:閉領域Aと閉領域Bとが、境界線Xで接している場合、閉領域Aと閉領域Bとは、境界線Xで隣接しているという。   “Adjacent”: when the closed region A and the closed region B are in contact with each other at the boundary line X, the closed region A and the closed region B are said to be adjacent at the boundary line X.

「交点」:境界線が交わっている点、あるいは境界線の端点(端の点)を交点と呼ぶ。   “Intersection point”: A point at which the boundaries intersect, or an end point of the boundaries (end point) is called an intersection.

「画素」:画像に存在する二次元平面に等間隔にメッシュを定義して、メッシュの各交点の座標位置に存在する画像の構成要素を画素と呼ぶ。画素は、ディジタル画像を構成する各画素に対応させてもよい。   "Pixel": Meshes are defined at equal intervals in a two-dimensional plane present in an image, and a component of the image present at the coordinate position of each intersection of the mesh is called a pixel. A pixel may correspond to each pixel that constitutes a digital image.

「方位」:図2(A)において、画素P1から例えば上下左右の4つの方向を「方位」という。そして上下左右のそれぞれの方位に伸びる半直線U、D、L、Rを定義する。半直線U、D、L、Rは、画素P1からそれぞれ上、下、左、右に伸びる半直線である。なお、図2(A)の例では、上下左右の4つの方位にそれぞれ半直線を定義したが、方位の数は、4つに限られるものではない。   "Direction": In FIG. 2A, for example, four directions from the pixel P1 in the upper, lower, left, and right directions are referred to as "direction". Then, semi-lines U, D, L, R extending in the respective directions of up, down, left, and right are defined. The half lines U, D, L, R are half lines extending upward, downward, leftward, and right, respectively, from the pixel P1. In the example of FIG. 2A, the half straight line is defined for each of the four directions in the upper, lower, left, and right directions, but the number of directions is not limited to four.

「交差回数」:図2(A)において、例えば、画素P1から上の方位に伸びる半直線Uが、原画1を構成する閉領域1Aとの境界線において、U11で交差している。この場合、画素P1の上方位の交差回数は1であると定義される。同様に画素P1の左の方位に伸びる半直線Lが、原画1を構成する閉領域1A、1C、1Bとの境界線とL11、L12、L13で交差している。この場合、画素P1の左方位の交差回数は3であると定義される。同様に画素P1の下の方位に伸びる半直線Dが、原画1を構成する閉領域A1との境界線と、D11で交差している。この場合、画素P1の下方位の交差回数は1であると定義される。同様に画素P1の右の方位に伸びる半直線Rが、原画1を構成する閉領域1Aとの境界線と、R11で交差している。この場合、画素P1の右方位の交差回数は1であると定義される。   “Number of crossings”: In FIG. 2A, for example, a half straight line U extending in the upper direction from the pixel P1 crosses at a boundary line U11 with the closed region 1A constituting the original image 1. In this case, the number of crossings in the upper direction of the pixel P1 is defined as one. Similarly, a half straight line L extending in the left direction of the pixel P1 intersects with the boundary line with the closed regions 1A, 1C, 1B constituting the original picture 1 at L11, L12, L13. In this case, the number of crossings in the left direction of the pixel P1 is defined as three. Similarly, a half straight line D extending in the lower direction of the pixel P1 intersects with the boundary with the closed region A1 constituting the original 1 at D11. In this case, the number of downward crossings of the pixel P1 is defined as one. Similarly, a half straight line R extending in the right direction of the pixel P1 intersects the boundary line with the closed region 1A constituting the original 1 at R11. In this case, the number of crossings in the right direction of the pixel P1 is defined as one.

「境界線までの距離」:図2(A)において、例えば、画素P1から、画素P1を含む閉領域と、初めて交差するまでの距離を「境界線までの距離」と定義する。図2(A)において、画素P1の上方位の境界線までの距離は、α1である。境界線までの距離の単位は、たとえば、画素数であってもよい。   “Distance to boundary”: In FIG. 2A, for example, a distance from the pixel P1 to a closed region including the pixel P1 for the first time is defined as “distance to the boundary”. In FIG. 2A, the distance to the upper azimuth boundary of the pixel P1 is α1. The unit of the distance to the boundary may be, for example, the number of pixels.

たとえば、画素が、ある閉領域に属している場合には、その画素は、いずれの方位においても、必ずその閉領域の境界線と交差することとなるため、交差回数は1以上となる。画素が、背景に属している場合には、交差回数がゼロの場合があり得る。   For example, when a pixel belongs to a certain closed region, the pixel always crosses the boundary of the closed region in any orientation, so the number of crossings is 1 or more. If the pixel belongs to the background, the number of crossings may be zero.

<1−2> 原画の構成要素
図1及び図18などに示す原画は、多くの場合線画であり、例えば以下のような要素で構成されている。
(a)閉領域(境界線で閉じた領域)
(b)閉領域から分岐する線分(分岐線分)
(c)閉領域に包含され孤立する線分(孤立線分)
<1-2> Constituent Elements of Original Picture The original picture shown in FIGS. 1 and 18 is a line drawing in many cases, and is constituted of, for example, the following elements.
(A) Closed area (area closed by a boundary line)
(B) Line segment branched from closed region (branch line segment)
(C) Isolated segment included in closed region (isolated segment)

2つの原画の間に存在する分岐線分と孤立線分は、閉領域の境界線との相対座標を比較することにより、対応付けが可能である。したがって、まず、2つの原画の間の閉領域の対応付けを行うことが望ましい。実施形態1では、閉領域の対応付けの例を示す。   The branch line segment existing between the two original images and the isolated line segment can be associated by comparing relative coordinates of the boundary of the closed region. Therefore, it is desirable to first associate the closed region between the two original images. In the first embodiment, an example of the correspondence between closed areas is shown.

<1−3> 彩色と中割り画像の生成の順序   <1-3> Order of generation of coloring and split images

上述の、従来技術の例においては、中割り画像を作成した後に、原画と中割り画像の彩色が行われる手順を示した。しかしながら、本実施形態1では、原画の各閉領域の対応付けをまず行うため、この段階で、原画の対応する閉領域に彩色を施すことが可能である。まず、原画間で閉領域の対応付けを行う。そして、複数の原画で、対応する閉領域には、彩色において同じ色が塗られることになる。このようにすれば、彩色を原画毎に行う手間を省くことができる。   The above-described prior art example shows the procedure in which the original image and the split image are colored after the split image is created. However, in the first embodiment, since the closed regions of the original image are first associated, it is possible to color the corresponding closed regions of the original image at this stage. First, closed regions are associated between the original images. Then, in the plurality of original images, the same color is applied to the corresponding closed regions in the coloring. In this way, it is possible to save the trouble of performing coloring for each original.

加えて、2つの原画の間に閉領域の対応付けが既になされていれば、時間軸上で2つの原画の間に位置する中割り画像をその後生成した場合にも、その中割り画像に含まれる閉領域と2つの原画の閉領域との対応付けが容易に行える。   In addition, if the closed region is already associated between the two original images, then even if a split image located between the two original images on the time axis is subsequently generated, it is included in the split image. It is possible to easily associate the closed area with the closed area of the two original images.

したがって、まず原画における閉領域の対応付けを行った後、彩色を行い、その後に生成された中割り画像に含まれる閉領域に、略自動的彩色を行うことができる。   Therefore, after the closed regions in the original image are first associated, coloring can be performed, and substantially automatic coloring can be performed on the closed regions included in the split image generated thereafter.

<1−4a> 原画の画素の特徴ベクトルの定義
本実施形態では、原画に存在する画素Pの特徴V(P)を、8次元ベクトルで以下のように定義する。
<1-4a> Definition of Feature Vector of Pixel of Original Image In the present embodiment, the feature V (P) of the pixel P present in the original image is defined as an eight-dimensional vector as follows.

V(P)=(c,c,c,c,c,c,c,c) (式1)
ここで、c乃至cを、以下のように定義する。なお、βは、定数である。
画素Pから上下左右の境界線までの距離を、それぞれαu、αd、αl、αrとすると、
=1/(αu+β) ただし、上方位の交差回数が1である場合。その他の場合c=0
=1/(αr+β) ただし、右方位の交差回数が1である場合。その他の場合c=0
=1/(αd+β) ただし、下方位の交差回数が1である場合。その他の場合c=0
=1/(αl+β) ただし、左方位の交差回数が1である場合。その他の場合c=0
V (P) = (c 0 , c 1, c 2, c 3, c 4, c 5, c 6, c 7) ( Equation 1)
Here, c 0 to c 7 are defined as follows. Here, β is a constant.
Let αu, αd, αl, and αr be the distances from the pixel P to the upper, lower, left, and right boundaries, respectively.
c 0 = 1 / (α u + β) where the number of crossings in the upper direction is 1. In other cases c 0 = 0
c 1 = 1 / (αr + β) where the number of crossings in the right direction is 1. In other cases c 1 = 0
c 2 = 1 / (αd + β) where the number of lower order crossings is one. In other cases c 2 = 0
c 3 = 1 / (α 1 + β) where the number of crossings in the left direction is 1. In other cases c 3 = 0

=1/(αu+β) ただし、上下左右の4つの方位の交差回数がいずれも2以上であり、かつ上方位の交差回数が上下左右の4つの方位の交差回数のうち最小である場合。その他の場合c=0 c 4 = 1 / (α u + β) However, when the number of crossings of the four directions in the upper, lower, left, and right directions is 2 or more, and the number of crossings in the upper direction is the minimum among the number of crossings of the four directions in the upper, lower, left, and right directions. In other cases c 4 = 0

=1/(αr+β) ただし、上下左右の4つの方位の交差回数がいずれも2以上であり、かつ右方位の交差回数が上下左右の4つの方位の交差回数のうち最小である場合。その他の場合c=0 c 5 = 1 / (α r + β) However, when the number of crossings of the four directions in the upper, lower, left, and right directions is 2 or more, and the number of crossings in the right direction is the minimum among the number of crossings of the four directions in the upper, lower, left, and right directions. In other cases c 5 = 0

=1/(αd+β) ただし、上下左右の4つの方位の交差回数がいずれも2以上であり、かつ下方位の交差回数が上下左右の4つの方位の交差回数のうち最小である場合。その他の場合c=0 c 6 = 1 / (α d + β) However, when the number of crossings of the four azimuths in the upper, lower, left, and right directions is 2 or more, and the number of crossings in the lower rank is the smallest among the number of crossings of the four azimuths in the upper, lower, left, and right. In other cases c 6 = 0

=1/(αl+β) ただし、上下左右の4つの方位の交差回数がいずれも2以上であり、かつ左方位の交差回数が上下左右の4つの方位の交差回数のうち最小である場合。その他の場合c=0 c 7 = 1 / (α 1 + β) However, when the number of intersections of the four azimuths in the upper, lower, left, and right directions is 2 or more, and the number of intersections in the left azimuth is the smallest among the number of intersections of the four azimuths in the upper, lower, left, or right. In other cases c 7 = 0

なお、c,c,c,cについては、交差回数が1の方位が複数ある場合は、交差回数が1の方位に対応する特徴ベクトルの要素に値を持つことになる。また、c,c,c,cについては、交差回数が2以上で最小の値の方位が複数ある場合は、その最小の交差回数の複数の方位に対応する特徴ベクトルの要素に値を持つことになる。 As for c 0 , c 1 , c 2 , and c 3 , when there are a plurality of orientations in which the number of crossings is 1, the elements of the feature vector corresponding to the orientations in which the number of crossings is 1 have values. Further, for c 4 , c 5 , c 6 and c 7 , when there are a plurality of orientations with the minimum number of crossings of 2 or more, the elements of the feature vector corresponding to the plurality of orientations of the minimum number of crossings It will have a value.

画素Pが背景又は境界線に属する画素である場合には、c=c=c=c=c=c=c=c=0とする。 If the pixel P is a pixel belonging to the background or the boundary line, c 0 = c 1 = c 2 = c 3 = c 4 = c 5 = c 6 = c 7 = 0.

なお、上述の規則は例示に過ぎず、これに限定されるものではない。特徴ベクトルのその他の要素の決定方法としては、たとえば、以下のような規則(a)又は(b)が挙げられる。   In addition, the above-mentioned rule is only an illustration, and is not limited to this. As a method of determining other elements of the feature vector, for example, the following rule (a) or (b) may be mentioned.

(a)上記規則においては、同じ交差回数が複数ある場合には、その複数の方位のすべてに、特徴ベクトルの要素を持つように定めた。しかしながらそのようにせずに、上下左右の方位にあらかじめ優先順位を設けておき、同じ交差回数の方位が複数ある場合には、同じ交差回数を持つ方位のうちで、優先順位の一番高い方位における境界線までの距離のみを採用してもよい。そして、特徴ベクトルのその他の要素は、ゼロとしてもよい。   (A) In the above rule, when there are a plurality of the same number of crossings, it is defined that all of the plurality of orientations have elements of the feature vector. However, without doing so, priorities are provided in advance in the upper, lower, left, and right azimuths, and when there are a plurality of azimuths with the same number of crossings, among the azimuths having the same number of crossings, Only the distance to the border may be adopted. And the other elements of the feature vector may be zero.

(b)特徴ベクトルのうちc,c,c及びcの成分は、交差回数が1となる方位が存在するときに、交差回数が1となる方位のうち、境界線までの距離が一番小さいαを用いた特徴量1/(α+β)を、境界線までの距離が一番小さいαの方位の要素に持つように定めてもよい。そして、特徴ベクトルのうちc,c,c及びcの成分は、交差回数として1となる方位が存在せずかつ全ての方位で交差回数が2以上となるときに、4つの方位のうちで、境界線までの距離が一番小さいαを用いた特徴量1/(α+β)を、境界線までの距離が一番小さいαの方位の要素に持つようにしてもよい。そして、それ以外の方位の特徴ベクトルの要素はゼロとしてもよい。 (B) Among the feature vectors, the c 0 , c 1 , c 2 and c 3 components have a distance to the boundary line in the direction in which the number of crossings is 1 when there is a direction in which the number of crossings is 1 The feature amount 1 / (α + β) using α with the smallest α may be defined as an element of the orientation of α with the smallest distance to the boundary. Then, among the feature vectors, the components c 4 , c 5 , c 6 and c 7 have four orientations when there is no orientation with 1 as the number of intersections and the number of intersections is 2 or more in all the orientations. Among them, the feature quantity 1 / (α + β) using α, which has the smallest distance to the boundary, may be provided as an element of the orientation of α, which has the smallest distance to the boundary. And, elements of feature vectors in other orientations may be zero.

上述の例は、いずれもc及びcは上方位の成分を表す。c及びcは右方位の成分を表す。c及びcは下方位の成分を表す。c03及びcは左方位の成分を表す。 In each of the above-mentioned examples, c 0 and c 4 represent components of upward orientation. c 1 and c 5 represent components in the right direction. c 2 and c 6 represent the component of the lower position. c 03 and c 7 represent components in the left direction.

背景に存在する画素の特徴ベクトルの成分は、全てが零であるとしてもよい。   The components of the feature vector of the pixels present in the background may be all zero.

なお、上記の特徴ベクトルは、すでに指摘したように一例であって、課題を達成するための特徴ベクトルは他の形式であってもよい。更に、例えば、特徴ベクトルは、上下左右の4つの方位を次元とする4次元ベクトルであってもよい。4つの方位において最も交差回数の少ない方位の境界線までの距離に基づく関数を、対応する方位の次元の要素として、その他の次元の要素の値を零としてもよい。   Note that the above-mentioned feature vector is an example as already pointed out, and the feature vector for achieving the task may be in another format. Furthermore, for example, the feature vector may be a four-dimensional vector having four orientations in the upper, lower, left, and right directions. The function based on the distance to the borderline of the orientation with the least number of intersections in the four orientations may be set as the element of the dimension of the corresponding orientation, and the values of the elements of other dimensions may be zero.

<1−4b> 特徴ベクトルの性質
上記の特徴ベクトルは、以下の性質を持つ。
<1-4b> Properties of Feature Vectors The above feature vectors have the following properties.

本実施形態1では、原画は、線で構成された線画であると仮定している。原画が描かれる対象をオブジェクトと呼ぶ。オブジェクトは、複数の線画で描かれており、複数の閉領域を含む。   In the first embodiment, it is assumed that the original image is a line drawing composed of lines. The object on which the original is drawn is called an object. An object is drawn by a plurality of line drawings and includes a plurality of closed regions.

オブジェクトと背景との境界線は、オブジェクト内に存在する閉領域間の境界線よりも、識別性が高い。これは、背景と接している境界線は、オブジェクトのシルエットを構成する輪郭とも呼べる線であり、オブジェクトの内部に存在する線よりも、オブジェクトの特徴をより強く現している境界線であることが経験則上わかっているためである。   The boundary between the object and the background is more distinctive than the boundary between the closed regions present in the object. This is that the border in contact with the background is a line that can also be called a contour that constitutes the silhouette of the object, and is a border that more strongly expresses the features of the object than lines existing inside the object. It is because it is known in the rule of thumb.

上記の交差回数が1である場合は、その方位に存在する境界線が背景との境にあることを示している。これに対して、交差回数が2以上である方位に存在する境界線は、オブジェクト内に入り込んだ境界線であり、背景とは接していない境界線である。   If the number of crossings is 1, it indicates that the boundary existing in the direction is the boundary with the background. On the other hand, the boundary existing in the orientation in which the number of crossings is 2 or more is a boundary which has entered the object and is a boundary which is not in contact with the background.

上記に定義した各画素が持つ特徴ベクトルは、少なくとも1つでも、交差回数が1の方位があれば、その方位における、境界線までの距離を優先して利用する。交差回数が1の方位が複数存在する場合には、その複数の方位のうち一番短い、境界線までの距離を用いて特徴ベクトルの成分を生成する。交差回数が1の方位がなければ、交差回数が2以上の方位のうち、最も値の小さい境界線までの距離を採用する。   If at least one feature vector of each pixel defined above has an orientation where the number of crossings is 1, the distance to the boundary in that orientation is preferentially used. When there are a plurality of orientations with the number of intersections being 1, a component of the feature vector is generated using the shortest distance to the boundary line among the plurality of orientations. If the number of crossings does not have an orientation of 1, the distance to the boundary with the smallest value is adopted among the orientations of which the number of crossings is 2 or more.

このように、交差回数が1である境界線までの距離を優先して用いる理由は、背景と接している境界線を重要視するためである。   Thus, the reason for preferentially using the distance to the border where the number of crossings is 1 is to emphasize the border in contact with the background.

そして、採用された境界線までの距離をαとすると、1/(α+β)を計算し、上記8次元ベクトルの所定のベクトル成分の値とし、その他のベクトル成分の値はゼロとする。ここで、βは、定数である。定数βをαに足す理由は、境界線上でαがゼロとなるため、ベクトル成分の値が無限大になるのを避けるために設定する。また、どの程度の閉領域の大きさを対象とするか、どの程度、境界線の近辺で大きな値の成分を特徴として持たせるかにも依存する。境界線までの距離αが分母に存在するため、ベクトルの成分1/(α+β)は、閉領域内において境界線に近い画素であればあるほど、大きな値をとること(増加関数)になる。このようにαを分母に置くことによって、閉領域のうち、境界線に近い部分に対して、より大きな特徴量を持たせることができる。このように、境界線に近い部分に対して、より大きな特徴量を持たせることは、境界線の形状をより重視するように特徴を持たせることができる。これは、オブジェクトの閉領域の中央付近よりも、境界線に近い部分にその形状の特徴が現れるため、この特徴ベクトルを用いることにより、後述するコスト関数を用いて、原画同士の閉領域の対応付けを高い確率で推定できるようにするためである。なお、特徴量1/(α+β)は、一例であって、この特徴量に限定されるものではない。特徴量は、閉領域の内部において、境界線付近で大きな値をとるような関数を選ぶことにより、閉領域の境界線付近を強調する関数であることが望ましい。   Then, assuming that the distance to the adopted boundary line is α, 1 / (α + β) is calculated, and the value of the predetermined vector component of the 8-dimensional vector is set, and the values of the other vector components are set to zero. Here, β is a constant. The reason for adding the constant β to α is set so as to avoid the value of the vector component becoming infinite because α is zero on the border line. It also depends on how much the size of the closed region is to be targeted, and to what extent a component of a large value is provided as a feature in the vicinity of the boundary. Since the distance α to the boundary exists in the denominator, the component 1 / (α + β) of the vector takes a larger value (increasing function) as the pixel is closer to the boundary in the closed region. By placing α in the denominator in this way, it is possible to give larger feature quantities to the part close to the boundary line in the closed region. As described above, giving a larger feature amount to a part close to the boundary can give a characteristic so as to place more importance on the shape of the boundary. This is because the feature of the shape appears in the part closer to the boundary line than near the center of the closed region of the object, and by using this feature vector, the correspondence between the closed regions of the originals using the cost function described later This is to make it possible to estimate the sticking with high probability. Note that the feature amount 1 / (α + β) is an example, and is not limited to this feature amount. The feature value is preferably a function that emphasizes the vicinity of the boundary of the closed region by selecting a function that takes a large value near the boundary within the closed region.

<1−5> 画素の特徴ベクトルの例
(1)画素P1の特徴ベクトル(図2(A))
画素P1の4つの方位の交差回数は以下のとおりである。
<1-5> Example of feature vector of pixel (1) Feature vector of pixel P1 (FIG. 2 (A))
The number of crossings of the four azimuths of the pixel P1 is as follows.

上方位において画素P1は、U11で交差しているため、上方位の交差回数は1である。   Since the pixel P1 intersects at U11 in the upper azimuth, the number of intersections in the upper azimuth is one.

右方位において画素P1は、R11で交差しているため、右方位の交差回数は1である。   Since the pixel P1 intersects at R11 in the right orientation, the number of intersections in the right orientation is one.

下方位において画素P1は、D11で交差しているため、下方位の交差回数は1である。   Since the pixel P1 intersects at D11 in the lower position, the number of intersections in the lower position is one.

左方位において画素P1は、L11、L12、L13で交差しているため、左方位の交差回数は3である。   Since the pixel P1 intersects at L11, L12, and L13 in the left azimuth, the number of intersections in the left azimuth is three.

そして、画素P1は、交差回数1回の方位が上方位、右方位、下方位に存在する。上方位の境界からの距離がα1Uである。右方位の境界からの距離がα1Rである。下方位の境界からの距離がα1Dである。したがって、画素P1の特徴ベクトルV(P1)は、以下のとおりである。
V(P1)=(1/(α1U+β),1/(α1R+β),1/(α1D+β),0,0,0,0,0)
(2)画素P2の特徴ベクトル(図2(B))
画素P2の4つの方位の交差回数は以下のとおりである。
Then, the pixel P1 has an azimuth of the number of times of intersection in the upper azimuth, the right azimuth, and the lower position. The distance from the upper azimuth boundary is α1U. The distance from the boundary to the right is α1R. The distance from the lower position boundary is α1D. Therefore, the feature vector V (P1) of the pixel P1 is as follows.
V (P1) = (1 / (α1U + β), 1 / (α1R + β), 1 / (α1D + β), 0, 0, 0, 0, 0)
(2) Feature vector of pixel P2 (FIG. 2 (B))
The number of crossings of the four orientations of the pixel P2 is as follows.

上方位において画素P2は、U21、U22で交差しているため、上方位の交差回数は2である。   Since the pixel P2 intersects at U21 and U22 in the upper azimuth, the number of times of intersection in the upper azimuth is two.

右方位において画素P2は、R21、R22で交差しているため、右方位の交差回数は2である。   Since the pixel P2 intersects with R21 and R22 in the right azimuth, the number of intersections in the right azimuth is two.

下方位において画素P2は、D21、D22で交差しているため、下方位の交差回数は2である。   Since the pixel P2 intersects at D21 and D22 in the lower position, the number of lower intersections is two.

左方位において画素P2は、L21、L22で交差しているため、左方位の交差回数は2である。   Since the pixel P2 intersects at L21 and L22 in the left azimuth, the number of intersections in the left azimuth is two.

そして、図2(B)においては、交差回数が1である方位は存在せず、画素P2は、交差回数2以上の方位のうち最も小さい交差回数の値は2であり、その方位は、4つの方位全てである。上方位の境界線からの距離がα2Uである。右方位の境界線からの距離がα2Rである。下方位の境界線からの距離がα2Dである。左方位の境界線からの距離がα2Lである。したがって、画素P2の特徴ベクトルV(P2)は、以下のとおりである。
V(P2)=(0,0,0,0,1/(α2U+β),1/(α2R+β),1/(α2D+β),1/(α2L+β))
(3)画素P3の特徴ベクトル(図2(C))
画素P3の4つの方位の交差回数は以下のとおりである。
Then, in FIG. 2B, there is no bearing whose number of crossings is 1, and the value of the smallest number of crossings among the bearings whose number of crossings is 2 or more is 2, and the bearing is 4 All three orientations. The distance from the upper azimuth boundary is α2U. The distance from the right-facing boundary is α2R. The distance from the lower boundary is α2D. The distance from the left-facing boundary is α2L. Therefore, the feature vector V (P2) of the pixel P2 is as follows.
V (P2) = (0, 0, 0, 0, 1 / (α2U + β), 1 / (α2R + β), 1 / (α2D + β), 1 / (α2L + β))
(3) Feature vector of pixel P3 (FIG. 2 (C))
The number of crossings of the four orientations of the pixel P3 is as follows.

上方位において画素P3は、U31、U32で交差しているため、上方位の交差回数は2である。   Since the pixel P3 intersects at U31 and U32 in the upper azimuth, the number of times of intersection in the upper azimuth is two.

右方位において画素P3は、R31、R32で交差しているため、右方位の交差回数は2である。   Since the pixel P3 intersects with R31 and R32 in the right azimuth, the number of intersections in the right azimuth is two.

下方位において画素P3は、D31で交差しているため、下方位の交差回数は1である。   Since the pixel P3 intersects at D31 in the lower position, the number of intersections in the lower position is one.

左方位において画素P3は、L31、L32で交差しているため、左方位の交差回数は2である。   Since the pixel P3 intersects at L31 and L32 in the left azimuth, the number of intersections in the left azimuth is two.

そして、図2(C)においては、交差回数が1である方位が存在するため、画素P3の特徴を計算する場合には、下方位の境界線からの距離が、交差回数1の方位のα3Dを採用する。したがって、画素P3の特徴ベクトルV(P3)は、以下のとおりである。
V(P3)=(0,0,1/(α3D+β),0,0,0,0,0)
<1−6> 2つの原画を構成する閉領域を大きい順に並べた管理表の作成
Then, in FIG. 2C, since there is an azimuth having the number of crossings of 1, when calculating the feature of the pixel P3, the distance from the lower-order boundary line is α3D of the azimuth of the number of crossings 1. To adopt. Therefore, the feature vector V (P3) of the pixel P3 is as follows.
V (P3) = (0, 0, 1 / (α3D + β), 0, 0, 0, 0, 0)
<1-6> Creation of a management table in which the closed areas constituting two original images are arranged in descending order

図1に示す原画1と原画2とに含まれる複数の閉領域を対応づける前処理として、各原画に存在する複数の閉領域を、面積の大きい順に並べた表を作ってもよい。この表を作ることによって、面積の大きい閉領域から対応付けの評価を行うことができる。このような表を作る理由は、面積が大きい閉領域について、対応関係を早期に確定させて、対応候補から除いておく方が、面積の小さい閉領域の対応関係を先に確定してゆくよりも、閉領域の対応関係が見つけやすく、その対応関係の確度も高くなるという経験則があるからである。したがって、対応する可能性の高い順番に対応関係をチェックするようにするために、このような表を作る意味がある。   As pre-processing for correlating a plurality of closed regions included in the original image 1 and the original image 2 shown in FIG. 1, a table may be created in which a plurality of closed regions present in each original image are arranged in descending order of area. By making this table, it is possible to evaluate the correspondence from the large closed area. The reason for creating such a table is that, for closed areas with a large area, it is better to establish the correspondence early and remove them from the correspondence candidates than to establish the correspondence of the closed area with a smaller area first. Also, there is a rule of thumb that it is easy to find the correspondence in the closed region and the accuracy of the correspondence is also high. Therefore, it makes sense to create such a table in order to check the correspondence in the order of the corresponding possibility.

図3(A)は、図1の原画1の3つの閉領域(閉領域1A、閉領域1B、閉領域1C)を、面積の大きい順に並べた管理表である。No.は閉領域の大きい順を示し、閉領域インデックスは、閉領域にラベリングされたインデックス(例えば1A)が付される。インデックスは、閉領域毎にユニークな識別を自動的に付与してもよい。画素数は、それぞれの閉領域に含まれる画素の数を表し、面積に比例した数値となるため、面積を現す数として代用してもよい。なお、画素数は、例えば、閉領域の面積が大きい順にソートする場合に用いてもよい。「対応付け」の欄は、全て零(0)が初期値として記憶されている。後述する閉領域の対応付けが終了した閉領域には、例えば1を記憶させるようにする。そして、1が記憶された閉領域は、対応付けの処理が終了したことを示すため、以後の対応付けの処理の対象から除いてもよい。また、後述するように、対応付けが一部分しか完了していない閉領域は、「対応付け」を1に変更せず、0のままとして、その後の対応付けの処理の対象となるようにしてもよい。この処理の例は後述する。   FIG. 3A is a management table in which three closed areas (closed area 1A, closed area 1B, and closed area 1C) of the original image 1 of FIG. 1 are arranged in the order of increasing area. No. Indicates the descending order of the closed region, and the closed region index is assigned an index (for example, 1A) labeled in the closed region. The index may automatically assign a unique identification to each closed region. The number of pixels represents the number of pixels included in each closed region, and since it is a numerical value proportional to the area, it may be substituted as a number representing the area. The number of pixels may be used, for example, in the case of sorting in the descending order of the area of the closed region. In the column of “association”, all zeros (0) are stored as initial values. For example, 1 is stored in the closed area where the association of the closed area described later is completed. Then, the closed region in which 1 is stored may be excluded from the objects of the subsequent association processing in order to indicate that the association processing has ended. Also, as will be described later, a closed area in which the association is only partially completed should not change “association” to 1 and remain 0 so that it becomes a target of subsequent association processing. Good. An example of this process will be described later.

図3(B)は、図1の原画2における各閉領域を、面積の大きい順に並べた管理表である。   FIG. 3B is a management table in which the closed regions in the original image 2 of FIG. 1 are arranged in descending order of area.

<1−7> 閉領域の対応付け
原画1と原画2とにそれぞれ存在する閉領域の対応を推定する例を以下に示す。
<1-7> Correspondence of Closed Region An example of estimating the correspondence of closed regions respectively present in the original image 1 and the original image 2 will be shown below.

閉領域の対応付けを行う際には、すでに述べたように、経験則として、一方の原画(例えば原画1)の閉領域の面積が大きい閉領域は、他方の原画の対応している可能性の高い閉領域を見つけやすくかつその対応関係の確度も高いといえる。したがって、以下では、まず原画1で一番大きい面積の閉領域から順に取り出し、取り出された閉領域を以下に例示するコスト関数Eを用いて近似度を計算する。例えば、コスト関数Eが小さいほど近似していると判断し、コスト関数Eを最小にする移動ベクトル(最適な移動ベクトル)を求め、更に最適な移動ベクトルを用いて、原画1から取り出された閉領域と最も重なりの大きな原画2の閉領域を見つけて、この組み合わせを、対応する閉領域のペアと推定してもよい。或いは、このようにして見つけた閉領域のペアを表示して、オペレータに確認を促してもよい。この際に、オペレータが、対応付けの推定が誤っていることを入力させるようにして、このペアの対応付けをキャンセルさせてもよい。この場合には、次に重なりの大きな対応する閉領域をみつけて、ペアの候補として表示してもよい。あるいは、次に最適なベクトルを用いて、原画1の閉領域と最も重なりの大きな原画2の閉領域を見つけて、次のペアの候補として表示してもよい。   When correlating closed regions, as described above, as a rule of thumb, a closed region with a large area of the closed region of one of the originals (for example, original 1) may correspond to the other of the originals. It is easy to find closed regions with high Therefore, in the following, first, the closed area of the largest area in the original image 1 is taken out in order, and the close area taken out is calculated using the cost function E exemplified below. For example, it is determined that the smaller the cost function E is, the motion vector (optimum motion vector) that minimizes the cost function E is determined, and the closed motion vector is extracted from the original image 1 using the optimal motion vector. The closed region of the original image 2 that has the largest overlap with the region may be found, and this combination may be estimated as a corresponding closed region pair. Alternatively, the pair of closed regions thus found may be displayed to prompt the operator for confirmation. At this time, the operator may cancel the association of the pair by inputting that the estimation of the association is incorrect. In this case, a corresponding closed area with a large overlap may be found next and displayed as a pair candidate. Alternatively, the next optimal vector may be used to find the closed region of the original image 2 having the largest overlap with the closed region of the original image 1 and displayed as a candidate for the next pair.

例えば、図3(A)の原画1に存在するi個の閉領域D(3個の閉領域1A、1B、1C)のうちで一番大きな閉領域を占める閉領域1Aをまず取り出し、閉領域1Aに含まれる画素p全てに対して、図3(B)の原画2に重ねて、移動ベクトルδを動かしながら閉領域A1に対するコスト関数E(D,δ)を式2によって計算してもよい。 For example, a closed area 1A that occupies the largest closed area among i closed areas D i (three closed areas 1A, 1B, and 1C) present in the original image 1 of FIG. The cost function E (D i , δ) for the closed region A1 is calculated according to Equation 2 while moving the movement vector δ, overlapping the original image 2 in FIG. 3B for all the pixels p included in the region 1A. It is also good.

Figure 2019046213
Figure 2019046213

ここで、p+δは、原画2とその背景とを移動ベクトルδだけずらし、閉領域D(例えば閉領域1A)と重ねたときの、閉領域D(例えば閉領域1A)内の画素pの位置に重なる原画2又は背景の位置である。V1(p)は、原画1の閉領域D(例えば閉領域1A)の画素位置pにおける画素の特徴ベクトルである。そして、V2(p+δ)は、原画2及びその背景の画素位置p+δにおける画素の特徴ベクトルである。原画1の閉領域D(例えば閉領域1A)の画素位置pに重なる原画2が閉領域内部である場合(例えば閉領域2A内部)には、原画1と原画2の特徴ベクトルの差の二乗を計算し積算する(式2上段)。原画1の閉領域D(例えば閉領域1A)の画素位置pに重なる原画2が閉領域内部でない場合(例えば背景や境界線)には、式2の下段の計算を行い、定数γを積算する。γを積算する意味は、背景部分との重なりについては、比較的大きな定数γを加えることにより、コスト関数が大きくなり、ペナルティを与えるためである。γは、原画の全体のピクセル数あるいは、閉領域のピクセル数によって妥当な値を選択する。たとえば、γ=2などの定数を設定すればよい。 Here, p + [delta] is shifted original 2 and its background by the movement vector [delta], when superimposed on the closed region D i (e.g. closed region 1A), the pixel p in the closed region D i (e.g. closed region 1A) It is the position of the original image 2 or background that overlaps the position. V1 (p) is a feature vector of the pixel at the pixel position p of the closed region D i (for example, the closed region 1A) of the original image 1. Then, V2 (p + δ) is a feature vector of the pixel at the pixel position p + δ of the original image 2 and its background. If the original image 2 overlapping the pixel position p of the closed region D i of the original image 1 (for example, the closed region 1A) is inside the closed region (for example, inside the closed region 2A), the square of the difference between the feature vectors of the original image 1 and the original image 2 Is calculated and integrated (equation 2 upper stage). If the original image 2 overlapping the pixel position p of the closed region D i of the original image 1 (for example, the closed region 1A) is not inside the closed region (for example, background or border), the lower part of Equation 2 is calculated and the constant γ is integrated. Do. The meaning of integrating γ is that the cost function becomes large and a penalty is given by adding a relatively large constant γ for overlapping with the background portion. γ selects an appropriate value according to the total number of pixels of the original image or the number of pixels of the closed region. For example, a constant such as γ = 2 may be set.

なお、原画2のp+δの位置が閉領域内部でない場合、式2の下段の計算を行うこととしたが、たとえば、すでに対応付けがなされた原画2における閉領域は、背景等と同じ扱いとして、式2の下段の計算を行ってもよい。   In the case where the position of p + δ of the original image 2 is not inside the closed region, calculation in the lower part of Equation 2 is performed. For example, the closed region in the original image 2 already associated is treated the same as the background etc. The lower part of Equation 2 may be calculated.

なお、特徴ベクトルは、既に式1に示した。   The feature vector is already shown in Equation 1.

移動ベクトルδは、例えば画素を単位とする二次元の移動ベクトルであり、原画1の閉領域D(例えば閉領域1A)を取り出し、原画2及びその背景を移動ベクトルδだけ移動させて両者を重ね合わせるために用いるベクトルである。そして、上記式2のコスト関数Eを最小にする二次元の移動ベクトルδ を求める。例えば、閉領域1Aと原画2及びその背景とをδの値を変化させながら、コスト関数Eが最小となるδ を以下の式のように求める。
δ =argminδE(D,δ) (式3)
ここで、argminδE(D,δ)とは、E(D,δ)の値を最小とする引数δを求めることを意味する。
The movement vector δ is, for example, a two-dimensional movement vector in units of pixels, takes out the closed region D i (for example, the closed region 1A) of the original image 1 and moves the original image 2 and its background by the movement vector δ It is a vector used to overlap. Then, a two-dimensional movement vector δ * i which minimizes the cost function E of the equation 2 is obtained. For example, while changing the value of δ between the closed region 1A, the original image 2 and the background thereof, δ * i which minimizes the cost function E is obtained as in the following equation.
δ * i = argmin δ E (D i , δ) (Equation 3)
Here, arg min δ E (D i , δ) means to obtain an argument δ which minimizes the value of E (D i , δ).

そして、例えば原画1の1つの閉領域D(例えば閉領域1A)に対して、網羅的にδを変化させて原画2及び背景を重ねてコスト関数Eを計算し、コスト関数Eを最小にするように、上記式3を満足するδ を求める。あるいは、コスト関数Eの網羅的な計算の途中において、コスト関数Eの最小値(計算途中の極小値)が所定の計算回数の中で更新されなくなった場合には、網羅的なδの計算を途中で打ち切って、それまでに得られたコスト関数の最小値を採用してもよい。あるいは、大きな面積の閉領域に対してのコスト関数Eの計算においては、例えば、原画1の閉領域の1つおきの画素に限定して、コスト関数Eを計算し計算量を減少させることで、計算速度を速めてもよい。 Then, for example, with respect to one closed region D i of the original image 1 (for example, the closed region 1A), the cost function E is calculated by overlapping the original image 2 and the background while changing δ exhaustively to minimize the cost function E Thus, δ * i which satisfies the above equation 3 is determined. Alternatively, if the minimum value (minimum value during calculation) of the cost function E is not updated within the predetermined number of calculations in the middle of the exhaustive calculation of the cost function E, the comprehensive calculation of δ is performed. It is possible to stop halfway and adopt the minimum value of the cost function obtained so far. Alternatively, in the calculation of the cost function E for a large area closed area, for example, the cost function E may be calculated to reduce the amount of calculation by limiting to every other pixel of the original 1 closed area. , You may speed up the calculation speed.

この移動ベクトルδ を用いたときに、閉領域D(例えば閉領域1A)と原画2との間で、閉領域の重なる面積(例えば画素数)が最大となる原画2の閉領域が原画1の閉領域Dに対応する原画2の閉領域であると推定することができる。 When this movement vector δ * i is used, the closed region of original image 2 in which the overlapping area (for example, the number of pixels) of the closed region is the largest between closed region D i (for example, closed region 1A) and original image 2 is It can be estimated that the closed region of the original image 2 corresponds to the closed region D i of the original image 1.

以下、図4を用いて、対応関係の推定の一例を具体的に示す。   Hereinafter, an example of estimation of correspondence is concretely shown using FIG.

説明をわかりやすくするために、原画1の閉領域1Cに対応する原画2の閉領域を求める例を、図4を用いて示す。   In order to make the explanation easy to understand, an example in which the closed region of the original image 2 corresponding to the closed region 1C of the original image 1 is obtained will be shown using FIG.

図4(A)において、原画1の閉領域1Cを取り出し、原画2にそのまま重ねる。そして、この状態で、閉領域C1についてコスト関数E(C1,δ)を求める。δの初期値はゼロベクトルである。なお、移動ベクトルδは、図4では、1Cを動かすように描かれているが、式2では、原画2の項の座標位置に足されている。移動ベクトルδは、相対的な重ね合わせの位置関係を規定するベクトルであるから、図においては、直感的にわかりやすくするために、原画1から取り出した閉領域を移動させるベクトルとして描いている点に留意すべきである。式2と図4の記載は、相対的な表現に関して、同義である。   In FIG. 4A, the closed region 1C of the original image 1 is taken out and superimposed on the original image 2 as it is. Then, in this state, the cost function E (C1, δ) is determined for the closed region C1. The initial value of δ is a zero vector. The movement vector δ is drawn so as to move 1 C in FIG. 4, but in Expression 2, it is added to the coordinate position of the term of the original image 2. Since the movement vector δ is a vector that defines the relative positional relationship of superposition, in the figure, the point drawn as a vector for moving the closed region extracted from the original image 1 for easy intuitive understanding It should be noted. The descriptions of Equation 2 and FIG. 4 are synonymous with respect to relative expressions.

その後、移動ベクトルδを網羅的に変化させて、コスト関数E(C1,δ)を最小にするδを図4(B)に示されているように求める。 Thereafter, the movement vector δ is comprehensively changed, and δ * which minimizes the cost function E (C1, δ) is determined as shown in FIG. 4B.

図4(B)に示されるように、原画2の閉領域のうち、閉領域C1との重なりの面積が一番大きな、原画2の閉領域を求める。この場合、閉領域2Cと閉領域1Cとは、領域S1において重なっている。そして、閉領域2Aと閉領域1Cとは、領域S2において重なっている。これらの重なりのうち、一番大きな重なりは、S2であることがわかる。したがって、一番大きな重なりの領域を共有する閉領域1Cと閉領域2Cとが対応することが推定される。   As shown in FIG. 4B, among the closed regions of the original image 2, the closed region of the original image 2 in which the area overlapping with the closed region C1 is the largest is determined. In this case, the closed region 2C and the closed region 1C overlap in the region S1. The closed area 2A and the closed area 1C overlap in the area S2. Among these overlaps, it can be seen that the largest overlap is S2. Therefore, it is estimated that the closed area 1C and the closed area 2C sharing the largest overlapping area correspond to each other.

このようにして、原画1の閉領域1Cと原画2の閉領域2Cとの対応付けの推定がなされた。この推定を表示して、オペレータに確認を促してもよい。あるいは、オペレータの確認を得ずに、対応付けを確定させてもよい。仮に、オペレータが、対応付けの推定が間違っている旨を入力した場合には、次に重なりの面積が大きい領域(図4(B))の場合には、閉領域1Cと閉領域2Aとのペアを表示して、次の候補の対応を推定し表示してもよい。   Thus, the correspondence between the closed region 1C of the original image 1 and the closed region 2C of the original image 2 was estimated. This estimate may be displayed to prompt the operator for confirmation. Alternatively, the association may be determined without obtaining confirmation from the operator. If the operator inputs that the estimation of the association is incorrect, in the case of the area where the overlapping area is the second largest (FIG. 4 (B)), the closed area 1C and the closed area 2A The pair may be displayed to estimate and display the correspondence of the next candidate.

あるいは、オペレータが、対応付けの推定が間違っている旨を入力した場合には、コスト関数が移動ベクトルδの次に小さくなった移動ベクトルδを用いて、C1との重なりの面積が一番大きな原画2の閉領域を、閉領域C1に対応する次の閉領域の候補として、推定し、表示して、オペレータに確認を促してもよい。 Alternatively, if the operator inputs that the estimation of the association is incorrect, the area of overlap with C1 is the largest, using the movement vector δ, which is next smaller than the movement vector δ *. The closed region of the large original image 2 may be estimated and displayed as a candidate for the next closed region corresponding to the closed region C1 to prompt the operator for confirmation.

図5は、閉領域の対応表が示されている。以上の結果によって、原画1と原画2にそれぞれ存在する閉領域の対応関係が確定し、図5の対応表が記憶される。この対応表を用いて、原画1において、彩色を行えば、原画2における彩色は自動的に行うことができる。   FIG. 5 shows a closed area correspondence table. By the above results, the correspondence between the closed regions present in the original picture 1 and the original picture 2 is determined, and the correspondence table of FIG. 5 is stored. If coloring is performed in the original picture 1 using this correspondence table, coloring in the original picture 2 can be automatically performed.

<1−8> 領域の対応付けの動作
図6は、領域の対応付けの例を示すフローチャートである。
<1-8> Operation of Correspondence of Regions FIG. 6 is a flowchart showing an example of correspondence of regions.

ステップS100でパラメータi及びjを初期化する。パラメータiは、例えば図3(A)に示すように原画1の閉領域を面積の大きい順に並べた際の順番(No)であってもよい。iは、原画1の各閉領域を一意に特定できる番号であればよい。パラメータjは、例えば図3(B)に示すように原画2の閉領域を面積の大きい順に並べた際の順番(No)であってもよい。jは、原画2の各閉領域を一意に特定できる番号であればよい。   In step S100, parameters i and j are initialized. The parameter i may be, for example, the order (No) when the closed regions of the original image 1 are arranged in descending order of area as shown in FIG. 3 (A). i may be a number that can uniquely identify each closed region of the original image 1. The parameter j may be, for example, the order (No) when the closed regions of the original image 2 are arranged in descending order of area as shown in FIG. 3 (B). j may be a number that can uniquely identify each closed region of the original image 2.

ステップS102で、一方の画像(原画1)から1つの閉領域i(例えば閉領域1A)を抽出する。   In step S102, one closed region i (for example, closed region 1A) is extracted from one image (original image 1).

ステップS104で、閉領域Dと他方の原画とからコスト関数E(D,δ)を算出する。 In step S104, a cost function E (D i , δ) is calculated from the closed region D i and the other original image.

ステップS106で、δを網羅的に変化させたかがチェックされる。チェックが「いいえ」であれば、ステップS132に移る。チェックが「はい」であれば、ステップS108に移る。   In step S106, it is checked whether δ is comprehensively changed. If the check is "No", the process proceeds to step S132. If the check is "yes", the process proceeds to step S108.

ステップS132でδを所定の値だけ変化させる。   In step S132, δ is changed by a predetermined value.

ステップS108で、コスト関数E(D,δ)が最小となる場合の移動ベクトルδ を保存する。 In step S108, the movement vector δ * 1 in the case where the cost function E (D i , δ) is minimized is stored.

ステップS110で、δ を用いて、閉領域Dと重なる面積が最大の他方の原画の閉領域Dを閉領域Dに対応する領域と推定する。 In step S110, the closed region D j of the other original image having the largest area overlapping with the closed region D i is estimated to be a region corresponding to the closed region D i using δ * 1 .

ステップS152で、閉領域の対応を表示し、オペレータに確認を促してもよい。対応が間違っていると入力された場合には、次のペアの候補を表示させてもよい。また、オペレータの指示により、閉領域の正しい対応関係が入力されてもよい。この時に、彩色の指示を促してもよい。   In step S152, the correspondence of the closed area may be displayed to prompt the operator for confirmation. If it is input that the correspondence is incorrect, the next pair of candidates may be displayed. Also, the correct correspondence of the closed regions may be input by the instruction of the operator. At this time, an instruction to color may be prompted.

ステップS154で、対応関係が確定された原画1の閉領域Dと原画2の閉領域Dとを、その後の対応関係の処理の対象から除いてもよい。この操作は、図3の対応付けフラグを用いてもよい。 In step S154, of the closed region D j closed region D i and original 2 of the original 1 correspondence relationship is determined, may be excluded from the scope of the subsequent processing of the correspondence. This operation may use the association flag shown in FIG.

ステップS112で、i=Iとなったかがチェックされる。すなわち、原画1における閉領域全てに対して、対応付けの処理が完了したかがチェックされる。このチェックが「いいえ」であれば、ステップS134に移る。このチェックが「はい」であれば、全体の処理を終了させてもよい。   In step S112, it is checked whether i = I. That is, it is checked whether the process of association has been completed for all closed regions in the original image 1. If this check is "No", it will move to step S134. If this check is "Yes", the entire process may be terminated.

ステップS134でiをインクリメントする。この操作によって、原画1の次の閉領域をステップS102で抽出できる。   In step S134, i is incremented. By this operation, the next closed region of the original image 1 can be extracted in step S102.

実施形態1の処理フローの概要は以上のとおりである。   The outline of the process flow of the first embodiment is as described above.

<2> 実施形態2:交点の対応付け
<2−1> 交点の対応付けの処理の詳細
<2> Embodiment 2: Correspondence of intersections <2-1> Details of processing of correspondence of intersections

以下に、原画1と原画2のそれぞれに存在する交点の対応付けについて説明する。交点の対応付けの情報は、原画1と原画2とを補間した画像の生成に利用することができる。   The correspondence between the intersections present in each of the original image 1 and the original image 2 will be described below. The information on the correspondence of the intersections can be used to generate an image obtained by interpolating the original 1 and the original 2.

図7は、複数の閉領域を含む2つの画像のそれぞれに存在する交点の対応付けの例を示す図である。   FIG. 7 is a diagram showing an example of correspondence of intersection points present in each of two images including a plurality of closed regions.

すでに説明した処理によって、原画1と原画2との間の各閉領域の対応付けが完了していることを前提とする。図7(A)の原画1の丸で囲んだ閉領域の拡大図が図7(C)に示されている。そして、図7(B)の原画2の丸で囲んだ閉領域の拡大図が図7(D)に示されている。既に、閉領域2Bは閉領域1Bと対応していることがわかっており、閉領域2Cは閉領域1Cと対応していることがわかっている。また、原画1及び原画2には、同じ背景Yが存在している。   It is assumed that the correspondence between each of the closed regions between the original image 1 and the original image 2 has been completed by the processing already described. An enlarged view of the circled closed region of the original picture 1 of FIG. 7 (A) is shown in FIG. 7 (C). And the enlarged view of the enclosed area | region enclosed with the circle of the original image 2 of FIG. 7 (B) is shown by FIG. 7 (D). It is known that the closed region 2B corresponds to the closed region 1B and the closed region 2C corresponds to the closed region 1C. Further, the same background Y exists in the original picture 1 and the original picture 2.

既に説明したように、図7(C)における交点13の周囲に存在する複数の閉領域は、左回りに閉領域1B、背景Y、閉領域1Cの順に存在しており、同様に図7(D)における交点23の周囲に存在する複数の閉領域は、左回りに閉領域1Bに対応する閉領域2B、背景Y、閉領域1Cに対応する閉領域2Cの順に存在している。したがって、交点13に接する閉領域の位置関係のパターンは、交点23に接する閉領域の位置関係のパターンと一致していることがわかる。このことから、交点13と交点23とが対応関係にあることを自動的に推定することが可能である。このようにして、対応付けされた閉領域の情報を用いることによって、対応する交点の対応付けを自動的に推定することができる。この推定結果を画面に表示して、オペレータに最終的な対応関係の確定を促してもよい。或いは、推定された交点の対応関係を、自動的に確定させてもよい。   As already described, the plurality of closed regions existing around the intersection 13 in FIG. 7C exist in the order of the closed region 1B, the background Y, and the closed region 1C in the counterclockwise direction. A plurality of closed regions present around the intersection 23 in D) are present in the order of the closed region 2B corresponding to the closed region 1B counterclockwise, the background Y, and the closed region 2C corresponding to the closed region 1C. Therefore, it is understood that the pattern of the positional relationship of the closed region in contact with the intersection point 13 matches the pattern of the positional relationship of the closed region in contact with the intersection point 23. From this, it is possible to automatically estimate that the intersection point 13 and the intersection point 23 have a corresponding relationship. In this way, by using the information on the associated closed region, it is possible to automatically estimate the correspondence of the corresponding intersection points. The estimation result may be displayed on the screen to prompt the operator to determine the final correspondence. Alternatively, the correspondence relationship between the estimated intersection points may be determined automatically.

図8は、複数の閉領域を含む2つの画像のそれぞれの交点の対応づけの結果を示す図である。対応づけられた交点の情報は、図8に示す交点の対応表によって、記憶することができる。   FIG. 8 is a diagram showing the result of the mapping of the intersection points of each of two images including a plurality of closed regions. The information of the corresponding intersections can be stored by the correspondence table of the intersections shown in FIG.

図9は、複数の閉領域を含む2つの画像のそれぞれに存在する交点の対応付けの際に発生する第1の課題の例を示す図である。図9においては、前提として、閉領域1Aと2A、閉領域1Bと2B、閉領域1Cと2C、閉領域1Dと2D、がそれぞれ対応する閉領域であると仮定する。   FIG. 9 is a diagram showing an example of a first problem that occurs in association of intersection points present in each of two images including a plurality of closed regions. In FIG. 9, it is assumed that the closed regions 1A and 2A, the closed regions 1B and 2B, the closed regions 1C and 2C, and the closed regions 1D and 2D are respectively corresponding closed regions.

この場合、図9(A)の原画1においては、交点P11の周囲に、左回りに閉領域1A、1D、1Bが存在する。これに対して、図9(B)の原画2においては、交点P21に閉領域2A、2D、2Cが存在する。この例では、交点P11と交点P21とは、周囲に同じパターンで対応する閉領域が存在しないため、対応する交点ではないと判断される。原画1の交点P11に対応する交点が原画2には存在しない。   In this case, in the original image 1 of FIG. 9A, closed regions 1A, 1D, and 1B exist counterclockwise around the intersection point P11. On the other hand, in the original image 2 of FIG. 9B, closed regions 2A, 2D and 2C exist at the intersection point P21. In this example, it is determined that the intersection point P11 and the intersection point P21 are not corresponding intersection points because there is no corresponding closed region with the same pattern in the periphery. The intersection point corresponding to the intersection point P11 of the original image 1 does not exist in the original image 2.

しかしながら、図9(A)の2つの交点(交点P11及び交点P12)及び図9(B)(交点P21及び交点P22)をまとまりとして捉えた場合には、原画1の交点P11と交点P12の周りに左回りに閉領域1A、1D、1C,1Bが存在し、原画2の交点P21と交点P22の周りに左回りに閉領域2A、2D、2C,2Bが存在し、閉領域の対応関係を考慮すると、同一のパターンで閉領域が存在していることがわかる。   However, when the two intersections (intersection P11 and intersection P12) and FIG. 9 (B) (intersection P21 and intersection P22) in FIG. 9A are regarded as a group, the periphery of the intersection P11 and the intersection P12 of the original image 1 There are closed areas 1A, 1D, 1C, and 1B counterclockwise, and closed areas 2A, 2D, 2C, and 2B exist counterclockwise around the intersection point P21 and the intersection point P22 of the original image 2. In consideration, it can be seen that closed regions exist in the same pattern.

図9の例においても、以下の処理を行うことにより、交点どうしの対応付けを行うことができる。   Also in the example of FIG. 9, the intersection points can be associated by performing the following processing.

図10は、複数の閉領域を含む画像に存在する交点及び境界線を修正する処理の例を示す図である。   FIG. 10 is a diagram showing an example of a process of correcting intersection points and boundaries present in an image including a plurality of closed regions.

図9(A)において原画1を選択する、原画1の代わりに原画2を選択してもよい。図10(A)に示されるように選択された原画1に存在する2つの交点(交点P11、交点P12)のうち、1つを削除する。図10(A)の場合には、交点P12を消去する。削除する交点は、いずれの交点であってもよい。これによって、閉領域の境界線Ldb、Lbc、Lcdが残る。なお、交点のうち、交点の角度が小さい方の交点(すなわち交点P12でLcdとLbcが領域1C側でなす角度の方が、交点P11でLadとLabが領域1A側でなす角度より小さいため、この場合は、交点P12)を優先して削除するようにしてもよい。   In FIG. 9A, an original image 1 may be selected, and an original image 2 may be selected instead of the original image 1. As shown in FIG. 10A, one of the two intersections (intersection P11, intersection P12) present in the selected original image 1 is deleted. In the case of FIG. 10A, the intersection point P12 is erased. The intersection to be deleted may be any intersection. This leaves the boundaries Ldb, Lbc, Lcd of the closed region. It is to be noted that among the intersections, the smaller one of the intersection angles (that is, the angle that Lcd and Lbc make on the area 1C side at the intersection P12 is smaller than the angle that Lad and Lab make on the area 1A side at the intersection P11) In this case, the intersection point P12) may be deleted in priority.

図10(B)に示すように、境界線LbcをLdbに沿って交点P11まで延ばす。延長されたLbcの交点P11の位置の交点を交点P111とする。   As shown in FIG. 10 (B), the boundary line Lbc is extended along Ldb to the intersection point P11. An intersection point of the position of the intersection point P11 of the extended Lbc is taken as an intersection point P111.

図10(C)に示すように、境界線LcdをLdbに沿って交点P11まで延ばす。延長されたLcdの交点P11の位置の交点を交点P112とする。   As shown in FIG. 10C, the boundary line Lcd is extended along Ldb to the intersection point P11. An intersection point of the position of the intersection point P11 of the extended Lcd is taken as an intersection point P112.

なお、上記操作の後、Ldbは削除してもよい。なお、Ldbの削除のタイミングはこの時に限られるものではなく、他のタイミングで削除してもよい。   After the above operation, Ldb may be deleted. Note that the timing of deletion of Ldb is not limited at this time, and may be deleted at other timings.

図10(D)に示すように、この結果、交点P12が削除され、境界線Lbcが延長され、交点P11の位置に交点P111が設定された。境界線Lbcが延長され、交点P11の位置に交点P112が設定された。このため、交点P11は、交点P111と交点P112の2つに分割されたと考えることができる。なお、延長された境界線Lbcと、延長された境界線Lcdとは、離れて描かれているが、図を分かりやすくするために離れて描かれているのであって、実際は、同一線上に存在する。その他の図においても同様である。   As a result, as shown in FIG. 10D, the intersection point P12 is deleted, the boundary Lbc is extended, and the intersection point P111 is set at the position of the intersection point P11. The boundary line Lbc is extended, and the intersection point P112 is set at the position of the intersection point P11. Therefore, it can be considered that the intersection point P11 is divided into two, the intersection point P111 and the intersection point P112. Although the extended border Lbc and the extended border Lcd are drawn apart, they are drawn apart for the sake of clarity of the figure, and in fact, they exist on the same line. Do. The same applies to the other figures.

図11は、複数の閉領域を含む画像に存在する交点及び境界線を修正する処理の結果に基づいて、交点の対応付けの例を示す図である。   FIG. 11 is a diagram showing an example of the correspondence of the intersection points based on the result of the process of correcting the intersection points and the boundary lines present in the image including a plurality of closed regions.

先に示した図10の処理によって、図11(A)では、交点P12が削除され、境界線Lbcが延長され、交点P11の位置に交点P111が設定された。境界線Lbcが延長され、交点P11の位置に交点P112が設定された。このため、交点P11は、交点P111と交点P112の2つに分割された。   In FIG. 11A, the intersection point P12 is deleted, the boundary line Lbc is extended, and the intersection point P111 is set at the position of the intersection point P11 by the process of FIG. 10 described above. The boundary line Lbc is extended, and the intersection point P112 is set at the position of the intersection point P11. For this reason, the intersection P11 is divided into two, the intersection P111 and the intersection P112.

図11(B)に示すように、原画2は、そのまま2つの交点P21及び交点P22が存在している。図11(C)の交点の対応表に示されるように、原画1の交点P111と原画2の交点P21とを対応づける。そして、原画1の交点P112と原画2の交点22とを対応づける。そして、図11(A)の交点P111と交点P112との間は、長さ零の境界線が存在していることとする。また、交点P111は、境界線Labと接続させ、交点P112は境界線Ladと接続させる。交点P11は削除してもよい。なお、交点P11の削除のタイミングは、この時に限られるものではなく、他のタイミングで削除してもよい。   As shown in FIG. 11B, the original image 2 has two intersection points P21 and P22 as it is. As shown in the correspondence table of the intersections in FIG. 11C, the intersection P111 of the original 1 and the intersection P21 of the original 2 are associated with each other. Then, the intersection point P112 of the original image 1 and the intersection point 22 of the original image 2 are associated with each other. Then, it is assumed that a boundary of length zero exists between the intersection point P111 and the intersection point P112 in FIG. The intersection point P111 is connected to the boundary line Lab, and the intersection point P112 is connected to the boundary line Lad. The intersection point P11 may be deleted. The timing of deleting the intersection point P11 is not limited to this time, and may be deleted at another timing.

以上の処理を行うことにより、図9のように対応付けが行えなかった交点に対しても、いずれかの原画の1つの交点を削除し、上記の処理を施すことによって、交点の対応付けが行える。   By performing the above-described processing, one intersection point of any of the original images is deleted even for the intersection points for which association can not be performed as shown in FIG. 9, and association of the intersection points is performed by performing the above processing. It can do.

[交点の対応付けの動作]   [Operation of correspondence of intersection point]

図12は、図9に示したように、原画1と原画2のそれぞれの1つの交点どうしでは対応付けができない場合であって、2つの交点をまとまりとして捉えた場合に、それらの周囲に存在する複数の閉領域のパターンが同一である場合を発見するフローチャートである。理解を助けるために、図12のフローチャート及び下記の説明において、括弧書きで図9に示した符号を例示として示す。なお、図12のフローチャートは、図9の例に限定されるものではない。   FIG. 12 shows the case where one intersection point of each of the original image 1 and the original image 2 can not be associated as shown in FIG. 9, and when two intersection points are regarded as a group, they exist around them. It is a flowchart which discovers the case where the pattern of the several closed area to perform is identical. In order to aid understanding, in the flow chart of FIG. 12 and the following description, reference numerals shown in FIG. The flowchart of FIG. 12 is not limited to the example of FIG.

ステップS300において、一方の原画(原画1)において点の対応付けが行えなかった複数の点のうち、2つの閉領域(1D,1B)の境界線上(Ldb)に存在する隣り合う2つの交点(P11,P12)の組qの集合Qを抽出する。   In step S300, among a plurality of points for which points can not be associated in one original image (original image 1), two adjacent intersection points (Ldb) existing on the boundary line (Ldb) of two closed regions (1D, 1B) The set Q of the set q of P11, P12) is extracted.

ステップS302において、他方の原画(原画2)において点の対応付けが行えなかった複数の点のうち、2つの閉領域(2A,2C)の境界線(Lac)上に存在する隣り合う2つの交点(P21,P22)の組rの集合Rを抽出する。   Two or more adjacent intersections which exist on the boundary line (Lac) of two closed regions (2A, 2C) among a plurality of points which could not be matched in the other original image (original image 2) in step S302 The set R of the set r of (P21, P22) is extracted.

ステップS304は、ステップS314との間で、集合Qに含まれる要素qを、1つずつ取り出して処理を行う繰り返しの処理を示す。   Step S304 shows the process of repetition which performs processing by taking out the elements q included in the set Q one by one between step S314 and step S314.

ステップS306は、ステップS312との間で、集合Rに含まれる要素rを、1つずつ取り出して処理を行う繰り返しの処理を示す。   Step S306 shows the process of repetition which takes out element r included in the set R one by one and performs processing with step S312.

ステップS308で、qに含まれる2つの交点(P11,P12)の少なくとも1つに接する複数の閉領域の並びのパターン(左回りに1A,1D,1C,1B)が、rに含まれる2つの交点(P21,P22)の少なくとも1つに接する複数の閉領域(2A,2D,2C,2B)のそれぞれに対応する一方の原画の閉領域の並びのパターン(左回りに1A,1D,1C,1B)と一致するか否かをチェックする。   In step S308, two of the patterns included in r are a plurality of closed region array patterns (1A, 1D, 1C, 1B counterclockwise) in contact with at least one of two intersection points (P11, P12) included in q. Pattern of an array of closed regions of one original corresponding to each of a plurality of closed regions (2A, 2D, 2C, 2B) in contact with at least one of the intersections (P21, P22) (counterclockwise counterclockwise 1A, 1D, 1C, Check if it matches with 1B).

ステップS310は、ステップS308におけるチェックが一致しているか否かを判断する。チェックが一致していればステップS320に進む。チェックが一致していなければ、ステップS312に進む。   Step S310 determines whether the checks in step S308 match. If the checks match, the process proceeds to step S320. If the checks do not match, the process proceeds to step S312.

ステップS320で、rとqとが対応すると認識し、s=(r,q)として、要素sを集合Sに加え、記憶する。   At step S320, it is recognized that r and q correspond to each other, and the element s is added to the set S as s = (r, q) and stored.

以上の処理を行うことにより、図9に示すような、2つの交点どうしの対応関係を抽出することができる。   By performing the above processing, it is possible to extract the correspondence between two intersection points as shown in FIG.

図13は、図12で抽出した2つの交点の組を要素sとする集合から、要素sを1つずつ取り出して、交点の対応付けを行う処理を示すフローチャートである。理解を助けるために、図12のフローチャート及び下記の説明において、括弧書きで図9に示した符号を例示として示す。   FIG. 13 is a flowchart showing a process of taking out the elements s one by one from the set having the set of two intersections extracted in FIG. 12 as the element s, and correlating the intersections. In order to aid understanding, in the flow chart of FIG. 12 and the following description, reference numerals shown in FIG.

ステップS400は、集合Sから1つずつ要素sを取り出して、ステップS412との間で処理を繰り返すことを示している。   Step S400 indicates that elements s are extracted one by one from the set S, and the process is repeated from step S412.

ステップS402で、1つの交点の削除を行う。なお、図12のフローチャートは、図9の例に限定されるものではない。なお、以下に示すように、集合を定義する。
s∈S
s=(q,r)
q∈交点P11,交点P12 (一方の原画(原画1)に含まれる交点)
r∈交点P21,交点P22 (他方の原画(原画2)に含まれる交点)
このステップS402においては、一方の原画の交点の組(q)に含まれる2つの交点(P11,P12)のうちいずれか1つの交点(P12)を削除する。
In step S402, one intersection point is deleted. The flowchart of FIG. 12 is not limited to the example of FIG. In addition, as shown below, a set is defined.
s∈S
s = (q, r)
q∈ intersection point P11, intersection point P12 (intersection point included in one original (original 1))
r∈ intersection point P21, intersection point P22 (intersection point included in the other original (original 2))
In step S402, one of the two intersections (P11, P12) included in the pair (q) of intersections of one original image is deleted.

ステップS404で、削除された交点(P12)に接続されており、残された交点(P12)に接続されていない2つの境界線(Lbc,Lcd)を特定する。   In step S404, two border lines (Lbc, Lcd) connected to the deleted intersection (P12) and not connected to the remaining intersection (P12) are identified.

S406で、特定された2つの境界線(Lbc,Lcd)の各々を、削除された交点(P12)と残された交点(P11)とを結ぶ境界線(Ldb)に沿って、残された交点(P11)まで延長する。   Intersections remaining along the border line (Ldb) connecting each of the two border lines (Lbc, Lcd) specified in S406 with the eliminated intersection point (P12) and the remaining intersection point (P11) Extend to (P11).

ステップS408で、延長された2つの境界線(Lbc,Lcd)の一方の境界線(Lbc)の延長された端に第1の交点(P111)を生成し、前記一方の境界線(Lbc)を境に隣接する2つの閉領域(1B,1C)に対応する他方の原画(原画2)の閉領域(2B,2C)の境界線(L2bc)上の点(P21)を、生成された前記第1の交点(P111)に対応させる。交点P111は、境界線Labに接続させる。同様に、延長された2つの境界線(Lbc,Lcd)の他方の境界線(Lcd)の延長された端に第2の交点(P112)を生成し、前記一方の境界線(Ldc)を境に隣接する2つの閉領域(1D,1C)に対応する他方の原画(原画2)の閉領域(2D,2C)の境界線(L2cd)上の点(P22)を、生成された前記第2の交点(P112)に対応させる。交点P112は、境界線Ladに接続させる。   In step S408, a first intersection point (P111) is generated at the extended end of one of the two border lines (Lbc, Lcd) that has been extended, and the one border line (Lbc) is generated. The point (P21) on the boundary (L2bc) of the closed region (2B, 2C) of the other original (original image 2) corresponding to the two closed regions (1B, 1C) adjacent to the boundary It corresponds to the intersection point of 1 (P111). The intersection point P111 is connected to the boundary line Lab. Similarly, a second intersection point (P112) is generated at the extended end of the other boundary (Lcd) of the two extended boundaries (Lbc, Lcd), and the one boundary (Ldc) is separated. The point (P22) on the border line (L2 cd) of the closed region (2D, 2C) of the other original (original image 2) corresponding to the two closed regions (1D, 1C) adjacent to the Corresponding to the intersection point (P112) of The intersection point P112 is connected to the boundary line Lad.

ステップS410で、残された交点(P11)を削除する。生成された2つの交点(P111,P112)は、長さ零の境界線で結ばれているとする。境界線Ldbを削除してもよい。交点P11を消去してもよい。   At step S410, the remaining intersection point (P11) is deleted. Two generated points of intersection (P111, P112) are connected by a boundary of zero length. The boundary Ldb may be deleted. The intersection point P11 may be deleted.

以上の処理を行うことによって、図9のパターンに対して、交点の対応付けの処理を行うことができる。   By performing the above process, the process of associating intersections can be performed on the pattern of FIG.

図14は、図11、図12及び図13の処理が適用された2つの原画に対する中割り画像Nを生成する例を示している。   FIG. 14 shows an example of generating a split image N for two original images to which the processing of FIGS. 11, 12 and 13 is applied.

図14の中割り画像Nに示されるように、原画1の交点P111が中割り画像の交点NP111に対応し、原画1の交点P112が中割り画像の交点NP112に対応する。そして、原画1では長さが零であった境界線が、中割り画像Nにおける交点NP111と交点NP112との間に境界線Lacとして表示されていることがわかる。このようにして、交点の対応付けを行うことにより、中割り画像を自動的に生成することが可能である。   As shown in the middle divided image N of FIG. 14, the intersection P111 of the original image 1 corresponds to the intersection NP111 of the middle divided image, and the intersection P112 of the original 1 corresponds to the intersection NP112 of the middle divided image. Then, it can be seen that the boundary line whose length is zero in the original image 1 is displayed as the boundary line Lac between the intersection point NP111 and the intersection point NP112 in the middle divided image N. In this way, it is possible to automatically generate a mid-division image by correlating the intersection points.

なお、中割り画像Nを生成する場合には、各境界線の形状についても補間を行い、なめらかな中割り画像が生成されるようにしてもよい。或いは、対応する交点、対応する境界線、対応する閉領域の情報等を用いて、モーフィングの技術により、中割り画像Nを生成するようにしてもよい。また、2つの原画にそれぞれ存在する閉領域を構成しない線及び点等については、閉領域及び交点の対応関係から、それらの対応関係を推測することが可能である場合が多い。なお、2つの原画に存在する閉領域、線、点などのうち、対応関係が推測不可能であるものについては、オペレータに対して、対応関係の指定を行うよう促してもよい。最終的に、オペレータの指示もなされておらず、対応関係が不明である閉領域、線、点などについては、周囲の閉領域、線、点など補間の位置関係から、中割り画像における位置関係を決定してもよい。モーフィングの技術に見られるように、2つの原画に存在する全ての構成要素の対応関係が判明していなくても、モーフィングの技術等を利用することにより、中割り画像を生成することは可能である。   In addition, in the case of generating the middle divided image N, interpolation may be performed on the shape of each boundary to generate a smooth middle divided image. Alternatively, the middle divided image N may be generated by the morphing technique using the corresponding intersection point, the corresponding boundary line, the information of the corresponding closed region, and the like. In addition, with regard to lines and points that do not constitute closed regions respectively present in two original images, it is often possible to infer the correspondences from the correspondences between the closed regions and the intersections. The operator may be prompted to specify the correspondence among closed regions, lines, points, etc. existing in the two original images for which the correspondence can not be estimated. Finally, with regard to closed regions, lines, points, etc. for which the operator's instruction is not given and the correspondence relationship is unknown, the positional relationship in the middle divided image from the positional relationship of interpolations such as surrounding closed regions, lines, points, etc. You may decide As seen in the morphing technology, it is possible to generate a split image by using the morphing technology etc., even if the correspondence between all the components present in the two original images is not known. is there.

図15は、図14に示した例と同様の例であって、中割り画像を複数生成した場合の例を示している。原画5と原画6との間に、時間軸に沿ってN01からN10までの10個の中割り画像が生成されている。原画及び中割り画像は、それぞれ、動画の1フレームに対応する。図15の場合には、原画5、10個の中割り画像、原画6の12のフレームが連続して表示され、スムーズな動画が再生されることとなる。   FIG. 15 is an example similar to the example shown in FIG. 14, and shows an example in which a plurality of middle division images are generated. Between original image 5 and original image 6, ten split images N01 to N10 are generated along the time axis. The original image and the split image respectively correspond to one frame of the moving image. In the case of FIG. 15, 12 frames of the original image 5, 10 middle-split images and the original image 6 are continuously displayed, and a smooth moving image is reproduced.

図16は、交点の無い閉領域の境界線に端点を付与することで交点を作る例を示す図である。この例の場合には、原画7と原画8とにそれぞれ1つずつの交点(交点P51及び交点P61)が図示されている。それぞれの原画における閉領域の交点の数は、複数であってもよい。この場合には、まず、2つの閉領域を1つの平面上に置く。これら2つの閉領域の間のハウスドルフ距離を求める。次に一方の閉領域の境界線上の全ての点について、他方の閉領域の境界線上の点からの距離が最小となるそれぞれの点を求め、一方の閉領域の点と他方の閉領域の点とを対応づけた2点の組の集合を作る。それぞれの組において、2点間の距離がハウスドルフ距離と等しい組を、対応のついた交点としてそれぞれの閉領域に付与する。なお、2点間の距離がハウスドルフ距離と等しい点の組が複数ある場合は任意の組を選択して対応のついた交点としてもよい。   FIG. 16 is a diagram showing an example of forming an intersection by giving an end point to a boundary of a closed region having no intersection. In the case of this example, one intersection point (intersection point P51 and intersection point P61) is shown for each of the original image 7 and the original image 8. The number of intersections of the closed regions in each original image may be plural. In this case, first, two closed regions are placed on one plane. Determine the Hausdorff distance between these two closed regions. Next, for all points on the boundary of one closed region, respective points at which the distance from the point on the boundary of the other closed region is minimum are determined, and the points of one closed region and the points of the other closed region Create a set of 2 point pairs that correspond to In each set, a set in which the distance between two points is equal to the Hausdorff distance is given to each closed region as a corresponding intersection point. When there are a plurality of sets of points where the distance between two points is equal to the Hausdorff distance, any set may be selected as a corresponding intersection point.

ハウスドルフ距離dHは、一般に、2つの集合Aと集合Bがある場合に、集合Aのどの点であっても少なくとも距離dHだけ進めば集合Bのどれかの点に到達できる。同じく、集合Bのどの点であっても少なくとも距離dHだけ進めば集合Aのどれかの点に到達できる。このような距離dHをハウスドルフ距離と言う。図16の場合には、同一平面上に置いた、原画7と原画8において、原画7に含まれる複数の画素が集合Aに対応し、原画8に含まれる画素が集合Bに対応する。   In general, if there are two sets A and B, the Hausdorff distance dH can reach any point of the set B by advancing at least the distance dH at any point of the set A. Similarly, any point in the set B can be reached at any point in the set A by advancing at least the distance dH. Such a distance dH is called the Hausdorff distance. In the case of FIG. 16, in the original image 7 and the original image 8 placed on the same plane, a plurality of pixels included in the original image 7 correspond to the set A, and pixels included in the original image 8 correspond to the set B.

なお、必ずしもハウスドルフ距離を採用する必要はなく、閉領域で、形状の似ている位置の点を、対応する交点として採用してもよい。また、パターン認識などの手法を用いて、類似するパターン上に存在する点どうしを対応する交点としてもよい。   Note that the Hausdorff distance does not have to be necessarily adopted, and a point at a similar position in the closed region may be adopted as a corresponding intersection point. Alternatively, points existing on similar patterns may be set as corresponding intersection points by using a method such as pattern recognition.

図17は、2つの原画の片方が孤立した閉路を持つ場合の交点の処理の例を示す図である。原画9は、孤立した閉路と直線が存在している。原画10Aでは、直線と円が接触しており、交点P101及び交点P102が存在している。   FIG. 17 is a diagram showing an example of processing of an intersection when one of the two original images has a closed circuit isolated. The original picture 9 has an isolated closed circuit and a straight line. In the original image 10A, the straight line and the circle are in contact with each other, and an intersection point P101 and an intersection point P102 exist.

この場合には、原画9と原画10Aとで、交点の対応付けが行えない。したがって、以下のようにすることが望ましい。   In this case, the intersection of the original image 9 and the original image 10A can not be associated. Therefore, it is desirable to do as follows.

すなわち、原画10Bに示されるように、交点P101及び交点P102を削除する。そして、交点P101に接続していた直線と、交点P102に接続していた直線を延長して、一つの直線にする。さらに、交点P101に接続していた円の端点と、交点P102に接続していた円の端点とを接続して、一つの円形状の図を作る。次に、原画9及び原画10Bに、図16で示した手法を用いて新たな交点を設ける。例えば、交点P093と、交点P103を設ける。この場合、図16を用いて説明したように、平面上に2つの円形状の図を置いた場合に、これらの2つの円の間のハウスドルフ距離を用いて、交点を付与してもよい。   That is, as shown in the original image 10B, the intersection point P101 and the intersection point P102 are deleted. Then, the straight line connected to the intersection point P101 and the straight line connected to the intersection point P102 are extended into one straight line. Furthermore, the end point of the circle connected to the intersection point P101 and the end point of the circle connected to the intersection point P102 are connected to make one circular figure. Next, new points of intersection are provided in the original image 9 and the original image 10B using the method shown in FIG. For example, an intersection point P093 and an intersection point P103 are provided. In this case, when two circular figures are placed on a plane as described with reference to FIG. 16, the Hausdorff distance between these two circles may be used to provide an intersection point. .

図18は、原画をレイヤーに分けて、処理を行う例を示す図である。原画11には、笛の上部11Aと笛の下部11Bが存在している。そして、原画12にも、笛の上部12Aと笛の下部12Bが存在している。このような笛の部分の画像の周辺では、2つの原画における交点の対応付けが単純に行えないことがある。すなわち、図7及び図9に関連して例示した交点の対応付けの処理によっても、なお、対応付けが行えない交点を含む閉領域が存在することがある。このような閉領域に対しては、その閉領域を切り出し、別のレイヤー(層)に移動させ、交点の対応付けの処理をレイヤー毎に別個に行うことが有効である。   FIG. 18 is a diagram showing an example in which an original image is divided into layers and processing is performed. In the original picture 11, an upper portion 11A of the eyebrow and a lower portion 11B of the eyebrow are present. And, in the original drawing 12, the upper part 12A of the brow and the lower portion 12b of the brow are present. In the periphery of the image of such a portion of the eyebrow, there may be cases where the correspondence of the intersection points in the two original images can not simply be made. That is, even by the process of associating the intersections illustrated with reference to FIGS. 7 and 9, there may be a closed region including the intersection where the association can not be performed. For such a closed area, it is effective to cut out the closed area, move it to another layer (layer), and separately process the correspondence of intersection points for each layer.

すなわち、原画11及び原画12の笛の部分をそれぞれ別のレイヤーにコピーし、基の原画からは、笛の画像部分を削除する。この操作を行うと、人間の部分のレイヤーと笛の部分のレイヤーに原画を分けて、交点の対応付けの処理をすることができる。レイヤーに分けるか否かの判断手法としては、図9のパターンが周辺に多く発生する閉領域を他のレイヤーに移すことが有効である。   That is, the eyelid portions of the original image 11 and the original image 12 are copied to different layers, and the image portion of the eyelid is deleted from the original original image. When this operation is performed, the original image can be divided into the layer of the human part and the layer of the part of the eyebrow, and the process of associating the intersection can be performed. As a method of determining whether or not to divide into layers, it is effective to move a closed region where many patterns in FIG. 9 occur around to another layer.

なお、一部の閉領域を他のレイヤーに移し、他のレイヤーに移した画像を原画から削除することが望ましい。この際に、削除された部分の周辺が空白となってしまい、閉領域が存在しない部分が発生する場合がある。すなわち、一部の閉領域を他のレイヤーに移動させた残りの画像の空白部分には、閉領域が存在せず、閉領域が開いた形の分岐線が存在する場合がある。この場合には、分岐線をそのまま残して、分岐線の端の点(端点)を特定し、一方の原画と他方の原画とで、端点どうしの対応付けを行ってもよい。あるいは、対応付けが行えない交点が残ってしまう場合には、オペレータに対して指示を行うよう促してもよい。   It is desirable to move some closed regions to another layer and delete the image transferred to another layer from the original image. At this time, the periphery of the deleted portion may be blank, and a portion in which a closed region does not exist may occur. That is, there may be a case where there is no closed area and a branch line in the form of an open closed area in the blank part of the remaining image after moving a part of the closed area to another layer. In this case, the branch line may be left as it is, the end point (end point) of the branch line may be specified, and the end points of one original may be associated with the other original. Alternatively, the operator may be prompted to give an instruction if there remains an intersection where the association can not be performed.

あるいは、上記の場合には、閉領域を削除した部分の周辺に存在する線分を延長して、つなぎ合わせる処理を行うことにより、閉領域を形成することが可能である。原画をレイヤーに分けて、交点の対応付けを行う際には、新たに生成された閉領域の対応付けの処理を行うことが必要となる場合がある。この場合には、レイヤーに移す前に存在した閉領域を結合させることにより、多くの場合対処することができる。なお、対処することができない場合には、再度、閉領域の対応付けを部分的に再度行うことも有効である。
<3> 実施形態3:中割り画像の形成の変形例
以上のようにして、2つの原画の閉領域の対応付け、交点の対応付けを順番に行うことにより、2つの原画の各部の対応付けが行える。
Alternatively, in the above case, it is possible to form a closed region by extending the line segments existing around the portion from which the closed region has been deleted and connecting them together. When the original image is divided into layers and the intersections are associated, it may be necessary to perform the process of associating the newly generated closed area. In this case, it can often be dealt with by combining the closed regions that existed prior to transfer to the layer. In addition, when it is not possible to cope with it, it is also effective to partially re-associate the closed area again.
<3> Third Embodiment: Modified Example of Formation of Intermediately Divided Image As described above, by sequentially correlating the closed regions of the two original images and correlating the intersection points, correlating the respective portions of the two original images. Can do

中割り画像は、2つの原画の交点の位置を補間することで行えるが、閉領域の対応関係、閉領域の境界線の形状、対応する交点を結んだ境界線の対応関係等をも勘案して、総合的に原画の補間を行うことがより自然な中割り画像を作成する上で有利である。   The split image can be performed by interpolating the position of the intersection of the two original images, but taking into consideration the correspondence of the closed region, the shape of the boundary of the closed region, the correspondence of the boundary connecting the corresponding intersections, etc. Therefore, it is advantageous to create a more natural split image by performing interpolation of the original image comprehensively.

また、閉領域の画像の対応付けの際に、オペレータに彩色の指示を促すことで、彩色の処理と、閉領域の確認とをまとめてオペレータに促すことができる。   Further, by prompting the operator to instruct coloring when matching the image of the closed area, it is possible to urge the operator to collectively perform the process of coloring and the confirmation of the closed area.

例えば原画1と原画2との閉領域の対応付けを行い、次に原画2と原画3の閉領域の対応付けを行うように、順番に対応付けを行うようにしてもよい。この場合、原画1と原画2との閉領域の対応付けの際に彩色の指示をオペレータが行えば、原画2と原画3との閉領域の対応付けの際の彩色は、略自動で行えることとなる。しかも、中割り画像の彩色は、原画の彩色から容易に推定できるので、中割り画像の彩色も略自動で行えることとなる。   For example, the closed regions of the original image 1 and the original image 2 may be associated with each other, and the closed regions of the original image 2 and the original image 3 may be subsequently associated with each other. In this case, if the operator gives an instruction for coloring when the closed regions of the original image 1 and the original image 2 are associated, coloring when the closed regions of the original image 2 and the original image 3 are associated can be substantially automatically performed. It becomes. Moreover, since the coloring of the middle divided image can be easily estimated from the coloring of the original image, the coloring of the middle divided image can also be performed substantially automatically.

<4> 実施形態4(閉領域の対応付けの変形例)
図18を用いて、一方の原画の2つの閉領域が、他方の原画における1つの閉領域に対応する場合の処理の例を以下に説明する。
<4> Fourth Embodiment (Modified Example of Correlating Closed Areas)
An example of processing in the case where two closed regions of one original correspond to one closed region in the other original will be described below using FIG.

図18において、原画11における閉領域110及び閉領域111は、原画12における閉領域121に対応している。この場合には、閉領域の対応付けが多対1の形式になっている。このような状況は、閉領域の前側に、多のオブジェクトが重なっている原画の場合に発生しやすい。このような場合にも対処するためには、例えば、以下のような処理を行えばよい。   In FIG. 18, the closed region 110 and the closed region 111 in the original image 11 correspond to the closed region 121 in the original image 12. In this case, the correspondence between closed regions is in a many-to-one format. Such a situation is likely to occur in the case of an original image in which many objects overlap in front of the closed region. In order to cope with such a case, for example, the following process may be performed.

まず、原画11の閉領域110に対応する原画12の閉領域を、上述の実施形態1で推定する。この推定によって、閉領域110に対応する閉領域として121が推定される。この時点で、対応する閉領域110と閉領域121とを画面に表示して、オペレータに確認を促す。オペレータは、閉領域の対応付けとして、原画11の閉領域111が残っていることがわかる。このため、推定は、部分的に正しいことを入力する。この入力においては、原画11の領域110は、以後の閉領域の対応の対象から除外し、閉領域121は、以後の閉領域の対象から除外しないように、オペレータが指示を行えばよい。この指示は、図3に示した表の対応付けの欄におけるフラグの処理で実現できる。すなわち、領域110の対応付けのフラグを1として、以後の対応付けの対象から除外する。これに対して、領域121の対応付けの欄は、フラグを0のままとし、以後の対応付けにおいても、考慮されるようにすればよい。オペレータは、この時、併せて、彩色の指示を行ってもよい。オペレータの彩色の指示によって、閉領域110と閉領域121が同じ色で彩色されるが、閉領域121は、閉領域の推定対象としての状態を保持することができる。   First, the closed region of the original image 12 corresponding to the closed region 110 of the original image 11 is estimated in the first embodiment described above. By this estimation, 121 is estimated as a closed region corresponding to the closed region 110. At this point, the corresponding closed area 110 and the closed area 121 are displayed on the screen to prompt the operator to confirm. The operator finds that the closed area 111 of the original image 11 remains as the association of the closed areas. For this reason, the estimation inputs that it is partially correct. In this input, the operator may instruct the region 110 of the original image 11 to be excluded from the targets of the subsequent closed region and the closed region 121 not to be excluded from the subsequent target of the closed region. This instruction can be realized by the processing of the flag in the column of table correspondence shown in FIG. That is, the flag of the correspondence of the area 110 is set to 1, and it is excluded from the target of the subsequent correspondence. On the other hand, in the field of the association in the area 121, the flag may be left as 0 and be taken into consideration in the subsequent association. At this time, the operator may also give instructions for coloring. Although the closed area 110 and the closed area 121 are colored in the same color by the operator's instruction of coloring, the closed area 121 can hold the state as the estimation target of the closed area.

その後、原画11の閉領域111の対応付けの処理の際に、再度、原画12の閉領域121が、対応する旨の推定がなされることとなるので、この対応付けが表示され、オペレータへの指示の入力が促された際に、オペレータは、対応付けが正しいことを入力する。このオペレータの指示によって、図3に示す閉領域111の対応付けのフラグと、閉領域121の対応付けのフラグが、いずれも0から1に置き換えられ、これらの閉領域は、以後の閉領域の対応付けの推定の処理の対象から除かれることとなる。   Thereafter, in the process of associating the closed area 111 of the original image 11, the closed area 121 of the original image 12 is estimated to correspond again, so that the association is displayed, and the operator is notified. When prompted for an instruction, the operator inputs that the correspondence is correct. According to the instruction of the operator, the flag of the correspondence of the closed area 111 and the flag of the correspondence of the closed area 121 shown in FIG. 3 are both replaced with 0 to 1, and these closed areas are the subsequent closed areas. It will be excluded from the target of the process of estimation of the association.

なお、図3の対応付けの欄を使わないこととすれば、閉領域の対応付けとして、1対多、多対1、多対多の閉領域の対応付けを許容することができる。この場合にも、対応付けが正しいか否かの指示をオペレータが入力するように促してもよい。   Note that if the association column in FIG. 3 is not used, it is possible to allow one-to-many, many-to-one, many-to-many closed regions to be associated as closed regions. Also in this case, the operator may be prompted to input an instruction as to whether the association is correct.

<5> ハードウエア構成
図19は、各実施形態のハードウエア構成1700を示す図である。
<5> Hardware Configuration FIG. 19 is a diagram showing a hardware configuration 1700 of each embodiment.

ハードウエア構成1700は、CPU1710、メモリ1720、通信制御部1730、入出力インタフェース1740、表示制御部1750、ドライブ制御部1760、及び印刷制御部1770を有する。   The hardware configuration 1700 includes a CPU 1710, a memory 1720, a communication control unit 1730, an input / output interface 1740, a display control unit 1750, a drive control unit 1760, and a print control unit 1770.

そして、通信制御部1730には、インターネットなどのネットワークが接続される。入出力インタフェース1740には、入出力装置1742が接続される。表示制御部1750には、表示装置1752が接続される。ドライブ制御部1760は、記憶媒体1762を読み書きすることができる。印刷制御部1770には、プリンタ1772が接続される。   The communication control unit 1730 is connected to a network such as the Internet. An input / output device 1742 is connected to the input / output interface 1740. A display device 1752 is connected to the display control unit 1750. The drive control unit 1760 can read and write the storage medium 1762. A printer 1772 is connected to the print control unit 1770.

記憶媒体1762は、RAM、ROM、CD−ROM、DVD−ROM、ハードディスク、メモリーカード等であってもよい。   The storage medium 1762 may be a RAM, a ROM, a CD-ROM, a DVD-ROM, a hard disk, a memory card, or the like.

以上説明した実施形態の方法は,コンピュータにより実行され得る。また,実施形態の方法は,コンピュータに実行させるプログラムとして,インプリメントされてもよい。プログラムの一部又は前部は、オペレーティングシステムにより実行されてもよい。また、プログラムの一部がハードウエアにより実現されてもよい。プログラムは記憶媒体1762に記憶されてもよい。   The method of the embodiment described above can be implemented by a computer. Also, the method of the embodiment may be implemented as a program to be executed by a computer. Part or the front of the program may be executed by the operating system. Also, part of the program may be realized by hardware. The program may be stored in storage medium 1762.

なお,上述の実施形態において,方法のステップ又はプログラムのステップは、矛盾のない限り,同時に,又は順序を入れ替えて実行されてもよい。   In the above embodiment, the method steps or program steps may be performed simultaneously or in reverse order, as long as no contradiction arises.

以上の実施形態は,ハードウエアの装置としてインプリメントされ得る。   The above embodiments can be implemented as hardware devices.

以上の実施形態は,請求項に記載された発明を限定するものではなく,例示として取り扱われることは言うまでもない。   It goes without saying that the above embodiments do not limit the invention described in the claims, and are treated as examples.

なお、原画及び中割り画像に含まれる閉領域並びに背景は、領域の一例である。原画、中割り画像、背景は、画像を構成する要素の例である。境界線は、閉領域の輪郭の一部を構成する要素となり得る。   The closed region and the background included in the original image and the split image are an example of the region. The original image, the split image, and the background are examples of elements constituting the image. The boundary can be an element that constitutes a part of the outline of the closed region.

<6>実施形態5
実施形態5は、領域が回転を伴う場合における領域の補間の手法の例を示している。
<6> Fifth Embodiment
The fifth embodiment shows an example of an area interpolation method in the case where the area involves rotation.

なお、以下に詳述する実施形態5においては、処理の対象となる画像が必ずしも輪郭線でとじられた閉領域である必要はないため、「領域」の語を用いることとする。例えば、「領域」とは、「閉領域」の集合、「閉領域」の一部分、或いは輪郭線でとじられていない領域であってもよい。なお、以下の実施形態では、「領域」を「画像」と表現する場合もある。   In the fifth embodiment, which will be described in detail below, the word “region” is used because the image to be processed does not necessarily have to be a closed region bounded by an outline. For example, the "region" may be a set of "closed regions", a part of "closed regions", or a region not bound by an outline. In the following embodiments, the "area" may be expressed as an "image".

図20は、領域が回転を伴う場合に、補間を用いて中割画像を生成する例を示す図である。なお、各ペットボトルの画像は、複数の領域の集合で示されている。以下、複数の領域の集合体であるペットボトルに注目して説明する。なお、以下の説明は、ペットボトルに含まれる複数の領域の各々にも当てはまる。   FIG. 20 is a diagram illustrating an example of generating an indivisible image using interpolation when the area involves rotation. The image of each plastic bottle is shown by a set of a plurality of areas. The following description will focus on a plastic bottle, which is an assembly of a plurality of areas. The following description also applies to each of a plurality of areas included in the plastic bottle.

図20(A)は、時刻tAにおけるペットボトル2001の画像と、時刻tCにおけるペットボトルの画像2003とが与えられた場合に、時刻tBにおける中割画像2002を生成する例を示している。図20(A)では、中割画像2002が、適切な大きさで形成されており、理想的な中割画像の例を示している。   FIG. 20A shows an example of generating the middle division image 2002 at time tB when the image of the plastic bottle 2001 at time tA and the image 2003 of the plastic bottle at time tC are given. In FIG. 20A, the middle-cut image 2002 is formed in an appropriate size, and an example of an ideal middle-cut image is shown.

図20(B)は、時刻tAにおける画像2011と、時刻tCにける画像2013において、対応する点を線形的に補間する手法を用いた場合の中割画像2012を示している。ペットボトルのキャップの位置を直線2022で結び、ペットボトル2011の画像のキャップの位置とペットボトル2013の画像のキャップの位置の中間点に中割画像のペットボトル2012のキャップを描いている。同様に、ペットボトルの底についても、直線2021を用いて、中割画像のペットボトル2012の底を描いている。
上記のような単純な線形補間を、回転する画像(領域)に適用すると、中割画像(領域)が、不自然に小さく描かれてしまうという不都合が生じる。
FIG. 20 (B) shows an image 2011 at time tA and an intermediate image 2012 in the case of using a method of linearly interpolating corresponding points in the image 2013 at time tC. The position of the cap of the plastic bottle is connected by a straight line 2022, and the cap of the plastic bottle 2012 of the split image is drawn at the midpoint between the position of the cap of the plastic bottle 2011 image and the position of the cap of the plastic bottle 2013 image. Similarly, for the bottom of the plastic bottle, a straight line 2021 is used to draw the bottom of the plastic bottle 2012 of the split image.
When the simple linear interpolation as described above is applied to a rotating image (region), there arises a disadvantage that the middle divided image (region) is drawn unnaturally small.

本実施形態は、このような回転を伴う画像における中割画像を自然な画像に(図20(A)における中割画像2002のように)生成する手法の例を示している。その詳細は、以下に詳述する。
図21は、中割画像の領域を生成する例を概念的に示す図である。
The present embodiment shows an example of a method for generating a split image in an image accompanied by such rotation into a natural image (as in the split image 2002 in FIG. 20A). The details will be described in detail below.
FIG. 21 is a diagram conceptually showing an example of generating an area of the middle division image.

図21(A)は、ペットボトル2101とペットボトル2103の回転の中心が、それぞれ回転の中心Oa、回転の中心Ocであることが、オペレータによって指定されている。また、ベクトルVaは、ペットボトル2101の向きを示すベクトルであり、ベクトルVc1は、ペットボトル2103の向きを示すベクトルである。これらのベクトルは、回転の中心が与えられれば、画像認識によって、特徴点Fa及び特徴点Fcを認識することによって、コンピュータなどの機械が認識することもできる。あるいは、ペットボトルの特徴点に向かうベクトルではなく、ペットボトル2101の面積重心Ga及びペットボトル2103の面積重心Gcを求め、回転の中心Oa及び中心Ocからペットボトルの面積重心Ga及びGcに向かうベクトルをそれぞれ求めることによって、それぞれのペットボトルの向き(領域の向き)を認識してもよい。あるいは、それぞれのペットボトルの向きは、オペレータの指示によって与えられてもよい。この操作によって、時間とともに回転する向きと、角度θが求まる。   In FIG. 21A, the operator designates that the centers of rotation of the plastic bottle 2101 and the plastic bottle 2103 are the center of rotation Oa and the center of rotation Oc, respectively. The vector Va is a vector indicating the direction of the plastic bottle 2101, and the vector Vc1 is a vector indicating the direction of the plastic bottle 2103. These vectors can also be recognized by a machine such as a computer by recognizing the feature points Fa and Fc by image recognition, given the center of rotation. Alternatively, the vector gravity center Ga of the plastic bottle 2101 and the gravity center Gc of the plastic bottle 2103 are determined instead of the vector directed to the characteristic point of the plastic bottle, and the vector directed from the rotation center Oa and center Oc to the gravity center Ga and Gc The orientation (area orientation) of each plastic bottle may be recognized by respectively determining. Alternatively, the orientation of each plastic bottle may be given by the instruction of the operator. By this operation, the direction of rotation with time and the angle θ can be obtained.

いずれにしても、ペットボトルの向きを表すベクトルVaとベクトルVc1とが認識されることによって、図2101(A)に示される角度θが求まる。   In any case, the angle θ shown in FIG. 210A can be obtained by recognizing the vector Va indicating the direction of the plastic bottle and the vector Vc1.

図21(B)は、認識された角度θを使って、ペットボトル2013をペットボトル2103cに示されるように、逆の向きに(反時計回りに)角度θだけ回転させる。この操作によって、ペットボトル2101とペットボトル2103cとの向き(領域の向き)が一致する。ペットボトル2103cのベクトルVc2は、ベクトルVaと同じ向きを向くことになる。このように、ペットボトル2101とペットボトル2103cの向きを一致させることによって、ペットボトルの回転の影響を取り除いた状態が得られる。なお、ペットボトルの回転は、ペットボトル2103ではなく、ペットボトル2101に対して行われてもよい。この場合には、ペットボトル2101の回転の方向は、時計回りに角度θだけ回転させればよい。この操作によっても、ペットボトルの向きを合わせることができる。あるいは、ペットボトル2101とペットボトル2103の両者を回転させ、両者の向きが合うようにしてもよい。この場合の操作については、図22を用いて後述する。   FIG. 21B uses the recognized angle θ to rotate the plastic bottle 2013 in the opposite direction (counterclockwise) by the angle θ as shown in the plastic bottle 2103 c. By this operation, the directions (the directions of the regions) of the plastic bottle 2101 and the plastic bottle 2103 c coincide with each other. The vector Vc2 of the plastic bottle 2103c turns in the same direction as the vector Va. As described above, by matching the directions of the plastic bottle 2101 and the plastic bottle 2103 c, a state in which the influence of the rotation of the plastic bottle is removed can be obtained. Note that the rotation of the plastic bottle may be performed not on the plastic bottle 2103 but on the plastic bottle 2101. In this case, the direction of rotation of the plastic bottle 2101 may be rotated clockwise by an angle θ. Also by this operation, the direction of the plastic bottle can be adjusted. Alternatively, both of the plastic bottle 2101 and the plastic bottle 2103 may be rotated so that the directions of the both coincide with each other. The operation in this case will be described later with reference to FIG.

図21(C)は、ペットボトル2101とペットボトル2103cとを補間した画像のペットボトル2102bを生成したことを示した図である。この場合、説明を単純化するために、補間して生成されたペットボトル2102bは、ペットボトル2101とペットボトル2103cと同じ形状となっているが、補間された画像は、元となった2つの画像を補間したものとなるため、与えられた2つの画像とは別の画像となることが通例である。   FIG. 21C is a diagram showing that a plastic bottle 2102 b of an image obtained by interpolating the plastic bottle 2101 and the plastic bottle 2103 c is generated. In this case, in order to simplify the description, the plastic bottle 2102b generated by interpolation has the same shape as the plastic bottle 2101 and the plastic bottle 2103c, but the interpolated image has the original two Since the images are interpolated, it is customary for the two given images to be separate images.

補間されたペットボトル2102bは、回転の中心Ob及び特徴点Fbが補間により特定されている。そして、補間して得られた中心Obから特徴点Fbへ向かうベクトルVb1が特定される。補間は、中割画像の表示される時刻に基づいて、線形補間を行うのが一般的であるが、線形補間に限られるものではない。与えられた2つの画像にそれぞれ対応する点の対が与えられれば、中割画像の表示される時間的な位置に基づいて、中割画像の中に、これらの点の対に対応する点が特定される。   In the interpolated plastic bottle 2102b, the center of rotation Ob and the feature point Fb are specified by interpolation. And vector Vb1 which goes to feature point Fb from center Ob obtained by interpolation is specified. The interpolation is generally performed by linear interpolation based on the displayed time of the middle divided image, but is not limited to linear interpolation. Given corresponding pairs of points in two given images, based on the displayed temporal position of the split image, in the split image, the points corresponding to these pairs are displayed. It is identified.

図21(D)は、補間された画像2102bを中割画像の時間的な位置に応じて、角度を戻す向きに(時計回りに)角度φだけ回転させて、中割画像を形成する例を示した図である。ペットボトル2102bを回転させるには、例えば、回転の中心Obから延びるベクトルVb1をφだけ回転させてベクトルVb2となるようにペットボトル2102dを得ればよい。φの値は、画像2101の時刻をtA、画像2103の時刻をtC、中割画像2102dの時刻をtBとすれば、角度φは、
φ=θ×(tB−tA)/(tC−tA)
によって求めることができる。
FIG. 21D illustrates an example in which a middle-cut image is formed by rotating the interpolated image 2102b by an angle φ (clockwise) in an angle return direction according to the temporal position of the middle-cut image. FIG. In order to rotate the plastic bottle 2102b, for example, the plastic bottle 2102d may be obtained such that the vector Vb1 extending from the center of rotation Ob is rotated by φ and the vector Vb2 is obtained. Assuming that the time of the image 2101 is tA, the time of the image 2103 is tC, and the time of the middle divided image 2102d is tB, the angle φ is
φ = θ × (tB−tA) / (tC−tA)
It can be determined by

以上の処理を行えば、図21(D)の中割画像のペットボトル2102dは、図20(B)に示した中割画像のペットボトル2012よりも自然な中割画像となる。以上の説明では、複数の領域を含むペットボトルの例を示したが、ペットボトルに含まれる複数の領域の各々に対して、上記の処理を施してもよいことはすでに述べたとおりである。
図22は、中割画像に含まれる領域を生成する他の例を概念的に示す図である。
When the above processing is performed, the plastic bottle 2102 d of the middle-cut image in FIG. 21D becomes a natural middle-cut image than the plastic bottle 2012 of the middle-cut image shown in FIG. 20 (B). Although the example of the plastic bottle containing a some area | region was shown in the above description, it is as having stated already that the said process may be given with respect to each of the some area | region contained in a plastic bottle.
FIG. 22 is a diagram conceptually showing another example of generating a region included in the middle-cut image.

図22(A)には、時刻tA(不図示)に表示される既知の画像の領域2251と、時刻tC(不図示)に表示される既知の画像の領域2253が示されている。   In FIG. 22A, a region 2251 of a known image displayed at time tA (not shown) and a region 2253 of a known image displayed at time tC (not shown) are shown.

領域2251には、領域2251の回転の中心座標Oa1から、特徴点Fa1に向かうベクトルVa1が存在する。そして、領域2253には、領域2253の回転の中心座標Oc1から、特徴点Fc1に向かうベクトルVc1が存在する。回転の中心座標Oa1及びOc1はオペレータにより与えられるのが一般的であるが、与えられた2つの領域2251及び領域2253の形状が近似しており、かつ周囲の画像の位置関係を考慮して、パターン認識により、回転の中心座標を推定してもよい。なお、回転の中心座標は、必ずしも、領域内に存在するとは限らない点に留意すべきである。
以下に、時刻tB(不図示)における中割画像の中の対応する領域を求める他の例を説明する。
In the area 2251, there is a vector Va1 directed from the central coordinates Oa1 of the rotation of the area 2251 to the feature point Fa1. Then, in the area 2253, there is a vector Vc1 directed to the feature point Fc1 from the central coordinate Oc1 of the rotation of the area 2253. The rotation center coordinates Oa1 and Oc1 are generally given by the operator, but the shapes of the given two regions 2251 and 2253 are similar, and in consideration of the positional relationship of the surrounding image, The center coordinates of the rotation may be estimated by pattern recognition. It should be noted that the center coordinates of the rotation do not necessarily exist in the area.
Hereinafter, another example will be described in which a corresponding area in the middle-cut image at time tB (not shown) is determined.

図22(B)に示されるように、例えば、ベクトルVa1とベクトルVc1とをそれぞれ垂直に上向き方向にすることで、領域2251と領域2253との向きを一致させ、それぞれ領域2261及び2263を得ている。なお、このように垂直に上向きするのは一例であって、他の方向に2つのベクトルの向きを一致させてもよい。ここでは、ベクトルVa1をδ1だけ時計回りに回転させてベクトルVa2を得ている。またベクトルVc1を反時計回りにδ2だけ回転させてVc2を得ている。   As shown in FIG. 22B, for example, by setting the vector Va1 and the vector Vc1 vertically and in the upward direction, the directions of the region 2251 and the region 2253 are made to coincide, and the regions 2261 and 2263 are obtained, respectively. There is. Note that such upward vertical direction is an example, and the directions of the two vectors may be made to match in the other direction. Here, the vector Va1 is rotated clockwise by δ1 to obtain the vector Va2. Further, Vc2 is obtained by rotating the vector Vc1 counterclockwise by δ2.

図22(C)は、向きを一致させた領域2261と領域2263とを用いて、時刻tB(不図示)における中割画像に含まれる領域2262を得たことを示している。領域2262は、時刻tBを基にして、線形補間を用いることで生成することができる。例えば、特徴点Faと対応する特徴点Fcとの線形補間により、特徴点Fa及び特徴点Fcに対応する中割画像における特徴点Fb2を得ることができる。中割画像におけるその他の特徴点、閉領域の形状、ベクトルなども、同様に線形補間によって生成することができる。あるいは特徴点Fb2を使わずに、ベクトルVa2またはベクトルVc2と平行にベクトルVb2を作ってもよい。ベクトルVb2は、ベクトルVa2及びベクトルVc2に対応し、領域2262の向きを特徴づけるものである。   FIG. 22C shows that the area 2262 included in the middle-cut image at time tB (not shown) is obtained using the area 2261 and the area 2263 in which the directions are matched. Region 2262 can be generated using linear interpolation based on time tB. For example, feature points Fb2 in a split image corresponding to feature points Fa and feature points Fc can be obtained by linear interpolation of feature points Fa and corresponding feature points Fc. Other feature points in the half-cut image, the shape of the closed region, vectors, etc. can be similarly generated by linear interpolation. Alternatively, the vector Vb2 may be created in parallel with the vector Va2 or the vector Vc2 without using the feature point Fb2. The vector Vb2 corresponds to the vector Va2 and the vector Vc2, and characterizes the direction of the area 2262.

図22(D)は、中割画像における最終的な領域2272を求める処理を示している。すなわち、ベクトルVb2を角度γ1だけ反時計回りに回転させることにより、ベクトルVb3を得る。加えて、特徴点Fa1及びFc1に対応する特徴点Fb3を得ることができる。その他の特徴点、閉領域の形状、なども、ベクトルVb3の回転に伴って取得することができる。このようにして得られた領域2272は、時刻tBにおける中割画像に含まれ、領域2251及び領域2253に対応する領域である。   FIG. 22D shows a process of obtaining a final area 2272 in the middle-cut image. That is, by rotating the vector Vb2 counterclockwise by the angle γ1, the vector Vb3 is obtained. In addition, feature points Fb3 corresponding to the feature points Fa1 and Fc1 can be obtained. Other feature points, the shape of the closed region, and the like can also be acquired as the vector Vb3 rotates. The area 2272 obtained in this manner is an area corresponding to the area 2251 and the area 2253, which is included in the middle division image at time tB.

図22(D)には、ベクトルの回転角度の関係が示されている。ベクトルVa1とベクトルVc1との角度をθ1とすれば、ベクトルVa1とベクトルVb3とのなす角度φ1は、以下の計算により求められる。
φ1=θ1×(tB−tA)/(tC−tA)
そして、ベクトルVb2とベクトルVb3とのなす角度γ1は以下の計算により求めることができる。
γ1=δ1−φ1 又は
γ1=θ1−φ1−δ2
ただし、θ1=δ1+δ2
FIG. 22D shows the relationship of the rotation angles of the vectors. Assuming that the angle between the vector Va1 and the vector Vc1 is θ1, the angle φ1 between the vector Va1 and the vector Vb3 can be obtained by the following calculation.
φ1 = θ1 × (tB−tA) / (tC−tA)
The angle γ1 between the vector Vb2 and the vector Vb3 can be obtained by the following calculation.
γ1 = δ1-φ1 or γ1 = θ1-φ1-δ2
However, θ1 = δ1 + δ2

図23は、中割画像の領域を生成する手順の例を示す図である。回転を含む領域に対して、本実施形態を適用する手順を以下に説明する。
[ステップS2200]オペレータの指示に基づき、中割画像を作成するための元となる2つの画像を取得する。次にステップS2202に進む。
FIG. 23 is a diagram showing an example of a procedure for generating the area of the middle division image. A procedure for applying the present embodiment to an area including rotation will be described below.
[Step S2200] Based on the instruction of the operator, two original images for creating the middle-division image are acquired. Next, the process proceeds to step S2202.

[ステップS2202]オペレータの指示に基づき、2つの画像の各々から、回転する領域を、画像の他の部分の領域と異なるレイヤーに、それぞれ配置する。このステップS2202は、回転する領域を画像の他の部分と分離して処理を行うために行うものである。画像に含まれる各領域の重なりの順番を考慮して、適切なレイヤーに、回転する領域を配置する。この場合、2つの画像の対応する領域を配置するレイヤーが対応付けられるように、2つの画像の対応する領域の各々のレイヤーの順番をそろえるか、レイヤーが対応していることがわかるようにすることが望ましい。なお、対応する領域のペアを求める手法については、すでに述べたとおりである。もちろん、オペレータにより、対応する領域が特定されてもよい。 [Step S2202] From each of the two images, the rotating area is arranged in a layer different from the area of the other part of the image based on the instruction of the operator. This step S2202 is performed to separate the area to be rotated from the other parts of the image for processing. The rotating area is arranged in an appropriate layer in consideration of the order of overlapping of the areas included in the image. In this case, the order of the layers of the corresponding areas of the two images may be aligned or the layers may correspond to each other so that the layers for arranging the corresponding areas of the two images are associated with each other. Is desirable. The method of obtaining the corresponding area pair is as described above. Of course, the corresponding area may be identified by the operator.

なお、上記のようにレイヤーに分けるのは、回転する領域と他の画像の部分とを別々に処理する一例である。したがって、回転する領域を他の画像の部分と別個に処理できるように、グループ分けをするなどの操作を行って、回転する領域が他の画像の領域と区別できるようにする他の方式を採用してもよいことは言うまでもない。次にステップS2204に進む。   Note that the division into layers as described above is an example of separately processing a rotating area and a part of another image. Therefore, in order to be able to process the rotating area separately from other image parts, another method is adopted in which operations such as grouping are performed so that the rotating area can be distinguished from other image areas. It goes without saying that it is acceptable. Next, the process proceeds to step S2204.

[ステップS2204]オペレータの指示に基づき、回転する領域の回転の中心の位置をそれぞれ特定する。 [Step S2204] The position of the center of rotation of the area to be rotated is specified based on the instruction of the operator.

2つの画像の領域における対応する領域は、例えば画像に描かれた同一のオブジェクトの一部の領域である場合がほとんどである。この場合、回転の中心については、ほとんどの場合、オブジェクトに対する相対位置は変化しないが、オブジェクト自体が移動していたり、視点が移動していたりする場合もあるため、必ずしも2つの画像に存在する対応する領域の回転の中心座標は一致するとは限らない。したがって、2つの対応する領域のそれぞれの中心座標は、オペレータの指示により取得することが望ましい。   The corresponding regions in the regions of the two images are, for example, mostly regions of parts of the same object depicted in the images. In this case, with respect to the center of rotation, in most cases, the relative position with respect to the object does not change, but the object itself may be moving or the viewpoint may be moving. The central coordinates of the rotation of the area to be Therefore, it is desirable to acquire the center coordinates of each of the two corresponding areas by the instruction of the operator.

なお、2つの対応する領域のうち一方の回転の中心座標Ocをオペレータから取得しない実施形態も存在し得る。例えば、図21を例にすれば、領域2101と領域2103が十分に似た形状をしている場合、中心座標Oaを元にしてプログラムで中心座標Ocを求めることができる。あるいは、例えば領域2101と領域2103が似た形状ではない場合、領域2101と領域2103との対応点の組(1組または複数組)をユーザに指定して貰い、この対応点を元にしてプログラムで中心座標Ocを求めることもできる。また、画像認識を用いて、2つの領域の位置関係を調べることにより、一方の領域の回転の中心を元にして、他方領域の回転の中心を求めてもよい。なお、領域の回転の中心は、領域の外に存在する場合もあることに留意すべきである。次にステップS2206に進む。   There may be an embodiment in which the center coordinates Oc of one of the two corresponding regions are not acquired from the operator. For example, if FIG. 21 is taken as an example, if the area 2101 and the area 2103 have a sufficiently similar shape, the center coordinates Oc can be determined by the program based on the center coordinates Oa. Alternatively, for example, when the area 2101 and the area 2103 do not have similar shapes, the user designates a set (one set or a plurality of sets) of corresponding points of the area 2101 and the area 2103 to search the user, and a program based on the corresponding points The central coordinates Oc can also be determined by Alternatively, the center of rotation of one region may be determined based on the center of rotation of one of the regions by examining the positional relationship between the two regions using image recognition. It should be noted that the center of rotation of the region may be outside the region. Next, the process proceeds to step S2206.

[ステップS2206]オペレータの指示に基づき、回転の角度θと回転方向を特定するか、回転する領域の重心又は特徴的な位置と回転の中心との位置関係から、回転の角度θと回転方向を特定する。 [Step S2206] Based on the instruction of the operator, specify the angle of rotation θ and the direction of rotation, or from the positional relationship between the center of gravity of the rotating area or the characteristic position and the center of rotation, Identify.

領域の回転の角度は、例えば、2つの対応する領域の回転の中心から、領域の面積重心の位置へのベクトルを求めることで、ベクトルの回転角度と、回転方向を求めてもよい。なお、面積重心は一例であって、面積重心ではなく、2つの対応する領域に存在する対応する特徴点を認識して、2つの領域のそれぞれにおいて、回転の中心から特徴点までのベクトルを求めて、求まった2つのベクトルを用いるようにしてもよい。次にステップS2208に進む。   The rotation angle and rotation direction of the vector may be determined by, for example, determining a vector from the center of rotation of two corresponding regions to the position of the area gravity center of the region. The area gravity center is an example, and not the area gravity center, but the corresponding feature points present in two corresponding areas are recognized, and the vector from the center of rotation to the feature points is obtained in each of the two areas. The two obtained vectors may be used. Next, the process proceeds to step S2208.

[ステップS2208]2つの回転する領域のうちの一方又は両方を、適切な角度だけ回転させることで、2つの回転する領域の向きを一致させる。2つの領域の向きが一致するように適切な角度を計算すればよい。 [Step S2208] By rotating one or both of the two rotating areas by an appropriate angle, the two rotating areas are aligned. An appropriate angle may be calculated so that the orientations of the two regions coincide.

例えば、時刻tAに表示される画像Aとその後の時刻tCに表示される画像Cがある場合であって、領域が時間とともに時計回りにθだけ回転する場合を例にする。画像Cの領域の回転の中心の周りに、画像Cの領域を−θだけ、回転させる。この回転によって、2つの領域の向きが一致する。なお、上記の例とは逆に、画像Aの領域をθだけ回転させて、両者の領域の向きを合わせてもよい。次にステップS2210に進む。   For example, in the case where there is an image A displayed at time tA and an image C displayed at subsequent time tC, a case where the region rotates clockwise by θ by time is taken as an example. Around the center of rotation of the area of image C, rotate the area of image C by -θ. By this rotation, the directions of the two regions coincide. Note that, contrary to the above example, the area of the image A may be rotated by θ, and the directions of both areas may be aligned. Next, the process proceeds to step S2210.

[ステップS2210]向きが一致した2つの領域を補間して、m番目の中割画像の領域を生成する。ステップS2208で、領域の向きを一致させているため、例えば線形的な補間を用いても、領域の回転の影響を受けずに、m番目の中割画像の領域の補間の処理が行える。次にステップS2212に移る。 [Step S2210] The two regions whose directions coincide are interpolated to generate a region of the m-th middle-division image. In step S2208, since the direction of the area is matched, for example, even if linear interpolation is used, processing of interpolation of the area of the m-th middle-division image can be performed without being affected by the rotation of the area. Next, the process proceeds to step S2212.

[ステップS2212]なお、ステップS2210で補間された領域は、回転の影響を排除しているため、ステップS2212で、回転を適切な量だけ戻す操作を行う。回転を戻す回転角度φは、以下の式に従って計算する。
φ=θ×m/(n+1)
ただし、nは中割画像の枚数
[Step S2212] Since the area interpolated at Step S2210 excludes the influence of rotation, at Step S2212, an operation to return the rotation by an appropriate amount is performed. The rotation angle φ, which returns the rotation, is calculated according to the following equation.
φ = θ × m / (n + 1)
However, n is the number of middle division images

また、回転する2つの領域の両方を回転させて、2つの領域の向きを揃えて、補間された領域を形成した場合には、補間された領域が、上記の回転角度φを使った操作による向きと同じ向きに向くように、補間された領域を向ければよい。   Further, when both of the two rotating regions are rotated to align the orientations of the two regions to form an interpolated region, the interpolated region is obtained by the operation using the above-mentioned rotation angle φ. The interpolated area may be directed so as to turn in the same direction as the direction.

なお、中割画像を形成する元となった両端の既知の画像の領域は、最終的な動画を生成する際には、最初に与えられた画像を用いればよく、中割画像の領域を求めるために回転させているが、回転を元に戻す操作は不要である。   As the area of the known image at both ends from which the split image is formed, when the final moving image is to be generated, the image given first may be used, and the region of the split image is calculated. Because of this, the operation to reverse the rotation is unnecessary.

例えば、画像Cを‐θだけ回転させた場合には、生成された中割画像の領域は、φだけ回転させる。この操作によって、n枚の中割画像のうちのm番目の中割画像に含まれる補間された領域が適切な角度に回転される。なお、画像Aをθだけ回転させた場合には、補間された中割画像を、−θ+φだけ回転させることになる。
以上が、回転を含む中割画像の補間処理の一例である。
For example, when the image C is rotated by -θ, the area of the generated split image is rotated by φ. By this operation, the interpolated region included in the m-th middle divided image among the n middle divided images is rotated to an appropriate angle. When the image A is rotated by θ, the interpolated middle divided image is rotated by −θ + φ.
The above is an example of interpolation processing of the middle division image including rotation.

図24は、2つの領域が関節で連結している場合に、領域の位置の修正をする例を示す図である。なお、関節とは、2つの領域が、その関節において連結しており、かつ2つの領域の各々が、その関節を軸として回転することができる連結点をいう。   FIG. 24 is a diagram showing an example of correcting the position of a region when two regions are connected by a joint. A joint refers to a connection point where two regions are connected at the joint and each of the two regions can rotate about the joint.

回転する領域が各画像に2つ存在する場合を例にして説明する。このような領域が各画像に3つ以上存在する場合にも、2つ存在する例を順に組み合わせることにより、同様の処理が行える。   The case where there are two rotating areas in each image will be described as an example. Even when there are three or more such regions in each image, similar processing can be performed by sequentially combining the two existing examples.

領域どうしの関節点は、離れることはないため、以下の手順によって、関節点の位置を一致させる処理を行う。以下にその手順について図24を用いて説明するが、詳細な具体例は、図25以降に説明する。   Since the joint points of the regions do not separate from each other, processing for matching the positions of the joint points is performed according to the following procedure. The procedure will be described below with reference to FIG. 24, but a detailed specific example will be described with reference to FIG.

[ステップS2302]回転を含む領域がそれぞれ別のレイヤーに配置される。この操作は、各領域を別個に操作するために行われる。すなわち、領域ごとに回転の中心及び回転の角度は異なるからである。なお、必ずしも、レイヤーを用いる必要はなく、各領域が別個に操作できるようになっていればよい。次にステップS2304に進む。 [Step S2302] The regions including the rotation are arranged in different layers. This operation is performed to operate each area separately. That is, the center of rotation and the angle of rotation are different for each area. It is not necessary to use layers, as long as each area can be operated separately. Next, the process proceeds to step S2304.

[ステップS2304]レイヤーの階層の順番と関節点Oが指定される。関節点Oについては、オペレータにより指定されてもよい。通常、レイヤーの階層は、画像の前面に表示されるレイヤーを上に位置させるユーザインタフェースが採用されている場合が多いが、これに限られるものではない。なお、関節点は、例えば2つの領域を関節点で連結する機能を有するため、2つの領域の各々に関節点が指定されるが、画像においては、これらの2つの関節点は重なって見えることとなる。次にステップS2306に進む。2つの画像のそれぞれに存在する対応する領域は、レイヤーの階層の順番を合わせるか、2つの画像のレイヤーの階層うち対応する領域については、レイヤーの階層に対応関係を設定させて、領域の対応関係がわかるようにすることが望ましい。
[ステップS2306]階層ごとの補間された領域を作成し、補間後の関節点Omiを求める。(m:補間画像のインデックス,i:階層番号)
[Step S2304] The order of layers in layers and joint points O are specified. The joint point O may be designated by the operator. In general, the layer hierarchy is often, but not limited to, a user interface in which a layer to be displayed in front of an image is positioned on top. In addition, since a joint point has a function to connect two areas at a joint point, for example, a joint point is specified in each of the two areas, but in an image, these two joint points appear to overlap It becomes. Next, the process proceeds to step S2306. Correspondence of the area corresponding to the corresponding area existing in each of the two images or the correspondence between the layers in the layer hierarchy of the two images is set for the corresponding area among the layers of the two images. It is desirable to understand the relationship.
[Step S2306] An interpolated area for each hierarchy is created, and a joint point Omi after interpolation is obtained. (M: index of interpolation image, i: layer number)

このステップS2306では、階層の順番が同じであれば対応関係を有する領域であるとしている。階層ごとに、すでに述べた図23に示した領域の補間処理を施す。次にステップS2308に進む。   In this step S2306, if the order of the hierarchy is the same, it is assumed that the area has a correspondence. Each layer is subjected to the interpolation processing of the area shown in FIG. 23 described above. Next, the process proceeds to step S2308.

[ステップS2308]階層i,階層jの関節点の位置の差v=Omi−Omjを求める。この場合、階層iの領域と階層jの領域が関節点Oで連結されていることを前提としている。階層iの補間された領域の関節点をOmiで表している。そして階層jの補間された領域の関節点をOmjで表している。補間画像においても、本来であれば、関節点は一致するはずであるが、レイヤーの階層毎に補間の処理を施しているため、補間された領域の関節点の位置OmiとOmjとは、一致しない場合がある。処理はステップS2310に進む。 [Step S2308] The difference v = Omi−Omj of the positions of the joint points in the hierarchy i and the hierarchy j is obtained. In this case, it is assumed that the area of hierarchy i and the area of hierarchy j are connected at joint point O. The joint point of the interpolated area in the hierarchy i is represented by Omi. The joint point of the interpolated region in the hierarchy j is represented by Omj. Even in the interpolated image, the joint points should originally match, but since the interpolation process is performed for each layer hierarchy, the positions Omi and Omj of the joint points in the interpolated region match. May not. The processing proceeds to step S2310.

[ステップS2310]階層jの補間された領域をvだけ平行移動させる。補間された領域の関節点の位置OmiとOmjとが一致しない場合には、その差V=Omi−Omjだけ階層jの領域を移動させて、関節位置OmiとOmjとの位置を一致させる。 [Step S2310] The interpolated region of the layer j is translated by v. If the positions Omi and Omj of the joint points in the interpolated area do not match, the area of the hierarchy j is moved by the difference V = Omi−Omj to make the joint positions Omi and Omj coincide.

なお、どちらの補間された領域を移動させるかは、画像全体が不自然にならないように取り決めておくことが望ましい。例えば、人間であれば、身体から一番近い骨の関節は固定し、身体から離れている骨の関節を移動させて、両者の関節を一致させるようにすることが自然になる場合が多い。関節が2つ以上ある場合は、身体から近い関節から順番に、補間された領域の関節を一致させるようにすればよい。   Note that it is desirable to arrange which interpolated region is moved so that the entire image does not become unnatural. For example, in the case of humans, it is often natural to fix the bone joint closest to the body and move the bone joint away from the body so that both joints coincide. If there are two or more joints, the joints in the interpolated area may be made to coincide in order from the joint closest to the body.

別の例として、人物の歩行のアニメーションでは、前記の例とは逆に、接地している足を固定して、「足,脛,腿,腰」の順番で補間された領域の関節を一致させるようにすればよい。   As another example, in the animation of walking of a person, the foot in contact with the ground is fixed and the joints of the interpolated regions are matched in the order of "foot, shin, thigh, hips" in reverse to the above example. You should do it.

図25は、2つの領域が関節で連結している2つの画像の例を示す図である。左から右に時間軸が設定されており、時刻tAで、腕2420を振り上げ、太鼓2400をたたこうとしている。時刻tCで、腕2440は、太鼓2400をたたいている。   FIG. 25 is a diagram showing an example of two images in which two regions are jointed. A time axis is set from left to right, and at time tA, the user swings up the arm 2420 and tries to strike the drum 2400. At time tC, the arm 2440 beats the drum 2400.

時刻tAにおける腕2420の状態を以下に説明する。まず、上腕2424には、回転の中心P2aが存在しベクトルV2aの方向を向いている。前腕2422には、回転の中心P1aが存在し、ベクトルV1aの方向を向いている。   The state of the arm 2420 at time tA will be described below. First, in the upper arm 2424, the center of rotation P2a is present and is directed in the direction of the vector V2a. The forearm 2422 has a center of rotation P1a, which is directed in the direction of the vector V1a.

時刻tCにおける腕2440の状態を以下に説明する。まず、上腕2444には、回転の中心P2bが存在しベクトルV2bの方向を向いている。前腕2442には、回転の中心P1bが存在し、ベクトルV1bの方向を向いている。   The state of the arm 2440 at time tC will be described below. First, in the upper arm 2444, the center of rotation P2b is present and is directed in the direction of the vector V2b. The forearm 2442 has a center of rotation P1b and points in the direction of the vector V1b.

したがって、時刻tAの上腕2424は、時刻tCの上腕2444に至るまでにθ2だけ時計回りに回転している。時刻tAの前腕2422は、時刻tCの前腕2442に至るまでにθ1だけ時計回りに回転している。   Therefore, the upper arm 2424 at time tA rotates clockwise by θ2 until reaching the upper arm 2444 at time tC. The forearm 2422 at time tA rotates clockwise by θ1 until it reaches the forearm 2442 at time tC.

図26は、領域を分割して、レイヤーの別の層に分ける例を示す図である。時刻tAにおける腕2520を上腕2522と前腕2524との2つの領域に分ける。そしてそれぞれを別のレイヤーの層に配置する。なお、レイヤーは図示されていないが、2つの領域が別個に操作できるようになっていればよく、必ずしもレイヤーの階層というユーザインタフェースを用いなければならないわけではない。
時刻tCにおける腕2540を上腕2542と前腕2544との2つの領域に分ける。そしてそれぞれを別のレイヤーの階層に配置する。
FIG. 26 is a diagram showing an example of dividing a region into different layers of layers. The arm 2520 at time tA is divided into two regions of the upper arm 2522 and the forearm 2524. Then place each one on another layer layer. Although layers are not illustrated, it is sufficient if two areas can be operated separately, and it is not necessary to necessarily use a user interface called a layer hierarchy.
The arm 2540 at time tC is divided into two regions of an upper arm 2542 and a forearm 2544. Then place each one in the hierarchy of another layer.

図27は、2つのレイヤーのそれぞれから中割画像を形成したときの中割画像における領域のずれを示す図である。時刻tAの腕2620と時刻tCの腕2640とを、図26のようにレイヤーの別の階層に分け、対応するそれぞれの領域を補間して時刻tBにおける腕2630を作成した。腕2630は、補間された領域である上腕2632と前腕2634が合成されたものとなるが、ひじの部分で、ずれが生じていることがわかる。このずれの原因は、レイヤーの層に分けてそれぞれの対応する層の領域を補間したことによって生じたものである。   FIG. 27 is a diagram showing the shift of the area in the middle-cut image when the middle-cut image is formed from each of the two layers. The arm 2620 at time tA and the arm 2640 at time tC are divided into different layers of layers as shown in FIG. 26, and the corresponding areas are interpolated to create the arm 2630 at time tB. The arm 2630 is a combination of the upper arm 2632 and the forearm 2634, which are interpolated regions, but it can be seen that a shift has occurred at the elbow. The cause of this deviation is caused by dividing the layer into layers and interpolating the area of each corresponding layer.

図28は、関節点を与えることによって、中割画像における2つの領域のずれを解消する例を示す図である。上述のように図27の補間された領域の合成の際に生じたひじの部分のずれを解消するために、以下に示すような処理を行う。なお、この処理のフローについては、図24で説明している。   FIG. 28 is a diagram showing an example of eliminating the deviation of two regions in a half-cut image by giving joint points. In order to eliminate the deviation of the elbow portion generated in the synthesis of the interpolated regions in FIG. 27 as described above, the following processing is performed. The flow of this process is described in FIG.

時刻tAの腕2720の画像について、上腕2724と前腕2722の関節部分をオペレータに指定させる。図示されるように、上腕の関節位置2725と前腕の関節位置2723が示されている。関節の座標は一致しているので、上腕2724の関節位置2725と前腕2722の関節位置2723は同じ位置に示されている。オペレータは、ひじの関節位置を指定することにより、上腕2724の関節位置2725と前腕2722の関節位置2723が取得される。   For the image of the arm 2720 at time tA, the operator designates the joint part of the upper arm 2724 and the forearm 2722. As shown, the articulated position 2725 of the upper arm and the articulated position 2723 of the forearm are shown. Since the coordinates of the joints coincide, the joint position 2725 of the upper arm 2724 and the joint position 2723 of the forearm 2722 are shown at the same position. The operator specifies the joint position of the elbow to obtain the joint position 2725 of the upper arm 2724 and the joint position 2723 of the forearm 2722.

時刻tCの腕2740の画像について、上腕2744と前腕2742の関節部分をオペレータに指定させる。図示されるように、上腕2744の関節位置2745と前腕2742の関節位置2743が示されている。関節の座標は一致しているので、上腕2744の関節位置2745と前腕2742の関節位置2743は同じ位置に示されている。オペレータは、ひじの関節位置を指定することにより、上腕2744の関節位置2745と前腕2742の関節位置2743が取得される。   The operator designates the joint portion of the upper arm 2744 and the forearm 2742 with respect to the image of the arm 2740 at time tC. As shown, the articulation position 2745 of the upper arm 2744 and the articulation position 2743 of the forearm 2742 are shown. Since the coordinates of the joints coincide, the joint position 2745 of the upper arm 2744 and the joint position 2743 of the forearm 2742 are shown at the same position. The operator specifies the joint position of the elbow to obtain the joint position 2745 of the upper arm 2744 and the joint position 2743 of the forearm 2742.

それぞれのレイヤーの層に対して、補間を適用し、補間画像2730aを得る。この場合、上腕2734aの関節位置2735aと、前腕2732aの関節位置2733aとはずれが生じている。このずれを解消するために、前腕2732aをベクトル2738の方向に平行移動させる。   Interpolation is applied to each layer layer to obtain an interpolated image 2730a. In this case, the joint position 2735a of the upper arm 2734a and the joint position 2733a of the forearm 2732a are deviated. In order to eliminate this deviation, the forearm 2732a is translated in the direction of the vector 2738.

その結果が腕2730bに示されている。上腕2734bの関節位置2735bと、前腕2732bの関節位置2733bとの位置が一致している。この場合には、体からより離れている前腕2732bを平行移動させることが望ましい。
以上の処理によって、関節位置が一致した。補間された領域である上腕2734bと前腕2732bとは、ずれのない望ましいつながり方になる。
以上の処理は、領域が3つ以上の場合も同様にして順次処理することによって行うことができる。
なお、特徴点及び関節点は、領域の外に存在していてもよい。
特徴点は、任意の点の一例である。関節位置及び関節の座標は、関節点の一例である。
The result is shown on arm 2730b. The positions of the joint position 2735b of the upper arm 2734b and the joint position 2733b of the forearm 2732b coincide with each other. In this case, it is desirable to translate the forearm 2732b further away from the body.
The joint position was matched by the above processing. The upper arm 2734 b and the forearm 2732 b, which are interpolated regions, have a desirable connection without deviation.
The above processing can be performed by sequentially processing in the same manner also in the case of three or more areas.
Note that the feature points and the joint points may exist outside the area.
A feature point is an example of an arbitrary point. The joint position and the coordinates of the joint are examples of joint points.

なお、請求項においては、主要な要素に符号を付している。これは、請求項の理解を助けるための符号であり、必ずしも図面の符号を正確に反映したものではない点に留意すべきである。また、請求項に記載された符号は、請求項に記載された発明の要旨及び発明の技術的範囲を図面の記載の内容に限定するためのものではない。   In the claims, main elements are denoted by reference numerals. It should be noted that this is a code to help the understanding of the claims and does not necessarily reflect the code of the drawings exactly. Further, reference numerals in the claims do not limit the scope of the invention and the technical scope of the invention described in the claims to the contents of the description of the drawings.

Lab 境界線
Lac 境界線
Lbc 境界線
Lcd 境界線
Ldb 境界線
Lde 境界線
P12 削除する交点
P111 P11の位置に設定される交点
P112 P11の位置に設定される交点
Lab boundary line Lac boundary line Lbc boundary line Lcd boundary line Ldb boundary line Lde boundary line P12 deletion point intersection point P111 intersection point set at the position of P11 intersection point set at the position of P112 P11

いずれにしても、ペットボトルの向きを表すベクトルVaとベクトルVc1とが認識されることによって、図21(A)に示される角度θが求まる。 Anyway, by the vector Va and vector Vc1 indicating the bottles orientation is recognized, the angle θ is obtained as shown in FIG. 2 1 (A).

Claims (7)

既知の画像Aと、前記画像Aが表示される時刻tAよりも後の時刻tCに表示される既知の画像Cとから、前記時刻tAと前記時刻tCとの間の時刻tBに表示される画像Bを生成するように、前記画像Aに含まれる領域aと、前記画像Cに含まれかつ前記領域aと対応関係を有する領域cとに対して、コンピュータに第1の推定手順を実行させる方法であって、
前記第1の推定手順は、
前記対応関係が、画像に略垂直の方向の軸を中心とした領域の回転を含み、前記領域aの回転の中心座標Oaと、前記領域cの回転の中心座標Ocとを取得する、中心座標取得ステップと、
前記回転の方向と前記回転の角度とを認識する回転認識ステップと、
前記時刻tAと前記時刻tBと前記時刻tCと前記中心座標Oaと前記中心座標Ocと前記回転の方向と前記回転の角度とに基づいて、前記領域aの形状と前記領域cの形状とを補間することで前記画像Bに含まれる領域であって前記領域aに対応する領域である領域bの形状を形成する領域形成ステップと、
を有する方法。
An image displayed at time tB between the time tA and the time tC from the known image A and the known image C displayed at the time tC after the time tA when the image A is displayed A method of causing a computer to execute a first estimation procedure on an area a included in the image A and an area c included in the image C and having a correspondence with the area a so as to generate B. And
The first estimation procedure is
The correspondence includes the rotation of the region about the axis in the direction substantially perpendicular to the image, and obtains the central coordinates Oa of the rotation of the region a and the central coordinates Oc of the rotation of the region c. Acquisition step,
A rotation recognition step of recognizing the direction of the rotation and the angle of the rotation;
Interpolate the shape of the area a and the shape of the area c based on the time tA, the time tB, the time tC, the center coordinates Oa, the center coordinates Oc, the direction of rotation and the angle of rotation An area forming step of forming a shape of an area b which is an area included in the image B and is an area corresponding to the area a;
How to have it.
前記領域形成ステップは、
前記回転の方向と前記回転の角度とに応じて、前記中心座標Oaを中心とした前記領域aの回転及び前記中心座標Ocを中心とした前記領域cの回転のいずれか又は両者を行い、前記領域aと前記領域cとの領域の向きを合わせることで、それぞれ領域a1と領域c1とを形成するステップと、
前記時刻tAと前記時刻tBと前記時刻tCとに基づいて、前記領域a1の形状と前記領域c1の形状とを用いて補間された領域xの形状を形成する補間ステップと、
前記時刻tAと前記時刻tBと前記時刻tCとに基づいて、
前記中心座標Oaと前記中心座標Ocとから補間して得られた前記画像Bにおける中心座標Obを中心に、
前記回転の角度を按分して得られた角度に、
前記補間された領域xが向くように回転させることで、
前記領域bの形状を取得するステップと、
を含む請求項1に記載の方法。
The area forming step is
Depending on the direction of rotation and the angle of rotation, one or both of rotation of the region a about the central coordinate Oa and rotation of the region c about the central coordinate Oc are performed, Forming an area a1 and an area c1 by respectively aligning the directions of the area a and the area c;
An interpolation step of forming a shape of a region x interpolated using the shape of the region a1 and the shape of the region c1 based on the time tA, the time tB and the time tC;
Based on the time tA, the time tB and the time tC
Centering on center coordinates Ob in the image B obtained by interpolation from the center coordinates Oa and the center coordinates Oc,
The angle obtained by dividing the angle of rotation is
By rotating so that the interpolated region x points,
Acquiring the shape of the area b;
The method of claim 1 comprising
前記回転認識ステップは、
前記領域aの重心Gaと、前記領域cの重心Gcとを求めるステップと、
前記中心座標Oaから前記重心Gaに向かうベクトルと、前記中心座標Ocから前記重心Gcに向かうベクトルとから、前記回転の方向と前記回転の角度とを推定するステップと、
を含む請求項1又は2に記載の方法。
The rotation recognition step is
Determining a center of gravity Ga of the area a and a center of gravity Gc of the area c;
Estimating the direction of rotation and the angle of rotation from the vector from the center coordinate Oa toward the center of gravity Ga and the vector from the center coordinate Oc toward the center of gravity Gc;
The method according to claim 1 or 2, comprising
前記回転認識ステップは、
オペレータから前記領域aの特徴点Faと、前記領域cに存在し前記特徴点Faに対応する特徴点Fcとを取得するステップと、
前記中心座標Oaから前記特徴点Faに向かうベクトルと、前記中心座標Ocから前記特徴点Fcに向かうベクトルとから、前記回転の方向と前記回転の角度とを推定するステップと、
を含む請求項1又は2に記載の方法。
The rotation recognition step is
Acquiring from the operator a feature point Fa of the area a, and a feature point Fc existing in the area c and corresponding to the feature point Fa;
Estimating the direction of rotation and the angle of rotation from the vector from the central coordinate Oa toward the feature point Fa and the vector from the central coordinate Oc toward the feature point Fc;
The method according to claim 1 or 2, comprising
前記回転認識ステップは、
オペレータから前記回転の方向と前記回転の角度とを取得するステップ
を含む請求項1又は2に記載の方法。
The rotation recognition step is
The method according to claim 1 or 2, comprising the steps of: obtaining from the operator the direction of the rotation and the angle of the rotation.
前記画像Aにおいて前記領域aに関節点Jaで接続し前記関節点Jaが回転の中心座標となっている既知の領域pと、前記画像Cにおいて前記領域cに関節点Jcで接続し前記関節点Jcが回転の中心座標となっている既知の領域rが存在する場合、
前記領域pと前記領域rと前記関節点Ja及び前記関節点Jcのそれぞれの座標とを更に前記第1の推定手順に与えることで、前記画像Bにおいて補間された領域qを更に形成し、かつ前記領域bにおいて前記関節点Ja及び前記関節点Jcに対応する関節点Jbを特定し、かつ前記領域qにおいて前記関節点Ja及び前記関節点Jcに対応する関節点Jqを特定するステップと、
前記関節点Jbの座標と前記関節点Jqの座標とが一致しない場合は、前記関節点Jbの座標と前記関節点Jqの座標とを一致するように、前記領域b及び前記領域qのいずれか一方又は両方を平行移動させるステップと、
を含む第2の推定手順を更にコンピュータに実行させる、請求項1ないし5のうちいずれか1項に記載の方法。
A known region p connected to the region a at the joint point Ja in the image A, and the joint point Ja being a central coordinate of rotation, and a joint point Jc to the region c in the image C, the joint point If there is a known region r where J c is the center of rotation coordinates
An area q interpolated in the image B is further formed by further applying the area p, the area r, and the coordinates of each of the joint point Ja and the joint point Jc to the first estimation procedure, and Identifying a joint point Jb corresponding to the joint point Ja and the joint point Jc in the area b, and specifying a joint point Jq corresponding to the joint point Ja and the joint point Jc in the area q;
If the coordinates of the joint point Jb and the coordinates of the joint point Jq do not match, either the area b or the area q so that the coordinates of the joint point Jb coincide with the coordinates of the joint point Jq Translating one or both of the steps;
The method according to any one of claims 1 to 5, further causing the computer to execute a second estimation procedure including.
請求項1ないし6のうちいずれか1項に記載の方法をコンピュータに実行させるプログラム。

A program that causes a computer to execute the method according to any one of claims 1 to 6.

JP2017169190A 2017-09-04 2017-09-04 Method and program for generating an image obtained by interpolating a plurality of images Active JP6482620B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017169190A JP6482620B1 (en) 2017-09-04 2017-09-04 Method and program for generating an image obtained by interpolating a plurality of images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169190A JP6482620B1 (en) 2017-09-04 2017-09-04 Method and program for generating an image obtained by interpolating a plurality of images

Publications (2)

Publication Number Publication Date
JP6482620B1 JP6482620B1 (en) 2019-03-13
JP2019046213A true JP2019046213A (en) 2019-03-22

Family

ID=65718351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169190A Active JP6482620B1 (en) 2017-09-04 2017-09-04 Method and program for generating an image obtained by interpolating a plurality of images

Country Status (1)

Country Link
JP (1) JP6482620B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114596206B (en) * 2022-03-11 2024-09-13 洛阳师范学院 Image integrated splicing method in flood tower monitoring video

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132709A (en) * 1998-10-26 2000-05-12 Namco Ltd Method for deriving intermediate frame shape of skeleton model, method for deforming shape of skeleton model, image generation device, and information storage medium
US20150029226A1 (en) * 2013-07-25 2015-01-29 Adam Barry Feder Systems and methods for displaying representative images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132709A (en) * 1998-10-26 2000-05-12 Namco Ltd Method for deriving intermediate frame shape of skeleton model, method for deforming shape of skeleton model, image generation device, and information storage medium
US20150029226A1 (en) * 2013-07-25 2015-01-29 Adam Barry Feder Systems and methods for displaying representative images

Also Published As

Publication number Publication date
JP6482620B1 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
CN111428586B (en) 3D Human Pose Estimation Method Based on Feature Fusion and Sample Enhancement
CN111199531B (en) Interactive Data Expansion Method Based on Poisson Image Fusion and Image Stylization
US11157773B2 (en) Image editing by a generative adversarial network using keypoints or segmentation masks constraints
TWI795116B (en) Animation migration method and equipment and computer-readable storage medium
US11042990B2 (en) Automatic object replacement in an image
US10489956B2 (en) Robust attribute transfer for character animation
US12387435B2 (en) Digital twin sub-millimeter alignment using multimodal 3D deep learning fusion system and method
US12496721B2 (en) Virtual presence for telerobotics in a dynamic scene
US11315313B2 (en) Methods, devices and computer program products for generating 3D models
US11170550B2 (en) Facial animation retargeting using an anatomical local model
CN114926485B (en) Image depth annotation method, device, equipment and storage medium
US20230145498A1 (en) Image reprojection and multi-image inpainting based on geometric depth parameters
JP2022036918A (en) Uv mapping on 3d object with the use of artificial intelligence
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
CN118397282B (en) Three-dimensional point cloud robustness component segmentation method based on semantic SAM large model
US11972528B2 (en) Method and computer program product for processing model data of a set of garments
CN110348351A (en) A method, terminal and readable storage medium for image semantic segmentation
CN116977511A (en) Motion data processing methods, devices, products, equipment and media
JP2019046213A (en) Method and program for generating an image obtained by interpolating a plurality of images
JP2017215729A (en) Method of associating two images, and program
CN118037957A (en) Articulated object modeling method, system, electronic device and storage medium
JP6283083B1 (en) Method and program for associating regions existing in two images
JP2004062637A (en) Method for setting polyline to three-dimensional data and apparatus therefor
Chitta Replacing objects in point cloud stream with real-time meshes using semantic segmentation
Takahashi et al. Interactive optimization for cartographic aggregation of building features

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190212

R150 Certificate of patent or registration of utility model

Ref document number: 6482620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250