[go: up one dir, main page]

JP2000244851A - Image processing apparatus, method, and computer-readable storage medium - Google Patents

Image processing apparatus, method, and computer-readable storage medium

Info

Publication number
JP2000244851A
JP2000244851A JP11039579A JP3957999A JP2000244851A JP 2000244851 A JP2000244851 A JP 2000244851A JP 11039579 A JP11039579 A JP 11039579A JP 3957999 A JP3957999 A JP 3957999A JP 2000244851 A JP2000244851 A JP 2000244851A
Authority
JP
Japan
Prior art keywords
image
frame
block
image information
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11039579A
Other languages
Japanese (ja)
Other versions
JP4371457B2 (en
JP2000244851A5 (en
Inventor
Nobutaka Miyake
信孝 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP03957999A priority Critical patent/JP4371457B2/en
Priority to US09/434,378 priority patent/US6804419B1/en
Priority to CA002289053A priority patent/CA2289053C/en
Priority to AU58374/99A priority patent/AU777493B2/en
Priority to EP19990308897 priority patent/EP1001374A3/en
Publication of JP2000244851A publication Critical patent/JP2000244851A/en
Publication of JP2000244851A5 publication Critical patent/JP2000244851A5/ja
Application granted granted Critical
Publication of JP4371457B2 publication Critical patent/JP4371457B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

(57)【要約】 【課題】 動画像の複数フレームを合成して一枚の高解
像度静止画を作成する場合に、誤差を少なくすると共
に、不鮮明なフレームが有る場合でも、良好に合成でき
るようにする。 【解決手段】 選択部102は、格納部101に格納さ
れたm〜(m+n)フレームの連続した(n+1)枚分
の動画像情報の中からエッジ情報等に基づいて1枚の基
準静止画を選択し、この基準静止画を配置部105がメ
モリ内に配置する。次に、動きベクトル演算部104
は、基準静止画以外のn枚の静止画について、それぞれ
基準静止画に対する動きベクトルを演算する。配置部1
07は、上記演算結果に基づいて、上記メモリ内の基準
静止画の配置点とは異なる位置に、上記n枚の静止画を
それぞれ配置する。合成部108は、配置後の(n+
1)枚の画像を合成して一枚の画像を生成する。
(57) [Problem] To create a single high-resolution still image by synthesizing a plurality of frames of a moving image so that errors can be reduced and good synthesis can be performed even when there are unclear frames. To SOLUTION: A selection unit 102 selects one reference still image based on edge information or the like from continuous (n + 1) pieces of moving image information of m to (m + n) frames stored in a storage unit 101. Then, the arrangement unit 105 arranges the selected reference still image in the memory. Next, the motion vector calculation unit 104
Calculates a motion vector for each of the n still images other than the reference still image with respect to the reference still image. Arrangement part 1
In step 07, the n still images are arranged at positions different from the arrangement points of the reference still images in the memory based on the calculation results. The synthesizing unit 108 sets the (n +
1) One image is generated by synthesizing one image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、特に入力した画像
情報を、拡大変倍して出力するプリンタ等の画像出力装
置や、解像度の異なる機種間通信で、低解像情報から高
解像情報に解像度変換する場合に用いて好適な画像処理
装置、方法及びそれらに用いられるコンピュータ読み取
り可能な記憶媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image output apparatus, such as a printer, which enlarges and resizes input image information, and communication between models having different resolutions. TECHNICAL FIELD The present invention relates to an image processing apparatus and method suitable for use in converting a resolution into a plurality of images, and a computer-readable storage medium used in the apparatus and method.

【0002】[0002]

【従来の技術】従来より、入力した画像の低解像情報を
高解像情報に解像度変換する方法として、様々な方法が
提案されている。これらの従来方法は、対象となる画像
の種類(例えば、各画素ごとに階調情報の持つ多値画
像、疑似中間調により2値化された2値画像、固定閾値
により2値化された2値画像、文字画像等)によって、
その変換処理方法が異なっている。
2. Description of the Related Art Conventionally, various methods have been proposed for converting the resolution of low-resolution information of an input image into high-resolution information. In these conventional methods, the types of target images (for example, a multi-valued image having gradation information for each pixel, a binary image binarized by a pseudo halftone, and a binary image binarized by a fixed threshold) are used. Value image, character image, etc.)
The conversion processing method is different.

【0003】従来の内挿方法として、図12に示すよう
な、内挿点に最も近い同じ画素値を配列する最近接内挿
方法、図13に示すような内挿点を囲む4点(4点の画
素値をA,B,C,Dとする)の距離により、以下の演
算によって画素値Eを決定する共1次内挿法等が一般的
に用いられている。 E=(1−i)・(1−j)・A+i・(1−j)・B+(1−i)・j・C +i・j・D・・・・(1) (但し、画素間距離を1とした場合に、Aから水平方向
にi、垂直方向にjの距離があるとする(i≦1、j≦
1))。
As a conventional interpolation method, as shown in FIG. 12, a nearest interpolation method in which the same pixel values closest to the interpolation point are arranged, and four points (4) surrounding the interpolation point as shown in FIG. In general, a bilinear interpolation method or the like that determines the pixel value E by the following calculation based on the distances of the pixel values of the points A, B, C, and D) is used. E = (1−i) · (1−j) · A + i · (1−j) · B + (1−i) · j · C + i · j · D (1) (However, distance between pixels Is assumed to be 1, it is assumed that there is a distance of i in the horizontal direction and j in the vertical direction from A (i ≦ 1, j ≦
1)).

【0004】また、古くからサンプリング定理で表され
ているように、サンプリングされた離散信号を連続信号
に変換する手段として、SINC関数で表現できる理想
低域ろ波器を通過することによって再現することができ
る。SINC関数を演算するのは処理時間がかかること
などから、SINC関数で表現される補間関数を近似し
て、簡単な積和演算のみで補間値を算出する方法があ
る。
As a means for converting a sampled discrete signal into a continuous signal, as represented by the sampling theorem for a long time, reproduction by passing through an ideal low-pass filter that can be expressed by a SINC function Can be. Since it takes a long processing time to calculate the SINC function, there is a method of approximating an interpolation function represented by the SINC function and calculating an interpolation value only by a simple product-sum operation.

【0005】「画像解析ハンドブック:高木幹雄、下田
陽久監修東京大学出版会」によると、3次畳み込み内挿
法(Cubic Convo1ution inter
po1ation)において、補間関数の近似が実現で
きる。内挿したい点の周囲の観測点16点の画像データ
を用いて、求める画像データを次の式で示される3次畳
み込み関数を用いて内挿する。
According to "Image Analysis Handbook: Mikio Takagi and Hirohisa Shimoda, University of Tokyo Press", cubic convolution interpolation method (Cubic Convolution interpolation)
polation), approximation of the interpolation function can be realized. The image data to be obtained is interpolated using the cubic convolution function represented by the following equation using the image data of 16 observation points around the point to be interpolated.

【0006】[0006]

【数1】 (Equation 1)

【0007】[0007]

【数2】 (Equation 2)

【0008】[0008]

【数3】 (Equation 3)

【0009】尚、式(2)のPn〜P44は周辺画素値
を示し、図14に配置を示す。
In the expression (2), Pn to P44 indicate peripheral pixel values, and the arrangement is shown in FIG.

【0010】しかし、上述した3種類の従来例では、い
ずれも補間時に補間によるボケ及び入力低解像に依存し
たブロツク状のジャギーが発生し、高画質の高解像情報
が作成できなかった。そこで、本出願人は、低解像情報
から高解像情報の作成において、補間処理による補間ボ
ケもなく、また、ジャギーが発生することなく解像度変
換ができる方法を、特開平7−93531号公報、特開
平7−107268号公報、特開平7−105359号
公報等により提案した。
However, in the above three types of conventional examples, blurring due to interpolation and a block-shaped jaggy depending on the input low resolution occurred at the time of interpolation, and high-resolution high-resolution information could not be created. In view of the above, the present applicant has proposed a method capable of performing resolution conversion without interpolating blur due to interpolation processing in generating high-resolution information from low-resolution information and without causing jaggies, as disclosed in Japanese Patent Application Laid-Open No. 7-93531. And JP-A-7-107268 and JP-A-7-105359.

【0011】これらの提案の基本的な考え方は、入力し
た原情報から解像度依存成分を除去し、除去した状態
で、画素数を出力解像度相当まで増加させ、増加させた
状態の中で新たな解像度に見合う情報を推測し作成する
方法である。入力解像度の依存性を取り除く手段として
は、LPFによる平滑化、画素数の増加は線形補間によ
り実現可能である。高解像情報の推測は補間後の情報を
単純2値化して、“1”に分類された画素と“0”に分
類された画素とに対してそれぞれ異なる処理を行うこと
により、出力する画素値を算出する。
The basic idea of these proposals is that the resolution-dependent component is removed from the input original information, and the number of pixels is increased to the output resolution in a state where the resolution-dependent component is removed. This is a method of guessing and creating information that is appropriate for. As means for removing the dependency on the input resolution, smoothing by LPF and increasing the number of pixels can be realized by linear interpolation. The estimation of the high-resolution information is performed by simply binarizing the information after the interpolation and performing different processing on the pixel classified as “1” and the pixel classified as “0”, thereby outputting the pixel to be output. Calculate the value.

【0012】また、特開平9−252400号公報で提
案したように、画素値の連続性が保たれた良好なエッジ
を作成する方法もある。この公報では、低解像度注目画
素の周辺画素よりm点(m≧1)の画素(但し、m点中
の観測点nにおける画素値をP(n)とする)を検出
し、注目画素を複数画素分に補間した各補間点kにおけ
る前記補間値C(k)を基に、出力値h(k)を以下の
式により演算している。
Further, as proposed in Japanese Patent Application Laid-Open No. 9-252400, there is a method of creating a good edge while maintaining the continuity of pixel values. In this publication, a pixel at m points (m ≧ 1) (where the pixel value at an observation point n among the m points is P (n)) is detected from the peripheral pixels of the low resolution target pixel, and a plurality of target pixels are detected. The output value h (k) is calculated by the following equation based on the interpolation value C (k) at each interpolation point k interpolated into pixels.

【0013】[0013]

【数4】 (Equation 4)

【0014】[0014]

【発明が解決しようとする課題】しかしながら、上記従
来例では、以下に述べるような欠点があった。即ち、い
くら高解像情報の作成を行っても、高画質化には限度が
あるという点である。当然、サンプリング定理より明ら
かなように、入力解像度のナイキスト限界以上の情報は
入力画像には存在しないため、ナイキスト周波数以上の
情報作成は全て推測によるものになる。
However, the above-mentioned prior art has the following drawbacks. That is, no matter how much high-resolution information is created, there is a limit to high image quality. Naturally, as is clear from the sampling theorem, since information of the input resolution equal to or higher than the Nyquist limit does not exist in the input image, creation of information equal to or higher than the Nyquist frequency is based on estimation.

【0015】そのため、あまり複雑ではないCG画像、
イラスト画像、アニメーション画像のような平坦な人工
的画像をジャギーレスに変換することは容易であるが、
自然画像のナイキスト限界以上の情報推測による高画質
化は難しい。即ち、いかなる方法を用いたとしても、低
解像情報を入力して高解像に変換した画像は、もともと
高解像情報を入力した画像と比較すると、明らかに画質
は低くなる。
Therefore, a CG image which is not so complicated,
It is easy to convert flat artificial images such as illustration images and animation images to jaggy-less,
It is difficult to achieve high image quality by estimating information beyond the Nyquist limit of a natural image. That is, no matter what method is used, the quality of an image obtained by inputting low-resolution information and converting it to high resolution is clearly lower than that of an image originally inputting high-resolution information.

【0016】一方、近年、デジタルビデオカメラ等の普
及により、撮影した動画像を、連続した1フレーム単位
にコンピュータに入力できる手段が増えてきている。た
だ、プリンタの出力解像度は年々増加しているが、撮像
系の入力解像度は増加傾向にあるとはいっても、プリン
タ解像度に比べると、まだまだ低いのが現状である。
On the other hand, in recent years, with the spread of digital video cameras and the like, means for inputting captured moving images to a computer in a continuous frame unit have been increasing. However, although the output resolution of the printer is increasing year by year, the input resolution of the imaging system is increasing, but it is still lower than the printer resolution.

【0017】そこで、従来例の技術で述べたような、1
枚の低解像静止画から、1枚の高解像静止画を作成する
のではなく、動画から取り込んだ連続した複数の低解像
静止画から、1枚の高解像静止画を作成する技術を本発
明により提案する。従来、複数の静止画から、より広範
囲のパノラマ画像の作成方法としては、「動画像のパニ
ングを考慮した背景画像の合成:吉沢、花村、富永、信
学春季全大予稿集7−51(1990)」、及び「分割
撮像によるパノラマ画像の生成法:中村、金子、林、信
学春季全大予稿集7−165(1991)」等による提
案がある。
Therefore, as described in the prior art,
Instead of creating one high-resolution still image from one low-resolution still image, one high-resolution still image is created from a plurality of continuous low-resolution still images captured from a moving image. A technique is proposed according to the invention. Conventionally, a method of creating a panoramic image of a wider range from a plurality of still images is described in "Synthesis of Background Image in Consideration of Panning of Moving Image: Yoshizawa, Hanamura, Tominaga, Shingaku Spring Full-Size Proceedings 7-51 (1990) )), And “Method of generating panoramic image by divided imaging: Nakamura, Kaneko, Hayashi, Shingaku Spring Full-Size Preliminary Proceedings, 7-165 (1991)” and the like.

【0018】しかし、1枚の静止画よりも撮像範囲を拡
大したパノラマ画像を作成するのではなく、撮像範囲は
同一で、複数の静止画の情報を合成させて、内挿により
画像の解像度を向上させる技術の提案は数少ない。
However, instead of creating a panoramic image whose imaging range is larger than that of a single still image, the imaging range is the same, information of a plurality of still images is synthesized, and the resolution of the image is increased by interpolation. There are few proposals for techniques to improve.

【0019】このような低解像の動画から高解像の静止
画作成の技術として、特開平5−260264号公報に
よる提案がある。この提案は、連続した画像同士を比較
して、2種画像の差異から、アフィン変換、及び平行移
動のパラメータを検出して、2種画像を合成するもので
ある。上記提案の第2の実施例に、合成を補間に利用す
る例について述べられている。
As a technique for creating a high-resolution still image from a low-resolution moving image, Japanese Patent Application Laid-Open No. 5-260264 proposes a technique. In this proposal, continuous images are compared with each other, and parameters of affine transformation and translation are detected based on a difference between the two types of images to synthesize the two types of images. The second embodiment of the above proposal describes an example in which synthesis is used for interpolation.

【0020】しかし、上記提案では以下の問題点があ
る。即ち、上記公報の第2の実施例に記載された方法
は、前述した図12から図14に示した補間方法により
拡大した連続画像同士を比較することにより、前述した
パラメータを算出して補間位置を決定し、合成していく
ものである。しかし、補間演算自体が新たな高解像情報
を作成するものではないために、合成する座標の正確な
決定も困難である。
However, the above proposal has the following problems. That is, the method described in the second embodiment of the above publication compares the continuous images enlarged by the above-described interpolation method shown in FIGS. Are determined and synthesized. However, since the interpolation calculation itself does not create new high-resolution information, it is difficult to accurately determine coordinates to be combined.

【0021】補間するということは、画素間を内挿する
ということである。上記方法では、連続画像同士を比較
する時に入力解像度の画素間の情報がない。簡単に言い
換えると、2種の画像を画像A、画像Bと仮定すると、
画像Aの画素間のどの位置に画像Bの画素を内挿するか
という決定が、単なる拡大画像間の比較では困難であ
る。
Interpolating means interpolating between pixels. In the above method, there is no information between pixels of the input resolution when comparing continuous images. In other words, assuming that two types of images are image A and image B,
It is difficult to determine where to interpolate the pixels of the image B between the pixels of the image A by simply comparing the enlarged images.

【0022】これは、動きベクトルのベクトル量の最小
単位が画素単位であり、画素間距離よりも細かい分解能
がないという点に起因している。即ち、ベクトルの分解
能が画素間以下の精度を持たなければ、複数の静止画を
用いて補間する効果は薄れ、前記従来例で述べた、1枚
の低解像静止画から1枚の高解像静止画への作成の場合
と、画質的にほとんど変わりなくなる。
This is because the minimum unit of the vector amount of the motion vector is a pixel unit, and there is no resolution finer than the distance between pixels. That is, if the resolution of the vector does not have an accuracy equal to or less than the pixel-to-pixel accuracy, the effect of interpolating using a plurality of still images is diminished, and one low-resolution still image is replaced by one high-resolution still image described in the conventional example. The image quality is almost the same as in the case of creating a still image.

【0023】「国際標準画像符号化の基礎技術:小野文
孝、渡辺裕コロナ社」には、各種動き検出法について幾
つかの方法の説明がある。しかし、この説明の何れの方
法も、動き補償を目的とした検出方法であり、複数の画
像から1枚の画像を作成しようとする本発明の目的とは
異なるため、細かい検出精度が不必要であり、これらの
技術を利用しても良好な複数画像の合成は困難である。
"Basic technology of international standard image coding: Fumitaka Ono, Hiroshi Watanabe" describes various motion detection methods. However, any of the methods described in this description is a detection method for the purpose of motion compensation, which is different from the object of the present invention in which one image is created from a plurality of images, and therefore, fine detection accuracy is unnecessary. Therefore, even if these techniques are used, it is difficult to successfully combine a plurality of images.

【0024】そこで本出願人は、直交変換を利用して、
画素間距離よりも細かい分解能を持つベクトルの算出方
法を提案した。この方法により、複数の静止画が各々独
立したものではなく、画像間の空間的座標の関連付けが
可能になった。しかし、動きべクトルの分解能が画素間
距離よりも細かく算出されたとしても、画像間の相対位
置が正しく把握できるのみで、まだ問題点は数多く残っ
ている。
Then, the present applicant utilizes orthogonal transformation to
A calculation method of vectors with finer resolution than the distance between pixels was proposed. According to this method, a plurality of still images are not independent from each other, and it is possible to associate spatial coordinates between images. However, even if the resolution of the motion vector is calculated finer than the pixel-to-pixel distance, only the relative position between the images can be correctly grasped, and many problems still remain.

【0025】その一つが、合成する際の誤差が画質劣化
を引き起こすという問題である。即ち、合成する画像の
枚数が多くなればなるほど、動きベクトルの誤差が蓄積
する。
One of the problems is that an error at the time of combining causes deterioration of image quality. That is, as the number of images to be synthesized increases, errors in motion vectors accumulate.

【0026】図15は従来の動きベクトルを算出する順
序を示した図である。図において、時刻mフレームから
(m+3)フレームまでの連続した4フレーム分の画像
を合成する例について説明する。1501、1502、
1503、1504はそれぞれ、mフレーム目の画像情
報、(m+1)フレーム目の画像情報、(m+2)フレ
ーム目の画像情報、(m+3)フレーム目の画像情報を
示している。
FIG. 15 is a diagram showing a conventional order of calculating motion vectors. In the figure, an example will be described in which images for four consecutive frames from the time m frame to the (m + 3) frame are synthesized. 1501, 1502,
Reference numerals 1503 and 1504 denote image information of the m-th frame, image information of the (m + 1) frame, image information of the (m + 2) frame, and image information of the (m + 3) frame, respectively.

【0027】動きベクトルを算出する順序としては、ま
ずmフレーム目と(m+1)フレーム目、続いて、(m
+1)フレーム目と(m+2)フレーム目、続いて(m
+2)フレーム目と(m+3)フレーム目という3回の
ベクトル算出になる。即ち、従来の動画像符号化の動き
補償と同様に、1フレーム進行後の動き量を逐次算出す
る方法である。この場合、動きベクトルを算出する基準
となるフレーム(基準フレームと称す)は、常に、対象
となるフレーム(対象フレームと称す)と1フレーム分
しか時間的には開きがない。
The order of calculating the motion vector is as follows: first, the m-th frame and the (m + 1) -th frame, and then (m
(+1) th frame and (m + 2) th frame, then (m
(+2) th frame and (m + 3) th frame are calculated three times. That is, similarly to the motion compensation of the conventional moving picture coding, this is a method of sequentially calculating the motion amount after one frame progresses. In this case, a frame serving as a reference for calculating a motion vector (referred to as a reference frame) always has a temporal difference of only one frame from a target frame (referred to as a target frame).

【0028】しかし、この方法では、動き補償の目的に
は最適な方法でも、本発明の目的としている複数画像の
合成では幾つかの問題がある。その一つが、上記の誤差
の蓄積である。即ち、1フレーム分の移動量が正確に算
出されないと、時間的にそれ以降の動きベクトル算出で
は、誤差が生じた画像に対して新たに移動量を求めるこ
とになってしまう。画像枚数が多ければ多いほど、その
蓄積される誤差が増加し、本来の配置位置とは大きく異
なる結果になる場合がある。
However, even if this method is optimal for the purpose of motion compensation, there are some problems in synthesizing a plurality of images as the object of the present invention. One of them is accumulation of the above error. In other words, if the movement amount for one frame is not accurately calculated, a new movement amount is calculated for an image in which an error has occurred in temporally subsequent motion vector calculation. As the number of images increases, the accumulated error increases, which may result in a large difference from the original arrangement position.

【0029】また、もう一つの問題としては、複数枚の
連続画像の途中に動きベクトルの算出困難なフレームが
存在した場合の対処である。当然、複数枚の連続画像の
中では、撮像途中のビデオカメラ等の入力機器側のぶれ
や、対象物の移動等により、不鮮明な画像のフレームも
存在してくる。その場合に、図15のような従来の方法
を用いると、結果として動きベクトルを大きく誤ったも
のにする恐れもあり、1度ベクトル算出を間違えば、前
述したようにそれ以降のフレームに対しても誤差は解消
されない。
Another problem is to cope with a case where a motion vector is difficult to calculate in the middle of a plurality of continuous images. Naturally, in a plurality of continuous images, unclear image frames also exist due to blurring on the input device side such as a video camera or the movement of a target object during imaging. In this case, if the conventional method as shown in FIG. 15 is used, there is a possibility that a motion vector may be largely incorrect as a result. The error is not eliminated.

【0030】このような、動きべクトル算出の順序の問
題は、例えば現在、既に市販されているビデオカメラに
おける、CCDの画素ずらしの技術を用いて高解像化す
る用途では、いかなる順序で複数枚を合成しても問題に
ならない。それは、画像毎の相対位置に相当する“ずら
し量”が機器側で制御されているためである。しかし、
後述する本発明の実施の形態の場合は、画像毎の相対位
置は全く制御されていない。そのため、動きべクトルを
算出する順序が画質向上に大きな要因をもたらす。
The problem of the order of calculating the motion vector is, for example, a problem that occurs in a video camera that is already on the market at present by using a technique of shifting pixels of a CCD to achieve high resolution. It does not matter if you combine them. This is because the “shift amount” corresponding to the relative position of each image is controlled on the device side. But,
In the embodiment of the present invention described later, the relative position of each image is not controlled at all. Therefore, the order in which the motion vectors are calculated has a significant factor in improving image quality.

【0031】また、本発明者は、先に複数の画像の合成
を、ただ単に複数フレームの画素値を配置する方法では
なく、基準のフレームに適合させるように、画像データ
を加工して配置合成する方法を提案した。画像データを
加工する方法では、どのフレームを基準フレームにする
かによって、全く画質の異なる合成画像になってしま
う。データ加工後に合成する方式では、合成フレームの
枚数が3枚以上の場合のみならず、2枚の場合でも、ど
ちらの画像を基準フレームにするかで画質は異なってく
る。即ち、従来では、複数枚の画像を合成する場合に、
どの画像同士を比較して動き量を求め、合成につなげて
いくかという良好なフレームの制御方法が提案されてい
なかった。
The inventor of the present invention has proposed a method of processing a plurality of images by processing image data so as to conform to a reference frame rather than simply arranging pixel values of a plurality of frames. Suggested how to. In a method of processing image data, a synthesized image having completely different image quality is obtained depending on which frame is used as a reference frame. In the method of combining after data processing, not only when the number of combined frames is three or more, but also when two, the image quality differs depending on which image is used as the reference frame. That is, conventionally, when combining a plurality of images,
A good frame control method has not been proposed that compares which images are compared to determine the amount of motion and leads to synthesis.

【0032】従って、本発明は、複数枚の画像を合成し
て、一枚の高解像度の画像を得る場合におけるフレーム
制御方式を提案するものである。
Accordingly, the present invention proposes a frame control method in a case where a plurality of images are combined to obtain one high-resolution image.

【0033】[0033]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明による画像処理装置においては、mフレー
ム目から(m+n)フレーム目までの連続した(n+
1)枚分(m,nは任意の自然数)の動画像情報の中か
ら第1の静止画を選択する選択手段と、上記(n+1)
枚の動画像を配置して記憶するための記憶手段と、上記
選択された第1の静止画を上記記憶手段内に配置する第
1の配置手段と、上記第1の静止画以外のn枚の静止画
について、それぞれ第1の静止画に対する動きベクトル
を演算する演算手段と、上記演算結果に基づいて、上記
記憶手段内の上記第1の静止画の配置位置とは異なる位
置に、上記n枚の静止画をそれぞれ配置する第2の配置
手段と、上記配置後の(n+1)枚の画像を合成して一
枚の画像を得る合成手段とを設けている。
In order to achieve the above object, in an image processing apparatus according to the present invention, a continuous (n +) frame from an m-th frame to an (m + n) -th frame is provided.
1) selecting means for selecting a first still image from pieces of moving image information (m and n are arbitrary natural numbers); and (n + 1)
Storage means for arranging and storing a plurality of moving images, first arranging means for arranging the selected first still image in the storage means, and n images other than the first still image Calculating means for calculating a motion vector with respect to the first still image for each of the still images, and n based on the calculation result, at a position different from the arrangement position of the first still image in the storage means. A second arranging unit for arranging the still images and a synthesizing unit for synthesizing the (n + 1) images after the arrangement to obtain one image are provided.

【0034】また、本発明による画像処理方法において
は、mフレーム目から(m+n)フレーム目までの連続
した(n+1)枚分の動画像情報の中から第1の静止画
を選択する選択手順と、上記選択された第1の静止画を
記憶手段内に配置する配置手段と、上記第1の静止画以
外のn枚の静止画について、それぞれ第1の静止画に対
する動きベクトルを演算する演算手順と、上記演算結果
に基づいて、上記記憶手段内の上記第1の静止画の配置
位置とは異なる位置に、上記n枚の静止画をそれぞれ配
置する配置手順と、上記配置後の(n+1)枚の画像を
合成して一枚の画像を得る合成手順とを設けている。
In the image processing method according to the present invention, a selection procedure for selecting a first still image from (n + 1) consecutive pieces of moving image information from the m-th frame to the (m + n) -th frame is provided. An arranging means for arranging the selected first still image in the storage means, and an operation procedure for calculating a motion vector for the first still image for each of n still images other than the first still image. And an arrangement procedure for respectively arranging the n still images in a position different from the arrangement position of the first still image in the storage means based on the operation result, and (n + 1) after the arrangement. And a synthesizing procedure for synthesizing one image to obtain one image.

【0035】さらに、本発明による記憶媒体において
は、mフレーム目から(m+n)フレーム目までの連続
した(n+1)枚分の動画像情報の中から第1の静止画
を選択する選択処理と、上記選択された第1の静止画を
記憶手段内に配置する配置処理と、上記第1の静止画以
外のn枚の静止画について、それぞれ第1の静止画に対
する動きベクトルを演算する演算処理と、上記演算結果
に基づいて、上記記憶手段内の上記第1の静止画の配置
位置とは異なる位置に、上記n枚の静止画をそれぞれ配
置する配置処理と、上記配置後の(n+1)枚の画像を
合成して一枚の画像を得る合成処理とを実行するための
プログラムを記憶している。
Further, in the storage medium according to the present invention, a selection process of selecting a first still image from (n + 1) consecutive pieces of moving image information from the m-th frame to the (m + n) -th frame, An arranging process of arranging the selected first still image in the storage means, and an arithmetic process of calculating a motion vector for each of the n still images other than the first still image with respect to the first still image. An arrangement process of arranging the n still images at positions different from the arrangement positions of the first still images in the storage means on the basis of the calculation results; and (n + 1) images after the arrangement And a synthesizing process for synthesizing these images to obtain one image.

【0036】[0036]

【発明の実施の形態】以下、本発明の実施の形態を図面
と共に説明する。図1は本発明の実施の形態による画像
処理装置を示すブロックである。尚、本実施の形態にお
ける画像処理装置は、主として、動画像を撮像するアナ
ログビデオカメラやデジタルビデオカメラの内部、もし
くはビデオカメラと直接、あるいはコンピュータを介し
て接続されるプリンタやビデオプリンタ等の画像出力装
置内部に具備することが効率的であるが、ビデオカメラ
とプリンタとの接続で中間アダプタとなる画像処理装
置、又はホストコンピュータ内のアプリケーションソフ
ト、あるいはプリンタに出力するためのプリンタドライ
バソフトとして内蔵することも可能である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an image processing apparatus according to an embodiment of the present invention. Note that the image processing apparatus according to the present embodiment is mainly used for image processing such as a printer or a video printer which is connected to an analog video camera or a digital video camera for capturing a moving image, or directly or via a computer. Although it is efficient to have it inside the output device, it is built in as an image processing device that becomes an intermediate adapter when connecting the video camera and the printer, or application software in the host computer, or printer driver software for outputting to the printer It is also possible.

【0037】図1の画像処理装置の構成及び動作につい
て説明する。図1において、100はビデオカメラで撮
像された動画像が入力される入力端子を示している。本
実施の形態では、デジタルビデオカメラで撮像した画像
をコンピュータに送信して、コンピュータ内のアプリケ
ーションソフトにより、プリンタ相当の解像度まで変換
する例について述べる。
The configuration and operation of the image processing apparatus shown in FIG. 1 will be described. In FIG. 1, reference numeral 100 denotes an input terminal to which a moving image captured by a video camera is input. In this embodiment, an example will be described in which an image captured by a digital video camera is transmitted to a computer and converted to a resolution equivalent to a printer by application software in the computer.

【0038】デジタルビデオで撮影した動画像を記録媒
体から再生して、ユーザは自分の欲するシーンで画像の
取り込み命令を送る。この取り込み命令に同期して、コ
ンピュータ内の格納部101に取り込み命令直後の連続
した複数フレームの画像情報を格納する。いま、取り込
み命令を時刻mフレーム目とし、mフレーム目から(m
+n)フレーム目までの(n+1)枚の画像情報が格納
されるものとする。
A moving image captured by digital video is reproduced from a recording medium, and a user sends a command to capture an image in a scene desired by the user. In synchronization with this fetch instruction, image information of a plurality of continuous frames immediately after the fetch instruction is stored in the storage unit 101 in the computer. Now, the fetch instruction is set to the m-th frame at the time, and (m
It is assumed that (n + 1) image information up to the (+ n) th frame is stored.

【0039】102は選択部を示し、格納した(n+
1)フレーム分の画像情報から、どの時刻の画像を基準
フレームとして設定するのかを判断する。いま、判定結
果により設定された基準フレームを仮にフレームGとす
る。103は、フレーム制御部を示し、処理対象である
2種の画像を選出するための手段である。2種の画像と
は、一つが基準フレームであるフレームGであり、もう
一つは、フレームG以外に格納されているn枚のフレー
ム中の一つのフレームである(フレームHとする)。
Reference numeral 102 denotes a selection unit which stores (n +
1) It is determined which image at which time is to be set as the reference frame from the image information of the frame. Now, the reference frame set based on the determination result is temporarily set to a frame G. Reference numeral 103 denotes a frame control unit, which is a unit for selecting two types of images to be processed. The two types of images are a frame G, one of which is a reference frame, and the other is one of n frames stored other than the frame G (referred to as a frame H).

【0040】104は動きベクトル演算部を示し、フレ
ームGと、フレームHの2種画像の差異を基に、部分的
に移動した移動量をベクトルとして計測する手段であ
る。
Reference numeral 104 denotes a motion vector calculation unit, which is a means for measuring, as a vector, the movement amount of the partial movement based on the difference between the two images of the frame G and the frame H.

【0041】105は配置処理部Aを示し、撮像したフ
レームGの画像をメモリ内に配置する手段である。この
メモリは、(入力したフレーム画素数)×(垂直方向拡
大率)×(水平方向拡大率)以上のアドレス空間を有し
ている。そこで配置処理部Aでは、所定の拡大率に見合
った画素の配置を実行していく。例えば、拡大率が水平
方向、垂直方向ともに2倍の時には、垂直方向、水平方
向ともに1画素おきにフレームGの画素を配置していく
ことになる。
Reference numeral 105 denotes an arrangement processing unit A, which is means for arranging a captured image of the frame G in a memory. This memory has an address space of (number of input frame pixels) × (vertical magnification) × (horizontal magnification) or more. Therefore, the arrangement processing unit A executes the arrangement of the pixels corresponding to the predetermined enlargement ratio. For example, when the enlargement ratio is double in both the horizontal and vertical directions, the pixels of the frame G are arranged every other pixel in both the vertical and horizontal directions.

【0042】106はデータ加工部を示し、フレームG
の画像情報にうまく適合するようにフレームHの画素値
に加工を施す手段である。
Reference numeral 106 denotes a data processing unit, and a frame G
Means for processing the pixel values of the frame H so as to match the image information of the frame H well.

【0043】107は配置処理部Bを示し、フレーム制
御部103で算出したフレームGとフレームHとの相対
的なベクトル量に応じて、配置処理部A105と同一メ
モリ内に配置する手段である。格納したフレーム数が3
枚以上ある場合には、再びフレーム制御部103に戻
り、新たなフレームに対して前述した同様の処理を繰り
返す。但し、2回目以降の処理においては、フレームG
は固定であり、またフレームGの画像情報は、既に配置
されているため、新たに配置する必要はない。フレーム
Hのみが新たなフレームに更新され、前述した動きベク
トル演算、データ加工、配置の各処理工程を実行するこ
とになる。
Reference numeral 107 denotes an arrangement processing unit B, which is means for arranging in the same memory as the arrangement processing unit A 105 in accordance with the relative vector amount between the frame G and the frame H calculated by the frame control unit 103. Number of stored frames is 3
If there are more frames, the process returns to the frame control unit 103 again, and the same processing as described above is repeated for a new frame. However, in the second and subsequent processes, the frame G
Is fixed, and the image information of the frame G has already been arranged, so there is no need to newly arrange it. Only the frame H is updated to a new frame, and the above-described processing steps of motion vector calculation, data processing, and arrangement are executed.

【0044】108は合成部であり、同一メモリ内に配
置した複数枚の画像を合成して1枚の画像情報にする。
109は合成した画像がまだ、所望の解像度までの内挿
点の情報が埋まっていない場合に、埋まっていない内挿
点の情報を補間演算により算出する補間演算部である。
110は出力端子を示し、高解像度化した画像情報がプ
リンタ等に送信される。
Reference numeral 108 denotes a synthesizing unit, which synthesizes a plurality of images arranged in the same memory into one image information.
Reference numeral 109 denotes an interpolation operation unit that calculates information on interpolation points that are not embedded by interpolation when information on interpolation points up to a desired resolution is not yet embedded in the synthesized image.
Reference numeral 110 denotes an output terminal, to which image information having a higher resolution is transmitted to a printer or the like.

【0045】図2は、本実施の形態の特徴である選択部
102の構成を示す。いま例として、格納部101で
は、mフレーム目の画像から(m+3)フレーム目の画
像までの計4枚の連続した画像を格納したとする。20
1、202、203、204は、それぞれエッジ抽出部
を示し、格納した4枚の画像情報を基に、画像中に含ま
れるエッジ情報を抽出する手段である。
FIG. 2 shows a configuration of the selection unit 102 which is a feature of the present embodiment. As an example, it is assumed that the storage unit 101 stores a total of four continuous images from the image in the m-th frame to the image in the (m + 3) -th frame. 20
Reference numerals 1, 202, 203, and 204 denote edge extraction units, respectively, which are means for extracting edge information included in an image based on the stored four pieces of image information.

【0046】図3に一般的なラプラシアンのエッジ抽出
フィルタの例を示す。いま、(m+s)フレーム目(但
し、0≦s≦3)の画像上の座標(x,y)における画
素値をfs (x,y)、エッジ抽出処理後の値をk
s (x,y)とすると、図3のエッジ抽出フィルタでは
以下の積和演算になる。
FIG. 3 shows an example of a general Laplacian edge extraction filter. Now, the pixel value at the coordinates (x, y) on the image of the (m + s) th frame (where 0 ≦ s ≦ 3) is f s (x, y), and the value after the edge extraction processing is k
Assuming that s (x, y), the following product-sum operation is performed in the edge extraction filter of FIG.

【0047】 ks (x,y)=fs (x−1,y−1)+fs (x,y−1)+fs (x+ 1,y−1)+fs (x−1,y)−8fs (x,y)+ fs (x+1,y)+fs (x−1,y+1)+fs (x, y+1)+fs (x+1,y+1)・・・・(6)[0047] k s (x, y) = f s (x-1, y-1) + f s (x, y-1) + f s (x + 1, y-1) + f s (x-1, y) -8f s (x, y) + f s (x + 1, y) + f s (x-1, y + 1) + f s (x, y + 1) + f s (x + 1, y + 1) ···· (6)

【0048】図2において、205、206、207、
208はそれぞれ、エッジ強度評価部を示し、エッジ抽
出部201〜204により抽出されたエッジの強度を画
像全体にわたって積算する手段である。画像全体の縦画
素数をV、横画素数をHとすると、(m+s)フレーム
目のエッジ強度Psは以下のように算出する。
In FIG. 2, 205, 206, 207,
Reference numeral 208 denotes an edge strength evaluation unit, which is means for integrating the edge strengths extracted by the edge extraction units 201 to 204 over the entire image. Assuming that the number of vertical pixels in the entire image is V and the number of horizontal pixels is H, the edge strength Ps of the (m + s) frame is calculated as follows.

【0049】[0049]

【数5】 (Equation 5)

【0050】209は最大エッジ強度決定部を示し、エ
ッジ強度評価部205〜208でそれぞれ求めたPsが
最大となるフレームsを基準フレームとして決定する。
即ち、エッジ強度という独自の評価関数を設定し、格納
した複数枚の画像の中で、画像全体に渡って最もエッジ
の強度が大きいと評価されたフレームを選択するもので
ある。
Reference numeral 209 denotes a maximum edge strength determining unit which determines a frame s in which Ps obtained by the edge strength evaluating units 205 to 208 is the maximum as a reference frame.
That is, a unique evaluation function called edge strength is set, and a frame evaluated as having the highest edge strength over the entire image is selected from a plurality of stored images.

【0051】エッジの強度が大きい画像を基準フレーム
として設定するということは、後述する動きベクトルを
算出する時にも、また、他の対象フレームのデータ加工
をする時にも有利になる。エッジ強度による評価は、格
納した複数枚の中で、最も焦点がはっきりと撮影された
画像であると仮定することもできる。そのため、基準フ
レーム以外の対象フレームの画像は、基準フレームの画
質に付加価値を付けていく役割になり、最低でも基準フ
レーム単独以上の画質向上が保証される。
Setting an image having a large edge strength as a reference frame is advantageous both when calculating a motion vector, which will be described later, and when processing data for another target frame. The evaluation based on the edge intensity can also be assumed to be an image whose focus is sharpest among a plurality of stored images. Therefore, the image of the target frame other than the reference frame plays a role of adding an added value to the image quality of the reference frame, and the image quality improvement of at least the reference frame alone is guaranteed.

【0052】また、図2の構成は、説明を容易にするた
めに、全フレームを並列に処理する例について述べた
が、当然、エッジ抽出部、エッジ強度評価部は単一で、
垂直に処理する構成でもよい。また、式(7)では
s ’(x,y)の算出をks (x,y)の絶対値を用
いていたが、当然、ks (x,y)の2乗を用いて演算
することも可能である。
Although the configuration of FIG. 2 has been described with respect to an example in which all frames are processed in parallel for ease of explanation, it is needless to say that the edge extraction unit and the edge strength evaluation unit are single.
A configuration for processing vertically may be used. Further, in Formula (7) k s' (x , y) calculation of k s (x, y) had used the absolute value of the course, by using the square of k s (x, y) calculation It is also possible.

【0053】次に、動きベクトル演算部104について
説明する。動きベクトルを算出する方法としては、古く
から様々な方法が提案されているが、従来方法では、画
素間距離以下のベクトルの分解能がないために、合成、
補間を施して低解像の動画を高解像度の静止画に変換す
る用途には適さない。
Next, the motion vector calculation unit 104 will be described. Various methods have been proposed for calculating a motion vector since ancient times. However, in the conventional method, since there is no resolution of a vector equal to or less than the distance between pixels, synthesis,
It is not suitable for use in performing interpolation to convert a low-resolution moving image into a high-resolution still image.

【0054】図4に本実施の形態による動きベクトル演
算部104の詳細ブロック図を示す。図1の格納部10
1から動きベクトル演算部104に送信される2種の画
像は、基準フレームであるフレームGと対象フレームと
なるフレームHである。
FIG. 4 is a detailed block diagram of the motion vector calculation unit 104 according to the present embodiment. Storage unit 10 of FIG.
The two types of images transmitted from 1 to the motion vector calculation unit 104 are a frame G as a reference frame and a frame H as a target frame.

【0055】図4において、ブロック化部401は、フ
レームHの画像情報をN×N画素単位にブロック化す
る。Nの値は様々考えられるが、例としてN=8を想定
する。いま、この作成した8×8画素の注目ブロックを
仮にブロックAと称す。次に、直交変換部402におい
て、ブロックAの直交変換を演算する。直交変換の種類
は限定しないが、高速で容易に演算できるアダマール変
換、及びJPEG(Joint Photografi
c Expert Group)で採用されているDC
T(離散コサイン変換)等が一般的である。いま、DC
Tを例にすると、N×N画素の2次元DCTの変換係数
は、
In FIG. 4, a blocking unit 401 blocks image information of a frame H in units of N × N pixels. There are various possible values of N, but N = 8 is assumed as an example. Now, the created target block of 8 × 8 pixels is temporarily referred to as a block A. Next, the orthogonal transform unit 402 calculates the orthogonal transform of the block A. The type of orthogonal transform is not limited, but Hadamard transform, which can be easily operated at high speed, and JPEG (Joint Photographi)
c DC used in Expert Group)
T (discrete cosine transform) and the like are common. Now DC
T as an example, the transform coefficient of a two-dimensional DCT of N × N pixels is

【0056】[0056]

【数6】 (Equation 6)

【0057】で求められる。Is obtained by

【0058】一方、基準フレームGは、M×M’ブロッ
ク化部403によりM×M’画素単位にブロック化され
る。この時、M×M’画素単位のブロックは、フレーム
H内の、ブロックAと同一座標のN×N画素のブロック
を包括し、大小関係は、M≧N、かつM’≧N(但し、
M=M’=Nの場合を除く)になる。いま、M=M’=
20と仮定する。即ち、ブロックAと同一座標を含む2
0×20のブロックをフレームG内に用意することにな
る。
On the other hand, the reference frame G is divided into blocks of M × M ′ pixels by the M × M ′ blocking unit 403. At this time, the block in units of M × M ′ pixels includes a block of N × N pixels having the same coordinates as the block A in the frame H, and the magnitude relation is M ≧ N and M ′ ≧ N (where,
M = M ′ = N (except the case). Now, M = M '=
Assume 20. That is, 2 including the same coordinates as block A
A block of 0 × 20 is prepared in the frame G.

【0059】次に、N×Nブロック化部404により、
20×20画素のブロック内で、ブロックAと同サイズ
のN×N画素のブロックを作成する。ブロックの作成
は、ブロックAと同一座標からスタートしてもよいし、
また、M×M’ブロックの端から順に初めてもよい。い
ま、フレームG内で作成したN×N画素のブロックを仮
にブロックBと称する。
Next, the N × N blocking unit 404
Within a block of 20 × 20 pixels, a block of N × N pixels of the same size as block A is created. The creation of the block may start from the same coordinates as block A,
Further, it may be the first time from the end of the M × M ′ block. Now, a block of N × N pixels created in the frame G is temporarily referred to as a block B.

【0060】直交変換部405は、作成したブロックB
をブロックAと同様に直交変換する。当然、直交変換部
402、405の直交変換は同一の変換手段でなくては
ならない。直交変換係数評価部406は、ブロックA、
ブロックBの直交変換係数を基に、その変換係数の類似
性を評価する。類似性の評価は、ブロックのDC(直
流)成分と、AC(交流)成分の主に低周波域の成分を
基に、それぞれの係数の差分に、成分に応じた重み付け
係数を乗じた値の和で評価する。
The orthogonal transform unit 405 generates the block B
Are orthogonally transformed in the same manner as in the block A. Naturally, the orthogonal transformations of the orthogonal transformation units 402 and 405 must be the same transformation means. The orthogonal transform coefficient evaluator 406 includes a block A,
Based on the orthogonal transform coefficients of the block B, the similarity of the transform coefficients is evaluated. The evaluation of similarity is based on the DC (direct current) component of the block and the AC (alternating current) component mainly in the low frequency range, and multiplies the difference between the respective coefficients by a weighting coefficient corresponding to the component. Evaluate by sum.

【0061】いま、説明を容易にするために、ブロック
の座標を、ブロックを形成する左上の画素の座標で管理
することにする(以下、この画素の座標をブロックの原
点と称する)。即ち、図5に示すように、ブロックBの
原点(斜線部の画素に相当する)を(a,b)とする
と、ブロックAとブロックBとの類似性の評価関数は、
For the sake of simplicity, the coordinates of the block will be managed by the coordinates of the upper left pixel forming the block (hereinafter, the coordinates of this pixel will be referred to as the origin of the block). That is, as shown in FIG. 5, if the origin of block B (corresponding to the hatched pixel) is (a, b), the similarity evaluation function between block A and block B is:

【0062】[0062]

【数7】 (Equation 7)

【0063】で算出する。Is calculated.

【0064】高周波域になるほど、隣接ブロック間の変
換係数の相関が低くなるため、高周波域ほど重み付け係
数W(u、v)の値を小さく設定する。座標が空間的に
近いブロック同士の低周波域の変換係数は非常に相関が
高いため、式(9)では、ブロック同士の空間的な位置
関係を変換係数の類似性に置き換えて評価している。ま
た、式(9)では絶対値を用いているが、差分の2乗で
も同様の評価は可能である。
The higher the frequency, the lower the correlation of the transform coefficients between adjacent blocks. Therefore, the higher the frequency, the smaller the value of the weighting coefficient W (u, v) is set. Since the transform coefficients in the low-frequency range between blocks whose coordinates are spatially close to each other have a very high correlation, the expression (9) evaluates the blocks by replacing the spatial positional relationship between the blocks with the similarity of the transform coefficients. . Further, although the absolute value is used in the equation (9), the same evaluation can be performed by the square of the difference.

【0065】次に、ブロック制御部407は、ブロック
Bの原点(a,b)を1画素移動して、新たにブロック
を作成し、同様の処理を繰り返す。即ち、N=8、M=
M’=20を例にすると、8×8画素のブロックは20
×20画素のブロック中に13×13個作成できるた
め、そのブロック数分に対して繰り返し類似性を演算す
ることになる。
Next, the block controller 407 moves the origin (a, b) of the block B by one pixel, creates a new block, and repeats the same processing. That is, N = 8, M =
Taking M ′ = 20 as an example, a block of 8 × 8 pixels is 20
Since 13 × 13 pixels can be created in a block of × 20 pixels, similarity is repeatedly calculated for the number of blocks.

【0066】フレームG内において、全てブロックBの
走査を終了すると、前述の評価関数であるR(a,b)
が最小になる座標(a’,b’)を判定する。即ち、類
似性R(a,b)はブロックAB間の誤差成分と見なせ
るため、R(a,b)の最小値をとる時のブロックB
(この時のブロックをブロックB’と称する)が、空間
的にもブロックAと最も近いブロックと見なし、ブロッ
クAの移動した先と判断する。
When the scanning of all the blocks B in the frame G is completed, the above-mentioned evaluation function R (a, b) is obtained.
Are determined at which coordinates (a ′, b ′) are minimized. That is, since the similarity R (a, b) can be regarded as an error component between the blocks AB, the block B when the minimum value of R (a, b) is taken
(The block at this time is referred to as a block B ′) is regarded as a block that is spatially closest to the block A, and is determined to be a destination to which the block A has moved.

【0067】ただ、これだけでは従来例と同様、動きベ
クトルの分解能は1画素単位であり、画素間距離以下の
ベクトルが判定できない。そこで、本実施の形態では、
画素間距離よりも短い分解能で動きベクトルを推測す
る。
However, only in this case, as in the conventional example, the resolution of the motion vector is on a pixel-by-pixel basis, and it is not possible to judge a vector smaller than the pixel-to-pixel distance. Therefore, in the present embodiment,
A motion vector is estimated with a resolution shorter than the distance between pixels.

【0068】以下にベクトルの推測方法を説明する。上
述の方法において、対象フレームであるフレームH上の
注目ブロックであるブロックAの原点を(a0,b0)
とし、また、前述したR(a,b)の最小値をとるフレ
ームGのブロックB’の原点を(a’,b’)とする。
変換係数評価部406において、ブロックB’の検索は
大まかな画素単位の検索であったが、今度はブロック
B’周辺に絞った細かい距離の推測をする。
The method for estimating the vector will be described below. In the above-described method, the origin of the block A, which is the target block, on the frame H, which is the target frame, is set to (a0, b0).
Further, the origin of the block B ′ of the frame G that takes the minimum value of R (a, b) is (a ′, b ′).
In the conversion coefficient evaluation unit 406, the search for the block B 'is a rough pixel-by-pixel search, but this time, a small distance is narrowly estimated around the block B'.

【0069】即ち、変換係数評価部406では、まず、
空間的に最も近いと思われるブロックB’の検索、次に
求めたブロックB’からの微小なずれ量の推測という、
2段階の構戌の異なる評価を実施することになる。
That is, the conversion coefficient evaluation unit 406 first
Searching for the block B 'that seems to be the closest in space, estimating the amount of slight deviation from the block B' found next,
A different assessment of the two-stage composition will be performed.

【0070】図6は、上記2段階目の推測の動作手順を
示すフローチャートである。ステップS601(以下、
ステップ略)は、ブロックB’の1画素左に作成したブ
ロックと1画素右に作成したブロックの式(7)の評価
関数結果をそれぞれ比較する。即ち、ブロックB’の原
点は(a’、b’)であるため、R(a’+1,b’)
とR(a’−1,b’)の大小を評価する。このR
(a’+1,b’)、R(a’−1,b’)について
は、第1段階の類似性評価の際に算出しているため、演
算結果を記憶、保持しておくのが好ましい。
FIG. 6 is a flowchart showing an operation procedure of the second-stage estimation. Step S601 (hereinafter, referred to as step S601)
The step (omitted) compares the evaluation function result of the equation (7) between the block created one pixel left of the block B ′ and the block created one pixel right of the block B ′. That is, since the origin of the block B ′ is (a ′, b ′), R (a ′ + 1, b ′)
And the magnitude of R (a'-1, b ') are evaluated. This R
Since (a '+ 1, b') and R (a'-1, b ') are calculated at the time of the first-stage similarity evaluation, it is preferable to store and hold the calculation results. .

【0071】S601において、もし、R(a’+1,
b’)が小さいと評価されるとS602に、また否と評
価されるとS603に移動する。次にS602では、原
点R(a’+1,b’)より構成されるブロックをブロ
ックCと設定し、また、S603では、原点R(a’−
1,b’)より構成されるブロックをブロックCと設定
する。それと同時に、S602では変数cをc=1と設
定し、また、S603では、c=−1と設定する。
In S601, if R (a '+ 1,
If b ′) is evaluated to be small, the process moves to S602, and if b ′) is evaluated to be no, the process moves to S603. Next, in S602, a block composed of the origin R (a '+ 1, b') is set as a block C. In S603, the origin R (a'-
A block composed of (1, b ′) is set as a block C. At the same time, the variable c is set to c = 1 in S602, and c = −1 in S603.

【0072】次にS604において、今度はブロック
B’の1画素上に作成したブロックと1画素下に作成し
たブロックの式(7)の評価関数結果をそれぞれ比較す
る。即ち、ブロックB’の原点は(a’,b’)である
ため、R(a’,b’+1)とR(a’,b’−1)の
大小を評価する。この類似性の評価関数に関しても、第
1段階の類似性評価の際に算出しているため、演算結果
を記憶、保持しておくのが好ましい。
Next, in S604, the evaluation function results of the equation (7) of the block created one pixel above the block B 'and the block created one pixel below the block B' are compared. That is, since the origin of the block B 'is (a', b '), the magnitudes of R (a', b '+ 1) and R (a', b'-1) are evaluated. Since the similarity evaluation function is also calculated at the time of the first-stage similarity evaluation, it is preferable to store and hold the calculation result.

【0073】S604において、もし、R(a’,b’
+1)が小さいと評価されるとS605に、また否と評
価されるとS606に移動する。次にS605では、原
点R(a’,b’+1)より構成されるブロックをブロ
ックDと設定し、また、S606では、原点R(a’,
b’−1)より構成されるブロックをブロックDと設定
する。それと同時に、S605では、変数dをd=1と
設定し、また、S606ではd=−1と設定する。
At S604, if R (a ', b'
If +1) is evaluated to be small, the process proceeds to S605, and if not, the process proceeds to S606. Next, in S605, a block composed of the origin R (a ', b' + 1) is set as a block D, and in S606, the origin R (a ', b' + 1) is set.
The block composed of b′-1) is set as a block D. At the same time, the variable d is set to d = 1 in S605, and d = −1 in S606.

【0074】次にS607では、ブロックAの直交変換
係数中の水平方向のAC基本波成分であるFA (1,
0)と、ブロックB’、及びブロックCの直交変換係数
中の水平方向のAC基本波成分であるFB ’(1,
0)、FC (1,0)の3種の値の大小関係を評価す
る。即ち、FA (1,0)の値が、FB ’(1,0)の
値とF C (1,0)の値との間に存在するか否かを判断
している。もし、存在していれば、S608へ、否なら
S609へ移動する。
Next, in step S607, the orthogonal transform of the block A is performed.
F, which is the horizontal AC fundamental wave component in the coefficientA(1,
0) and the orthogonal transform coefficients of block B ′ and block C
F, which is the AC fundamental wave component in the horizontal directionB’(1,
0), FCEvaluate the magnitude relationship of the three values (1, 0)
You. That is, FAThe value of (1,0) is FB’(1,0)
Value and F CJudge whether it exists between the value of (1, 0)
are doing. If it exists, go to S608, if not
Move to S609.

【0075】S608では、変数Vxが以下の式(1
0)で算出される。 Vx=(FA (1,0)−FB ’(1,0))/(FC (1,0)−FB ’( 1,0))・・・・(10) また、S609では、変数VxはVx=0に設定され
る。
In step S608, the variable Vx is calculated by the following equation (1).
0). Vx = The (F A (1,0) -F B '(1,0)) / (F C (1,0) -F B' (1,0)) ···· (10), in S609 , The variable Vx is set to Vx = 0.

【0076】同様に、S610では、ブロックAの直交
変換係数中の垂直方向のAC基本波成分であるF
A (0,1)と、ブロックB’及びブロックDの直交変
換係数中の水平方向のAC基本波成分であるFB
(0,1)、FD (0,1)の3種の大小関係を評価す
る。即ち、FA (0,1)の値が、FB ’(0,1)の
値とFD(0,1)の値との間に存在するか否かを判断
している。もし、存在していれば、S611へ、否なら
S612へ移動する。
Similarly, in S610, F is a vertical AC fundamental wave component in the orthogonal transform coefficient of block A.
A (0, 1) and F B ′, which is the horizontal AC fundamental wave component in the orthogonal transform coefficients of block B ′ and block D
Evaluate three kinds of magnitude relations of (0, 1) and F D (0, 1). That is, it is determined whether the value of F A (0,1) exists between the value of F B ′ (0,1) and the value of F D (0,1). If it exists, the process moves to S611; otherwise, the process moves to S612.

【0077】S611では、変数Vyが以下の式(1
1)で算出される。 Vy=(FA (0,1)−FB ’(0,1))/(FD (0,1)−FB ’( 0,1))・・・・(11) また、S612では、変数VyはVy=0と設定され
る。
In S611, the variable Vy is calculated by the following equation (1).
It is calculated in 1). Vy = The (F A (0,1) -F B '(0,1)) / (F D (0,1) -F B' (0,1)) ···· (11), in S612 , The variable Vy is set to Vy = 0.

【0078】S613では、式(10)、式(11)に
より算出したVx,Vyを基に、ブロックAから真に移
動したと判断されるブロック(ブロックB”と称する)
への動きベクトルAB”を以下のように設定して終了す
る。
In step S613, a block determined to have truly moved from block A (referred to as block B ″) based on Vx and Vy calculated by equations (10) and (11).
Is set as follows, and the processing ends.

【0079】[0079]

【数8】 (Equation 8)

【0080】即ち、ブロックAからブロックB’への動
きベクトルは、
That is, the motion vector from block A to block B ′ is

【0081】[0081]

【数9】 (Equation 9)

【0082】となるので、式(12)のc×Vx、及び
d×Vyの項が画素間距離よりも分解能の高いベクトル
成分となっている。
Thus, the terms c × Vx and d × Vy in equation (12) are vector components having higher resolution than the distance between pixels.

【0083】以上、動きベクトル演算部104について
述べたが、上述したように、本実施の形態の動きベクト
ル演算部104は2段階の処理になっている。まず、空
間的に最も近いと思われるブロックの検索、次に、求め
たブロックからの微小なずれ量の推測である。上述した
実施の形態では、2段階とも直交変換係数を用いた推測
をしているが、処理の簡略化、高速化等により、第1段
階目のブロック検索は直交変換係数を用いずに、ブロッ
ク内の画素値の比較により推測する方法を用いてもよ
い。
The motion vector calculation unit 104 has been described above. As described above, the motion vector calculation unit 104 of this embodiment is a two-stage process. First, a search is made for a block that is considered to be spatially closest, and then, a small deviation amount from the obtained block is estimated. In the above-described embodiment, the estimation is performed using the orthogonal transform coefficient in both the two stages. However, due to simplification and speeding up of the processing, the first-stage block search is performed without using the orthogonal transform coefficient. Alternatively, a method of estimating by comparing the pixel values within may be used.

【0084】次に、データ加工部106について図7を
用いて説明する。図7において、座標管理部701は、
動きベクトル演算部104から算出されたベクトルに従
って、対象フレームであるフレームHのブロックが、基
準フレームであるフレームGのどの位置に相当するかを
管理する。この座標管理部701からは、前述した式
(9)の評価関数が最小であったアドレスが出力され
る。
Next, the data processing section 106 will be described with reference to FIG. 7, a coordinate management unit 701 includes:
According to the vector calculated by the motion vector calculation unit 104, the position of the block of the frame H which is the target frame corresponds to the position of the frame G which is the reference frame. From the coordinate management unit 701, an address at which the evaluation function of Expression (9) is the smallest is output.

【0085】N×Nブロック化部702は、フレームH
の画像をN×N画素単位でブロック化する。この手段
は、前段の動きベクトル演算部104内部で使用したブ
ロック(注目ブロックと称する)の画素値情報を保持し
ていれば、改めてデータ加工部106内部で行う必要は
ない。
The N × N blocking unit 702 outputs the frame H
Is divided into blocks in units of N × N pixels. This means does not need to be performed inside the data processing unit 106 again as long as it holds the pixel value information of the block (referred to as the block of interest) used inside the motion vector calculation unit 104 in the preceding stage.

【0086】同様に、N×Nブロック化部703は、座
標管理部701から受けたアドレスに基づいて、フレー
ムGのN×N画素単位のブロック化を実行する。この手
段も前段の動きベクトル演算部104内部で作成、評価
したブロックのうち、評価関数が最小になったブロック
(誤差最小ブロックと称する)、及び誤差最小ブロック
の周辺に位置するブロック(周辺ブロックと称する)の
画素値情報を保持していれば、改めてデータ加工部10
6内部で行う必要はない。
Similarly, the N × N blocking unit 703 executes blocking of the frame G in units of N × N pixels based on the address received from the coordinate management unit 701. This means is also a block in which the evaluation function is minimized (referred to as a minimum error block) and a block located around the minimum error block (a peripheral block and a peripheral block) among the blocks created and evaluated in the motion vector calculation unit 104 in the preceding stage. ), The data processing unit 10 is renewed.
6 need not be performed internally.

【0087】いま、フレームH上の注目ブロックをブロ
ックA、フレームG上でブロックAに対する誤差最小ブ
ロックをブロックB’、また、ブロックB’を基準にし
て水平方向の左右1画素毎にずらしてブロック化した2
種のブロックのうち、評価関数が小さいと評価されたブ
ロックをブロックC、同様に、ブロックB’を基準にし
て垂直方向に上下1画素毎にずらしてブロック化した2
種のブロックのうち、評価関数が小さいと評価されたブ
ロックをブロックDとする。
Now, the block of interest on the frame H is shifted to the block A, the block having the minimum error with respect to the block A on the frame G is shifted to the block B ', and the block B' is shifted by one pixel on the left and right in the horizontal direction. 2
Among the blocks of the kind, the block evaluated as having a small evaluation function is divided into blocks by shifting vertically by one pixel in the vertical direction with reference to the block C and similarly to the block B ′.
A block evaluated as having a small evaluation function among the seed blocks is referred to as a block D.

【0088】また、ブロックCの原点のx座標、及び、
ブロックDの原点のy座標を原点とするブロックをブロ
ックEとする。ブロックEはブロックB’とは水平垂直
ともに1画素づつずれていることになる。
Further, the x coordinate of the origin of the block C, and
A block whose origin is the y coordinate of the origin of the block D is referred to as a block E. Block E is shifted from block B 'by one pixel both horizontally and vertically.

【0089】平均値算出部704は、注目ブロックであ
るブロックA内の画素値の平均値を算出する手段であ
る。ブロックAの原点座標を(a0,b0)とすると、
ブロックAの平均値TA を以下のように算出する。
The average value calculation unit 704 is means for calculating the average value of the pixel values in the block A which is the target block. If the origin coordinate of block A is (a0, b0),
The average value T A of the block A is calculated as follows.

【0090】[0090]

【数10】 (Equation 10)

【0091】平均値分離部705は、ブロックA内の各
画素から、算出した平均値TA を減算することにより分
離する手段である。分離後の値をgH (x,y)とする
と、以下の式(15)で算出される。 gH (x,y)=fH (x,y)−TA ・・・・(15)
The average value separating section 705 is a means for separating the pixels in the block A by subtracting the calculated average value TA from each pixel. If the value after separation is g H (x, y), it is calculated by the following equation (15). g H (x, y) = f H (x, y) -T A ···· (15)

【0092】一方、平均値算出部706は、フレームG
のブロックB’、C、D、Eの各ブロックの平均値を算
出する。ブロックB’の原点座標を(a’,b’)とす
ると、各ブロックの平均値TB ’、TC 、TD 、TE
それぞれ以下のように算出される。
On the other hand, the average value calculation unit
Of the blocks B ′, C, D, and E of FIG. 'The origin coordinates (a' block B, b ') When the mean value T B of each block', T C, T D, T E each of which is calculated as follows.

【0093】[0093]

【数11】 [Equation 11]

【0094】但し、c,dは図6のフローチャートの説
明で述べたように、水平方向に左右1画素毎ずらしてブ
ロック化した場合に、右方向にずらしたブロックがブロ
ックAとの類似性を示す評価関数結果が小さいと評価さ
れた場合にはc=1、逆に左方向にずらしたブロックが
評価関数結果が小さいと評価された場合にはc=−1、
同様に、垂直方向の比較で下方向の場合にはd=1、上
方向の場合にはd=−1である。
However, as described in the description of the flowchart in FIG. 6, c and d indicate the similarity of the block shifted rightward to the block A when the blocks are shifted left and right by one pixel. C = 1 when the evaluation function result shown is evaluated as being small, and c = −1 when the block shifted to the left is evaluated as having a small evaluation function result.
Similarly, in the vertical comparison, d = 1 in the downward direction and d = -1 in the upward direction.

【0095】また、ブロックB’、ブロックC、ブロッ
クD、ブロックEの4ブロックは、ブロックの重なりが
大きいため、4ブロックのうち、一つのブロックのみを
平均値算出して、残りの3ブロックの平均値に関して
は、算出したブロックの平均値から、ブロックの非重な
り画素のみを加減算して算出してもよい。
Further, since the blocks B ′, C, D, and E have a large block overlap, only one of the four blocks is averaged, and the remaining three blocks are averaged. The average value may be calculated by adding or subtracting only the non-overlapping pixels of the block from the calculated average value of the block.

【0096】次に、平均値置換部707においては、以
下の演算が行われる。 hH (x,y)=gH (x,y)+(1−Vx’)・(1−Vy’)・TB + Vx’・(1−Vy’)・TC +(1−Vx’)・Vy’・ TD +Vx’・Vy’・TE ・・・・(20)
Next, in the average value replacing section 707, the following calculation is performed. h H (x, y) = g H (x, y) + (1-Vx ') · (1-Vy') · T B + Vx '· (1-Vy') · T C + (1-Vx ') · Vy' · T D + Vx '· Vy' · T E (20)

【0097】ここで、Vx’、Vy’はブロックB’の
原点(a’,b’)から内挿点までの距離を示してい
る。即ち、前述した式(10)、式(11)により算出
したVx、Vyの座標が、所望の内挿点上に完全に合致
する場合は極めて少ない。実際には、算出したVx、V
yの値に基づいて、それに最も距離の近い内挿点V
x’、Vy’上に内挿することになる。
Here, Vx 'and Vy' indicate distances from the origin (a ', b') of the block B 'to the interpolation point. That is, there are very few cases where the coordinates of Vx and Vy calculated by the above-described equations (10) and (11) completely match the desired interpolation points. Actually, the calculated Vx, V
Based on the value of y, the closest interpolation point V
It will be interpolated on x 'and Vy'.

【0098】図8にVx、Vy、Vx’、Vy’の位置
関係の例を図示する。●印がフレームGの標本点、×印
が原点座標(a’,b’)から式(10)、式(11)
により算出したVx、Vyだけ離れた点、○印が解像度
を増加させるために、真に内挿すべき内挿点である。い
ま、c=1、及びd=1の場合、この内挿点の座標は、
(a’+Vx’、b’+Vy’)となる。この内挿点が
ブロックAの原点となり、配置点である。
FIG. 8 shows an example of the positional relationship between Vx, Vy, Vx ', and Vy'. A mark is a sample point of the frame G, and a cross is the formula (10) and formula (11) from the origin coordinates (a ', b').
The points separated by Vx and Vy calculated by and the circles are interpolation points to be truly interpolated in order to increase the resolution. Now, when c = 1 and d = 1, the coordinates of this interpolation point are
(A '+ Vx', b '+ Vy'). This interpolation point becomes the origin of block A and is the arrangement point.

【0099】式(20)は、ブロックAの平均値を、ブ
ロックB’、ブロックC、ブロックD、ブロックEの平
均値に置換していることを意味している。しかも、置換
する平均値は、ブロックAの内挿位置に依存して、4ブ
ロックの平均値の線形演算となっている。言い換える
と、ブロックAのDC成分を基準フレーム上のブロック
B’、ブロックC、ブロックD、ブロックEに適合する
ように変更して、ブロックAのAC成分のみを利用しよ
うとするものである。
Equation (20) means that the average value of block A is replaced with the average value of blocks B ′, C, D and E. Moreover, the average value to be replaced is a linear operation of the average value of four blocks depending on the interpolation position of block A. In other words, the DC component of block A is changed so as to conform to blocks B ′, C, D, and E on the reference frame, and only the AC component of block A is used.

【0100】以上、データ加工部106について述べた
が、本実施の形態においては、上述した例には限らな
い。ブロックB’、ブロックC、ブロックD、ブロック
Eの重なりが大きいため、算出するそれぞれの平均値は
大差がない場合も考えられる。その場合には、ブロック
B’の平均値TB ’のみをgH (x,y)に加算する簡
易的な方法も可能である。
Although the data processing section 106 has been described above, the present embodiment is not limited to the above-described example. Since the block B ', block C, block D, and block E have a large overlap, the calculated average values may not have much difference. In that case, a simple method of adding only the average value T B ′ of the block B ′ to g H (x, y) is also possible.

【0101】図9は、以上述べてきた、フレーム制御部
106を中心にして動きベクトル算出、配置までの処理
を含めた、特に3枚以上の複数フレームを使用した時の
繰り返し処理の動作手順を示すフローチャートである。
まず始めに、S901により、格納したmフレーム目か
ら(m+n)フレーム目までの(n+1)枚で、各フレ
ーム毎にエッジ強度を評価する。そしてS902で、そ
れらを相互比較する。
FIG. 9 shows the operation procedure of the repetition processing particularly when three or more frames are used, including the processing up to the motion vector calculation and arrangement centering on the frame control unit 106 described above. It is a flowchart shown.
First, in step S901, the edge strength is evaluated for each of the (n + 1) frames from the stored mth frame to the (m + n) th frame. Then, in S902, they are compared with each other.

【0102】続いて、S903で、最大のエッジ強度を
有する(m+p)フレーム目をフレームGとして設定す
る。これが基準フレームである。次にS904では、変
数s、及び変数qを0に初期化する。次にS905で、
変数sがpに等しいか否かを判断する。これは現在処理
しようとしているフレームが基準フレームなのか、否か
を判定することになる。
Subsequently, in step S903, the (m + p) th frame having the maximum edge strength is set as the frame G. This is the reference frame. Next, in step S904, the variables s and q are initialized to zero. Next, in S905,
It is determined whether the variable s is equal to p. This is to determine whether the frame currently being processed is a reference frame or not.

【0103】もし、いま処理するフレームsが基準フレ
ームでなければ、S906において、qが0に等しいか
否かを判定する。これは、現在処理している繰り返し回
数が1回目なのか否かを判定するものである。もし、q
が0に等しければ、S907で、フレームGを配置さ
せ、S908で、変数qをカウントアップする。もし、
S906で否と判定された場合には、処理が2回目以降
と判定され、既に基準フレームであるフレームGは配置
されているため、S907、S908はジャンプする。
If the frame s to be processed is not the reference frame, it is determined in step S906 whether or not q is equal to zero. This is to determine whether or not the number of repetitions currently being processed is the first time. If q
Is equal to 0, the frame G is arranged in S907, and the variable q is counted up in S908. if,
If NO is determined in S906, the process is determined to be the second or later, and since the frame G, which is the reference frame, has already been arranged, S907 and S908 jump.

【0104】続いて、S909では、フレームGと(m
+s)フレーム目(フレームHとする)との間で、動き
ベクトルを算出する。次に、S910で、フレームHを
データ加工した後に、S911で、配置を行う。S91
2で、変数sをカウントアップした後に、S913で、
繰り返し回数がn回になっているか否かを判断する。否
の場合は、まだ処理していないフレームが格納されてい
ると判断され、S905に戻り、他のフレームに対して
も同様の処理工程を繰り返す。格納した全てのフレーム
に対して配置が終了すると、1枚の画像情報に合成され
て処理は完了する。
Subsequently, in step S909, frames G and (m
+ S) A motion vector is calculated between the frame (the frame H). Next, after processing the data of the frame H in S910, the arrangement is performed in S911. S91
After counting up the variable s at 2, in S913,
It is determined whether or not the number of repetitions is n. If no, it is determined that a frame that has not been processed is stored, and the process returns to S905, and the same processing steps are repeated for other frames. When the arrangement is completed for all the stored frames, the frames are combined into one piece of image information, and the processing is completed.

【0105】以上、本実施の形態の一連の処理を説明し
てきたが、本発明の特徴は選択部102にある。そのた
め、動きベクトル演算部104、データ加工部106、
配置処理部107等の内容は限定しない。動きベクトル
演算は、直交変換を用いない方法でも当然可能である
し、対象フレームのデータも加工しないで、各対象フレ
ームの画素値を配置するだけの構成も考えられる。
The series of processing according to the present embodiment has been described above. The feature of the present invention resides in the selection unit 102. Therefore, the motion vector calculation unit 104, the data processing unit 106,
The contents of the arrangement processing unit 107 and the like are not limited. Naturally, the motion vector calculation can be performed by a method that does not use the orthogonal transformation, and a configuration in which the pixel values of each target frame are simply arranged without processing the data of the target frame is also conceivable.

【0106】また、式(7)のエッジ強度の評価関数は
これに限るものではない。式(7)の変形例として以下
の式(21)も考えられる。
Further, the evaluation function of the edge strength in the equation (7) is not limited to this. The following equation (21) is also conceivable as a modified example of equation (7).

【0107】[0107]

【数12】 (Equation 12)

【0108】この場合は、エッジ抽出フィルタ後の値
が、ある閾値以上になった画素数をカウントすることを
意味している。式(21)でも十分に画像全体のエッジ
の強度は把握できる。また、エッジ抽出フィルタも図3
に限るものではなく、よりノイズ耐性の強いフィルタを
用いてもよい。
In this case, it means that the number of pixels whose value after the edge extraction filter is equal to or larger than a certain threshold value is counted. Equation (21) can sufficiently grasp the edge strength of the entire image. The edge extraction filter is also shown in FIG.
However, the present invention is not limited to this, and a filter having higher noise resistance may be used.

【0109】また、エッジ強度の評価は、エッジ抽出フ
ィルタを用いない方式、例えば、直交変換の高周波成分
の変換係数を基に判定する方式も考えられる。その場合
には、どのフレームが高周波域の電力が大きいかを評価
し、最も電力が大きいと判断されたフレームを基準フレ
ームとして設定する。
In addition, a method that does not use an edge extraction filter for the evaluation of the edge strength, for example, a method that makes a determination based on a transform coefficient of a high-frequency component of orthogonal transform may be considered. In that case, which frame has the higher power in the high frequency range is evaluated, and the frame determined to have the highest power is set as the reference frame.

【0110】また、本実施の形態では、画像の特徴量に
エッジ情報を利用したが、これに限るものではなく、他
の画像の特徴量を用いて評価してもよい。
Further, in the present embodiment, the edge information is used for the feature amount of the image. However, the present invention is not limited to this, and the evaluation may be performed using the feature amount of another image.

【0111】図10は、本発明の第2の実施の形態によ
る動作手順を示すフローチャートである。本実施の形態
は、図1の選択部102による選択方法が異なっている
のみで、他の各部に関しては同一である。また、図10
のフローチャートは、mフレーム目から(m+n)フレ
ーム目までの(n+1)枚の画像情報を基に1枚の高解
像の静止画像を作成する例を示している。
FIG. 10 is a flowchart showing an operation procedure according to the second embodiment of the present invention. This embodiment is different from the first embodiment only in the selection method by the selection unit 102 in FIG. 1, and the other units are the same. FIG.
Is an example of creating one high-resolution still image based on (n + 1) image information from the m-th frame to the (m + n) -th frame.

【0112】S1001は除算工程を示し、nの値を2
で除算した場合の整数部分をpとして代入する。実際の
処理上では、ビットシフトで実現できる。続いて、S1
002で、(m+p)フレーム目を基準フレームである
フレームGとして設定する。次にS1003では、変数
s、及び変数qを0に初期化する。次にS1004で、
変数sがpに等しいか否かを判断する。これは現在処理
しようとしているフレームが基準フレームなのか、否か
を判定することになる。
S1001 shows a division step, in which the value of n is set to 2
Substitute the integer part obtained by division with p as p. In actual processing, it can be realized by a bit shift. Then, S1
In 002, the (m + p) th frame is set as a frame G which is a reference frame. Next, in S1003, the variables s and q are initialized to 0. Next, in S1004,
It is determined whether the variable s is equal to p. This is to determine whether the frame currently being processed is a reference frame or not.

【0113】もし、いま処理するフレームSが基準フレ
ームでないならば、S1005において、qが0か否か
を判定する。これは、いま処理する回数が1回目か否か
を判定するものである。qが0であるならば、S100
6で、フレームGを配置させ、S1007で、変数qを
カウントアップする。S1005で、否と判定された場
合は、処理が2回目以降と判定され、既に基準フレーム
であるフレームGは配置されているため、S1006、
S1007はジャンプされる。
If the frame S to be processed is not the reference frame, it is determined in step S1005 whether q is 0 or not. This is to determine whether the number of times of processing is the first time. If q is 0, S100
In 6, the frame G is arranged, and in S1007, the variable q is counted up. If it is determined to be NO in S1005, it is determined that the process is the second or later, and the frame G that is the reference frame has already been arranged.
S1007 is jumped.

【0114】続いて、S1008では、フレームGと
(m+s)フレーム目(フレームHとする)との間で、
動きベクトルを算出し、S1009で、フレームHをデ
ータ加工した後に、S1010で、配置する。S101
1で、変数sをカウントアップした後に、繰り返し回数
がn回になっているか否かを判断する。まだ、処理して
いないフレームが格納されている場合には、S1004
に戻り、他のフレームに対しても同様の処理工程を繰り
返す。
Subsequently, in step S1008, between the frame G and the (m + s) th frame (referred to as frame H),
After calculating a motion vector and processing the data of the frame H in S1009, it is arranged in S1010. S101
In step 1, after counting up the variable s, it is determined whether or not the number of repetitions is n. If a frame that has not been processed is stored, the process proceeds to S1004.
And the same processing steps are repeated for other frames.

【0115】格納した全てのフレームに対して配置が終
了すると、単一の画像として合成されて処理は完了す
る。以上のように、本実施の形態は、基準フレームの選
択を、入力されたフレーム順により決定するのが特徴で
ある。
When the arrangement is completed for all the stored frames, the images are combined as a single image, and the processing is completed. As described above, the present embodiment is characterized in that the selection of the reference frame is determined based on the input frame order.

【0116】図11は、5フレーム分格納した場合の基
準フレームの決定を示した図である。斜線で示したフレ
ームが基準フレームである。格納画像が5フレーム分の
場合、n=4になるので、2で除算することにより、p
=2となり、(m+2)フレーム目の中間フレームが基
準フレームとして設定される。この基準フレームを他の
4フレームとそれぞれ比較して処理することになる。
FIG. 11 is a diagram showing how a reference frame is determined when five frames are stored. The frame indicated by oblique lines is the reference frame. If the number of stored images is 5 frames, n = 4, so by dividing by 2, p
= 2, and the intermediate frame of the (m + 2) th frame is set as the reference frame. This reference frame is compared with each of the other four frames and processed.

【0117】もし、格納フレーム数が偶数の場合には、
nを2で除算した結果が非整数になるため、正しく中間
にはなり得ないが、中間前後のフレームを基準フレーム
に設定して構わない(但し、図10のフローチャートで
は、中間より前になる)。即ち、前述した図9のフロー
チャートの実施の形態では、基準フレームの選択を“画
像の特徴”に基づいて設定する方法であった。画像の特
徴量が、最も顕著に表せる評価関数としてエッジの強度
を評価した。確かに画像の特徴で選択すれば、画質的に
最適な画像を基準フレームとして設定できる可能性があ
る。
If the number of stored frames is even,
Since the result of dividing n by 2 is a non-integer, it cannot be correctly intermediate, but frames before and after the intermediate may be set as reference frames (however, in the flowchart of FIG. ). That is, in the embodiment of the flowchart of FIG. 9 described above, the method of setting the selection of the reference frame based on the “image feature” is used. The edge strength was evaluated as an evaluation function in which the feature amount of the image can be most remarkably expressed. Certainly, if the image is selected based on the characteristics of the image, there is a possibility that an image optimal in image quality can be set as the reference frame.

【0118】しかし、連続画像を扱うため、時間的には
必ずしも最適とは言えない。そこで、図10のフローチ
ャートの実施の形態では、“時間的な画像の相関性”を
重視して選択している。時間軸において中間の画像を用
いるということは、格納画像中の各フレームと比較した
場合に、画像の連続性を考えると、画像の相関性が最も
高い中心的な画像と仮定することができる。即ち、時間
的ずれが最小であるため、各フレームと基準画像との差
異が少なくて済む。
However, since continuous images are handled, it is not always optimal in terms of time. Therefore, in the embodiment of the flowchart of FIG. 10, the selection is made with emphasis on “temporal image correlation”. The use of an intermediate image on the time axis can be assumed to be a central image having the highest image correlation when considering the continuity of the image when compared with each frame in the stored image. That is, the difference between each frame and the reference image can be reduced because the time lag is minimal.

【0119】以上、本発明の実施の形態を説明したが、
図9及び図10の各フローチャートの折衷案も考えられ
る。即ち、画像の特徴量、及び時間軸上での位置を考慮
して新たな評価関数を作成し、基準フレームを決定する
ことも可能である。その場合には、例え時間軸上で最適
であるフレームが画質的に不鮮明であった場合でも、総
合的に最適な画像を選択することができる。
The embodiment of the present invention has been described above.
A compromise between the flowcharts of FIGS. 9 and 10 is also conceivable. That is, it is also possible to create a new evaluation function in consideration of the image feature amount and the position on the time axis, and determine the reference frame. In this case, even if the optimal frame on the time axis is unclear in image quality, it is possible to select an overall optimal image.

【0120】次に本発明の他の実施の形態としての記憶
媒体について説明する。本発明の目的は、ハードウェア
構成により達成することも可能であり、また、CPUと
メモリとで構成されるコンピュータシステムで達成する
こともできる。コンピュータシステムで構成する場合、
上記メモリは本発明による記憶媒体を構成する。即ち、
上述した各実施の形態において説明した動作を実行する
ための、ソフトウェアのプログラムコードを記憶した記
憶媒体をシステムや装置で用い、そのシステムや装置の
CPUが上記記憶媒体に格納されたプログラムコードを
読み出し、実行することにより、本発明の目的を達成す
ることができる。
Next, a storage medium according to another embodiment of the present invention will be described. The object of the present invention can be achieved by a hardware configuration, and can also be achieved by a computer system including a CPU and a memory. When configuring with a computer system,
The memory constitutes a storage medium according to the present invention. That is,
A storage medium storing software program codes for executing the operations described in each of the above-described embodiments is used in a system or an apparatus, and a CPU of the system or apparatus reads out the program code stored in the storage medium. , The object of the present invention can be achieved.

【0121】また、この記憶媒体としては、ROM、R
AM等の半導体メモリ、光ディスク、光磁気ディスク、
磁気媒体等を用いてよく、これらをCD−ROM、フロ
ッピィディスク、磁気媒体、磁気カード、不揮発性メモ
リカード等に構成して用いてよい。
The storage media include ROM, R
Semiconductor memory such as AM, optical disk, magneto-optical disk,
A magnetic medium or the like may be used, and these may be configured and used in a CD-ROM, a floppy disk, a magnetic medium, a magnetic card, a nonvolatile memory card, or the like.

【0122】従って、この記憶媒体を図1等に示したシ
ステムや装置以外の他のシステムや装置で用い、そのシ
ステムあるいはコンピュータがこの記憶媒体に格納され
たプログラムコードを読み出し、実行することによって
も、上記各実施の形態と同等の機能を実現できると共
に、同等の効果を得ることができ、本発明の目的を達成
することができる。
Therefore, the storage medium may be used in a system or apparatus other than the system or apparatus shown in FIG. 1 or the like, and the system or computer may read out and execute the program code stored in the storage medium. In addition, the same functions as those of the above embodiments can be realized, the same effects can be obtained, and the object of the present invention can be achieved.

【0123】また、コンピュータ上で稼働しているOS
等が処理の一部又は全部を行う場合、あるいは記憶媒体
から読み出されたプログラムコードが、コンピュータに
挿入された拡張機能ボードやコンピュータに接続された
拡張機能ユニットに備わるメモリに書き込まれた後、そ
のプログラムコードの指示に基づいて、上記拡張機能ボ
ードや拡張機能ユニットに備わるCPU等が処理の一部
又は全部を行う場合にも、上記各実施の形態と同等の機
能を実現できると共に、同等の効果を得ることができ、
本発明の目的を達成することができる。
An OS running on a computer
When performing part or all of the processing, or after the program code read from the storage medium is written to a memory provided in an extended function board or an extended function unit connected to the computer, Even when the CPU or the like provided in the above-mentioned extended function board or extended function unit performs a part or all of the processing based on the instruction of the program code, the same functions as those of the above embodiments can be realized and the same functions can be realized. Effect can be obtained,
The object of the present invention can be achieved.

【0124】[0124]

【発明の効果】以上説明したように、本発明によれば、
格納した複数フレームの中から各フレームとの比較の基
準となる単一の基準フレームを、画像の特徴量や時間的
な相関性を基に設定することにより、ベクトル算出時の
誤差の蓄積を生じず、不鮮明なフレームが存在していた
場合でも問題なく良好な合成を可能にする。
As described above, according to the present invention,
By setting a single reference frame from among the stored multiple frames as a reference for comparison with each frame based on the image feature amount and temporal correlation, accumulation of errors during vector calculation occurs. In addition, even if there is an unclear frame, good synthesis can be performed without any problem.

【0125】また、本発明によれば、従来提案されてい
た、1枚の低解像静止画からの高解像静止画作成の内
挿、補間技術に比べて格段に高画質化した画像情報を作
成することができる。
Further, according to the present invention, image information which has been significantly improved in image quality as compared with the conventionally proposed interpolation and interpolation techniques for creating a high-resolution still image from a single low-resolution still image. Can be created.

【0126】さらに、 本発明によれば、ビデオカメラ
で撮影した低解像静止画情報から1枚の高解像静止画情
報を容易に作成できるため、入出力の解像度の異なる機
種間通信や、拡大変倍して高画質な画像を出力するビデ
オカメラ、プリンタ等を提供することができる。
Further, according to the present invention, since one piece of high-resolution still image information can be easily created from low-resolution still image information captured by a video camera, communication between models having different input / output resolutions, It is possible to provide a video camera, a printer, and the like that output a high-quality image by enlarging and changing the magnification.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態による画像処理装置を示す
ブロック図である。
FIG. 1 is a block diagram showing an image processing apparatus according to an embodiment of the present invention.

【図2】図1の選択部を示すブロック図である。FIG. 2 is a block diagram illustrating a selection unit of FIG. 1;

【図3】エッジ抽出フィルタの例を示す構成図である。FIG. 3 is a configuration diagram illustrating an example of an edge extraction filter.

【図4】図1の動きベクトル演算部を示すブロック図で
ある。
FIG. 4 is a block diagram illustrating a motion vector calculator of FIG. 1;

【図5】動きベクトルを説明する構成図である。FIG. 5 is a configuration diagram illustrating a motion vector.

【図6】図4の変換係数評価部の動作手順を示すフロー
チャートである。
FIG. 6 is a flowchart illustrating an operation procedure of a transform coefficient evaluation unit in FIG. 4;

【図7】図1のデータ加工部を示すブロック図である。FIG. 7 is a block diagram showing a data processing unit of FIG. 1;

【図8】ブロック内の配置位置を説明する構成図であ
る。
FIG. 8 is a configuration diagram illustrating an arrangement position in a block.

【図9】本発明の第1の実施の形態による選択部を含め
た一連の処理を示すフローチャートである。
FIG. 9 is a flowchart illustrating a series of processes including a selection unit according to the first embodiment of the present invention.

【図10】本発明の第2の実施の形態による選択部を含
めた一連の処理を示すフローチャートである。
FIG. 10 is a flowchart illustrating a series of processes including a selection unit according to the second embodiment of the present invention.

【図11】基準フレームを説明する構成図である。FIG. 11 is a configuration diagram illustrating a reference frame.

【図12】従来の最近接内挿法を説明する構成図であ
る。
FIG. 12 is a configuration diagram illustrating a conventional nearest neighbor interpolation method.

【図13】従来の共1次内挿法を説明する構成図であ
る。
FIG. 13 is a configuration diagram illustrating a conventional bilinear interpolation method.

【図14】従来の3次畳み込み内挿法を説明する構成図
である。
FIG. 14 is a configuration diagram illustrating a conventional cubic convolution interpolation method.

【図15】従来の動きベクトル算出の比較フレームを説
明する構成図である。
FIG. 15 is a configuration diagram illustrating a comparative frame for calculating a conventional motion vector.

【符号の説明】[Explanation of symbols]

102 選択部 103 フレーム制御部 104 動きベクトル演算部 105、107 配置処理部 106 データ加工部 108 合成部 109 補間部 201〜204 エッジ抽出部 205〜208 エッジ強度評価部 209 最大エッジ強度決定部 102 selection unit 103 frame control unit 104 motion vector calculation unit 105, 107 placement processing unit 106 data processing unit 108 synthesis unit 109 interpolation unit 201-204 edge extraction unit 205-208 edge strength evaluation unit 209 maximum edge strength determination unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 mフレーム目から(m+n)フレーム目
までの連続した(n+1)枚分(m,nは任意の自然
数)の画像情報の中から第1の画像情報を選択する選択
手段と、 上記(n+1)枚の画像情報を配置して記憶するための
記憶手段と、 上記第1の画像情報以外のn枚の画像情報について、そ
れぞれ第1の画像情報に対する動きベクトルを演算する
演算手段と、 上記演算結果に基づいて、上記n+1枚の画像情報をそ
れぞれ配置する配置手段と、 上記配置後の(n+1)枚の画像を合成して一枚の画像
を形成する合成手段とを設けたことを特徴とする画像処
理装置。
1. A selecting means for selecting first image information from (n + 1) (m and n are arbitrary natural numbers) consecutive image information from an m-th frame to an (m + n) -th frame. Storage means for arranging and storing the (n + 1) pieces of image information; and calculating means for calculating a motion vector for the first image information for each of the n pieces of image information other than the first image information. A arranging means for arranging the (n + 1) image information based on the calculation result; and a synthesizing means for synthesizing the (n + 1) images after the arranging to form one image. An image processing apparatus characterized by the above-mentioned.
【請求項2】 上記選択手段は、上記(n+1)枚の画
像の特徴量をそれぞれ評価する評価手段を有し、その評
価結果に基づいて、(n+1)枚の中から1枚を選択す
ることを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the selecting unit includes an evaluating unit that evaluates a feature amount of each of the (n + 1) images, and selects one of the (n + 1) images based on the evaluation result. The image processing apparatus according to claim 1, wherein:
【請求項3】 上記特徴量は、画像のエッジ情報である
ことを特徴とする請求項2記載の画像処理装置。
3. The image processing apparatus according to claim 2, wherein the feature amount is edge information of an image.
【請求項4】 上記評価手段は、画像のエッジを抽出す
るフィルタ手段を有し、そのフィルタリング後のエッジ
抽出情報に基づいて評価することを特徴とする請求項2
記載の画像処理装置。
4. The apparatus according to claim 2, wherein said evaluation means has a filter means for extracting an edge of the image, and performs the evaluation based on the edge extraction information after the filtering.
The image processing apparatus according to any one of the preceding claims.
【請求項5】 上記選択手段は、上記(n+1)枚の画
像の入力順に基づいて選択することを特徴とする請求項
1記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the selection unit selects the image based on the input order of the (n + 1) images.
【請求項6】 上記選択手段は、上記入力順の中間時刻
に相当するフレームを選択することを特徴とする請求項
5記載の画像処理装置。
6. The image processing apparatus according to claim 5, wherein said selecting means selects a frame corresponding to an intermediate time in the input order.
【請求項7】 mフレーム目から(m+n)フレーム目
までの連続した(n+1)枚分(m,nは任意の自然
数)の画像情報の中から第1の画像情報を選択する選択
手順と、 上記第1の画像情報以外のn枚の画像情報について、そ
れぞれ第1の画像情報に対する動きベクトルを演算する
演算手順と、 上記演算結果に基づいて、上記n+1枚の画像情報をそ
れぞれ配置する配置手順と、 上記配置後の(n+1)枚の画像を合成して一枚の画像
を形成する合成手順とを設けたことを特徴とする画像処
理方法。
7. A selection procedure for selecting first image information from (n + 1) consecutive (m and n are arbitrary natural numbers) image information from the mth frame to the (m + n) th frame, An operation procedure for calculating a motion vector for the first image information for each of the n pieces of image information other than the first image information, and an arrangement procedure for arranging the (n + 1) image information based on the operation result And a combining procedure for combining the (n + 1) images after the arrangement to form one image.
【請求項8】 mフレーム目から(m+n)フレーム目
までの連続した(n+1)枚分(m,nは任意の自然
数)の画像情報の中から第1の画像情報を選択する選択
処理と、 上記第1の画像情報以外のn枚の画像情報について、そ
れぞれ第1の画像情報に対する動きベクトルを演算する
演算処理と、 上記演算結果に基づいて、上記n+1枚の画像情報をそ
れぞれ配置する配置処理と、 上記配置後の(n+1)枚の画像を合成して一枚の画像
を形成する合成処理とを実行するためのプログラムを記
憶したコンピュータ読み取り可能な記憶媒体。
8. A selection process for selecting first image information from (n + 1) (m and n are arbitrary natural numbers) continuous image information from the m-th frame to the (m + n) -th frame; An operation process of calculating a motion vector for the first image information for each of the n pieces of image information other than the first image information, and an arrangement process of arranging the (n + 1) image information based on the operation result And a computer-readable storage medium storing a program for performing a combining process of combining the (n + 1) images after the arrangement to form one image.
JP03957999A 1998-11-10 1999-02-18 Image processing apparatus, method, and computer-readable storage medium Expired - Lifetime JP4371457B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP03957999A JP4371457B2 (en) 1999-02-18 1999-02-18 Image processing apparatus, method, and computer-readable storage medium
US09/434,378 US6804419B1 (en) 1998-11-10 1999-11-08 Image processing method and apparatus
CA002289053A CA2289053C (en) 1998-11-10 1999-11-08 Image processing method and apparatus
AU58374/99A AU777493B2 (en) 1998-11-10 1999-11-09 Image processing method and apparatus
EP19990308897 EP1001374A3 (en) 1998-11-10 1999-11-09 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03957999A JP4371457B2 (en) 1999-02-18 1999-02-18 Image processing apparatus, method, and computer-readable storage medium

Publications (3)

Publication Number Publication Date
JP2000244851A true JP2000244851A (en) 2000-09-08
JP2000244851A5 JP2000244851A5 (en) 2006-04-06
JP4371457B2 JP4371457B2 (en) 2009-11-25

Family

ID=12557008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03957999A Expired - Lifetime JP4371457B2 (en) 1998-11-10 1999-02-18 Image processing apparatus, method, and computer-readable storage medium

Country Status (1)

Country Link
JP (1) JP4371457B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004093011A1 (en) * 2003-04-17 2004-10-28 Seiko Epson Corporation Generation of still image from a plurality of frame images
JP2005252426A (en) * 2004-03-02 2005-09-15 Seiko Epson Corp Generation of image file including image quality adjustment restriction information for image data
JP2005246662A (en) * 2004-03-02 2005-09-15 Seiko Epson Corp Generation of image data suitable for output devices used for image output
WO2005122083A1 (en) * 2004-06-10 2005-12-22 Olympus Corporation Image pickup apparatus, and method for enhancing resolution of images
WO2006052029A1 (en) * 2004-11-15 2006-05-18 Olympus Corporation Imaging device and image resolution increase method
JP2006270238A (en) * 2005-03-22 2006-10-05 Nikon Corp Image processing apparatus, electronic camera, and image processing program
JP2006270523A (en) * 2005-03-24 2006-10-05 Casio Comput Co Ltd Image composition apparatus and image composition processing program
WO2007074605A1 (en) * 2005-12-26 2007-07-05 Nikon Corporation Image processing method, image processing program, image processing device, and imaging device
JP2007209760A (en) * 2006-02-10 2007-08-23 Siemens Ag Method for operating an X-ray diagnostic apparatus for high resolution image generation
JP2008078945A (en) * 2006-09-20 2008-04-03 Fujitsu Ltd Image pickup apparatus with camera shake correction function, camera shake correction method, and camera shake correction processing program
US7409106B2 (en) * 2003-01-23 2008-08-05 Seiko Epson Corporation Image generating device, image generating method, and image generating program
JP2009505297A (en) * 2005-08-18 2009-02-05 メンタル イメージズ ゲーエムベーハー Image composition method and system
WO2009098877A1 (en) * 2008-02-06 2009-08-13 Panasonic Corporation Image processing device and image processing method
JP2009205283A (en) * 2008-02-26 2009-09-10 Olympus Corp Image processing apparatus, method and program
US7702184B2 (en) 2003-09-30 2010-04-20 Seiko Epson Corporation Generation of high-resolution image based on multiple low-resolution images
US7738731B2 (en) 2003-11-11 2010-06-15 Seiko Epson Corporation Image processing device, image processing method, program thereof, and recording medium
US7778493B2 (en) 2003-10-09 2010-08-17 The Henry M. Jackson Foundation For The Advancement Of Military Medicine Inc. Pixelation reconstruction for image resolution and image data transmission
JP2010221710A (en) * 2010-04-05 2010-10-07 Seiko Epson Corp Generation of image data suitable for output device used in outputting image
JP2010239440A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image composition apparatus and program
JP2010252312A (en) * 2009-04-17 2010-11-04 Sony Corp In-camera generation of high-quality composite panoramic images
US8078008B2 (en) 2007-01-16 2011-12-13 Seiko Epson Corporation Device, method and program for processing image
JP5012805B2 (en) * 2006-09-14 2012-08-29 株式会社ニコン Image processing apparatus, electronic camera, and image processing program
JP2014202751A (en) * 2013-04-05 2014-10-27 株式会社ミツトヨ System and method for obtaining image with offset utilized for enhanced edge resolution
US10853954B1 (en) 2019-05-16 2020-12-01 Morpho, Inc. Image processing apparatus, image processing method and storage media
CN112308771A (en) * 2019-07-31 2021-02-02 维沃移动通信有限公司 Image processing method and device and electronic equipment

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7409106B2 (en) * 2003-01-23 2008-08-05 Seiko Epson Corporation Image generating device, image generating method, and image generating program
US7672538B2 (en) 2003-04-17 2010-03-02 Seiko Epson Corporation Generation of still image from a plurality of frame images
WO2004093011A1 (en) * 2003-04-17 2004-10-28 Seiko Epson Corporation Generation of still image from a plurality of frame images
US7702184B2 (en) 2003-09-30 2010-04-20 Seiko Epson Corporation Generation of high-resolution image based on multiple low-resolution images
US7953297B2 (en) 2003-09-30 2011-05-31 Seiko Epson Corporation Generation of high-resolution images based on multiple low-resolution images
US7778493B2 (en) 2003-10-09 2010-08-17 The Henry M. Jackson Foundation For The Advancement Of Military Medicine Inc. Pixelation reconstruction for image resolution and image data transmission
US7961985B2 (en) 2003-11-11 2011-06-14 Seiko Epson Coporation Image processing apparatus, image processing method, and program product thereof
US7738731B2 (en) 2003-11-11 2010-06-15 Seiko Epson Corporation Image processing device, image processing method, program thereof, and recording medium
JP2005246662A (en) * 2004-03-02 2005-09-15 Seiko Epson Corp Generation of image data suitable for output devices used for image output
US7483051B2 (en) 2004-03-02 2009-01-27 Seiko Epson Corporation Image data generation suited for output device used in image output
JP2005252426A (en) * 2004-03-02 2005-09-15 Seiko Epson Corp Generation of image file including image quality adjustment restriction information for image data
WO2005122083A1 (en) * 2004-06-10 2005-12-22 Olympus Corporation Image pickup apparatus, and method for enhancing resolution of images
US7990428B2 (en) 2004-11-15 2011-08-02 Olympus Corporation Imaging device and high-resolution processing method of image
WO2006052029A1 (en) * 2004-11-15 2006-05-18 Olympus Corporation Imaging device and image resolution increase method
JP2006270238A (en) * 2005-03-22 2006-10-05 Nikon Corp Image processing apparatus, electronic camera, and image processing program
JP2006270523A (en) * 2005-03-24 2006-10-05 Casio Comput Co Ltd Image composition apparatus and image composition processing program
JP2009505297A (en) * 2005-08-18 2009-02-05 メンタル イメージズ ゲーエムベーハー Image composition method and system
JP4749470B2 (en) * 2005-08-18 2011-08-17 メンタル イメージズ ゲーエムベーハー Image composition method, computer graphic system, and computer program
US8482619B2 (en) 2005-12-26 2013-07-09 Nikon Corporation Image processing method, image processing program, image processing device, and imaging device for image stabilization
JPWO2007074605A1 (en) * 2005-12-26 2009-06-04 株式会社ニコン Image processing method, image processing program, image processing apparatus, and imaging apparatus
WO2007074605A1 (en) * 2005-12-26 2007-07-05 Nikon Corporation Image processing method, image processing program, image processing device, and imaging device
JP2007209760A (en) * 2006-02-10 2007-08-23 Siemens Ag Method for operating an X-ray diagnostic apparatus for high resolution image generation
JP5012805B2 (en) * 2006-09-14 2012-08-29 株式会社ニコン Image processing apparatus, electronic camera, and image processing program
JP2008078945A (en) * 2006-09-20 2008-04-03 Fujitsu Ltd Image pickup apparatus with camera shake correction function, camera shake correction method, and camera shake correction processing program
US8078008B2 (en) 2007-01-16 2011-12-13 Seiko Epson Corporation Device, method and program for processing image
US8340465B2 (en) 2007-01-16 2012-12-25 Seiko Epson Corporation Device, method and program for processing image
US8264565B2 (en) 2008-02-06 2012-09-11 Panasonic Corporation Image processing device and image processing method
WO2009098877A1 (en) * 2008-02-06 2009-08-13 Panasonic Corporation Image processing device and image processing method
JP2009205283A (en) * 2008-02-26 2009-09-10 Olympus Corp Image processing apparatus, method and program
JP2010239440A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image composition apparatus and program
JP2010252312A (en) * 2009-04-17 2010-11-04 Sony Corp In-camera generation of high-quality composite panoramic images
JP2010221710A (en) * 2010-04-05 2010-10-07 Seiko Epson Corp Generation of image data suitable for output device used in outputting image
JP2014202751A (en) * 2013-04-05 2014-10-27 株式会社ミツトヨ System and method for obtaining image with offset utilized for enhanced edge resolution
US10853954B1 (en) 2019-05-16 2020-12-01 Morpho, Inc. Image processing apparatus, image processing method and storage media
CN112308771A (en) * 2019-07-31 2021-02-02 维沃移动通信有限公司 Image processing method and device and electronic equipment
CN112308771B (en) * 2019-07-31 2024-08-16 维沃移动通信有限公司 Image processing method and device and electronic equipment

Also Published As

Publication number Publication date
JP4371457B2 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
JP4371457B2 (en) Image processing apparatus, method, and computer-readable storage medium
US6804419B1 (en) Image processing method and apparatus
US9258518B2 (en) Method and apparatus for performing super-resolution
JP5385969B2 (en) Method and apparatus for super-resolution of images
JP2003018398A (en) Method for generating a super-resolution image from pixel image
JPH10285602A (en) Dynamic sprite for encoding video data
CN101727663A (en) Method and system for image deblurring
WO2005122083A1 (en) Image pickup apparatus, and method for enhancing resolution of images
JP4362895B2 (en) Data processing apparatus, data processing method, and recording medium
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP4250237B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP4095204B2 (en) Image processing apparatus, method, and computer-readable storage medium
WO2011074121A1 (en) Device and method for detecting motion vector
JP2000194845A (en) Image processing apparatus and method, and image processing system
JP5410232B2 (en) Image restoration device, program thereof, and multidimensional image restoration device
JP4423537B2 (en) Signal processing apparatus, signal processing method, program, and recording medium
JP3513277B2 (en) Video encoding device and video decoding device
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
JP3669522B2 (en) Signal conversion device, signal conversion method, coefficient learning device, and coefficient learning method
JP2014027405A (en) Frame interpolation apparatus and program
KR101428531B1 (en) A Multi-Frame-Based Super Resolution Method by Using Motion Vector Normalization and Edge Pattern Analysis
JP3972625B2 (en) Image processing apparatus and image processing method
JP2012175289A (en) Image processing apparatus and method for controlling the same
JP2025071579A (en) Image processing device and learning method for image processing device
JP4104056B2 (en) Image processing method, apparatus, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070928

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090407

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090706

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090901

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

EXPY Cancellation because of completion of term