[go: up one dir, main page]

JP2019021990A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2019021990A
JP2019021990A JP2017136363A JP2017136363A JP2019021990A JP 2019021990 A JP2019021990 A JP 2019021990A JP 2017136363 A JP2017136363 A JP 2017136363A JP 2017136363 A JP2017136363 A JP 2017136363A JP 2019021990 A JP2019021990 A JP 2019021990A
Authority
JP
Japan
Prior art keywords
area
tracking destination
feature point
feature points
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017136363A
Other languages
Japanese (ja)
Inventor
貴幸 原
Takayuki Hara
貴幸 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017136363A priority Critical patent/JP2019021990A/en
Publication of JP2019021990A publication Critical patent/JP2019021990A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To suppress deterioration of a vector detection accuracy when a feature point of a tracking destination is distributed in an image.SOLUTION: A region division part (103) divides an image of a frame into a plurality of regions. A feature point extraction part (104) extracts a feature point of the image in each region obtained by dividing the plurality of regions. A vector detection part (105) detects a motion vector on the basis of the feature point. A region separation part (106) separates the plurality of regions divided into at least two region separations. A tracking destination feature point calculation part (107) calculates a tracking destination feature point used for the motion vector detection of the next frame on the basis of a value of the motion vector detected by the frame and the feature point. A reconstruction part (108) evenly reconstructs a position of the tracking destination feature point in a region separation including distribution at the position of the tracking destination feature point, when there is the distribution at the position of a tracking destination feature point A in the region separation.SELECTED DRAWING: Figure 1

Description

本発明は、画像内の動きを検出する画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for detecting motion in an image.

デジタルスチルカメラやデジタルビデオカメラ等の撮像装置を用いて撮影された映像に対して手ぶれ補正を施すためには、フレーム画像間の動き量を検出して複数枚の画像に対して位置合わせを行う必要がある。フレーム画像間の動き量を検出する方法としては、ジャイロセンサのような外部機器の情報を用いたり、撮影されたフレーム画像から動き量を推定したりする方法等がある。   In order to perform camera shake correction on video shot using an imaging device such as a digital still camera or a digital video camera, the amount of motion between frame images is detected and alignment is performed on a plurality of images. There is a need. As a method for detecting the amount of motion between frame images, there are a method of using information of an external device such as a gyro sensor, a method of estimating the amount of motion from a captured frame image, and the like.

フレーム画像を用いた動き量推定の方法は従来から種々提案されているが、その代表的なものとしてテンプレートマッチングによる動きベクトル検出がある。テンプレートマッチングでは、まず映像中の連続した2枚のフレーム画像の一方を原画像、もう一方を参照画像とする。そして、原画像上に配置した所定の大きさの矩形領域をテンプレートブロックとし、参照画像の各位置においてテンプレートブロック内の画素値の分布との相関を求める。このとき、参照画像中で最も相関が高くなる位置がテンプレートブロックの移動先であり、原画像上でのテンプレートブロックの位置を基準とした時の移動先への向きと移動量が動きベクトルとなる。   Various methods for estimating the amount of motion using a frame image have been proposed in the past. A typical example is motion vector detection by template matching. In template matching, first, one of two consecutive frame images in a video is used as an original image, and the other is used as a reference image. Then, a rectangular area having a predetermined size arranged on the original image is used as a template block, and a correlation with a distribution of pixel values in the template block is obtained at each position of the reference image. At this time, the position where the correlation is highest in the reference image is the destination of the template block, and the direction and amount of movement to the destination when the position of the template block on the original image is used as a reference is the motion vector. .

動きベクトルの検出率を向上させるため、特徴点を抽出し、抽出した特徴点にテンプレートブロックを配置して、フレーム画像間でテンプレートマッチングを行う技術がある。ここで、画像全体で特徴点抽出を行うと、特徴点の分布は不均一になることが多い。分布が不均一な特徴点に対して得られた動きベクトルを手ぶれ補正の用途で使用する場合、特徴点の集中した領域が主となる手ぶれ補正となってしまう。   In order to improve the detection rate of motion vectors, there is a technique for extracting feature points, placing template blocks at the extracted feature points, and performing template matching between frame images. Here, if feature points are extracted from the entire image, the distribution of feature points is often non-uniform. When a motion vector obtained for feature points having a non-uniform distribution is used for the purpose of camera shake correction, a region where the feature points are concentrated is the main camera shake correction.

そこで、特徴点を均一に分布させるため、画像をグリッド状に分割して、特徴の大きさを表す特徴値を画素毎に計算し、各グリッド内で特徴値が最も大きい画素を特徴点として抽出する技術がある(例えば特許文献1)。
さらに動きベクトルの検出率を向上させるため、特徴点を追跡する技術がある。特徴点追跡は、画像から抽出された特徴点の動きベクトルを、連続する複数のフレーム画像に渡って逐次検出することで実現できる(例えば特許文献2)。
Therefore, in order to distribute the feature points uniformly, the image is divided into grids, feature values representing the feature size are calculated for each pixel, and the pixel with the largest feature value in each grid is extracted as the feature point. There is a technique (for example, Patent Document 1).
Furthermore, there is a technique for tracking feature points in order to improve the detection rate of motion vectors. Feature point tracking can be realized by sequentially detecting motion vectors of feature points extracted from an image over a plurality of continuous frame images (for example, Patent Document 2).

特開2008−192060号公報JP 2008-192060 A 特開2012−94050号公報JP 2012-94050 A

ところで、前述したように特徴点の追跡処理が行われる場合、追跡先の特徴点が、画像内の一部の領域に偏在してしまうことがある。このように追跡先の特徴点が一部の領域に偏在すると、動きベクトル検出性能の低下してしまうことになる。   By the way, when the feature point tracking process is performed as described above, the feature point of the tracking destination may be unevenly distributed in a part of the region in the image. Thus, if the feature points of the tracking destination are unevenly distributed in a part of the region, the motion vector detection performance is deteriorated.

そこで、本発明は、追跡先の特徴点が画像内で偏在した場合に、ベクトル検出精度の低下を抑えることを目的とする。   Accordingly, an object of the present invention is to suppress a decrease in vector detection accuracy when feature points of tracking destinations are unevenly distributed in an image.

本発明は、フレームの画像を複数の領域に分割する分割手段と、前記複数に分割された各領域内で画像の特徴点を抽出する抽出手段と、前記特徴点を基に動きベクトルを検出する検出手段と、前記分割された複数の領域を、少なくとも二つの領域区分に区分けする区分手段と、前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出手段と、前記領域区分のなかで前記追跡先特徴点の位置に偏りがある場合、前記追跡先特徴点の位置に偏りがある前記領域区分のなかで前記追跡先特徴点の位置を均等に再設定する再設定手段と、を有することを特徴とする。   The present invention relates to a dividing unit that divides a frame image into a plurality of regions, an extracting unit that extracts image feature points in each of the divided regions, and a motion vector is detected based on the feature points. Based on the detection means, the dividing means for dividing the divided plurality of areas into at least two area sections, and the motion vector values and feature points detected from the previous frame, the motion vector of the next frame A calculation means for calculating a tracking destination feature point used for detection; and if the position of the tracking destination feature point is biased in the area section, the position of the tracking destination feature point is biased in the area section And a resetting means for resetting the positions of the tracking destination feature points evenly.

本発明によれば、追跡先の特徴点が画像内で偏在した場合に、ベクトル検出精度の低下を抑えることが可能となる。   According to the present invention, it is possible to suppress a decrease in vector detection accuracy when the feature points of the tracking destination are unevenly distributed in the image.

実施形態の画像処理装置の概略構成例を示す図である。1 is a diagram illustrating a schematic configuration example of an image processing apparatus according to an embodiment. 特徴点と追跡先特徴点と動きベクトルの説明に用いる図である。It is a figure used for description of a feature point, a tracking destination feature point, and a motion vector. テンプレートマッチング処理タイミングの説明図である。It is explanatory drawing of a template matching process timing. 動きベクトル(追跡先特徴点)の偏りを説明する図である。It is a figure explaining the bias of a motion vector (tracking destination feature point). 被写体領域区分と背景領域区分の説明図である。It is explanatory drawing of a subject area | region division and a background area | region division. 被写体領域区分を複数の計数領域に分けた図である。FIG. 6 is a diagram in which a subject area section is divided into a plurality of counting areas. 偏った追跡先特徴点を均等に再設定した例の説明図である。It is explanatory drawing of the example which reset the biased tracking destination feature point equally. 追跡先特徴点の削除手法の説明図である。It is explanatory drawing of the deletion method of a tracking destination feature point. 領域区分で処理を分けた画像処理装置の概略構成例を示す図である。It is a figure which shows the example of schematic structure of the image processing apparatus which divided the process by area | region division. 領域区分で処理を分けた構成例の領域区分の一例を示す図である。It is a figure which shows an example of the area division of the structural example which divided the process by area division. 追跡先特徴点が偏った場合の処理タイミング遅延例の説明図である。It is explanatory drawing of the example of a processing timing delay when a tracking destination feature point is biased. 領域区分と指定区域の説明に用いる図である。It is a figure used for description of an area division and a designated area.

以下、添付図面を参照して本発明の好適な実施形態について説明する。
<第1の実施形態>
図1は第1の実施形態の画像処理装置の一適用例としてのデジタルカメラの概略構成例を示す図である。なお、本実施形態の画像処理装置は、デジタルカメラの他にも、例えばデジタルビデオカメラ、カメラ機能を備えたスマートフォンやタブレット端末等の各種携帯端末、工業用カメラ、車載カメラ、医療用カメラ等の各種撮像装置にも適用可能である。
図1に示した本実施形態の画像処理装置は、撮像素子部101、メモリ102、領域分割部103、特徴点抽出部104、ベクトル検出部105、領域区分部106、追跡先特徴点算出部107、再設定部108を有して構成されている。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.
<First Embodiment>
FIG. 1 is a diagram illustrating a schematic configuration example of a digital camera as an application example of the image processing apparatus according to the first embodiment. In addition to the digital camera, the image processing apparatus of the present embodiment includes, for example, a digital video camera, various portable terminals such as a smartphone and a tablet terminal having a camera function, an industrial camera, an in-vehicle camera, a medical camera, and the like. The present invention can also be applied to various imaging devices.
The image processing apparatus according to the present embodiment illustrated in FIG. 1 includes an image sensor unit 101, a memory 102, a region dividing unit 103, a feature point extracting unit 104, a vector detecting unit 105, a region segmenting unit 106, and a tracking destination feature point calculating unit 107. The resetting unit 108 is configured.

撮像素子部101は、不図示のレンズや絞り等の光学系を通して得られる被写体像を光電変換し、さらにデジタル画像データに変換していわゆるラスタスキャン順に出力する。本実施形態の場合、撮像素子部101は、光電変換、デジタル画像データへの変換、その画像データの出力を、一定時間周期で繰り返し行うことで、動画のフレーム毎の画像データを出力する。
メモリ102は、撮像素子部101から入力された動画の各フレームの画像データを記憶・保持する。メモリ102は、少なくとも、現在のフレームの画像データと、一つ前のフレーム画像データとを、記憶する。
The image sensor unit 101 photoelectrically converts a subject image obtained through an optical system (not shown) such as a lens and a diaphragm, converts the image into digital image data, and outputs the digital image data in a so-called raster scan order. In the case of this embodiment, the image sensor unit 101 outputs image data for each frame of a moving image by repeatedly performing photoelectric conversion, conversion into digital image data, and output of the image data at a constant time period.
The memory 102 stores and holds image data of each frame of the moving image input from the image sensor unit 101. The memory 102 stores at least the image data of the current frame and the previous frame image data.

領域分割部103は、メモリ102から読み出されたフレーム毎の画像を、複数の領域に分割する。なお、領域分割部103は、フレームの画像が入力されたタイミングで、そのフレームの画像を複数の領域に分割する。領域分割部103における領域分割処理の詳細は後述する。
特徴点抽出部104は、領域分割部103により分割された各分割領域につき一つの特徴点を求める。分割領域毎に抽出される特徴点の詳細は後述する。
ベクトル検出部105は、分割領域毎に抽出された特徴点を基に、動きベクトルを検出する。特徴点に基づく動きベクトル検出の詳細は後述する。
The area dividing unit 103 divides the image for each frame read from the memory 102 into a plurality of areas. The area dividing unit 103 divides the frame image into a plurality of areas at the timing when the frame image is input. Details of the area dividing process in the area dividing unit 103 will be described later.
The feature point extraction unit 104 obtains one feature point for each divided region divided by the region dividing unit 103. Details of the feature points extracted for each divided region will be described later.
The vector detection unit 105 detects a motion vector based on the feature points extracted for each divided region. Details of motion vector detection based on feature points will be described later.

以下、領域分割部103による領域分割、特徴点抽出部104による特徴点の抽出、ベクトル検出部105によるベクトル検出について詳細に説明する。
動きベクトル検出処理では、前述したテンプレートマッチングを用いた動きベクトル検出処理が知られている。動きベクトル検出処理の際には、ベクトル検出率を向上させるために、前述したように画像をグリッド状に分割して特徴点を抽出する処理、特徴点を追跡する処理等が行われる。
Hereinafter, the region division by the region division unit 103, the extraction of feature points by the feature point extraction unit 104, and the vector detection by the vector detection unit 105 will be described in detail.
In motion vector detection processing, motion vector detection processing using template matching described above is known. In the motion vector detection process, in order to improve the vector detection rate, as described above, a process of extracting feature points by dividing an image into a grid shape, a process of tracking feature points, and the like are performed.

図2(a)は、ベクトル検出処理の際の、グリッド配置と抽出される特徴点、テンプレートマッチング領域、抽出された特徴点を用いた追跡処理の概要説明に用いる図である。
図1の領域分割部103は、フレームの画像を複数の領域(グリッド)に分割する。各グリッドは、予め設定されたサイズの特徴抽出グリッド1010及び周辺グリッド1011(図2(a)中のドット模様が付されたグリッド)として、水平,垂直方向にそれぞれ設定された個数分配置される。なお、周辺グリッド1011は、各特徴抽出グリッド1010からなる特徴抽出グリッド群の周囲に配置される。周辺グリッド1011は、後段のベクトル検出部105のテンプレートマッチング処理には使用されるが、特徴点抽出部104における特徴点の抽出には使用されない。図2(b)については後述する第3の実施形態で説明する。
FIG. 2A is a diagram used for explaining the outline of the tracking process using the grid arrangement, the extracted feature points, the template matching region, and the extracted feature points in the vector detection process.
The area dividing unit 103 in FIG. 1 divides a frame image into a plurality of areas (grids). Each of the grids is arranged in the number set in the horizontal and vertical directions as a feature extraction grid 1010 and a peripheral grid 1011 (a grid with a dot pattern in FIG. 2A) having a preset size. . The peripheral grid 1011 is arranged around a feature extraction grid group including the feature extraction grids 1010. The peripheral grid 1011 is used for template matching processing of the vector detection unit 105 in the subsequent stage, but is not used for feature point extraction in the feature point extraction unit 104. FIG. 2B will be described in a third embodiment to be described later.

特徴点抽出部104は、特徴抽出グリッド1010毎に、特徴点1001を一つ抽出する。具体的には、特徴点抽出部104は、特徴抽出グリッド1010内で特徴量が最も大きいと判定された位置を、その特徴抽出グリッド1010の特徴点として抽出する。特徴量の求め方には様々な手法が存在し、一例として、特徴点抽出部104は、特徴抽出グリッド1010の画像にバンドパスフィルタ処理を施した結果に対し、着目点を中心としたn×n画素の値を積分した積分値を特徴量として求める。この例の場合、積分値が大きいほど特徴量が多いとみなされる。   The feature point extraction unit 104 extracts one feature point 1001 for each feature extraction grid 1010. Specifically, the feature point extraction unit 104 extracts the position where the feature amount is determined to be the largest in the feature extraction grid 1010 as the feature point of the feature extraction grid 1010. There are various methods for obtaining the feature amount. As an example, the feature point extraction unit 104 performs an n × operation centered on the point of interest with respect to the result of performing the band pass filter process on the image of the feature extraction grid 1010. An integral value obtained by integrating the values of n pixels is obtained as a feature amount. In the case of this example, it is considered that the larger the integral value, the larger the feature amount.

ベクトル検出部105は、動画の時間軸上で隣接した二枚のフレーム画像の一方を原画像とし、他方を参照画像として、参照画像内の特徴点を中心とした矩形領域内の画素値と原画像の矩形領域内の画素値との間の相関値演算処理を行って動きベクトルを検出する。具体的には、ベクトル検出部105は、二枚目の画像が入力されたタイミングで、一枚目の画像上の特徴点に対応する点が、二枚目の画像上のどこに存在するかを検出する。特徴点に基づくベクトル検出の場合、ベクトル検出部105は、一枚目の画像上の特徴点の位置から、2枚目の画像上の検出位置への移動量を、その特徴点に対応した動きベクトルとして検出する。ベクトル検出部105は、特徴点の数(つまり領域分割部103により分割された分割領域の数)だけ動きベクトルを検出して出力する。   The vector detection unit 105 uses one of two frame images adjacent on the time axis of the moving image as an original image and the other as a reference image, and the pixel value and the original in a rectangular area centering on a feature point in the reference image. A motion vector is detected by performing a correlation value calculation process with pixel values in a rectangular area of the image. Specifically, the vector detection unit 105 determines where the point corresponding to the feature point on the first image exists on the second image at the timing when the second image is input. To detect. In the case of vector detection based on a feature point, the vector detection unit 105 calculates a movement amount corresponding to the feature point from the position of the feature point on the first image to the detection position on the second image. Detect as a vector. The vector detection unit 105 detects and outputs motion vectors by the number of feature points (that is, the number of divided regions divided by the region dividing unit 103).

ここで、図2(a)の場合、テンプレートマッチング処理の際、現フレームの画像における特徴抽出グリッド1010内で、特徴点1001を中心として、予め決めたサイズの矩形状のサーチ領域1005及びテンプレート領域1003が設定される。そして、ベクトル検出部105は、これらサーチ領域1005とテンプレート領域1003を用いたテンプレートマッチング処理により、動きベクトルのベクトル値1004を算出する。なお、テンプレートマッチング処理の際のサーチ領域1005及びテンプレート領域1003は、撮像素子部101のセンサ出力におけるいわゆるラスタスキャン順に合わせて順に設定される。   In the case of FIG. 2A, a rectangular search area 1005 and a template area having a predetermined size centering on the feature point 1001 in the feature extraction grid 1010 in the image of the current frame in the template matching process. 1003 is set. Then, the vector detection unit 105 calculates a vector value 1004 of the motion vector by a template matching process using the search area 1005 and the template area 1003. Note that the search area 1005 and the template area 1003 in the template matching process are sequentially set in accordance with the so-called raster scan order in the sensor output of the image sensor unit 101.

また、ベクトル検出部105では、次のフレームの処理の際には、前フレームにおいて後述する追跡先特徴点算出部107にて算出された追跡先特徴点1002を中心としたテンプレートマッチング処理が行われる。そして、追跡先特徴点1002は、前フレームで算出されたベクトル値1004を特徴点1001に加算することにより算出されている。したがって、複数のフレームにわたって順番に前述同様の処理が行われ、各フレームで順に算出された追跡先特徴点に対してベクトル値が順に加算されることにより、特徴点の追跡が実現される。   Further, in the processing of the next frame, the vector detection unit 105 performs template matching processing centering on the tracking destination feature point 1002 calculated by the tracking destination feature point calculation unit 107 described later in the previous frame. . The tracking destination feature point 1002 is calculated by adding the vector value 1004 calculated in the previous frame to the feature point 1001. Accordingly, processing similar to that described above is performed in order over a plurality of frames, and vector values are sequentially added to the tracking destination feature points calculated sequentially in each frame, thereby realizing feature point tracking.

図3(a)は、撮像素子部101の画像出力(以下、センサ出力とする。)からテンプレートマッチング処理の終了までのタイミングチャートである。また、図3(b)は、図2(a)と同様の特徴抽出グリッド1010、周辺グリッド1011、サーチ領域1005、テンプレート領域1003、追跡先特徴点1002を表した図である。また、図3(b)には、いわゆるラスタスキャン1020を表す矢印と、テンプレートマッチング処理を開始できる最初(一番初め)のテンプレート位置1101も示されている。図3(a)において、撮像素子部101の画像出力(センサ出力)は1フレームの垂直同期信号VDのパルス間隔の周期内(フレーム周期)で行われ、そのセンサ出力の画像データを基にテンプレートマッチング用画像が生成される。テンプレートマッチング用画像の生成は、ラスタスキャン順のセンサ出力に合わせて開始され、画像生成処理に要する時間分だけ遅延したタイミングで完了する。テンプレートマッチング処理はテンプレートマッチング用画像を用いて行われ、図3(a)中の期間T1〜T8の各期間は、それぞれが追跡先特徴点に対応したテンプレートマッチングの処理に要する時間を表している。なお、テンプレートマッチング処理に要する時間は、テンプレート領域の大きさ(サイズ)に応じて増減する。   FIG. 3A is a timing chart from the image output of the image sensor unit 101 (hereinafter referred to as sensor output) to the end of the template matching process. FIG. 3B illustrates a feature extraction grid 1010, a peripheral grid 1011, a search area 1005, a template area 1003, and a tracking destination feature point 1002 similar to those in FIG. FIG. 3B also shows an arrow representing a so-called raster scan 1020 and the first (first) template position 1101 at which template matching processing can be started. In FIG. 3A, image output (sensor output) of the image sensor unit 101 is performed within a period (frame period) of a pulse interval of one frame of the vertical synchronization signal VD, and a template is based on the image data of the sensor output. A matching image is generated. Generation of the template matching image is started in accordance with the sensor output in the raster scan order, and is completed at a timing delayed by the time required for the image generation processing. The template matching process is performed using a template matching image. Each period T1 to T8 in FIG. 3A represents the time required for the template matching process corresponding to the tracking destination feature point. . Note that the time required for the template matching process increases or decreases according to the size (size) of the template area.

図3(b)の例では、特徴抽出グリッド1010として8個のみを図示し、それら各特徴抽出グリッド1010にそれぞれ1個の追跡先特徴点1002が得られている。このため、図3(a)には、それら8個の追跡先特徴点1002のそれぞれに対するテンプレートマッチング処理に要する時間として、8個の期間T1〜T8が表されている。また、1フレームの期間におけるテンプレートマッチング処理は、図3(b)に示すように、ラスタスキャン順で最初(一番目)となる追跡先特徴点1002に対して設定されたテンプレート位置1101から開始される。そして、テンプレートマッチング処理は、8個の追跡先特徴点1002にそれぞれ対応した各期間T1〜T8の全ての処理が終了した時点で完了する。   In the example of FIG. 3B, only eight feature extraction grids 1010 are illustrated, and one tracking destination feature point 1002 is obtained for each of the feature extraction grids 1010. Therefore, in FIG. 3A, eight periods T1 to T8 are shown as the time required for the template matching process for each of the eight tracking destination feature points 1002. Further, as shown in FIG. 3B, the template matching process in the period of one frame is started from the template position 1101 set for the tracking destination feature point 1002 that is first (first) in the raster scan order. The The template matching process is completed when all the processes in the periods T1 to T8 corresponding to the eight tracking destination feature points 1002 are completed.

ここで、本実施形態に係るデジタルカメラのように、撮影時の手ぶれ補正のために動きベクトルを用いる場合には、フレームの画像を例えば被写体領域区分と背景領域区分とに分けて、それぞれの領域区分毎に動きベクトルを検出する。このように、被写体領域区分と背景領域区分のそれぞれの動きベクトルを検出して、その動きベクトルを用いたぶれ補正処理を行うことにより、被写体のぶれを精度良く補正することが可能となる。   Here, as in the digital camera according to the present embodiment, when a motion vector is used for camera shake correction at the time of shooting, a frame image is divided into, for example, a subject area section and a background area section, and each area is divided. A motion vector is detected for each segment. As described above, by detecting the motion vectors of the subject region segment and the background region segment and performing the blur correction process using the motion vectors, it is possible to correct the blur of the subject with high accuracy.

一方、動きベクトルの検出時の特徴点追跡処理では、時間的に連続した各フレームの画像範囲内で、追跡先特徴点が徐々に移動して行くことになる。このため、例えば被写体の動きやカメラそのものの動きによっては、追跡先特徴点が、フレームの画像範囲内の例えば一部の領域に偏在してしまうようになることがある。そして、前述したように領域区分毎に動きベクトルを検出する場合において、このような追跡先特徴点の偏在が生ずると、例えば被写体のような対象となる領域区分内における動きの変化を正確に捉えられなくなることがある。   On the other hand, in the feature point tracking process at the time of detecting the motion vector, the tracking destination feature point gradually moves within the image range of each temporally continuous frame. For this reason, for example, depending on the movement of the subject or the movement of the camera itself, the tracking destination feature point may be unevenly distributed in, for example, a partial region within the image range of the frame. As described above, in the case of detecting a motion vector for each area segment, if the tracking point feature point is unevenly distributed, for example, a change in motion in the target area segment such as a subject is accurately captured. It may not be possible.

図4(a)〜図4(c)は、被写体領域区分内で追跡先特徴点に偏りが生じたことにより、動きの変化を正確に捉えられなくなるケースの一例を示す図である。図4(a)は第1フレームの画像内の被写体領域としての顔領域800を示し、図4(b)は次の第2フレームにおいて顔領域800の中で追跡先特徴点に基づく複数の動きベクトル801が検出された例を示している。図4(b)の例には、顔領域800が図4(a)の例から図中右回り方向(時計回り方向)に回転したことで、その右回り方向の回転に応じた複数の動きベクトル801が検出された例が示されている。   FIG. 4A to FIG. 4C are diagrams illustrating an example of a case in which a change in motion cannot be accurately captured due to bias in the tracking destination feature point within the subject region segment. FIG. 4A shows a face area 800 as a subject area in the image of the first frame, and FIG. 4B shows a plurality of movements based on tracking destination feature points in the face area 800 in the next second frame. An example in which a vector 801 is detected is shown. In the example of FIG. 4B, the face region 800 is rotated clockwise from the example of FIG. 4A in the clockwise direction (clockwise direction), so that a plurality of movements according to the clockwise rotation are performed. An example in which the vector 801 is detected is shown.

ところで、被写体の顔を撮影した際に、例えばカメラがパンニングされたことなどにより、追跡先特徴点が一部の領域に偏在した結果、図8(c)に示すように複数の動きベクトル802が一部の領域に密集して検出されてしまうことがある。図8(c)のように複数の動きベクトル802が一部の領域に密集して検出された場合、顔領域800が右回り方向に回転したのか、カメラがパンニングされたことで顔領域800が左方向へ平行移動したのかを区別するのが難しい。このように、追跡先特徴点が一部の領域に偏在して動きベクトルが一部の領域に密集して検出されると、画像の正確な動きの変化を捉えることができず、ベクトル検出精度が低下してしまうことになる。そして、このような低い精度の動きベクトルを撮影時の手ぶれ補正に使用すると、カメラの手ぶれ補正性能も低下してしまうことになる。   By the way, when the face of the subject is photographed, the tracking destination feature points are unevenly distributed in a part of the region due to, for example, panning of the camera. As a result, a plurality of motion vectors 802 are obtained as shown in FIG. It may be detected densely in some areas. When a plurality of motion vectors 802 are densely detected in a part of the area as shown in FIG. 8C, whether the face area 800 has been rotated clockwise or the face area 800 has been panned. It is difficult to distinguish whether it has moved in the left direction. In this way, if the tracking destination feature points are unevenly distributed in some areas and motion vectors are detected densely in some areas, it is impossible to capture the change in the exact motion of the image, and the vector detection accuracy Will fall. If such a low-precision motion vector is used for camera shake correction at the time of shooting, the camera shake correction performance of the camera also deteriorates.

そこで、第1の実施形態の画像処理装置は、フレームの画像に対して第1の領域区分と第2の領域区分の少なくとも二つの区分を設定し、特徴抽出グリッド毎に検出された動きベクトルの情報を基に追跡先特徴点が何れの領域区分に属するかを判定する。さらに、第1の実施形態の画像処理装置は、領域区分毎に追跡先特徴点の位置の偏りを判定し、偏りが所定の閾値より大きいと判定された場合には、同一領域区分内で略々均等になるように追跡先特徴点を再設定(再配置)する。
第1の実施形態の画像処理装置は、領域区分の区分け、追跡先特徴点の属する領域区分の判定及び偏りの判定、その判定結果に応じた追跡先特徴点の再設定のための構成として、領域区分部106、追跡先特徴点算出部107、再設定部108を有している。
Therefore, the image processing apparatus according to the first embodiment sets at least two sections, that is, a first area section and a second area section, for a frame image, and detects motion vectors detected for each feature extraction grid. Based on the information, it is determined to which region section the tracking destination feature point belongs. Furthermore, the image processing apparatus according to the first embodiment determines the deviation of the position of the tracking destination feature point for each area segment. The tracking destination feature points are reset (rearranged) so as to be evenly distributed.
The image processing apparatus according to the first embodiment is configured to classify an area segment, determine an area segment to which a tracking destination feature point belongs, determine a bias, and reset a tracking destination feature point according to the determination result. An area classification unit 106, a tracking destination feature point calculation unit 107, and a resetting unit 108 are included.

領域区分部106は、前述した複数の特徴抽出グリッドを第1の領域区分と第2の領域区分とに区分けする。区分け処理には様々な手法があり、どのような区分け処理が用いられてもよいが、本実施形態では、一例として、顔検出結果に基づく区分け処理を用いる例を挙げる。図5は、顔検出技術を応用した区分け処理のイメージ図である。図5の例の場合、領域区分部106は、顔検出技術により検出された顔領域を含む矩形領域201と、その顔領域を含む矩形領域201からフレーム画像範囲の下端部に接するまでの矩形領域202とを、第1の領域区分として設定する。本実施形態では、この第1の領域区分を被写体領域区分200と表記する。また、領域区分部106は、フレーム画像範囲内において被写体領域区分200を除いた残りの領域を、第2の領域区分として設定する。本実施形態では、フレーム画像範囲内で被写体領域区分200を除いた残りの領域である第2の領域区分を、背景領域区分と表記する。そして、領域区分部106は、動きベクトル検出部105による動きベクトル検出の際の各追跡先特徴点の各位置が、それら被写体領域区分200と背景領域区分の何れに属する位置であるかを判定することで、各追跡先特徴点の区分けを行う。このように追跡先特徴点の区分けが行われることで、ベクトル検出部105にて検出された各動きベクトルが、被写体領域区分200と背景領域区分の何れに属するかについての分別も行われる。   The region partitioning unit 106 partitions the plurality of feature extraction grids described above into a first region partition and a second region partition. There are various methods for the classification process, and any classification process may be used. In the present embodiment, an example using the classification process based on the face detection result is given as an example. FIG. 5 is an image diagram of segmentation processing using face detection technology. In the case of the example in FIG. 5, the area classification unit 106 includes a rectangular area 201 including a face area detected by the face detection technique, and a rectangular area from the rectangular area 201 including the face area to the lower end of the frame image range. 202 is set as the first area section. In the present embodiment, the first area section is referred to as a subject area section 200. Further, the area segmenting unit 106 sets the remaining area excluding the subject area segment 200 within the frame image range as the second area segment. In the present embodiment, the second region segment that is the remaining region excluding the subject region segment 200 within the frame image range is referred to as a background region segment. Then, the area segmentation unit 106 determines whether each position of each tracking destination feature point at the time of motion vector detection by the motion vector detection unit 105 belongs to either the subject area segment 200 or the background area segment. In this way, each tracking destination feature point is classified. By dividing the tracking destination feature points in this way, the motion vector detected by the vector detecting unit 105 is also classified as to which of the subject area section 200 and the background area section belongs.

追跡先特徴点算出部107は、ベクトル検出部105にて検出された前フレームのベクトル値と、特徴点抽出部104にて抽出された前フレームの特徴点とを基に、次のフレームの追跡対象となる特徴点(追跡先特徴点)を算出する。そして、追跡先特徴点算出部107は、それら算出した追跡先特徴点の位置の情報(座標情報)と、それら追跡先特徴点が属する領域区分を表す情報(区分情報とする)とを、内部のメモリに記憶する。   The tracking destination feature point calculation unit 107 tracks the next frame based on the vector value of the previous frame detected by the vector detection unit 105 and the feature point of the previous frame extracted by the feature point extraction unit 104. The target feature point (tracking destination feature point) is calculated. Then, the tracking destination feature point calculation unit 107 uses the calculated location information (coordinate information) of the tracking destination feature points and information indicating the area classification to which the tracking destination feature points belong (referred to as classification information) Store in the memory.

再設定部108は、被写体領域区分200の内にある各追跡先特徴点の位置に偏りが生じているか否かを判定し、偏りが生じていると判定した場合には、被写体領域区分200内で略々均等になるように追跡先特徴点の再設定を行う。   The resetting unit 108 determines whether or not the position of each tracking destination feature point in the subject area segment 200 is biased. If it is determined that the bias is generated, the resetting unit 108 The tracking destination feature points are reset so as to be substantially uniform.

具体的には、先ず、再設定部108は、被写体領域区分200内の追跡先特徴点の数を計数するとともに、図6に示すように被写体領域区分200を複数の計数領域に分け、それら計数領域毎に追跡先特徴点の数を計数する。図6は、一例として、被写体領域区分200を上下左右4分割して、4個の計数領域(左上計数領域301,右上計数領域302,左下計数領域303,右下計数領域304)に分けた例を挙げている。また、図7(a)は、図6に示した左上計数領域301,右上計数領域302,左下計数領域303,右下計数領域304の中で検出された各動きベクトル400を示している。図7(a)に示したような各動きベクトル400はそれぞれが追跡先特徴点を基に求められるため、これら動きベクトル400の数は追跡先特徴点の数と対応している。図7(a)の例の場合、追跡先特徴点は、左上計数領域301に4個、右上計数領域302に2個、左下計数領域303に1個、右下計数領域304に1個が存在しており、被写体領域区分200内には合計8個が存在している。   Specifically, first, the resetting unit 108 counts the number of tracking destination feature points in the subject region segment 200, divides the subject region segment 200 into a plurality of count regions as shown in FIG. The number of tracking destination feature points is counted for each region. FIG. 6 shows an example in which the subject area section 200 is divided into four parts, upper, lower, left and right, and divided into four counting areas (upper left counting area 301, upper right counting area 302, lower left counting area 303, lower right counting area 304). Cite. FIG. 7A shows each motion vector 400 detected in the upper left counting area 301, the upper right counting area 302, the lower left counting area 303, and the lower right counting area 304 shown in FIG. Since each motion vector 400 as shown in FIG. 7A is obtained based on tracking destination feature points, the number of these motion vectors 400 corresponds to the number of tracking destination feature points. In the example of FIG. 7A, there are four tracking destination feature points in the upper left counting area 301, two in the upper right counting area 302, one in the lower left counting area 303, and one in the lower right counting area 304. In total, there are eight objects in the subject area section 200.

この図7(a)の例の場合、8個の追跡先特徴点を4個の計数領域で等分して、計数領域毎の追跡先特徴点数を2個ずつにした状態が、各追跡先特徴点の位置が偏っていない状態であると考えられる。すなわち、図7(a)の例の場合、左上計数領域301には4個の追跡先特徴点数が存在するため、図7(b)に示すように、2個削減して追跡先特徴点数を二つにする。また、図7(a)の例の場合、右上計数領域302には既に二つの追跡先特徴点が存在するため、図7(b)に示すように、右上計数領域302ではそれら二つの追跡先特徴点をそのまま維持する。一方、図7(a)の例の場合、左下計数領域303及び右下計数領域304にはそれぞれ一つしか追跡先特徴点が存在していない。このため、図7(b)に示すように、左上計数領域301から削除した2個の追跡先特徴点を、左下計数領域303及び右下計数領域304にそれぞれ一つずつ再設定(再配置)する。これにより、図7(b)に示すように、各計数領域の追跡先特徴点数がそれぞれ2個ずつになされ、各追跡先特徴点の位置が偏っていない状態が実現されることになる。   In the case of the example of FIG. 7A, the eight tracking destination feature points are equally divided into four counting areas, and the number of tracking destination feature points for each counting area is two. It is considered that the feature points are not biased. That is, in the example of FIG. 7A, since there are four tracking destination feature points in the upper left counting area 301, as shown in FIG. 7B, the number of tracking destination feature points is reduced by two. Make two. In the example of FIG. 7A, since two tracking destination feature points already exist in the upper right counting area 302, as shown in FIG. 7B, these two tracking destinations are displayed in the upper right counting area 302. Keep feature points as they are. On the other hand, in the example of FIG. 7A, there is only one tracking destination feature point in each of the lower left counting area 303 and the lower right counting area 304. For this reason, as shown in FIG. 7B, two tracking destination feature points deleted from the upper left counting area 301 are reset (rearranged) one by one in the lower left counting area 303 and the lower right counting area 304, respectively. To do. As a result, as shown in FIG. 7B, the number of tracking destination feature points in each counting area is set to two, and a state in which the positions of the tracking destination feature points are not biased is realized.

再設定部108は、このような追跡先特徴点の再設定を実現するため、被写体領域区分200内の追跡先特徴点数を計数領域数で等分した数を目標数として算出し、計数領域毎に、その計数領域内の追跡先特徴点数と目標数とを比較する。そして、再設定部108は、計数領域の追跡先特徴点数が目標数を超えている場合には、その計数領域の追跡先特徴点数を、目標数を超えない数まで(目標数以下まで)削減する。   In order to realize such resetting of the tracking destination feature points, the resetting unit 108 calculates, as a target number, a number obtained by equally dividing the number of tracking destination feature points in the subject region segment 200 by the number of counting regions. Then, the number of tracking destination feature points in the counting area is compared with the target number. Then, when the number of tracking destination feature points in the counting area exceeds the target number, the resetting unit 108 reduces the number of tracking destination feature points in the counting area to a number not exceeding the target number (to the target number or less). To do.

本実施形態の場合、計数領域の追跡先特徴点数が目標数を超えている際に削減対象となる追跡先特徴点を決める手法としては、例えば図8(a)〜図8(c)で説明するような手法を用いることができる。ここでは、前述した図7(a)の左上計数領域301から追跡先特徴点数を2個削除する例を挙げて説明する。図8(a)は追跡先特徴点の削除前の状態の左上計数領域301を示している。再設定部108は、先ず、図8(a)の左上計数領域301内の四つの動きベクトル400に対応した四つの追跡先特徴点の座標の重心位置501を求め、この重心位置501から最も近い位置にある追跡先特徴点を削減対象とする。図8(b)は、図8(a)の重心位置501から最も近い位置の追跡先特徴点が一つ削除された後の状態の左上計数領域301を示している。次に、再設定部108は、図8(b)の左上計数領域301内の三つの動きベクトル400に対応した三つの追跡先特徴点の座標から新たな重心位置502を求め、この重心位置502から最も近い位置にある追跡先特徴点を削減対象とする。図8(c)は、図8(b)の重心位置502から最も近い位置の追跡先特徴点が一つ削除された後の状態の左上計数領域301を示しており、左上計数領域301内の追跡先特徴点数は2個となっている。なお、この例では四つの追跡先特徴点から2個削除する例を挙げたが、追跡先特徴点を3個以上削除する場合には、前述同様に、重心位置の算出と、その重心位置から最も近い位置の追跡先特徴点を削除する処理が繰り返される。また、前述の例では、追跡先特徴点を一つ削除するごとに、重心位置を再計算して更新するようにしたが、重心位置は最初に求めたものを、それ以降の追跡先特徴点削除の際にそのまま使用してもよい。   In the case of the present embodiment, as a method for determining tracking destination feature points to be reduced when the number of tracking destination feature points in the counting area exceeds the target number, for example, FIGS. 8A to 8C will be described. Such a technique can be used. Here, an example will be described in which two tracking destination feature points are deleted from the upper left counting area 301 of FIG. FIG. 8A shows the upper left counting area 301 in a state before the tracking destination feature point is deleted. The resetting unit 108 first obtains the centroid positions 501 of the coordinates of the four tracking destination feature points corresponding to the four motion vectors 400 in the upper left counting area 301 in FIG. 8A, and is closest to the centroid position 501. The tracking destination feature point at the position is targeted for reduction. FIG. 8B shows the upper left counting area 301 in a state after one tracking destination feature point at a position closest to the center of gravity position 501 in FIG. 8A is deleted. Next, the resetting unit 108 obtains a new centroid position 502 from the coordinates of the three tracking destination feature points corresponding to the three motion vectors 400 in the upper left counting area 301 in FIG. The feature point to be tracked closest to the track is selected as the reduction target. FIG. 8C shows the upper left counting area 301 in a state after one tracking destination feature point closest to the center of gravity position 502 in FIG. 8B is deleted. The number of tracking destination feature points is two. In this example, two of the four tracking destination feature points are deleted. However, when three or more tracking destination feature points are deleted, the calculation of the centroid position and the centroid position are calculated as described above. The process of deleting the closest tracking destination feature point is repeated. In the above example, every time one tracking destination feature point is deleted, the centroid position is recalculated and updated. However, the centroid position is the first one obtained after that. It may be used as it is when deleting.

また、再設定部108は、計数領域に対して追跡先特徴点を再設定(補填)する際には、一例として、計数領域内の追跡先特徴点の特徴量を求め、特徴量が最も大きい位置に、追跡先特徴点を再設定(補填)するような手法を用いることができる。
なお、前述の説明では被写体領域区分200を例に挙げたが、再設定部108は、背景領域区分についても同様にして追跡先特徴点の再設定処理を行う。
Further, when resetting (compensating) the tracking destination feature point for the counting area, the resetting unit 108 obtains the feature quantity of the tracking destination feature point in the counting area as an example, and the feature quantity is the largest. A method of resetting (compensating) the tracking destination feature point at the position can be used.
In the above description, the subject region segment 200 is taken as an example. However, the resetting unit 108 performs the tracking destination feature point resetting process similarly for the background region segment.

以上説明したように、第1の実施形態の画像処理装置は、フレーム画像範囲を区分けした領域区分の内で各追跡先特徴点の位置に偏りが生じている場合、その領域区分内で略々均等配置になるように追跡先特徴点の再設定を行う。これにより、第1の実施形態の画像処理装置によれば、追跡先特徴点がフレーム画像範囲内で偏在した場合であっても、ベクトル検出精度の低下を抑えることが可能となる。
<第2の実施形態>
図9は、第2の実施形態の画像処理装置の一適用例としてのデジタルカメラの概略構成例を示す図である。なお、第2の本実施形態の画像処理装置についても、第1の実施形態の場合と同様に、各種撮像装置に適用可能である。
As described above, in the image processing apparatus according to the first embodiment, when there is a deviation in the position of each tracking destination feature point in the area division into which the frame image range is divided, the image processing apparatus in the area division is approximately. The tracking destination feature points are reset so that they are evenly arranged. Thereby, according to the image processing apparatus of the first embodiment, it is possible to suppress a decrease in vector detection accuracy even when the tracking destination feature points are unevenly distributed within the frame image range.
<Second Embodiment>
FIG. 9 is a diagram illustrating a schematic configuration example of a digital camera as an application example of the image processing apparatus according to the second embodiment. Note that the image processing apparatus according to the second embodiment can also be applied to various imaging apparatuses as in the case of the first embodiment.

図9に示した第2の実施形態の画像処理装置は、撮像素子部601、メモリ602、領域区分部603、オプティカルフロー検出部609及び619を有して構成されている。オプティカルフロー検出部609は、領域分割部604、特徴点抽出部605、ベクトル検出部606、追跡先特徴点算出部607、再設定部608を有して構成されている。また、オプティカルフロー検出部619は、領域分割部614、特徴点抽出部615、ベクトル検出部616、追跡先特徴点算出部617、再設定部618を有して構成されている。なお本実施形態の場合、オプティカルフロー検出部609とオプティカルフロー検出部619とは同一の構成となされているが、互いに異なる領域に対してオプティカルフローを検出できるのであれば、異なる構成であってもよい。   The image processing apparatus according to the second embodiment illustrated in FIG. 9 includes an image sensor unit 601, a memory 602, a region segmentation unit 603, and optical flow detection units 609 and 619. The optical flow detection unit 609 includes an area division unit 604, a feature point extraction unit 605, a vector detection unit 606, a tracking destination feature point calculation unit 607, and a resetting unit 608. The optical flow detection unit 619 includes a region dividing unit 614, a feature point extraction unit 615, a vector detection unit 616, a tracking destination feature point calculation unit 617, and a resetting unit 618. In the present embodiment, the optical flow detection unit 609 and the optical flow detection unit 619 have the same configuration. However, the optical flow detection unit 609 and the optical flow detection unit 619 may have different configurations as long as the optical flow can be detected in different regions. Good.

撮像素子部601は、前述した図1の撮像素子部101と同様の構成であり、撮像により得られた画像データを出力する。メモリ602は、撮像素子部601から入力された動画の各フレームの画像データを記憶・保持する。メモリ602は、図1のメモリ102と同様に、少なくとも、現在のフレームの画像データと、一つ前のフレーム画像データとを、記憶する。第2の実施形態の場合、メモリ602から読み出されたフレーム毎の画像データは、オプティカルフロー検出部609の領域分割部604、オプティカルフロー検出部619の領域分割部614、領域区分部603にそれぞれ送られる。   The image sensor unit 601 has the same configuration as that of the image sensor unit 101 of FIG. 1 described above, and outputs image data obtained by imaging. The memory 602 stores and holds image data of each frame of the moving image input from the image sensor unit 601. Similar to the memory 102 in FIG. 1, the memory 602 stores at least the image data of the current frame and the previous frame image data. In the case of the second embodiment, the image data for each frame read from the memory 602 is respectively sent to the region dividing unit 604 of the optical flow detecting unit 609, the region dividing unit 614 of the optical flow detecting unit 619, and the region dividing unit 603. Sent.

領域区分部603は、フレームの画像範囲を前述の図1の領域区分部106と同様の第1の領域区分と第2の領域区分に区分けする。図10は、第2の実施形態の場合の領域区分部603における領域区分の一例を示す図である。図10は、顔検出処理により検出された二つの顔領域900を含み、それら顔領域900からフレームの画像範囲の下端部までを含む矩形領域が被写体領域区分901として設定され、また前述同様の背景領域区分902が設定された例を挙げている。   The area division unit 603 divides the image range of the frame into a first area division and a second area division similar to the area division unit 106 in FIG. 1 described above. FIG. 10 is a diagram illustrating an example of area division in the area division unit 603 in the case of the second embodiment. FIG. 10 includes two face areas 900 detected by the face detection process, and a rectangular area including the face area 900 to the lower end of the image range of the frame is set as the subject area section 901. An example in which the area division 902 is set is given.

第2の実施形態の場合、領域区分部603は、第1の領域区分の一例である被写体領域区分を示す情報をオプティカルフロー検出部609に送り、第2の領域区分の一例である背景領域区分を示す情報をオプティカルフロー検出部619に送る。したがって、本実施形態の場合、オプティカルフロー検出部609では被写体領域区分に対する処理が行われ、オプティカルフロー検出部619では背景領域区分に対する処理が行われる。   In the case of the second embodiment, the region segmentation unit 603 sends information indicating the subject region segment, which is an example of the first region segment, to the optical flow detection unit 609, and the background region segment, which is an example of the second region segment, Is sent to the optical flow detector 619. Therefore, in the present embodiment, the optical flow detection unit 609 performs processing for the subject region segment, and the optical flow detection unit 619 performs processing for the background region segment.

以下、オプティカルフロー検出部609を例に挙げて説明する。
オプティカルフロー検出部609の領域分割部604は、フレームの画像データのうち、被写体領域区分の画像を所定の領域(前述したグリッド)毎に分割する。特徴点抽出部605は、領域分割部604により分割されたグリッドごとに特徴量を求め、特徴が最も大きいと判定された位置に特徴点を配置する。これにより、グリッド毎に一つの特徴点の位置が定まる。特徴量に関しては、前述した第1の実施形態と同様である。
Hereinafter, the optical flow detection unit 609 will be described as an example.
The area division unit 604 of the optical flow detection unit 609 divides the image of the subject area section in the image data of the frame for each predetermined area (the grid described above). The feature point extraction unit 605 obtains a feature amount for each grid divided by the region division unit 604, and arranges the feature point at a position where the feature is determined to be the largest. As a result, the position of one feature point is determined for each grid. The feature amount is the same as that in the first embodiment described above.

ベクトル検出部606は、二枚のフレームの被写体領域区分の一方を原画像とし、他方を参照画像として、図1のベクトル検出部105と同様に、相関値演算処理を行って動きベクトルを検出する。ベクトル検出部606は、特徴点の数(つまり被写体領域区分内の特徴抽出グリッド数)だけ動きベクトルを検出して出力する。   The vector detection unit 606 detects a motion vector by performing correlation value calculation processing in the same manner as the vector detection unit 105 in FIG. 1, with one of the subject region sections of the two frames as an original image and the other as a reference image. . The vector detection unit 606 detects and outputs motion vectors as many as the number of feature points (that is, the number of feature extraction grids in the subject region segment).

追跡先特徴点算出部607は、図1の追跡先特徴点算出部107と同様に、ベクトル検出部606にて検出された前フレームのベクトル値と、特徴点抽出部605にて抽出された前フレームの特徴点とを基に、次のフレームの追跡先特徴点を算出する。そして、追跡先特徴点算出部607は、算出した追跡先特徴点の位置の情報(座標情報)と、それら追跡先特徴点が属する領域区分を表す情報とを、内部のメモリに記憶する。   Similar to the tracking destination feature point calculation unit 107 in FIG. 1, the tracking destination feature point calculation unit 607 and the vector value of the previous frame detected by the vector detection unit 606 and the previous extracted by the feature point extraction unit 605 Based on the feature point of the frame, the tracking destination feature point of the next frame is calculated. Then, the tracking destination feature point calculation unit 607 stores the information on the position of the calculated tracking destination feature point (coordinate information) and information indicating the area classification to which the tracking destination feature point belongs in an internal memory.

再設定部608は、図1の再設定部108と同様に、被写体領域区分の内にある各追跡先特徴点の位置に偏りが生じているか否かを判定し、偏りが生じていると判定した場合には、被写体領域区分内で略々均等になるように追跡先特徴点の再設定を行う。
オプティカルフロー検出部619では、処理対象が背景領域区分になっていること以外は、オプティカルフロー検出部609と同様の処理が行われる。
Similar to the resetting unit 108 in FIG. 1, the resetting unit 608 determines whether or not there is a bias in the position of each tracking destination feature point within the subject area segment, and determines that there is a bias. In such a case, the tracking destination feature points are reset so as to be substantially uniform within the subject area section.
The optical flow detection unit 619 performs the same processing as the optical flow detection unit 609 except that the processing target is the background region classification.

以上説明したように、第2の実施形態の画像処理装置は、第1の領域区分(被写体領域区分)と第2の領域区分(背景領域区分)とで分けて、それぞれオプティカルフローの検出処理を行う。そして、第2の実施形態でも第1の実施形態と同様に、領域区分の内で各追跡先特徴点の位置に偏りが生じている場合、その領域区分内で略々均等配置になるように追跡先特徴点の再設定が行われる。これにより、第2の実施形態の画像処理装置は、追跡先特徴点がフレーム画像範囲内で偏在した場合であっても、ベクトル検出精度の低下を抑えることが可能となる。   As described above, the image processing apparatus according to the second embodiment divides the first area section (subject area section) and the second area section (background area section), and performs optical flow detection processing. Do. In the second embodiment, as in the first embodiment, when there is a bias in the position of each tracking destination feature point in the area section, the arrangement is made to be substantially evenly arranged in the area section. The tracking destination feature point is reset. As a result, the image processing apparatus according to the second embodiment can suppress a decrease in vector detection accuracy even when the tracking destination feature points are unevenly distributed within the frame image range.

<第3の実施形態>
以下、第3の実施形態について説明する。
第3の実施形態では、フレーム画像の画素入力順序(例えば撮像素子部101からの画素読み出し順序)に応じて、フレーム画像範囲を分ける場合の例を挙げる。
ここで、複数の追跡先特徴点がフレームの画像範囲内の一部の領域に偏在する例としては、前述の実施形態で挙げた例の他にも、例えば図2(b)に示すように、追跡先特徴点がフレームの画像範囲内の下部領域に集中するように偏在する場合もある。図2(b)に示すように、追跡先特徴点がフレームの画像範囲内の下部領域に集中するように偏在する状態は、例えばデジタルカメラの撮影時にカメラがチルティングされた場合などに生ずることが多い。なお、図2(b)には、図2(a)と同様の特徴抽出グリッド1010、周辺グリッド1011、サーチ領域1005、テンプレート領域1003、追跡先特徴点1002等も示している。
<Third Embodiment>
Hereinafter, a third embodiment will be described.
In the third embodiment, an example in which the frame image range is divided according to the pixel input order of the frame image (for example, the pixel reading order from the image sensor unit 101) will be described.
Here, as an example in which a plurality of tracking destination feature points are unevenly distributed in a partial region within the image range of the frame, in addition to the example given in the above-described embodiment, for example, as shown in FIG. In some cases, the tracking destination feature points are unevenly distributed so as to be concentrated in the lower region within the image range of the frame. As shown in FIG. 2B, the state in which the tracking target feature points are concentrated so as to be concentrated in the lower region within the image range of the frame occurs, for example, when the camera is tilted during photographing with a digital camera. There are many. 2B also shows a feature extraction grid 1010, a peripheral grid 1011, a search area 1005, a template area 1003, a tracking destination feature point 1002, and the like similar to those in FIG.

図11(a)は、図3(a)と同様、撮像素子部101のセンサ出力からテンプレートマッチング処理の終了までのタイミングチャートであり、図2(b)のように下部領域に多数の追跡先特徴点が集中した場合の処理タイミングを表している。図11(b)は、下部領域に多数の追跡先特徴点が集中した場合において、前述の図3(b)と同様の特徴抽出グリッド1010、周辺グリッド1011、サーチ領域1005、テンプレート領域1003、追跡先特徴点1002を表した図である。また、図11(b)には、図3(b)と同様に、ラスタスキャン1020を表す矢印と、テンプレートマッチング処理を開始できる最初(一番初め)のテンプレート位置1201も示されている。図11(b)の例では、8個の追跡先特徴点1002が、フレームの画像範囲内の下部領域に集中するように偏在している。そして、図11(a)の8個の期間T1〜T8は、図11(b)の8個の追跡先特徴点1002のそれぞれに対するテンプレートマッチング処理に要する時間を表している。   FIG. 11A is a timing chart from the sensor output of the image sensor unit 101 to the end of the template matching process, as in FIG. 3A, and a large number of tracking destinations are displayed in the lower area as shown in FIG. The processing timing when the feature points are concentrated is shown. FIG. 11B shows a feature extraction grid 1010, a peripheral grid 1011, a search area 1005, a template area 1003, and tracking similar to those in FIG. 3B described above when a large number of tracking destination feature points are concentrated in the lower area. FIG. 10 is a diagram showing a previous feature point 1002. FIG. 11B also shows an arrow representing the raster scan 1020 and the first (first) template position 1201 at which template matching processing can be started, as in FIG. 3B. In the example of FIG. 11B, the eight tracking destination feature points 1002 are unevenly distributed so as to be concentrated in the lower region within the image range of the frame. Then, the eight periods T1 to T8 in FIG. 11A represent the time required for the template matching process for each of the eight tracking destination feature points 1002 in FIG.

テンプレートマッチング処理は、撮像素子部101(センサ出力)からの画素読み出し順序であるラスタスキャン順に合わせて行われるため、フレームの画像範囲内の下部領域は、ラスタスキャン順では終盤に処理が行われる領域となる。図2(b)や図11(b)のように下部領域に多数の追跡先特徴点が集中した場合、図11(a)に示すように、垂直同期信号VDのパルス間隔の期間内に、期間T1〜T8の全てのテンプレートマッチング処理を完了できなくなることがある。つまり、下部領域に追跡先特徴点が集中した場合、図11(b)に示すように、テンプレートマッチング処理が開始される最初のテンプレート位置1201は、ラスタスキャン順の終盤に相当する位置になる。そして、ラスタスキャン順の終盤に相当するテンプレート位置1201からテンプレートマッチング処理が始まると、図11(a)に示すように、期間T1〜T8の処理の開始までの期間1200が長くなる。このため、期間T1〜T8の処理が完了する前に、垂直同期信号VDの次のパルスが来てしまって処理を完了できなくなることがある。   Since the template matching process is performed in accordance with the raster scan order that is the pixel reading order from the image sensor unit 101 (sensor output), the lower area in the image range of the frame is an area that is processed at the end in the raster scan order. It becomes. When many tracking destination feature points are concentrated in the lower region as shown in FIG. 2B and FIG. 11B, as shown in FIG. 11A, within the period of the pulse interval of the vertical synchronization signal VD, It may become impossible to complete all template matching processes in the periods T1 to T8. That is, when the tracking destination feature points are concentrated in the lower region, as shown in FIG. 11B, the first template position 1201 at which the template matching process is started is a position corresponding to the last stage in the raster scan order. Then, when the template matching process starts from the template position 1201 corresponding to the last stage of the raster scan order, the period 1200 until the start of the processes of the periods T1 to T8 becomes longer as shown in FIG. For this reason, before the processing in the periods T1 to T8 is completed, the next pulse of the vertical synchronization signal VD may come and the processing may not be completed.

また、本実施形態のデジタルカメラのように、撮影時の手ぶれ補正に動きベクトルを用いる場合、1フレーム期間内にテンプレートマッチング処理を完了させて動きベクトルを検出し、その動きベクトルを次のフレームの処理にフィードバックする必要がある。
前述した図3(a)及び図3(b)の例の場合、1フレーム分の周期内で期間T1〜T8の全ての処理が終了し、テンプレートマッチング処理が完了している。このため、動きベクトルを次のフレームの処理にフィードバックでき、その結果、デジタルカメラの撮影時の手ぶれ補正も正しく行える。
これに対し、図11(a)及び図11(b)の例のように、1フレームの期間内でテンプレートマッチング処理を完了できない場合、正しい動きベクトルを次のフレームの処理にフィードバックすることができなくなる。この場合、ベクトル検出性能が低下し、その結果、デジタルカメラ等の撮影時の手ぶれ補正性能も低下してしまうことになる。
Also, when a motion vector is used for camera shake correction at the time of shooting as in the digital camera of this embodiment, the template matching process is completed within one frame period to detect a motion vector, and the motion vector is detected for the next frame. Need to provide feedback to the process.
In the example of FIGS. 3A and 3B described above, all the processes in the periods T1 to T8 are completed within the period of one frame, and the template matching process is completed. For this reason, the motion vector can be fed back to the processing of the next frame, and as a result, camera shake correction at the time of photographing with the digital camera can be performed correctly.
On the other hand, if the template matching process cannot be completed within the period of one frame as in the examples of FIGS. 11A and 11B, the correct motion vector can be fed back to the process of the next frame. Disappear. In this case, the vector detection performance is lowered, and as a result, the camera shake correction performance at the time of shooting of a digital camera or the like is also lowered.

このため、第3の実施形態の画像処理装置では、前述した複数のグリッドを、前述した第1の領域区分と第2の領域区分の少なくとも二つの領域区分に区分けすると共に、後述する第1の指定区域と第2の指定区域の少なくとも二つの指定区域にも区域分けする。また、第3の実施形態の画像処理装置は、第1の指定区域の追跡先特徴点数を計数し、第1の指定区域の追跡先特徴点数が所定数を超えているか否か判定する。そして、第3の実施形態の画像処理装置は、第1の指定区域の追跡先特徴点数が所定数を超えている場合には、第1の指定区域内の追跡先特徴点を、所定数を超えない数まで削除する。さらに、第3の実施形態の画像処理装置は、第1の指定区域内で削除した数の追跡先特徴点を、第2の指定区域の中で同領域区分内の位置に再設定(補填)する。追跡先特徴点の削除の手法には前述した第1の実施形態で説明した重心位置に基づく削除の手法や、特徴量の少ない順に削除する手法などを用いることができる。また、追跡先特徴点の再設定(補填)の手法についても第1の実施形態で説明したのと同様の手法などを用いることができる。   For this reason, in the image processing apparatus according to the third embodiment, the plurality of grids described above are divided into at least two area sections, the first area section and the second area section described above, and a first described later. The area is also divided into at least two designated areas, the designated area and the second designated area. The image processing apparatus according to the third embodiment also counts the number of tracking destination feature points in the first designated area, and determines whether the number of tracking destination feature points in the first designated area exceeds a predetermined number. When the number of tracking destination feature points in the first designated area exceeds a predetermined number, the image processing apparatus according to the third embodiment sets the predetermined number of tracking destination feature points in the first designated area. Delete up to the maximum number. Furthermore, the image processing apparatus according to the third embodiment resets (compensates) the number of tracking destination feature points deleted in the first designated area to a position in the same area section in the second designated area. To do. As the method of deleting the tracking destination feature point, the deletion method based on the center of gravity position described in the first embodiment, the method of deleting in order from the smallest feature amount, or the like can be used. In addition, a method similar to that described in the first embodiment can also be used as a method of resetting (compensating) the tracking destination feature points.

第3の実施形態の画像処理装置の構成は前述の図1と同様であるため、その図示は省略する。第3の実施形態の場合の画像処理装置では、以下に説明するような処理が行われる。
第3の実施形態の画像処理装置の領域区分部106は、前述した各分割領域(複数のグリッド)を前述の第1の実施形態と同様の第1の領域区分と第2の領域区分とに区分けする。第3の実施形態の場合も前述した第1の実施形態と同様に、顔検出の結果に基づいて、第1の領域区分として被写体領域区分が、また第2の領域区分として背景領域区分が設定されるとする。
Since the configuration of the image processing apparatus according to the third embodiment is the same as that shown in FIG. 1, the illustration thereof is omitted. In the image processing apparatus according to the third embodiment, processing as described below is performed.
The area segmentation unit 106 of the image processing apparatus according to the third embodiment converts each of the above-described divided areas (a plurality of grids) into a first area segment and a second area segment similar to those in the first embodiment. Sort. In the case of the third embodiment, similarly to the first embodiment described above, based on the result of face detection, the subject area section is set as the first area section, and the background area section is set as the second area section. Suppose that

さらに第3の実施形態の場合、領域区分部106は、各分割領域(複数のグリッド)を、後述する第1の指定区域と第2の指定区域とに区域分けする。第3の実施形態において、第1の指定区域と第2の指定区域は、フレーム画像の画素入力順序(センサ出力の画素読み出し順序)に応じて設定される。例えば、入力フレーム画像の画素入力順序が、フレーム画像範囲の左上端の画素から水平方向への走査がなされるラスタスキャン順である場合、第1の指定区域はフレーム画像範囲の下部区域となされ、第2の指定区域はフレーム画像範囲の上部区域となされる。すなわち、第1の指定区域はラスタスキャン順で終盤に処理が行われる区域となされ、一方、第2の指定区域はラスタスキャン順で初期に処理が行われる区域となされる。   Furthermore, in the case of the third embodiment, the area dividing unit 106 divides each divided area (a plurality of grids) into a first designated area and a second designated area described later. In the third embodiment, the first designated area and the second designated area are set in accordance with the pixel input order of the frame image (the pixel output order of the sensor output). For example, when the pixel input order of the input frame image is the raster scan order in which scanning in the horizontal direction is performed from the upper left pixel of the frame image range, the first designated area is the lower area of the frame image range, The second designated area is the upper area of the frame image range. That is, the first designated area is an area that is processed in the last stage in the raster scan order, while the second designated area is an area that is initially processed in the raster scan order.

図12は、第3の実施形態における第1の領域区分(被写体領域区分200)及び第2の領域区分(背景領域区分)と、第1の指定区域701及び第2の指定区域702との配置イメージを示した図である。図12において、第1の領域区分(被写体領域区分200)及び第2の領域区分(背景領域区分)は前述の図5で説明したとの同様の領域区分である。一方、第3の実施形態において、第1の指定区域701はラスタスキャン順では終盤に処理が行われる区域となされ、第2の指定区域702はラスタスキャン順では初期に処理が行われる区域となされる。   FIG. 12 shows the arrangement of the first area section (subject area section 200) and the second area section (background area section), the first designated area 701, and the second designated area 702 in the third embodiment. It is the figure which showed the image. In FIG. 12, the first area section (subject area section 200) and the second area section (background area section) are the same area sections as described above with reference to FIG. On the other hand, in the third embodiment, the first designated area 701 is an area that is processed at the end in the raster scan order, and the second designated area 702 is an area that is initially processed in the raster scan order. The

第3の実施形態の追跡先特徴点算出部107は、前述同様に追跡先特徴点を算出し、それら算出した追跡先特徴点の位置の情報と、追跡先特徴点が属する領域区分と指定区域を表す情報とを、内部のメモリに記憶する。   The tracking destination feature point calculation unit 107 according to the third embodiment calculates the tracking destination feature points in the same manner as described above, information on the positions of the calculated tracking destination feature points, the area classification to which the tracking destination feature points belong, and the designated area Is stored in an internal memory.

第3の実施形態の再設定部108は、第1の指定区域701内で算出された追跡先特徴点数を計数し、その第1の指定区域701内の追跡先特徴点数が所定数を超えているか否か判定する。そして、再設定部108は、第1の指定区域701内の追跡先特徴点数が所定数を超えている場合には、第1の指定区域701内の追跡先特徴点を、所定数を超えない数まで削除する。さらに、第3の実施形態の再設定部108は、第2の指定区域702に対し、第1の指定区域701から削除された追跡先特徴点を再設定(補填)する。この削除された追跡先特徴点を第2の指定区域702に再設定する際には、第2の指定区域702内において、第1の指定区域701から削除された追跡先特徴点が属していた領域区分と同一の領域区分内に補填するようにする。すなわち、再設定部108は、例えば第1の指定区域701内の被写体領域区分200から削除された追跡先特徴点については第2の指定区域702の被写体領域区分200内に補填するような再設定(再配置)を行う。また、再設定部108は、例えば第1の指定区域701内の背景領域区分から削除された追跡先特徴点については第2の指定区域702の背景領域区分内に補填するような再設定を行う。   The resetting unit 108 of the third embodiment counts the number of tracking destination feature points calculated in the first designated area 701, and the number of tracking destination feature points in the first designated area 701 exceeds a predetermined number. Determine whether or not. If the number of tracking destination feature points in the first designated area 701 exceeds a predetermined number, the resetting unit 108 does not exceed the predetermined number of tracking destination feature points in the first designated area 701. Delete up to a number. Furthermore, the resetting unit 108 according to the third embodiment resets (compensates) the tracking destination feature point deleted from the first specified area 701 with respect to the second specified area 702. When resetting the deleted tracking destination feature point in the second designated area 702, the tracking destination feature point deleted from the first designated area 701 belonged to the second designated area 702. Fill in the same area section as the area section. That is, the resetting unit 108 resets the tracking destination feature points deleted from the subject area segment 200 in the first designated area 701 so as to compensate in the subject area section 200 of the second designated area 702, for example. (Relocation) is performed. In addition, the resetting unit 108 performs resetting such that, for example, the tracking destination feature point deleted from the background area section in the first designated area 701 is compensated for in the background area section of the second designated area 702. .

以上説明したように第3の実施形態の画像処理装置は、フレーム画像範囲を、第1の領域区分と、第2の領域区分とに分け、さらに、ラスタスキャン順で終盤に処理が行われる第1の指定区域と、初期に処理が行われる第2の指定区域とに区域分けする。そして、第3の実施形態の画像処理装置は、第1の指定区域の追跡先特徴点数が所定数を越える場合、所定数を超えない数まで追跡先特徴点を削除して、第2の指定区域の同領域区分内に追跡先特徴点を再設定する。これにより、第3の実施形態の画像処理装置によれば、追跡先特徴点がフレーム画像範囲内で偏在した場合であっても、ベクトル検出精度の低下を抑え、且つ、1フレーム期間などの所定期間内に処理を完了させることができる。   As described above, the image processing apparatus according to the third embodiment divides the frame image range into the first area section and the second area section, and the process is performed at the end in the raster scan order. The area is divided into one designated area and a second designated area that is initially processed. Then, when the number of tracking destination feature points in the first designated area exceeds a predetermined number, the image processing apparatus of the third embodiment deletes the tracking destination feature points up to a number not exceeding the predetermined number, and performs the second designation. Reset the tracking destination feature point within the same area segment of the area. As a result, according to the image processing apparatus of the third embodiment, even when the tracking destination feature points are unevenly distributed within the frame image range, a reduction in vector detection accuracy is suppressed, and a predetermined period such as one frame period is determined. Processing can be completed within a period of time.

<第4の実施形態>
第4の実施形態について以下に説明する。第4の実施形態の画像処理装置の構成は、前述した図9の構成と同じであるため、その図示は省略する。
第4の実施形態の画像処理装置は、前述した第2の実施形態と同様に、第1の領域区分である被写体領域区分と第2の領域区分である背景領域区分とで、それぞれオプティカルフローの検出処理を行う。
さらに、第4の実施形態の画像処理装置は、第3の実施形態のように、第1の指定区域と第2の指定区域の区域分け処理についても行う。
<Fourth Embodiment>
A fourth embodiment will be described below. Since the configuration of the image processing apparatus according to the fourth embodiment is the same as the configuration of FIG. 9 described above, its illustration is omitted.
As in the second embodiment described above, the image processing apparatus according to the fourth embodiment performs optical flow for each of the subject area segment as the first area segment and the background area segment as the second area segment. Perform detection processing.
Furthermore, the image processing apparatus according to the fourth embodiment also performs the area division process of the first designated area and the second designated area as in the third embodiment.

第4の実施形態の画像処理装置において、前述の図9と同様に、撮像素子部601は撮像した画像データを出力し、メモリ602から読み出された画像データはオプティカルフロー検出部609及び619、領域区分部603にそれぞれ送られる。   In the image processing apparatus of the fourth embodiment, as in FIG. 9 described above, the image sensor unit 601 outputs captured image data, and the image data read from the memory 602 is optical flow detection units 609 and 619. The data are sent to the area sorting unit 603, respectively.

第4の実施形態の領域区分部603は、フレームの画像範囲を、前述同様の第1の領域区分と第2の領域区分に区分けし、また、第3の実施形態と同様の第1の指定区域と第2の指定区域とに区域分けする。そして、領域区分部603は、第1の領域区分(被写体領域区分)を示す情報をオプティカルフロー検出部609に送り、第2の領域区分の一例である背景領域区分を示す情報をオプティカルフロー検出部619に送る。したがって、本実施形態の場合、オプティカルフロー検出部609では被写体領域区分に対する処理が行われ、オプティカルフロー検出部619では背景領域区分に対する処理が行われる。また第3の実施形態の場合、領域区分部603は、第1の指定区域及び第2の指定区域を示す情報を、オプティカルフロー検出部609及び619の両方に送る。   The area segmentation unit 603 of the fourth embodiment divides the image range of the frame into the first area segment and the second area segment similar to those described above, and the first designation similar to that in the third embodiment. Divide the area into an area and a second designated area. Then, the region segmentation unit 603 sends information indicating the first region segment (subject region segment) to the optical flow detection unit 609, and information indicating the background region segment that is an example of the second region segment. Send to 619. Therefore, in the present embodiment, the optical flow detection unit 609 performs processing for the subject region segment, and the optical flow detection unit 619 performs processing for the background region segment. In the case of the third embodiment, the region segmentation unit 603 sends information indicating the first designated area and the second designated area to both the optical flow detection units 609 and 619.

以下、オプティカルフロー検出部609を例に挙げて説明する。
オプティカルフロー検出部609の領域分割部604は、フレームの画像データのうち、被写体領域区分の画像を所定の領域(前述したグリッド)毎に分割する。特徴点抽出部605は、領域分割部604により分割されたグリッド毎に特徴量を求め、特徴が最も大きいと判定された位置に特徴点を配置する。これにより、グリッド毎に一つの特徴点の位置が定まる。特徴量に関しては、前述した第1の実施形態と同様である。
Hereinafter, the optical flow detection unit 609 will be described as an example.
The area division unit 604 of the optical flow detection unit 609 divides the image of the subject area section in the image data of the frame for each predetermined area (the grid described above). The feature point extraction unit 605 obtains a feature amount for each grid divided by the region division unit 604, and arranges the feature point at a position where the feature is determined to be the largest. As a result, the position of one feature point is determined for each grid. The feature amount is the same as that in the first embodiment described above.

ベクトル検出部606は、前述した図9の例と同様に、特徴点の数(つまり被写体領域区分内の特徴抽出グリッド数)だけ動きベクトルを検出して出力する。また、追跡先特徴点算出部607は、前述した図9の例と同様に、追跡先特徴点を算出し、それら算出した追跡先特徴点の位置の情報と、各追跡先特徴点が属する領域区分を表す情報とを内部のメモリに記憶する。   Similar to the example of FIG. 9 described above, the vector detection unit 606 detects and outputs motion vectors by the number of feature points (that is, the number of feature extraction grids in the subject region segment). In addition, the tracking destination feature point calculation unit 607 calculates tracking destination feature points as in the example of FIG. 9 described above, information on the positions of the calculated tracking destination feature points, and an area to which each tracking destination feature point belongs. Information indicating the classification is stored in an internal memory.

第4の実施形態の再設定部608は、第1の指定区域701の被写体領域区分200内で算出された追跡先特徴点数を計数し、その第1の指定区域701の被写体領域区分200内の追跡先特徴点数が所定数を超えているか否か判定する。そして、再設定部108は、第1の指定区域701の被写体領域区分200内の追跡先特徴点数が所定数を超えている場合には、第1の指定区域701の被写体領域区分200内の追跡先特徴点を、所定数を超えない数まで削除する。さらに、第4の実施形態の再設定部608は、第2の指定区域702の被写体領域区分200内に対し、第1の指定区域701の被写体領域区分200内から削除された追跡先特徴点を再設定(補填)する。
第4の実施形態の場合のオプティカルフロー検出部619では、処理対象が背景領域区分になっていること以外はオプティカルフロー検出部609と同様の処理が行われる。
The resetting unit 608 of the fourth embodiment counts the number of tracking destination feature points calculated in the subject area segment 200 of the first designated area 701, and in the subject area section 200 of the first designated area 701. It is determined whether or not the number of tracking destination feature points exceeds a predetermined number. When the number of tracking destination feature points in the subject area segment 200 in the first designated area 701 exceeds a predetermined number, the resetting unit 108 tracks in the subject area section 200 in the first designated area 701. The previous feature points are deleted up to a number not exceeding a predetermined number. Furthermore, the resetting unit 608 of the fourth embodiment sets the tracking destination feature points deleted from the subject area segment 200 of the first designated area 701 to the subject area section 200 of the second designated area 702. Reset (complement).
In the optical flow detection unit 619 in the case of the fourth embodiment, the same processing as that of the optical flow detection unit 609 is performed except that the processing target is the background area section.

以上説明したように、第4の実施形態の画像処理装置は、第1の領域区分(被写体領域区分)と第2の領域区分(背景領域区分)とについてそれぞれオプティカルフローの検出処理を行う。そして、第4の実施形態でも第3の実施形態と同様に、第1の指定区域の追跡先特徴点数が所定数を越える場合、所定数を超えない数まで追跡先特徴点を削除して、第2の指定区域の同一領域区分内に追跡先特徴点を再設定する。これにより、第4の実施形態の画像処理装置によれば、追跡先特徴点がフレーム画像範囲内で偏在した場合であっても、ベクトル検出精度の低下を抑え、且つ、1フレーム期間などの所定期間内に処理を完了させることができる。   As described above, the image processing apparatus according to the fourth embodiment performs optical flow detection processing for each of the first region segment (subject region segment) and the second region segment (background region segment). In the fourth embodiment, as in the third embodiment, when the number of tracking destination feature points in the first designated area exceeds a predetermined number, the tracking destination feature points are deleted up to a number not exceeding the predetermined number, The tracking destination feature point is reset within the same area section of the second designated area. As a result, according to the image processing apparatus of the fourth embodiment, even if the tracking destination feature points are unevenly distributed within the frame image range, the reduction in vector detection accuracy is suppressed, and a predetermined period such as one frame period is determined. Processing can be completed within a period of time.

なお、第1及び第3の実施形態はベクトル検出のための構成が1セットの例を、第2及び第4の実施形態はベクトル検出のための構成が複数セット(2セット)の例を挙げている。ベクトル検出精度の低下を抑えるという目的を実現するには基本的には第1や第3の実施形態の構成でよい。ただし、例えば領域区分として分けられる領域が顔等の被写体領域だけでなく、他の様々な領域区分に分けられる場合や、その他の用途にも適用する場合には、第2や第4の実施形態の構成を適宜組み合わせた構成を用いることが好適である。   The first and third embodiments are examples in which the configuration for vector detection is one set, and the second and fourth embodiments are examples in which the configuration for vector detection is a plurality of sets (two sets). ing. Basically, the configuration of the first or third embodiment may be used to achieve the purpose of suppressing the decrease in vector detection accuracy. However, for example, when the region divided as the region division is divided not only into the subject region such as the face but also into various other region divisions, or when applied to other purposes, the second and fourth embodiments. It is preferable to use a configuration in which these configurations are appropriately combined.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101:撮像素子部、102:メモリ、103:領域分割部、104:特徴点抽出部、105:ベクトル検出部、106:領域区分部、107:追跡先特徴点算出部、108:再設定部   101: Image sensor unit, 102: Memory, 103: Region division unit, 104: Feature point extraction unit, 105: Vector detection unit, 106: Region segmentation unit, 107: Tracking destination feature point calculation unit, 108: Reset unit

Claims (18)

フレームの画像を複数の領域に分割する分割手段と、
前記複数に分割された各領域内で画像の特徴点を抽出する抽出手段と、
前記特徴点を基に動きベクトルを検出する検出手段と、
前記分割された複数の領域を、少なくとも二つの領域区分に区分けする区分手段と、
前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出手段と、
前記領域区分のなかで前記追跡先特徴点の位置に偏りがある場合、前記追跡先特徴点の位置に偏りがある前記領域区分のなかで前記追跡先特徴点の位置を均等に再設定する再設定手段と、
を有することを特徴とする画像処理装置。
A dividing means for dividing the frame image into a plurality of regions;
Extraction means for extracting feature points of an image in each of the divided areas;
Detecting means for detecting a motion vector based on the feature points;
A dividing means for dividing the plurality of divided areas into at least two area sections;
Calculation means for calculating a tracking destination feature point used for motion vector detection of the next frame based on the value of the motion vector and the feature point detected from the previous frame;
If the position of the tracking destination feature point is biased in the area section, the position of the tracking destination feature point is reset evenly in the area section where the position of the tracking destination feature point is biased. Setting means;
An image processing apparatus comprising:
フレームの画像を、少なくとも二つの領域区分に区分けする区分手段と、
前記領域区分ごとに、画像を複数の領域に分割する分割手段と、
前記領域区分ごとに、前記複数に分割された各領域内で画像の特徴点を抽出する抽出手段と、
前記領域区分ごとに、前記特徴点を基に動きベクトルを検出する検出手段と、
前記領域区分ごとに、前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出手段と、
前記領域区分のなかで前記追跡先特徴点の位置に偏りがある場合、前記追跡先特徴点の位置に偏りがある前記領域区分のなかで前記追跡先特徴点の位置を均等に再設定する再設定手段と、
を有することを特徴とする画像処理装置。
A segmentation means for segmenting the image of the frame into at least two region segments;
Dividing means for dividing the image into a plurality of areas for each of the area sections;
Extracting means for extracting feature points of an image in each of the divided areas for each of the area sections;
Detecting means for detecting a motion vector based on the feature points for each of the region sections;
Calculation means for calculating a tracking destination feature point used for motion vector detection of the next frame based on the value of the motion vector and the feature point detected from the previous frame for each region section;
If the position of the tracking destination feature point is biased in the area section, the position of the tracking destination feature point is reset evenly in the area section where the position of the tracking destination feature point is biased. Setting means;
An image processing apparatus comprising:
前記再設定手段は、
前記領域区分を複数の計数領域に分割して前記計数領域ごとに前記追跡先特徴点を計数し、
前記計数した追跡先特徴点の数が目標数を越えている計数領域のなかで前記目標数を超えた追跡先特徴点を削除し、前記削除された前記追跡先特徴点を、前記計数した追跡先特徴点の数が前記目標数より少ない計数領域のなかに再設定することを特徴とする請求項1又は2に記載の画像処理装置。
The resetting means includes
Dividing the area section into a plurality of counting areas, counting the tracking destination feature points for each counting area,
The tracking destination feature points that exceed the target number are deleted from the counting area in which the number of the counted tracking destination feature points exceeds the target number, and the deleted tracking destination feature points are counted. The image processing apparatus according to claim 1, wherein the number of the previous feature points is reset in a count area smaller than the target number.
前記再設定手段は、前記領域区分のなかの前記追跡先特徴点の数を、前記計数領域の数を基に等分した数を、前記目標数として設定することを特徴とする請求項3に記載の画像処理装置。   The said resetting means sets the number obtained by equally dividing the number of the tracking destination feature points in the area section based on the number of the counting areas as the target number. The image processing apparatus described. 前記再設定手段は、前記追跡先特徴点の数が前記目標数を超えている前記計数領域のなかの前記追跡先特徴点の各位置の重心位置から最も近い位置の追跡先特徴点を、前記削除する追跡先特徴点として設定することを特徴とする請求項3又は4に記載の画像処理装置。   The resetting means includes the tracking destination feature point at a position closest to the center of gravity position of each position of the tracking destination feature point in the counting area in which the number of tracking destination feature points exceeds the target number. The image processing apparatus according to claim 3, wherein the image processing apparatus is set as a tracking destination feature point to be deleted. 前記再設定手段は、前記計数領域のなかで特徴量が最も大きい位置に前記追跡先特徴点を再設定することを特徴とする請求項3から5の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the resetting unit resets the tracking destination feature point at a position having the largest feature amount in the counting area. フレームの画像を複数の領域に分割する分割手段と、
前記複数に分割された各領域内で画像の特徴点を抽出する抽出手段と、
前記特徴点を基に動きベクトルを検出する検出手段と、
前記分割された複数の領域を、少なくとも二つの領域区分と、第1の指定区域と第2の指定区域の少なくとも二つの指定区域とに、区分けする区分手段と、
前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出手段と、
前記領域区分ごとに、前記第1の指定区域のなかの前記追跡先特徴点の数を計数する計数手段と、
前記追跡先特徴点の数が所定数を超えた前記第1の指定区域の前記領域区分のなかから、前記所定数を超えない数まで前記追跡先特徴点を削除し、前記第2の指定区域のなかの前記領域区分に、前記削除した数の追跡先特徴点を再設定する再設定手段と、
を有することを特徴とする画像処理装置。
A dividing means for dividing the frame image into a plurality of regions;
Extraction means for extracting feature points of an image in each of the divided areas;
Detecting means for detecting a motion vector based on the feature points;
A dividing means for dividing the plurality of divided areas into at least two area sections and at least two designated areas of a first designated area and a second designated area;
Calculation means for calculating a tracking destination feature point used for motion vector detection of the next frame based on the value of the motion vector and the feature point detected from the previous frame;
Counting means for counting the number of the tracking destination feature points in the first designated area for each of the area sections;
The tracking destination feature points are deleted from the region classification of the first designated area where the number of the tracking destination feature points exceeds a predetermined number to a number not exceeding the predetermined number, and the second designated area Resetting means for resetting the deleted number of tracking destination feature points in the area section in
An image processing apparatus comprising:
フレームの画像を、少なくとも二つの領域区分と、第1の指定区域と第2の指定区域の少なくとも二つの指定区域とに、区分けする区分手段と、
前記領域区分ごとに、画像を複数の領域に分割する分割手段と、
前記領域区分ごとに、前記複数に分割された各領域内で画像の特徴点を抽出する抽出手段と、
前記領域区分ごとに、前記特徴点を基に動きベクトルを検出する検出手段と、
前記領域区分ごとに、前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出手段と、
前記領域区分ごとに、前記第1の指定区域のなかの前記追跡先特徴点の数を計数する計数手段と、
前記領域区分ごとに、前記追跡先特徴点の数が所定数を超えた前記第1の指定区域のなかから、前記所定数を超えない数まで前記追跡先特徴点を削除し、前記第2の指定区域のなかに、前記削除した数の追跡先特徴点を再設定する再設定手段と、
を有することを特徴とする画像処理装置。
Partitioning means for partitioning the image of the frame into at least two region sections and at least two designated areas of the first designated area and the second designated area;
Dividing means for dividing the image into a plurality of areas for each of the area sections;
Extracting means for extracting feature points of an image in each of the divided areas for each of the area sections;
Detecting means for detecting a motion vector based on the feature points for each of the region sections;
Calculation means for calculating a tracking destination feature point used for motion vector detection of the next frame based on the value of the motion vector and the feature point detected from the previous frame for each region section;
Counting means for counting the number of the tracking destination feature points in the first designated area for each of the area sections;
For each region segment, the tracking destination feature points are deleted from the first designated area where the number of tracking destination feature points exceeds a predetermined number to a number not exceeding the predetermined number, Resetting means for resetting the deleted number of tracking destination feature points in the designated area;
An image processing apparatus comprising:
前記区分手段は、
フレームの画像の入力順序で終盤に入力が行われる領域を、前記第1の指定区域として設定し、
前記入力順序で初期に入力が行われる区分を、前記第2の指定区域として設定することを特徴とする請求項7又は8に記載の画像処理装置。
The sorting means includes
An area where input is performed at the end of the frame image input order is set as the first designated area,
9. The image processing apparatus according to claim 7, wherein a section in which input is initially performed in the input order is set as the second designated area.
前記再設定手段は、前記削除した追跡先特徴点が属する領域区分と同一の領域区分が前記第2の指定区域のなかに含まれる場合、前記第2の指定区域のなかの前記同一の領域区分に、前記追跡先特徴点を再設定することを特徴とする請求項7から9の何れか1項に記載の画像処理装置。   The resetting means, when the same area section as the area section to which the deleted tracking destination feature point belongs is included in the second designated area, the same area section in the second designated area. The image processing apparatus according to claim 7, wherein the tracking destination feature point is reset. 前記再設定手段は、前記第1の指定区域の各追跡先特徴点のなかで、特徴量が少ない追跡先特徴点から順に前記削除を行うことを特徴とする請求項7から10の何れか1項に記載の画像処理装置。   The said reset means performs the said deletion in order from the tracking destination feature point with few feature-values in each tracking destination feature point of the said 1st designated area, The any one of Claim 7 to 10 characterized by the above-mentioned. The image processing apparatus according to item. 前記再設定手段は、前記追跡先特徴点の数が前記所定数を超えている前記第1の指定区域のなかの前記追跡先特徴点の各位置の重心位置から最も近い位置の追跡先特徴点を、前記削除する追跡先特徴点として設定することを特徴とする請求項7から11の何れか1項に記載の画像処理装置。   The resetting means includes a tracking destination feature point at a position closest to a centroid position of each position of the tracking destination feature point in the first designated area where the number of the tracking destination feature points exceeds the predetermined number. The image processing apparatus according to any one of claims 7 to 11, wherein the tracking target feature point to be deleted is set. 前記再設定手段は、前記第2の指定区域のなかで特徴量が最も大きい位置に前記追跡先特徴点を再設定することを特徴とする請求項7から12の何れか1項に記載の画像処理装置。   The image according to any one of claims 7 to 12, wherein the resetting unit resets the tracking destination feature point at a position having the largest feature amount in the second designated area. Processing equipment. フレームの画像を複数の領域に分割する分割工程と、
前記複数に分割された各領域内で画像の特徴点を抽出する抽出工程と、
前記特徴点を基に動きベクトルを検出する検出工程と、
前記分割された複数の領域を、少なくとも二つの領域区分に区分けする区分工程と、
前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出工程と、
前記領域区分のなかで前記追跡先特徴点の位置に偏りがある場合、前記追跡先特徴点の位置に偏りがある前記領域区分のなかで前記追跡先特徴点の位置を均等に再設定する再設定工程と、
を有することを特徴とする画像処理装置の画像処理方法。
A division step of dividing the frame image into a plurality of regions;
An extraction step of extracting feature points of an image in each of the divided areas;
A detection step of detecting a motion vector based on the feature points;
A dividing step of dividing the plurality of divided areas into at least two area sections;
A calculation step of calculating a tracking destination feature point used for motion vector detection of the next frame based on the value of the motion vector and the feature point detected from the previous frame;
If the position of the tracking destination feature point is biased in the area section, the position of the tracking destination feature point is reset evenly in the area section where the position of the tracking destination feature point is biased. A setting process;
An image processing method for an image processing apparatus, comprising:
フレームの画像を、少なくとも二つの領域区分に区分けする区分工程と、
前記領域区分ごとに、画像を複数の領域に分割する分割工程と、
前記領域区分ごとに、前記複数に分割された各領域内で画像の特徴点を抽出する抽出工程と、
前記領域区分ごとに、前記特徴点を基に動きベクトルを検出する検出工程と、
前記領域区分ごとに、前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出工程と、
前記領域区分のなかで前記追跡先特徴点の位置に偏りがある場合、前記追跡先特徴点の位置に偏りがある前記領域区分のなかで前記追跡先特徴点の位置を均等に再設定する再設定工程と、
を有することを特徴とする画像処理装置の画像処理方法。
A segmentation step of segmenting the image of the frame into at least two region segments;
A division step of dividing the image into a plurality of regions for each of the region divisions;
An extraction step of extracting feature points of an image in each of the divided areas for each of the area sections;
A detection step of detecting a motion vector based on the feature points for each of the region sections;
A calculation step of calculating a tracking destination feature point used for motion vector detection of the next frame based on the value of the motion vector and the feature point detected from the previous frame for each region section;
If the position of the tracking destination feature point is biased in the area section, the position of the tracking destination feature point is reset evenly in the area section where the position of the tracking destination feature point is biased. A setting process;
An image processing method for an image processing apparatus, comprising:
フレームの画像を複数の領域に分割する分割工程と、
前記複数に分割された各領域内で画像の特徴点を抽出する抽出工程と、
前記特徴点を基に動きベクトルを検出する検出工程と、
前記分割された複数の領域を、少なくとも二つの領域区分と、第1の指定区域と第2の指定区域の少なくとも二つの指定区域とに、区分けする区分工程と、
前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出工程と、
前記領域区分ごとに、前記第1の指定区域のなかの前記追跡先特徴点の数を計数する計数工程と、
前記追跡先特徴点の数が所定数を超えた前記第1の指定区域の前記領域区分のなかから、前記所定数を超えない数まで前記追跡先特徴点を削除し、前記第2の指定区域のなかの前記領域区分に、前記削除した数の追跡先特徴点を再設定する再設定工程と、
を有することを特徴とする画像処理装置の画像処理方法。
A division step of dividing the frame image into a plurality of regions;
An extraction step of extracting feature points of an image in each of the divided areas;
A detection step of detecting a motion vector based on the feature points;
A dividing step of dividing the plurality of divided areas into at least two area sections and at least two designated areas of a first designated area and a second designated area;
A calculation step of calculating a tracking destination feature point used for motion vector detection of the next frame based on the value of the motion vector and the feature point detected from the previous frame;
A counting step for counting the number of the tracking destination feature points in the first designated area for each region section;
The tracking destination feature points are deleted from the region classification of the first designated area where the number of the tracking destination feature points exceeds a predetermined number to a number not exceeding the predetermined number, and the second designated area A resetting step for resetting the deleted number of tracking destination feature points in the area section in
An image processing method for an image processing apparatus, comprising:
フレームの画像を、少なくとも二つの領域区分と、第1の指定区域と第2の指定区域の少なくとも二つの指定区域とに、区分けする区分工程と、
前記領域区分ごとに、画像を複数の領域に分割する分割工程と、
前記領域区分ごとに、前記複数に分割された各領域内で画像の特徴点を抽出する抽出工程と、
前記領域区分ごとに、前記特徴点を基に動きベクトルを検出する検出工程と、
前記領域区分ごとに、前フレームから検出された前記動きベクトルの値と特徴点とを基に、次のフレームの動きベクトル検出に用いられる追跡先特徴点を算出する算出工程と、
前記領域区分ごとに、前記第1の指定区域のなかの前記追跡先特徴点の数を計数する計数工程と、
前記領域区分ごとに、前記追跡先特徴点の数が所定数を超えた前記第1の指定区域のなかから、前記所定数を超えない数まで前記追跡先特徴点を削除し、前記第2の指定区域のなかに、前記削除した数の追跡先特徴点を再設定する再設定工程と、
を有することを特徴とする画像処理装置の画像処理方法。
A partitioning step of partitioning the image of the frame into at least two region partitions and at least two specified regions of the first specified region and the second specified region;
A division step of dividing the image into a plurality of regions for each of the region divisions;
An extraction step of extracting feature points of an image in each of the divided areas for each of the area sections;
A detection step of detecting a motion vector based on the feature points for each of the region sections;
A calculation step of calculating a tracking destination feature point used for motion vector detection of the next frame based on the value of the motion vector and the feature point detected from the previous frame for each region section;
A counting step for counting the number of the tracking destination feature points in the first designated area for each region section;
For each region segment, the tracking destination feature points are deleted from the first designated area where the number of tracking destination feature points exceeds a predetermined number to a number not exceeding the predetermined number, A resetting step of resetting the deleted number of tracking destination feature points in the designated area;
An image processing method for an image processing apparatus, comprising:
コンピュータを、請求項1から13の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claim 1 to 13.
JP2017136363A 2017-07-12 2017-07-12 Image processing apparatus, image processing method, and program Pending JP2019021990A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017136363A JP2019021990A (en) 2017-07-12 2017-07-12 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017136363A JP2019021990A (en) 2017-07-12 2017-07-12 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2019021990A true JP2019021990A (en) 2019-02-07

Family

ID=65354532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017136363A Pending JP2019021990A (en) 2017-07-12 2017-07-12 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2019021990A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882583A (en) * 2020-07-29 2020-11-03 成都英飞睿技术有限公司 Moving target detection method, device, equipment and medium
CN113691721A (en) * 2021-07-28 2021-11-23 浙江大华技术股份有限公司 Synthesis method and device of time-lapse video, computer equipment and medium
CN115409873A (en) * 2022-07-14 2022-11-29 武汉光庭信息技术股份有限公司 Obstacle detection method, system and electronic equipment based on optical flow feature fusion
CN119540657A (en) * 2025-01-17 2025-02-28 湖南快乐阳光互动娱乐传媒有限公司 A method and system for detecting camera movement type

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882583A (en) * 2020-07-29 2020-11-03 成都英飞睿技术有限公司 Moving target detection method, device, equipment and medium
CN111882583B (en) * 2020-07-29 2023-11-14 成都英飞睿技术有限公司 Moving object detection method, device, equipment and medium
CN113691721A (en) * 2021-07-28 2021-11-23 浙江大华技术股份有限公司 Synthesis method and device of time-lapse video, computer equipment and medium
CN113691721B (en) * 2021-07-28 2023-07-18 浙江大华技术股份有限公司 Method, device, computer equipment and medium for synthesizing time-lapse photographic video
CN115409873A (en) * 2022-07-14 2022-11-29 武汉光庭信息技术股份有限公司 Obstacle detection method, system and electronic equipment based on optical flow feature fusion
CN119540657A (en) * 2025-01-17 2025-02-28 湖南快乐阳光互动娱乐传媒有限公司 A method and system for detecting camera movement type

Similar Documents

Publication Publication Date Title
TWI543610B (en) Electronic device and image selection method thereof
JP5794705B2 (en) Imaging apparatus, control method thereof, and program
JP5057974B2 (en) Processing video data to correct unintentional camera movement between acquired image frames
JP5484184B2 (en) Image processing apparatus, image processing method, and program
US20090225174A1 (en) Image processing apparatus, image processing method, hand shake blur area estimation device, hand shake blur area estimation method, and program
US9930258B2 (en) Image processing device and image processing system to determine capturing scheme for capturing a pixel value during moving image capture
JP2019021990A (en) Image processing apparatus, image processing method, and program
US20190355123A1 (en) Apparatus and methods for image processing
CN110572534A (en) Digital video image stabilization method, device, equipment and storage medium of panoramic image
JP2017143492A (en) Image processing apparatus, imaging apparatus, image processing method, and program
WO2017012372A1 (en) Photographing control method and apparatus for terminal, and terminal
CN1266948C (en) Interruption detector and occlusion area detection method for occlusion area detection
US20130170770A1 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
JP5968379B2 (en) Image processing apparatus and control method thereof
JP2019020839A (en) Image processing apparatus, image processing method, and program
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
US9883102B2 (en) Image processing apparatus, image processing method, program, and camera
CN104123716B (en) The detection method of picture steadiness, device and terminal
JP5300413B2 (en) Motion vector detection device, motion vector detection method, imaging device, and program
CN106454066B (en) Image processing apparatus and control method thereof
KR101458099B1 (en) Image Stabilization Method and Image Processing Apparatus usign the smae
JP6667372B2 (en) Image processing device, imaging device, image processing method, and program
JP2006215655A (en) Motion vector detection method, motion vector detection device, motion vector detection program, and program recording medium
JP6579934B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
CN114168891B (en) Method, device, terminal equipment and medium for digitizing vibration images