[go: up one dir, main page]

JP2012039210A - Object specification program and camera - Google Patents

Object specification program and camera Download PDF

Info

Publication number
JP2012039210A
JP2012039210A JP2010175173A JP2010175173A JP2012039210A JP 2012039210 A JP2012039210 A JP 2012039210A JP 2010175173 A JP2010175173 A JP 2010175173A JP 2010175173 A JP2010175173 A JP 2010175173A JP 2012039210 A JP2012039210 A JP 2012039210A
Authority
JP
Japan
Prior art keywords
subject
image
procedure
specifying
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010175173A
Other languages
Japanese (ja)
Inventor
Hiroyuki Abe
啓之 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010175173A priority Critical patent/JP2012039210A/en
Publication of JP2012039210A publication Critical patent/JP2012039210A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像内の被写体を特定すること。
【解決手段】被写体特定用プログラムは、連続して入力されるフレームの中から対象画像を選択し、対象画像の色情報または輝度情報に基づいて1つの画像を複数の区分画像に区分する区分手順と、複数の区分画像のそれぞれを色情報または輝度情報を用いて2値化して複数の2値化区分画像を生成する2値化手順と、複数の2値化区分画像のそれぞれに対して、対象画像内における被写体を特定するために用いる評価値を算出する評価値算出手順と、評価値に基づいて、対象画像内における被写体を特定する被写体特定手順と、被写体特定手順で特定した対象画像内における被写体の位置を記憶する記憶手順と、被写体特定手順で特定した被写体を連続して入力されるフレーム間で追尾する追尾手順とをコンピュータに実行させる。
【選択図】図1
To identify a subject in an image.
A program for identifying a subject selects a target image from continuously input frames, and classifies one image into a plurality of segmented images based on color information or luminance information of the target image. A binarization procedure for binarizing each of the plurality of segmented images using color information or luminance information to generate a plurality of binarized segmented images, and for each of the plurality of binarized segmented images, An evaluation value calculation procedure for calculating an evaluation value used for specifying a subject in the target image, a subject specification procedure for specifying a subject in the target image based on the evaluation value, and a target image specified in the subject specification procedure The computer is caused to execute a storage procedure for storing the position of the subject in, and a tracking procedure for tracking the subject specified in the subject specifying procedure between frames that are continuously input.
[Selection] Figure 1

Description

本発明は、被写体特定用プログラム、およびカメラに関する。   The present invention relates to a subject specifying program and a camera.

次のような撮像装置が知られている。この撮像装置は、使用者によって選択されたAF領域に基づいて被写体位置を特定し、特定した被写体を対象として焦点調節処理を行う(例えば、特許文献1)。   The following imaging devices are known. This imaging apparatus specifies a subject position based on the AF area selected by the user, and performs focus adjustment processing on the specified subject (for example, Patent Document 1).

特開2004−205885号公報Japanese Patent Laid-Open No. 2004-20585

しかしながら、従来の撮像装置では、被写体が小さい場合や高速で移動している場合には、被写体を特定することが困難であった。   However, in the conventional imaging device, it is difficult to specify the subject when the subject is small or moving at high speed.

本発明による被写体特定用プログラムは、連続して入力されるフレームの中から対象画像を選択し、対象画像の色情報または輝度情報に基づいて1つの画像を複数の区分画像に区分する区分手順と、複数の区分画像のそれぞれを色情報または輝度情報を用いて2値化して複数の2値化区分画像を生成する2値化手順と、複数の2値化区分画像のそれぞれに対して、対象画像内における被写体を特定するために用いる評価値を算出する評価値算出手順と、評価値に基づいて、対象画像内における被写体を特定する被写体特定手順と、被写体特定手順で特定した対象画像内における被写体の位置を記憶する記憶手順と、被写体特定手順で特定した被写体を連続して入力されるフレーム間で追尾する追尾手順とをコンピュータに実行させることを特徴とする。
本発明によるカメラは、上記の被写体特定用プログラムを実行するための実行手段を備えることを特徴とする。
A program for identifying a subject according to the present invention selects a target image from continuously input frames, and classifies one image into a plurality of segmented images based on color information or luminance information of the target image; A binarization procedure for binarizing each of a plurality of segmented images using color information or luminance information to generate a plurality of binarized segmented images, and a target for each of the plurality of binarized segmented images An evaluation value calculation procedure for calculating an evaluation value used for specifying a subject in the image, a subject specifying procedure for specifying a subject in the target image based on the evaluation value, and a target image specified in the subject specifying procedure It is characterized in that the computer executes a storing procedure for storing the position of the subject and a tracking procedure for tracking the subject specified in the subject specifying procedure between frames input continuously. To.
A camera according to the present invention is characterized by comprising execution means for executing the subject specifying program.

本発明によれば、被写体が小さい場合や高速で移動している場合でも、精度高く被写体を特定して、追尾することができる。   According to the present invention, even when the subject is small or moving at high speed, the subject can be identified and tracked with high accuracy.

カメラの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of a camera. 被写体特定処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a subject specific process. 被写体抽出処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a subject extraction process. 対象画像の具体例を示す図である。It is a figure which shows the specific example of a target image. 2値化したYプレーン画像、2値化したCbプレーン画像、2値化したCrプレーン画像、および2値化したY補数画像の具体例を示す図である。It is a figure which shows the specific example of the binarized Y plane image, the binarized Cb plane image, the binarized Cr plane image, and the binarized Y complement image. ラベリング領域の抽出例を模式的に示した図である。It is the figure which showed the example of extraction of a labeling area | region typically. ラベリング領域に対して識別子を付加した場合の具体例を示す図である。It is a figure which shows the specific example at the time of adding an identifier with respect to a labeling area | region. 2値化区分画像について算出された第1の評価値の具体例を示す図である。It is a figure which shows the specific example of the 1st evaluation value calculated about the binarization division image.

図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。   FIG. 1 is a block diagram illustrating a configuration of an embodiment of a camera according to the present embodiment. The camera 100 includes an operation member 101, a lens 102, an image sensor 103, a control device 104, a memory card slot 105, and a monitor 106. The operation member 101 includes various input members operated by the user, such as a power button, a release button, a zoom button, a cross key, an enter button, a play button, and a delete button.

レンズ102は、複数の光学レンズから構成されるが、図1では代表して1枚のレンズで表している。撮像素子103は、例えばCCDやCMOSなどのイメージセンサーであり、レンズ102により結像した被写体像を撮像する。そして、撮像によって得られた画像信号を制御装置104へ出力する。   The lens 102 is composed of a plurality of optical lenses, but is representatively represented by one lens in FIG. The image sensor 103 is an image sensor such as a CCD or a CMOS, for example, and captures a subject image formed by the lens 102. Then, an image signal obtained by imaging is output to the control device 104.

制御装置104は、撮像素子103から入力された画像信号に基づいて所定の画像形式、例えばJPEG形式の画像データ(以下、「本画像データ」と呼ぶ)を生成する。また、制御装置104は、生成した画像データに基づいて、表示用画像データ、例えばサムネイル画像データを生成する。制御装置104は、生成した本画像データとサムネイル画像データとを含み、さらにヘッダ情報を付加した画像ファイルを生成してメモリカードスロット105へ出力する。本実施の形態では、本画像データとサムネイル画像データとは、いずれもRGB表色系で表された画像データであるものとする。   The control device 104 generates image data in a predetermined image format, for example, JPEG format (hereinafter referred to as “main image data”) based on the image signal input from the image sensor 103. Further, the control device 104 generates display image data, for example, thumbnail image data, based on the generated image data. The control device 104 generates an image file that includes the generated main image data and thumbnail image data, and further includes header information, and outputs the image file to the memory card slot 105. In the present embodiment, it is assumed that both the main image data and the thumbnail image data are image data expressed in the RGB color system.

メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、メモリカードスロット105は、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。   The memory card slot 105 is a slot for inserting a memory card as a storage medium, and the image file output from the control device 104 is written and recorded on the memory card. The memory card slot 105 reads an image file stored in the memory card based on an instruction from the control device 104.

モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、使用者によってカメラ100のモードが撮影モードに設定されると、撮像素子103から時系列で取得した画像の表示用画像データをモニタ106に出力する。これによってモニタ106にはスルー画が表示される。   The monitor 106 is a liquid crystal monitor (rear monitor) mounted on the back surface of the camera 100, and the monitor 106 displays an image stored in a memory card, a setting menu for setting the camera 100, and the like. . Further, when the user sets the mode of the camera 100 to the shooting mode, the control device 104 outputs image data for display of images acquired from the image sensor 103 in time series to the monitor 106. As a result, a through image is displayed on the monitor 106.

制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、カメラ100を制御する。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。   The control device 104 includes a CPU, a memory, and other peripheral circuits, and controls the camera 100. Note that the memory constituting the control device 104 includes SDRAM and flash memory. The SDRAM is a volatile memory, and is used as a work memory for the CPU to develop a program when the program is executed or as a buffer memory for temporarily recording data. The flash memory is a non-volatile memory in which data of a program executed by the control device 104, various parameters read during program execution, and the like are recorded.

本実施の形態では、制御装置104は、以下に示す処理を行うことによって、画像内における被写体の位置を特定するとともに、該被写体の位置と大きさと形状とを特定し、撮像素子103から時系列で連続して入力される複数のフレーム間で、被写体の追尾を行う。図2は、本実施の形態における被写体特定処理の流れを示すフローチャートである。以下、この図2を用いて、本実施の形態における被写体特定処理について説明する。   In the present embodiment, the control device 104 specifies the position of the subject in the image and the position, size, and shape of the subject by performing the following processing, and the time series from the image sensor 103. The subject is tracked between a plurality of frames that are input continuously. FIG. 2 is a flowchart showing the flow of subject identification processing in the present embodiment. Hereinafter, the subject specifying process in the present embodiment will be described with reference to FIG.

ステップS10において、制御装置104は、撮像素子103から連続して入力される画像の1フレーム目を対象画像とし、該対象画像に対して図3に示す被写体抽出処理を実行する。ここで、図3を用いて本実施の形態における被写体抽出処理について説明する。ステップS510において、制御装置104は、1フレーム目の画像データを読み込んで、ステップS520へ進む。ステップS520では、制御装置104は、読み込んだ対象画像の画像サイズを例えば縦のサイズが30〜60画素程度になるように縮小する。これにより、後の処理を高速化することができる。   In step S10, the control device 104 sets the first frame of images continuously input from the image sensor 103 as a target image, and performs subject extraction processing shown in FIG. 3 on the target image. Here, the subject extraction processing in the present embodiment will be described with reference to FIG. In step S510, the control device 104 reads the image data of the first frame, and proceeds to step S520. In step S520, the control device 104 reduces the image size of the read target image so that the vertical size becomes, for example, about 30 to 60 pixels. As a result, the subsequent processing can be speeded up.

その後、ステップS530へ進み、制御装置104は、対象画像をYCbCr形式の画像に変換し、Y成分の画像(Yプレーン画像)、Cr成分の画像(Crプレーン画像)、および、Cb成分の画像(Cbプレーン画像)をそれぞれ生成する。また、制御装置104は、Yプレーン画像の白画素と黒画素を反転させたY補数プレーン画像を生成する。具体的には、RGB表色系で表されている対象画像を次式(1)〜(3)を用いてYCbCr色空間における輝度成分(Y成分)からなる輝度画像と色差成分(Cb成分、Cr成分)とからなる色差画像とに変換する。すなわち、制御装置104は、対象画像について、次式(1)を用いてY成分からなる輝度画像をYプレーン画像として生成し、次式(2)および(3)を用いてCb成分からなる色差画像とCr成分からなる色差画像とをそれぞれCbプレーン画像、およびCrプレーン画像として生成する。
Y = 0.299R+0.587G+0.114B ・・・(1)
Cb=−0.169R−0.332G+0.500B ・・・(2)
Cr= 0.500R−0.419G−0.081B ・・・(3)
After that, the process proceeds to step S530, and the control device 104 converts the target image into an image in YCbCr format, and Y component image (Y plane image), Cr component image (Cr plane image), and Cb component image ( Cb plane images) are generated respectively. Further, the control device 104 generates a Y complement plane image in which white pixels and black pixels of the Y plane image are inverted. Specifically, a target image represented by the RGB color system is represented by a luminance image composed of luminance components (Y components) in a YCbCr color space and color difference components (Cb components, To a color difference image composed of (Cr component). That is, for the target image, the control device 104 generates a luminance image composed of the Y component as a Y plane image using the following equation (1), and a color difference composed of the Cb component using the following equations (2) and (3). An image and a color difference image composed of Cr components are generated as a Cb plane image and a Cr plane image, respectively.
Y = 0.299R + 0.587G + 0.114B (1)
Cb = −0.169R−0.332G + 0.500B (2)
Cr = 0.500R−0.419G−0.081B (3)

そして、制御装置104は、生成したYプレーン画像、Cbプレーン画像、およびCrプレーン画像、Y補数プレーン画像のそれぞれについて、画像内の全画素の濃度値を調べ、各濃度値の平均値Mと各濃度の標準偏差σとを算出して、ステップS540へ進む。   Then, for each of the generated Y plane image, Cb plane image, Cr plane image, and Y complement plane image, the control device 104 examines the density values of all the pixels in the image, and calculates the average value M of each density value and each of the density values. The density standard deviation σ is calculated, and the process proceeds to step S540.

ステップS540では、制御装置104は、Yプレーン画像、Cbプレーン画像、Crプレーン画像、およびY補数プレーン画像の各画素を各々の平均値M+標準偏差σ、平均値M、平均値M−標準偏差σでそれぞれ2値化し、16枚の2値化区分画像を作成する。例えば、図4に示した対象画像に対しては、図5に示すように、平均値M+標準偏差σを第1の閾値とし、濃度が該第1の閾値よりも大きな画素を白画素、小さい画素を黒画素としてYプレーン画像を2値化した2値化区分画像5aを作成する。また、平均値Mを第2の閾値とし、濃度が該第2の閾値より大きく、上記第1の閾値以下の画素を白画素、それ以外を黒画素としてYプレーン画像を2値化した2値化区分画像5bを作成する。また、平均値M−標準偏差σを第3の閾値とし、濃度が該第3の閾値より大きく、上記第2の閾値以下の画素を白画素、それ以外を黒画素としてYプレーン画像を2値化した2値化区分画像5cを作成する。また、濃度が上記第3の閾値以下の画素を白画素、閾値よりも大きい画素を黒画素としてYプレーン画像を2値化した2値化区分画像5dを作成する。   In step S540, the control device 104 sets each pixel of the Y plane image, Cb plane image, Cr plane image, and Y complement plane image to an average value M + standard deviation σ, an average value M, an average value M−standard deviation σ. And binarize each to create 16 binarized segment images. For example, for the target image shown in FIG. 4, as shown in FIG. 5, the average value M + standard deviation σ is the first threshold value, and pixels whose density is larger than the first threshold value are white pixels and small. A binarized segmented image 5a is generated by binarizing the Y plane image with pixels as black pixels. Further, a binary value obtained by binarizing the Y plane image using the average value M as the second threshold value, the density being larger than the second threshold value, the pixels below the first threshold value being white pixels, and the others being black pixels. The segmentation image 5b is created. Further, the average value M−standard deviation σ is set as the third threshold value, and the Y plane image is binary with the density larger than the third threshold value and the pixels equal to or lower than the second threshold value as white pixels and the other as black pixels. A binarized segmented image 5c is created. Also, a binarized segmented image 5d is generated by binarizing the Y plane image, with pixels having a density equal to or lower than the third threshold as white pixels and pixels larger than the threshold as black pixels.

また、制御装置104は、Cbプレーン画像についても同様に、上記第1の閾値、第2の閾値、第3の閾値を用いて2値化して、2値化区分画像5e、5f、5g、5hを作成する。また、制御装置104は、Crプレーン画像についても同様に、上記第1の閾値、第2の閾値、第3の閾値を用いて2値化して、2値化区分画像5i、5j、5k、5lを作成する。また、制御装置104は、Y補数(Yc)プレーン画像についても同様に、上記第1の閾値、第2の閾値、第3の閾値を用いて2値化して、2値化区分画像5m、5n、5o、5pを作成する。以上の処理によって、16区分の2値化区分画像5a〜5pが生成される。   Similarly, the control device 104 binarizes the Cb plane image using the first threshold value, the second threshold value, and the third threshold value, and binarizes the segmented images 5e, 5f, 5g, and 5h. Create Similarly, the control device 104 binarizes the Cr plane image using the first threshold value, the second threshold value, and the third threshold value, thereby binarizing the divided images 5i, 5j, 5k, and 5l. Create Similarly, the control device 104 binarizes the Y-complement (Yc) plane image using the first threshold value, the second threshold value, and the third threshold value, thereby binarizing the segmented images 5m and 5n. 5o and 5p are created. Through the above processing, 16-segment binarized segment images 5a to 5p are generated.

その後、ステップS550へ進み、制御装置104は、対象画像内に、被写体が位置していると推定される被写体位置推定点を設定する。例えば、制御装置104は、使用者に対して被写体位置の指定を促し、これに応じて使用者によって指定された被写体位置を被写体位置推定点として設定する。あるいは、制御装置104は、使用者に対して焦点調節を行うためのAF位置の指定を促し、これに応じて使用者によって指定されたAF指示位置を被写体位置推定点として設定する。あるいは、制御装置104は、対象画像の中心位置を被写体位置推定点として設定する。これにより、対象画像内における被写体のおおよその位置を推定することができ、対象画像内からの被写体の抽出精度を向上させることができる。その後、ステップS560へ進む。   Thereafter, the process proceeds to step S550, and the control device 104 sets a subject position estimation point where the subject is estimated to be located in the target image. For example, the control device 104 prompts the user to specify the subject position, and sets the subject position designated by the user as the subject position estimation point accordingly. Alternatively, the control device 104 prompts the user to specify an AF position for performing focus adjustment, and sets the AF instruction position specified by the user as a subject position estimation point in response to this. Alternatively, the control device 104 sets the center position of the target image as the subject position estimation point. Thereby, the approximate position of the subject in the target image can be estimated, and the extraction accuracy of the subject from the target image can be improved. Thereafter, the process proceeds to step S560.

ステップS560では、制御装置104は、対象画像内からの被写体の抽出精度をさらに向上させるために、使用者に対して、対象画像内における被写体のおおよその大きさの入力を促す。例えば、制御装置104は、被写体の大きさの候補を3段階程度で使用者に提示し、使用者に候補の中から対象画像内における被写体の大きさに最も近いものを選択してもらうようにする。その後、ステップS600へ進む。なお、ステップS600〜ステップS700の処理は、ステップS540で2値化して得た16区分の2値化区分画像5a〜5pのそれぞれに対して実行される。すなわち、ステップS600〜ステップS700の処理は、各2値化区分画像を対象とし、16回ループして処理される。なお、以下の説明では、代表して2値化区分画像5aに対してステップS600〜ステップS700の処理を実行する場合について説明するが、他の2値化区分画像5b〜5pについても同様に実行される。   In step S560, the control device 104 prompts the user to input the approximate size of the subject in the target image in order to further improve the accuracy of extracting the subject from the target image. For example, the control device 104 presents the subject size candidates to the user in about three stages, and asks the user to select a candidate closest to the subject size in the target image from the candidates. To do. Thereafter, the process proceeds to step S600. Note that the processing from step S600 to step S700 is executed for each of the 16 binarized segmented images 5a to 5p obtained by binarization in step S540. That is, the processes in steps S600 to S700 are processed in a loop of 16 times for each binarized segmented image. In the following description, the case where the processing of step S600 to step S700 is executed on the binarized section image 5a as a representative will be described, but the same processing is performed on the other binarized section images 5b to 5p. Is done.

ステップS600では、制御装置104は、2値化区分画像5aを対象としてラベリング処理を行う。具体的には、制御装置104は、2値化区分画像内から白画素のまとまりで構成される領域をラベリング領域として抽出し、各ラベリング領域に対してそれぞれを識別するための識別子、例えば番号を付加する。例えば、図6に示すようにラベリング領域6a、ラベリング領域6b、ラベリング領域6cの3つのラベリング領域が抽出された場合には、図7に示すように、それぞれのラベリング領域に対して1〜3の番号を付加する。なお、本実施の形態では、ラベリング処理によって抽出された白画素で構成されるラベリング領域を「島」と呼ぶ。   In step S600, the control device 104 performs a labeling process on the binarized segmented image 5a. Specifically, the control device 104 extracts an area composed of a group of white pixels from the binarized segmented image as a labeling area, and uses an identifier, for example, a number for identifying each labeling area. Append. For example, when three labeling regions 6a, 6b, and 6c are extracted as shown in FIG. 6, 1 to 3 for each labeling region as shown in FIG. Add a number. In the present embodiment, a labeling region including white pixels extracted by the labeling process is referred to as “island”.

その後、ステップS610へ進み、制御装置104は、2値化区分画像5a内から抽出された各島の面積を算出して、ステップS620へ進む。ステップS620では、制御装置104は、ステップS610で算出した各島の面積(白画素面積)を評価値として用い、該白画素面積とステップS560で使用者によって入力された被写体のおおよその大きさとに基づいて、2値化区分画像5a内の各島の中から、被写体を構成する可能性が低い島を特定して、以降の処理の対象から除外する。具体的には、制御装置104は、2値化区分画像5a内から抽出された島のうち、ステップS610で算出した島の面積とステップS560で使用者によって入力された被写体のおおよその大きさとの差が所定以上の島を以降の処理の対象から除外する。ステップS630以降の処理では、制御装置104は、ここで除外した島以外の島を対象として処理を実行する。   Thereafter, the process proceeds to step S610, where the control device 104 calculates the area of each island extracted from the binarized segment image 5a, and proceeds to step S620. In step S620, the control device 104 uses the area (white pixel area) of each island calculated in step S610 as an evaluation value, and sets the white pixel area and the approximate size of the subject input by the user in step S560. Based on the islands in the binarized divided image 5a, the islands that are unlikely to constitute the subject are identified and excluded from the subsequent processing targets. Specifically, the control device 104 calculates the area of the island calculated in step S610 out of the islands extracted from the binarized segmented image 5a and the approximate size of the subject input by the user in step S560. Exclude islands with a difference greater than or equal to a predetermined value from the target of subsequent processing. In the processing after step S630, the control device 104 executes processing for islands other than the islands excluded here.

その後、ステップS630へ進み、制御装置104は、2値化区分画像5a内の各島に対して、それぞれの島を包絡する矩形を設定する。そして、制御装置104は、包絡矩形内の島がすかすかである場合や、凸凹である場合には、その島は被写体を構成する可能性が低いため、次式(4)により、このような被写体を構成する可能性が低い島を特定するための第2の評価値を算出する。
第2の評価値=島の面積/包絡矩形の面積 ・・・(4)
Thereafter, the process proceeds to step S630, and the control device 104 sets a rectangle that encloses each island for each island in the binarized segmented image 5a. Then, when the island in the envelope rectangle is faint or uneven, the control device 104 is unlikely to form a subject, and therefore, according to the following equation (4), A second evaluation value for identifying an island that is unlikely to constitute is calculated.
Second evaluation value = island area / envelope rectangle area (4)

その後、ステップS640へ進み、制御装置104は、島の形状が細長い場合には、その島は被写体を構成する可能性が低いため、ステップS630で設定した包絡矩形のそれぞれについて縦横比を算出し、これを被写体を構成する可能性が低い島を特定するための第3の評価値として、ステップS650へ進む。ステップS650では、制御装置104は、2値化区分画像5aの両端にかかる島は被写体を構成する可能性が低いため、このような島を特定するために、島が2値化区分画像5aの端点にかかっている割合を示す第4の評価値を算出して、ステップS660へ進む。例えば、図5の2値化区分画像5mでは、島が画像の上部の両端にかかっているため、該第4の評価値によって、このような島が特定される。   Thereafter, the process proceeds to step S640, and when the shape of the island is elongated, the control device 104 calculates the aspect ratio for each of the envelope rectangles set in step S630 because the island is unlikely to constitute a subject. The process proceeds to step S650 as a third evaluation value for identifying an island having a low possibility of constituting the subject. In step S650, the control device 104 has a low possibility that the islands at both ends of the binarized segmented image 5a constitute a subject. Therefore, in order to identify such an island, the island is included in the binarized segmented image 5a. A fourth evaluation value indicating the proportion of the end point is calculated, and the process proceeds to step S660. For example, in the binarized section image 5m in FIG. 5, since the islands are on both ends of the upper part of the image, such islands are specified by the fourth evaluation value.

ステップS660では、制御装置104は、上述した第2の評価値、第3の評価値、第4の評価値を用いて、2値化区分画像5a内の各島の中から、被写体を構成する可能性が低い島を、以降の処理対象から除外する。具体的には、制御装置104は、2値化区分画像5a内の各島のうち、第2の評価値である島の面積/包絡矩形の面積の算出結果が所定の値より小さく、第3の評価値である包絡矩形の縦横比が所定の比以上であり、かつ第4の評価値である島が2値化区分画像5aの端点にかかっている割合が所定の割合以上である島を、以降の処理対象から除外する。ステップS670以降の処理では、制御装置104は、ここで除外した島以外の島を対象として処理を実行する。その後、ステップS670へ進む。   In step S660, the control device 104 configures a subject from each island in the binarized divided image 5a using the above-described second evaluation value, third evaluation value, and fourth evaluation value. Exclude less likely islands from further processing. Specifically, among the islands in the binarized segmented image 5a, the control device 104 calculates the area of the island / envelope rectangle, which is the second evaluation value, smaller than a predetermined value. An island in which the aspect ratio of the envelope rectangle that is the evaluation value is equal to or greater than a predetermined ratio and the ratio of the island that is the fourth evaluation value to the end point of the binarized segmented image 5a is equal to or greater than the predetermined ratio. Excluded from subsequent processing. In the processing after step S670, the control device 104 executes processing for islands other than the islands excluded here. Thereafter, the process proceeds to step S670.

ステップS670では、制御装置104は、上記処理で除外した以外の島を対象として、2値化区分画像5a内の上記被写体位置推定点を中心とした慣性モーメント(被写体位置推定点周りの慣性モーメント)を算出する。なお、2値化区分画像5aにおける慣性モーメントの算出方法については、公知のため詳細な説明を省略するが、例えば、次式(5)により算出することができる。その後、ステップS680へ進む。

Figure 2012039210
In step S670, the control device 104 targets the islands other than those excluded in the above processing, and the inertia moment (the inertia moment around the subject position estimation point) around the subject position estimation point in the binarized segmented image 5a. Is calculated. The calculation method of the moment of inertia in the binarized segmented image 5a is well known and will not be described in detail. For example, it can be calculated by the following equation (5). Thereafter, the process proceeds to step S680.
Figure 2012039210

ステップS680では、制御装置104は、ステップS610で算出した白画素面積、すなわち島の面積と、ステップS670で算出した被写体位置推定点周りの慣性モーメントとに基づいて、次式(6)により、第1の評価値を算出する。ここで算出される第1の評価値は、島(白画素領域)内での白画素のまとまり状況を表す値である。
第1の評価値=白画素面積/被写体位置推定点周りの慣性モーメント ・・・(6)
In step S680, the control device 104 calculates the first pixel area by the following equation (6) based on the white pixel area calculated in step S610, that is, the island area, and the moment of inertia around the subject position estimation point calculated in step S670. An evaluation value of 1 is calculated. The first evaluation value calculated here is a value representing a grouping state of white pixels in the island (white pixel region).
First evaluation value = white pixel area / moment of inertia around subject position estimation point (6)

その後、ステップS690へ進み、制御装置104は、2値化区分画像5a内の島の中から、ステップS680で算出した第1の評価値が最も大きい島(第1位の島)と2番目に大きい島(第2の島)を特定し、これらを対象画像内における被写体を構成する島の候補とする。   Thereafter, the process proceeds to step S690, and the control device 104 secondly selects the island having the largest first evaluation value (first island) calculated in step S680 from among the islands in the binarized segment image 5a. A large island (second island) is specified, and these are set as island candidates constituting the subject in the target image.

その後、ステップS700へ進み、制御装置104は、全ての2値化区分画像(マスク)について、ステップS600〜S690の処理が完了したか否かを判断する。ステップS700で否定判断した場合には、ステップS600へ戻る。これに対して、ステップS700で肯定判断した場合には、ステップS710へ進む。これにより、図5に示した16区分の全ての2値化区分画像について、第1位の島と第2位の島とが特定される。   Thereafter, the process proceeds to step S700, and the control device 104 determines whether or not the processing of steps S600 to S690 has been completed for all the binarized segment images (masks). If a negative determination is made in step S700, the process returns to step S600. In contrast, if an affirmative determination is made in step S700, the process proceeds to step S710. As a result, the first island and the second island are specified for all the 16 binarized segment images shown in FIG.

ステップS710では、制御装置104は、16区分の2値化区分画像について特定された第1の島と第2の島、すなわち計32個の島を第1の評価値に基づいて順位付けし、順位が上位の複数の島、例えば第1位〜第3位の島を、対象画像内における被写体を構成する島として特定して、ステップS720へ進む。例えば、図8に示す各2値化区分画像5a〜5pについて、各2値化区分画像の下に示したような第1の評価値が算出された場合には、該第1の評価値が上位の3つ、すなわち第1位の2値化区分画像5hと、第2位の2値化区分画像5iと、第3位の2値化区分画像5fとが特定される。   In step S710, the control device 104 ranks the first island and the second island specified for the 16-segment binarized segment image, that is, a total of 32 islands based on the first evaluation value, A plurality of islands with higher ranks, for example, first to third islands are identified as islands constituting the subject in the target image, and the process proceeds to step S720. For example, for each binarized segment image 5a to 5p shown in FIG. 8, when a first evaluation value as shown below each binarized segment image is calculated, the first evaluation value is The top three, that is, the first binarized segment image 5h, the second binarized segment image 5i, and the third binarized segment image 5f are specified.

ステップS720では、制御装置104は、ステップS710で特定した複数の島が隣接しており、これらを結合して1つの被写体を構成する場合には、これらの島を合成して被写体の形状を特定する。一方、ステップS710で特定した複数の島が隣接していない場合には、ステップS710で特定した島のうちの、最も第1の評価値が大きい島が被写体を構成する島として特定され、該特定結果に基づいて、対象画像内における被写体の位置、大きさ、形状が特定される。すなわち、図8に示した例では、第1位の2値化区分画像5h内に存在する島8aが被写体を構成する島として特定される。   In step S720, when the plurality of islands specified in step S710 are adjacent to each other and are combined to form one subject, the control device 104 combines these islands to specify the shape of the subject. To do. On the other hand, if the plurality of islands identified in step S710 are not adjacent, the island having the largest first evaluation value among the islands identified in step S710 is identified as the island constituting the subject, and the identification is performed. Based on the result, the position, size, and shape of the subject in the target image are specified. That is, in the example shown in FIG. 8, the island 8a existing in the first binarized segmented image 5h is specified as the island constituting the subject.

その後、ステップS730へ進み、制御装置104は、ステップS720で特定した被写体の形状に基づいて、対象画像内における該被写体の重心位置を特定し、特定した重心位置を示す情報、例えば重心位置の座標値を不図示のメモリに記録する。また、制御装置104は、被写体形状の特定に用いた島を特定するための情報、例えばステップS600のラベリング処理により各島に付加された番号(マスクNo)を不図示のメモリに記録する。その後、図2に示す処理に復帰する。   Thereafter, the process proceeds to step S730, and the control device 104 specifies the position of the center of gravity of the subject in the target image based on the shape of the subject specified in step S720, and information indicating the specified position of the center of gravity, for example, coordinates of the position of the center of gravity The value is recorded in a memory (not shown). In addition, the control device 104 records information for specifying the island used for specifying the subject shape, for example, a number (mask No.) added to each island by the labeling process in step S600 in a memory (not shown). Thereafter, the process returns to the process shown in FIG.

以上の処理により、1フレーム目を対象画像とし、該対象画像名における被写体の位置、大きさ、および形状を特定することができる。その後、図2のステップS20以降の処理より、2フレーム目以降の画像についての処理が実行される。ステップS20では、制御装置104は、撮像素子103から連続して入力される画像の次フレームを対象画像として読み込んで、ステップS30へ進む。ステップS30からステップS50の処理は、図3で上述したステップS520からステップS540の処理と同様のため、説明を省略する。   With the above processing, the first frame is set as the target image, and the position, size, and shape of the subject in the target image name can be specified. Thereafter, the processing for the second and subsequent images is executed by the processing after step S20 in FIG. In step S20, the control apparatus 104 reads the next frame of the image continuously input from the image sensor 103 as a target image, and proceeds to step S30. The processing from step S30 to step S50 is the same as the processing from step S520 to step S540 described above with reference to FIG.

その後、ステップS60へ進み、制御装置104は、対象画像内から前フレームにおける被写体位置を含んだ所定範囲の画像を抽出する。本実施の形態では、以降の処理の実行対象をステップS60で抽出した範囲の画像に限定することによって処理を高速化する。しかしながら、ステップS60の処理を行わずに、対象画像の全体に対して処理を行うようにしてもよい。その後、ステップS70へ進む。ステップS70からステップS130の処理は、図3で上述したステップS600からステップS660の処理と同様のため、説明を省略する。   Thereafter, the process proceeds to step S60, and the control device 104 extracts an image in a predetermined range including the subject position in the previous frame from the target image. In the present embodiment, the processing speed is increased by limiting the execution target of subsequent processing to the image in the range extracted in step S60. However, the process may be performed on the entire target image without performing the process of step S60. Thereafter, the process proceeds to step S70. The processing from step S70 to step S130 is the same as the processing from step S600 to step S660 described above with reference to FIG.

ステップS140では、制御装置104は、前フレームでメモリに記録した被写体位置、例えば被写体形状の特定に用いた島の重心点を中心とした慣性モーメント(被写体重心点周りの慣性モーメント)を式(5)により算出して、ステップS150へ進む。ステップS150の処理は、図3で上述したステップS670の処理と同様のため、説明を省略する。   In step S140, the control device 104 calculates an inertial moment (inertia moment around the subject gravity point) centered on the center of gravity of the island used to identify the subject position, for example, the subject shape, recorded in the memory in the previous frame. ) And the process proceeds to step S150. The process in step S150 is the same as the process in step S670 described above with reference to FIG.

その後、ステップS160へ進み、制御装置104は、ステップS150で算出した第1の評価値が最大となる島を合成エリアとしてメモリに記憶する。その後、ステップS170へ進み、制御装置104は、全ての2値化区分画像(マスク)について、ステップS60〜S160の処理が完了したか否かを判断する。ステップS170で否定判断した場合には、ステップS60へ戻る。これに対して、ステップS170で肯定判断した場合には、ステップS180へ進む。   Thereafter, the process proceeds to step S160, and the control device 104 stores the island having the maximum first evaluation value calculated in step S150 in the memory as a composite area. Thereafter, the process proceeds to step S170, and the control device 104 determines whether or not the processing of steps S60 to S160 has been completed for all the binarized segment images (masks). If a negative determination is made in step S170, the process returns to step S60. On the other hand, if a positive determination is made in step S170, the process proceeds to step S180.

ステップS180では、制御装置104は、ステップS160でメモリに記録した合成エリアをモニタ106に表示して、ステップS190へ進む。ステップS190では、ステップS160で合成エリアとして記録した島の重心位置に関する情報、例えば重心の座標値をメモリに保存する。その後、ステップS200へ進み、制御装置104は、現フレームが撮像素子103から時系列で入力されるフレームの最後のフレームであるか否かを判断する。ステップS200で否定判断した場合には、ステップS20へ戻って処理を繰り返す。これに対して、ステップS200で肯定判断した場合には、処理を終了する。   In step S180, the control device 104 displays the composite area recorded in the memory in step S160 on the monitor 106, and proceeds to step S190. In step S190, information on the center of gravity position of the island recorded as the composite area in step S160, for example, the coordinate value of the center of gravity is stored in the memory. Thereafter, the process proceeds to step S200, and the control device 104 determines whether or not the current frame is the last frame of the frames input from the image sensor 103 in time series. If a negative determination is made in step S200, the process returns to step S20 and is repeated. On the other hand, when an affirmative determination is made in step S200, the process ends.

以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、撮像素子103から連続して入力されるフレームの1フレーム目を対象画像とし、対象画像の色情報(Cb、Cr)または輝度情報(Y)に基づいて16区分の2値化区分画像を作成し、これらの2値化区分画像のそれぞれに対して、対象画像内における被写体を特定するために用いる評価値を算出し、算出した評価値に基づいて、対象画像内における被写体を特定するようにした。これによって、対象画像内における被写体の位置と大きさと形状とを精度高く特定することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) The control device 104 sets the first frame of frames continuously input from the image sensor 103 as a target image, and is divided into 16 sections based on color information (Cb, Cr) or luminance information (Y) of the target image. A binarized segmented image is created, and an evaluation value used to identify a subject in the target image is calculated for each of these binarized segmented images. Based on the calculated evaluation value, The subject in was specified. Thereby, the position, size, and shape of the subject in the target image can be specified with high accuracy.

(2)制御装置104は、2フレーム目以降のフレームにおいて、前フレームの被写体位置と、第1〜第4の評価値とに基づいて、フレーム内における被写体を特定するようにした。このように、前フレームの被写体位置を加味して現フレームの被写体位置を特定するため、処理速度を向上させることができる。 (2) In the second and subsequent frames, the control device 104 specifies the subject in the frame based on the subject position of the previous frame and the first to fourth evaluation values. Thus, the processing speed can be improved because the subject position of the current frame is specified taking the subject position of the previous frame into account.

(3)評価値は、2値化区分画像内における白画素で構成される白画素領域、すなわち島の面積と、白画素領域内での白画素のまとまり状況を表す値に基づいて算出される第1の評価値と、2値化区分画像内における白画素のまとまりを包絡する包絡矩形の面積に基づいて算出される第2の評価値、包絡矩形の縦横比に基づいて算出される第3の評価値、および白画素領域が前記2値化区分画像の端点にかかっている割合を示す第4の評価値を含むようにした。これによって、通常被写体としてはあり得ない形状や大きさの島をあらかじめ処理対象から除外した上で、島内の白画素がまとまり具合を加味して、精度高く被写体の位置と大きさと形状とを特定することができる。 (3) The evaluation value is calculated based on a white pixel area composed of white pixels in the binarized segmented image, that is, an area of an island and a value representing a grouping state of white pixels in the white pixel area. The second evaluation value calculated based on the first evaluation value and the area of the envelope rectangle enclosing the group of white pixels in the binarized segmented image, the third calculated based on the aspect ratio of the envelope rectangle And a fourth evaluation value indicating the ratio of the white pixel area covering the end points of the binarized segmented image. In this way, after excluding islands with shapes and sizes that are not possible for normal subjects from the processing target in advance, white pixels within the islands are taken into account and the subject's position, size, and shape are specified with high accuracy. can do.

―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、制御装置104は、使用者によるフレーム内における被写体位置の指定を受け付けて、対象画像内に被写体位置推定点を設定する例について説明した。しかしながら、制御装置104は、使用者によるフレーム内における被写体位置の指定を受け付けて被写体位置推定点を設定し、設定した被写体位置推定点に基づいて、16区分の2値化区分画像の中から、該被写体位置推定点が白画素領域内に含まれる2値化区分画像を特定し、特定した2値化区分画像の中から被写体を特定するために用いる2値化区分画像を選択するようにしてもよい。これによって、被写体位置推定点に基づいて被写体を特定するために用いる2値区分画像を絞り込むことができるため、処理速度を向上させることができる。
-Modification-
The camera according to the above-described embodiment can be modified as follows.
(1) In the above-described embodiment, an example has been described in which the control device 104 receives designation of a subject position in a frame by a user and sets a subject position estimation point in a target image. However, the control device 104 accepts the specification of the subject position in the frame by the user, sets the subject position estimation point, and based on the set subject position estimation point, from among the 16 segmented binarized segment images, A binarized segment image in which the subject position estimation point is included in the white pixel area is specified, and a binarized segment image used for specifying the subject is selected from the specified binarized segment image. Also good. As a result, it is possible to narrow down the binary segmented images used for specifying the subject based on the subject position estimation point, so that the processing speed can be improved.

(2)上述した実施の形態では、制御装置104は、対象画像内における被写体の位置と大きさと形状とを特定する例について説明した。しかしながら、制御装置104は、対象画像内における被写体の位置と大きさと形状の少なくとも一つを特定するようにしてもよい。 (2) In the above-described embodiment, the control device 104 has described the example of specifying the position, size, and shape of the subject in the target image. However, the control device 104 may specify at least one of the position, size, and shape of the subject in the target image.

(3)上述した実施の形態では、制御装置104は、島の面積と、評価値2〜4の4つの評価値を用いて、被写体である可能性が低い島を処理対象から除外する例について説明した。しかしながら、制御装置104は、該4つの評価値の少なくとも1つを用いて、被写体である可能性が低い島を処理対象から除外するようにしてもよい。 (3) In the embodiment described above, the control device 104 uses the island area and the four evaluation values of the evaluation values 2 to 4 to exclude an island that is unlikely to be a subject from the processing target. explained. However, the control device 104 may exclude an island that is unlikely to be a subject from the processing target by using at least one of the four evaluation values.

(4)上述した実施の形態では、制御装置104は、図3のステップS560において、使用者に対して、対象画像内における被写体のおおよその大きさの入力を促し、ステップS620において、各島の面積と使用者によって入力された被写体のおおよその大きさとに基づいて、2値化区分画像内の各島の中から、被写体を構成する可能性が低い島を特定して以降の処理の対象から除外することにより、対象画像内からの被写体の抽出精度をさらに向上させる例について説明した。しかしながら、制御装置104は、使用者に対象画像内における被写体のおおよその大きさの入力させることなく、次の方法により、フレーム内における被写体の大きさを推定して、対象画像内からの被写体の抽出精度を向上させるようにしてもよい。すなわち、制御装置104は、撮像素子103から連続して入力されるフレーム間で差分をとって差分画像を生成し、生成した差分画像の大きさと形状とに基づいて、フレーム内における被写体の大きさと形状とを推定するようにしてもよい。 (4) In the embodiment described above, the control device 104 prompts the user to input the approximate size of the subject in the target image in step S560 in FIG. 3, and in step S620, Based on the area and the approximate size of the subject input by the user, from among the islands in the binarized segmented image, an island that is unlikely to constitute the subject is identified, and the subsequent processing target An example in which the accuracy of extracting a subject from the target image is further improved by excluding it has been described. However, the control device 104 estimates the size of the subject in the frame by the following method without allowing the user to input the approximate size of the subject in the target image, and determines the subject from the target image. You may make it improve extraction accuracy. That is, the control device 104 generates a difference image by taking a difference between frames continuously input from the image sensor 103, and determines the size of the subject in the frame based on the size and shape of the generated difference image. The shape may be estimated.

(5)上述した実施の形態では、本発明をカメラに適用する場合について説明した。しかしながら、本発明は、画像を読み込んで処理することができる他の装置、例えばパソコンや携帯端末などに適用することも可能である。 (5) In the above-described embodiment, the case where the present invention is applied to a camera has been described. However, the present invention can also be applied to other devices that can read and process images, such as personal computers and portable terminals.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired. Moreover, it is good also as a structure which combined the above-mentioned embodiment and a some modification.

100 カメラ、101 操作部材、102 レンズ、103 撮像素子、104 制御装置、105 メモリカードスロット、106 モニタ 100 Camera, 101 Operation member, 102 Lens, 103 Image sensor, 104 Control device, 105 Memory card slot, 106 Monitor

Claims (6)

連続して入力されるフレームの中から対象画像を選択し、前記対象画像の色情報または輝度情報に基づいて1つの画像を複数の区分画像に区分する区分手順と、
前記複数の区分画像のそれぞれを前記色情報または前記輝度情報を用いて2値化して複数の2値化区分画像を生成する2値化手順と、
前記複数の2値化区分画像のそれぞれに対して、前記対象画像内における被写体を特定するために用いる評価値を算出する評価値算出手順と、
前記評価値に基づいて、前記対象画像内における被写体を特定する被写体特定手順と、
前記被写体特定手順で特定した前記対象画像内における被写体の位置を記憶する記憶手順と、
前記被写体特定手順で特定した被写体を前記連続して入力されるフレーム間で追尾する追尾手順とをコンピュータに実行させるための被写体特定用プログラム。
A classification procedure for selecting a target image from continuously input frames and dividing one image into a plurality of divided images based on color information or luminance information of the target image;
A binarization procedure for binarizing each of the plurality of segmented images using the color information or the luminance information to generate a plurality of binarized segment images;
An evaluation value calculation procedure for calculating an evaluation value used for specifying a subject in the target image for each of the plurality of binarized segment images;
A subject specifying procedure for specifying a subject in the target image based on the evaluation value;
A storage procedure for storing the position of the subject in the target image identified by the subject identification procedure;
A program for specifying a subject for causing a computer to execute a tracking procedure for tracking the subject specified by the subject specifying procedure between the continuously input frames.
請求項1に記載の被写体特定用プログラムにおいて、
前記被写体特定手順は、前記対象画像より後に連続して入力されるフレームにおいて、前記記憶手順で記憶した前記対象画像内における被写体の位置、前記評価値算出手順で算出した前記評価値とに基づいて、前記フレーム内における被写体を特定することを特徴とする被写体特定用プログラム。
In the subject specifying program according to claim 1,
The subject specifying procedure is based on the position of the subject in the target image stored in the storing procedure and the evaluation value calculated in the evaluation value calculating procedure in frames continuously input after the target image. An object specifying program for specifying an object in the frame.
請求項1または2に記載の被写体特定用プログラムにおいて、
前記評価値は、2値化区分画像内における白画素で構成される白画素領域の面積、前記白画素領域内での白画素のまとまり状況を表す値に基づいて算出される第1の評価値、前記2値化区分画像内における白画素のまとまりを包絡する包絡矩形の面積に基づいて算出される第2の評価値、前記包絡矩形の縦横比に基づいて算出される第3の評価値、および前記白画素領域が前記2値化区分画像の端点にかかっている割合を示す第4の評価値の少なくとも1つを含むことを特徴とする被写体特定用プログラム。
In the subject specifying program according to claim 1 or 2,
The evaluation value is a first evaluation value calculated based on an area of a white pixel region formed of white pixels in the binarized segmented image and a value representing a grouping state of white pixels in the white pixel region. A second evaluation value calculated based on an area of an envelope rectangle enclosing a group of white pixels in the binarized segmented image, a third evaluation value calculated based on an aspect ratio of the envelope rectangle, And at least one fourth evaluation value indicating a ratio of the white pixel region covering the end points of the binarized segmented image.
請求項3に記載の被写体特定用プログラムにおいて、
使用者による前記フレーム内における被写体位置の指定を受け付ける受付手順をさらに有し、
前記被写体特定手順は、前記複数の2値化区分画像の中から、前記受付手順で受け付けた指定被写体位置が前記白画素領域内に含まれる2値化区分画像を特定し、該特定した2値化区分画像の中から前記フレーム内における被写体を特定するために用いる2値化区分画像を選択することを特徴とする被写体特定用プログラム。
The subject specifying program according to claim 3,
A reception procedure for receiving designation of a subject position in the frame by a user;
The subject specifying procedure specifies a binarized segment image in which the designated subject position received in the acceptance procedure is included in the white pixel region from the plurality of binarized segment images, and the identified binary A program for identifying a subject, wherein a binarized segmented image used for identifying a subject in the frame is selected from the segmented segmented images.
連続して入力されるフレーム間で差分をとって差分画像を生成する差分画像生成手順と、
前記差分画像生成手順で生成した前記差分画像の大きさと形状とに基づいて、フレーム内における被写体の大きさと形状とを推定する推定手順と、
前記推定手順による推定結果に基づいて、フレーム内における被写体を特定する被写体特定手順とをコンピュータに実行させるための被写体特定用プログラム。
A difference image generation procedure for generating a difference image by taking a difference between consecutively input frames;
An estimation procedure for estimating the size and shape of a subject in a frame based on the size and shape of the difference image generated in the difference image generation procedure;
A subject specifying program for causing a computer to execute a subject specifying procedure for specifying a subject in a frame based on an estimation result obtained by the estimation procedure.
請求項1〜5のいずれか一項に記載の被写体特定用プログラムを実行するための実行手段を備えることを特徴とするカメラ。   6. A camera comprising execution means for executing the subject specifying program according to claim 1.
JP2010175173A 2010-08-04 2010-08-04 Object specification program and camera Pending JP2012039210A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010175173A JP2012039210A (en) 2010-08-04 2010-08-04 Object specification program and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010175173A JP2012039210A (en) 2010-08-04 2010-08-04 Object specification program and camera

Publications (1)

Publication Number Publication Date
JP2012039210A true JP2012039210A (en) 2012-02-23

Family

ID=45850750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010175173A Pending JP2012039210A (en) 2010-08-04 2010-08-04 Object specification program and camera

Country Status (1)

Country Link
JP (1) JP2012039210A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106304A (en) * 2013-11-29 2015-06-08 株式会社ニコン Subject identifying apparatus, imaging apparatus, and program
JP2015148905A (en) * 2014-02-05 2015-08-20 株式会社ニコン Subject detection device, imaging device, and program
JP2015149570A (en) * 2014-02-05 2015-08-20 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2015149569A (en) * 2014-02-05 2015-08-20 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2016051277A (en) * 2014-08-29 2016-04-11 株式会社ニコン Subject search device, subject search method, and subject search program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318408A (en) * 2004-04-30 2005-11-10 Nissan Motor Co Ltd Vehicle surrounding monitoring apparatus and method
WO2007125866A1 (en) * 2006-04-28 2007-11-08 Nikon Corporation Object extracting method, object pursuing method, image synthesizing method, computer program for extracting object, computer program for pursuing object, computer program for synthesizing images, object extracting device, object pursuing device, and image synthesizing device
WO2009142098A1 (en) * 2008-04-23 2009-11-26 日本電気株式会社 Image processing device, camera, image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318408A (en) * 2004-04-30 2005-11-10 Nissan Motor Co Ltd Vehicle surrounding monitoring apparatus and method
WO2007125866A1 (en) * 2006-04-28 2007-11-08 Nikon Corporation Object extracting method, object pursuing method, image synthesizing method, computer program for extracting object, computer program for pursuing object, computer program for synthesizing images, object extracting device, object pursuing device, and image synthesizing device
WO2009142098A1 (en) * 2008-04-23 2009-11-26 日本電気株式会社 Image processing device, camera, image processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106304A (en) * 2013-11-29 2015-06-08 株式会社ニコン Subject identifying apparatus, imaging apparatus, and program
JP2015148905A (en) * 2014-02-05 2015-08-20 株式会社ニコン Subject detection device, imaging device, and program
JP2015149570A (en) * 2014-02-05 2015-08-20 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2015149569A (en) * 2014-02-05 2015-08-20 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2016051277A (en) * 2014-08-29 2016-04-11 株式会社ニコン Subject search device, subject search method, and subject search program

Similar Documents

Publication Publication Date Title
CN101681501B (en) Image processing apparatus, method, and storage medium
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
US8176426B2 (en) Image reproduction apparatus and image reproduction program product
CN101406040B (en) Camera and image processing device and method
US8633999B2 (en) Methods and apparatuses for foreground, top-of-the-head separation from background
JP5246078B2 (en) Object location program and camera
JP2012039210A (en) Object specification program and camera
JP2011040993A (en) Subject homing program and camera
JP5691617B2 (en) Subject identification device and subject tracking device
WO2012014946A1 (en) Image processing device and image processing program
JP2010020602A (en) Image matching device and camera
US8675958B2 (en) Subject determination method, computer program product for determining subject, and camera
JP2008035125A (en) Imaging apparatus, image processing method, and program
JP2009146033A (en) Partial image extraction method
JP2013182479A (en) Subject tracking device, subject tracking method, and camera
JP5786544B2 (en) Image processing apparatus, imaging apparatus, and program
JP2013182478A (en) Subject tracking device, subject tracking method, and camera
WO2013114884A1 (en) Program for identifying position of subject, device for identifying position of subject, and camera
JP4947105B2 (en) Image processing apparatus, image processing program, and imaging apparatus
JP2010200270A (en) Image processing device, camera, and program
JP5434057B2 (en) Image display device and image display program
JP6044123B2 (en) Subject tracking device, electronic camera, and subject tracking program
JP2013037522A (en) Object tracking program and object tracking device
JP5316662B2 (en) Image processing apparatus, image processing program, and imaging apparatus
JP7046340B2 (en) Image processing device, terminal, image processing method, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140530

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150106