[go: up one dir, main page]

JP2001014474A - People extraction method - Google Patents

People extraction method

Info

Publication number
JP2001014474A
JP2001014474A JP11187536A JP18753699A JP2001014474A JP 2001014474 A JP2001014474 A JP 2001014474A JP 11187536 A JP11187536 A JP 11187536A JP 18753699 A JP18753699 A JP 18753699A JP 2001014474 A JP2001014474 A JP 2001014474A
Authority
JP
Japan
Prior art keywords
value
image
block
majority
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11187536A
Other languages
Japanese (ja)
Inventor
Hiroyuki Sato
博幸 佐藤
Takami Uemura
貴美 植村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP11187536A priority Critical patent/JP2001014474A/en
Publication of JP2001014474A publication Critical patent/JP2001014474A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 人物を撮影した画像を伝送する場合、背景の
見られたくない器物を片づける必要が生じる。また背景
差分法により人物抽出を行った場合には、背景ノイズが
出力されたり、抽出人物が虫食い状態になる。これらの
課題を解決すること。 【解決手段】 背景差分法を用いて人物抽出を行い、画
像を二値化する。そして多数決フィルタを施すことによ
り、背景のノイズの除去を行う。次に多数決フィルタを
施した二値画像をブロック化し、人物の虫食いの除去を
行う。更にブロック化二値画像を用いてエッジ検出を行
う。そしてエッジであるブロックには、多数決フィルタ
処理で作成したカラー画像を置換する。またエッジでな
いブロックにはブロック化処理で作成したカラー画像に
置換し、よりきれいな人物抽出画像を得る。
(57) [Summary] [PROBLEMS] To transmit an image of a person, it is necessary to clear objects that the user does not want to see the background. When a person is extracted by the background subtraction method, background noise is output or the extracted person becomes wormy. To solve these issues. SOLUTION: A person is extracted using a background difference method, and an image is binarized. Then, background noise is removed by applying a majority filter. Next, the binary image subjected to the majority filter is divided into blocks, and the worms of the person are removed. Further, edge detection is performed using the blocked binary image. Then, the color image created by the majority filter processing is replaced with the block which is an edge. In addition, a non-edge block is replaced with a color image created by the blocking process to obtain a more beautiful human extracted image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビ会議システ
ム又はテレビ電話に用いられ、特に撮影画面より背景差
分法を用いて人物抽出を行う人物抽出法に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a person extracting method used for a video conference system or a video telephone, and more particularly to a person extracting method using a background subtraction method from a photographed screen.

【0002】[0002]

【従来の技術】従来のテレビ会議システム又はテレビ電
話では、撮影された画像をそのまま符号化して伝送する
手法や、又は背景差分やフレーム間差分等により人物抽
出を行って人物画像のみを伝送する手法が用いられる。
2. Description of the Related Art In a conventional video conference system or video telephone, a method of directly encoding a photographed image and transmitting the image, or a method of extracting a person based on a background difference or an inter-frame difference and transmitting only a person image. Is used.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、撮影し
た画像をそのまま伝送する手法の場合、人物以外の背景
が先方に見られたくなければ、背景中に含まれる不要な
器物を片づける必要がある。また背景差分やフレーム間
差分を用いて人物抽出を行う場合でも、背景がノイズと
して出力されたり、抽出した人物の画像が虫食い状態に
なることがある。このように従来の方法では、人物のみ
をきれいに抽出することが不可能であった。
However, in the case of the technique of transmitting the photographed image as it is, if the background other than the person is not desired to be seen earlier, it is necessary to clear unnecessary objects included in the background. Further, even when a person is extracted using a background difference or an inter-frame difference, the background may be output as noise, or the extracted image of the person may be wormy. As described above, it is impossible with the conventional method to extract only a person clearly.

【0004】本発明はこのような従来の問題点に鑑みて
なされたものであって、背景差分法を用いて人物抽出を
行う場合に、背景ノイズが出力されたり、抽出人物が虫
食い状態になることを防止できる人物抽出法を実現する
ことを目的とする。
The present invention has been made in view of such a conventional problem. When a person is extracted using the background subtraction method, background noise is output or the extracted person becomes wormy. It is an object of the present invention to realize a person extraction method that can prevent such a situation.

【0005】[0005]

【課題を解決するための手段】本願の請求項1の発明
は、予め撮影されて記憶された背景、及び前記背景と人
物が撮影されている混合画像の2枚の画像を背景差分法
を用いて比較し、等しい部分を背景画像とし、異なって
いる部分を人物画像として背景差分処理画像を得る第1
のステップと、前記第1のステップで得られた背景差分
処理画像を二値化するため、人物画像の画素を第1の値
に設定し、背景画像の画素を第2の値に設定することに
より、設定背景差分二値画像を生成する第2のステップ
と、前記第2のステップで得られた背景差分二値画像の
特定の画素を注目画素とするとき、前記注目画素を取り
囲む複数の画素について前記第1の値の合計値及び前記
第2の値の合計値を夫々算出し、その計数結果に基づい
て、前記注目画素の値を前記第1の値又は前記第2の値
に設定することにより多数決フィルタ処理を行い、多数
決フィルタ処理二値画像を得る第3のステップと、前記
第3のステップで得られた前記多数決フィルタ処理二値
画像と前記混合画像の画素とを乗算することにより、多
数決フィルタ処理カラー画像を得る第4のステップと、
前記第3のステップで得られた1フレームの前記多数決
フィルタ処理二値画像を分割して複数画素からなるブロ
ック化を行い、ブロック化処理二値画像を得る第5のス
テップと、前記第5のステップで得られたブロック化処
理二値画像において、ブロック単位でエッジ検出を行
い、エッジ又は非エッジを示すエッジ検出処理二値画像
を得る第6のステップと、前記第6のステップで得られ
たエッジ検出処理二値画像において、エッジと判定され
たブロックには、前記第4のステップで得られた多数決
フィルタ処理カラー画像を置換し、非エッジと判定され
前記第1の値からなるブロックには、前記混合画像を置
換し、非エッジと判定され前記第2の値からなるブロッ
クには、所望の背景色を置換することにより、出力画像
を得る第7のステップと、を有することを特徴とするも
のである。
According to the first aspect of the present invention, two images, a background image that has been shot and stored in advance and a mixed image in which the background and a person have been shot, are obtained using a background difference method. The first part obtains a background difference processed image by using the same part as a background image and the different part as a person image.
And setting the pixels of the human image to a first value and the pixels of the background image to a second value in order to binarize the background difference processing image obtained in the first step. A second step of generating a set background difference binary image, and, when a specific pixel of the background difference binary image obtained in the second step is set as a target pixel, a plurality of pixels surrounding the target pixel , A total value of the first value and a total value of the second value are calculated, and the value of the pixel of interest is set to the first value or the second value based on the counting result. By performing the majority filtering process, a third step of obtaining a majority filtering binary image, and multiplying the pixels of the mixed image by the majority filtering binary image obtained in the third step , Majority filtering A fourth step of obtaining a color image,
A fifth step of dividing the one-frame majority filter-processed binary image obtained in the third step into blocks composed of a plurality of pixels to obtain a blocked binary image, and In the block processing binary image obtained in the step, edge detection is performed in block units to obtain an edge detection processing binary image indicating an edge or non-edge, and the sixth step is obtained in the sixth step. In the edge detection processing binary image, the majority decision filter processing color image obtained in the fourth step is replaced with a block determined as an edge, and a block composed of the first value determined as a non-edge is replaced. The seventh step of obtaining the output image by replacing the mixed image and replacing the desired background color with the block consisting of the second value determined as a non-edge. When, it is characterized in that it has a.

【0006】本願の請求項2の発明は、請求項1の人物
抽出法において、前記第3のステップは、前記注目画素
の周囲の画素で第1の値と第2の値との多数決処理を行
い、注目画素の値が、多数決処理結果として多い方の値
に変換する多数決フィルタ処理であることを特徴とする
ものである。
According to a second aspect of the present invention, in the person extracting method according to the first aspect, the third step includes performing a majority process of a first value and a second value in pixels around the pixel of interest. In this case, the value of the pixel of interest is a majority filtering process that converts the value of the pixel of interest into a larger value as a result of the majority process.

【0007】本願の請求項3の発明は、請求項1の人物
抽出法において、前記第5のステップは、所定ブロック
に含まれる画素のうち一画素でも第1の値の画素が存在
すれば、前記所定ブロックの全画素を前記第1の値に変
換してブロック化処理二値画像を得る処理であることを
特徴とするものである。
According to a third aspect of the present invention, in the person extracting method according to the first aspect, the fifth step is performed when at least one of the pixels included in the predetermined block has the first value. This is a process of converting all the pixels of the predetermined block to the first value to obtain a blocked binary image.

【0008】本願の請求項4の発明は、請求項1の人物
抽出法において、前記第6のステップは、夫々のブロッ
クの縦方向又は横方向において、前記第2の値から第1
の値又は前記第1の値から第2の値に変化する画素があ
るとき、エッジブロックと判定し、その他は非エッジブ
ロックと判定することにより、エッジ検出処理二値画像
を得る処理であることを特徴とするものである。
According to the invention of claim 4 of the present application, in the person extraction method of claim 1, the sixth step is a step of calculating the first value from the second value in the vertical direction or the horizontal direction of each block.
Or a pixel that changes from the first value to the second value is determined to be an edge block, and the other is determined to be a non-edge block to obtain an edge detection binary image. It is characterized by the following.

【0009】本願の請求項5の発明は、請求項1の人物
抽出法において、前記第6のステップは、夫々のブロッ
クの縦方向及び横方向において、前記第2の値から第1
の値又は前記第1の値から第2の値に変化する画素があ
るとき、エッジブロックと判定し、その他は非エッジブ
ロックと判定することにより、エッジ検出処理二値画像
を得る処理であることを特徴とするものである。
According to a fifth aspect of the present invention, in the person extraction method of the first aspect, the sixth step is a step of calculating the first value from the second value in the vertical and horizontal directions of each block.
Or a pixel that changes from the first value to the second value is determined to be an edge block, and the other is determined to be a non-edge block to obtain an edge detection binary image. It is characterized by the following.

【0010】本願の請求項6の発明は、請求項1の人物
抽出法において、前記第4のステップは、前記第3のス
テップで得られた前記多数決フィルタ処理二値画像にお
いて、前記第1の値を有する画素のみを前記混合画像の
画素に置換することにより、多数決フィルタ処理カラー
画像を得る処理であることを特徴とするものである。
In the invention according to claim 6 of the present application, in the person extracting method according to claim 1, the fourth step is performed by using the first filtering processing in the majority filtering binary image obtained in the third step. This is a process of obtaining a majority-filtered color image by replacing only pixels having a value with pixels of the mixed image.

【0011】このように、背景差分法を用いて人物抽出
を行った画像を二値化して多数決フィルタを施すことに
より背景のノイズの除去を行い、次段階で多数決フィル
タを施した二値画像のブロック化を行って処理を施して
人物の虫食いの除去を行い、さらに次段階で、得られた
ブロック化二値画像を用いてエッジ検出を行い、エッジ
であるブロックには前段階の多数決フィルタ処理を行っ
て作成したカラー画像に置換し、エッジでないブロック
にはブロック化処理を行って作成したカラー画像に置換
することにより、よりきれいな人物抽出の画像作成を行
うことができる。
As described above, the image from which the person has been extracted by using the background subtraction method is binarized and subjected to a majority filter to remove background noise, and in the next step, the binary image subjected to the majority filter is removed. Blocking and processing are performed to remove human worming, and in the next step, edge detection is performed using the obtained blocked binary image. , And replacing the blocks other than the edges with the color image created by performing the blocking process, it is possible to create a more beautiful human extracted image.

【0012】[0012]

【発明の実施の形態】以下に、本発明の背景差分法を用
いた人物抽出方法について、画像データ処理手順を示す
図1〜図5のフロチャートを参照しながら説明する。図
1のステップS101〜図5のステップS313の信号
処理は、背景差分法を用いた人物抽出方法の各過程を示
すものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A method for extracting a person using a background subtraction method according to the present invention will be described below with reference to flowcharts of FIGS. The signal processing in steps S101 to S313 in FIG. 1 shows each process of the person extraction method using the background difference method.

【0013】図1及び図2は背景画像の撮影及び人物を
含む混合画像のキャプチャと、これらの画像データに対
する背景差分及び多数決フィルタ処理に関するフローチ
ャートである。まずステップS101では、人物を抽出
する際に、背景として処理される部分を特定するために
背景画像の撮影を行い、背景画像のデータを取得する。
なお、取得する背景画像は複数フレームに渡って撮影し
てもよいが、この例では1フレーム分のみの撮影を行う
ものとする。
FIG. 1 and FIG. 2 are flow charts relating to the photographing of a background image and the capturing of a mixed image including a person, and the background difference and majority filter processing for these image data. First, in step S101, when a person is extracted, a background image is photographed to specify a portion to be processed as a background, and data of the background image is obtained.
Note that the background image to be acquired may be captured over a plurality of frames, but in this example, it is assumed that only one frame is captured.

【0014】テレビ電話やテレビ会議等の通信が始まる
と、ステップS102に進み、通信画像のキャプチャを
行い、背景及び抽出人物を含んだ混合画像のデータを取
得する。次のステップS103では、背景画像と混合画
像の比較を行う。背景差分法はこの2つの画像間で行う
ものであるが、背景画像と混合画像を撮影するときは各
々等しい位置情報を取得する必要がある。背景差分は、
画像内の全画素又は全ブロックにおいて行うが、ここで
は各画素で行うものとし、その具体的方法は次の通りで
ある。
When a communication such as a videophone call or a video conference starts, the process proceeds to step S102, where a communication image is captured, and data of a mixed image including a background and an extracted person is obtained. In the next step S103, the background image and the mixed image are compared. The background subtraction method is performed between these two images, but when capturing a background image and a mixed image, it is necessary to acquire the same positional information. The background difference is
The processing is performed on all pixels or all blocks in the image. Here, the processing is performed on each pixel, and the specific method is as follows.

【0015】ステップS104において、背景画像と混
合画像において相対する画素における輝度や色差のいず
れかの差分を調べる。その差分値が任意レベル以上であ
れば、ステップS105に分岐し、その画素は人物の一
部であるとみなし、その画素の背景差分二値画像のデー
タとして1値を入れる。またステップS104におい
て、輝度や色差の差分値が共に任意レベル未満であれ
ば、ステップS106に分岐する。この場合は、その画
素は背景とみなし、その画素の背景差分二値画像のデー
タとして0値を入れる。なお、この例では輝度及び色差
の両データにおいて比較差分を行ったが、輝度のみ、又
は色差のみ、又は輝度及び色差とは別形式の画素データ
として、RGBデータ等で行ってもよい。
In step S104, one of the differences in luminance and color difference between pixels in the background image and the mixed image is checked. If the difference value is equal to or higher than the arbitrary level, the process branches to step S105, in which the pixel is regarded as a part of a person, and one value is input as data of the background difference binary image of the pixel. If it is determined in step S104 that both the difference values of the luminance and the color difference are less than the arbitrary level, the process branches to step S106. In this case, the pixel is regarded as the background, and 0 value is entered as the data of the background difference binary image of the pixel. In this example, the comparison difference is performed on both the luminance and color difference data. However, the comparison may be performed on the RGB data or the like as only the luminance, only the color difference, or pixel data in a format different from the luminance and the color difference.

【0016】ステップS107では、この背景差分処理
が1フレーム分終了したか否かを調べ、1フレーム分終
了の場合は次の多数決フィルタ処理に移る。またステッ
プS107において1フレーム分終了していない場合
は、ステップS104の処理に戻り、次画素の差分比較
を行う。なお、画素の比較処理順序は問わない。背景差
分法を用いて処理した画像は、背景がきれいに切り取れ
ず、背景ノイズが含まれれたり、抽出した人物が虫食い
状態になっている場合がある。このため、以後述べる手
法を用いて画像を処理する。このため引き続き、ステッ
プS103〜ステップS107の処理で作成した背景差
分二値画像に対して、図2のステップS108〜ステッ
プS112において、多数決フィルタ処理を行う。
In step S107, it is determined whether or not the background subtraction processing has been completed for one frame. If the processing has been completed for one frame, the process proceeds to the next majority filter processing. If one frame has not been completed in step S107, the process returns to step S104 to compare the difference of the next pixel. The order of the pixel comparison processing does not matter. An image processed using the background subtraction method may not be able to cut the background cleanly, may include background noise, or may have an extracted person in a worm-like state. For this reason, the image is processed using the method described below. For this reason, subsequently, majority filtering processing is performed on the background difference binary image created in the processing of steps S103 to S107 in steps S108 to S112 of FIG.

【0017】先ずステップS108では、上記の処理で
作成した背景差分二値画像に対して、任意の1つの被処
理画素について、その周辺の任意範囲内における画素値
(0値又は1値) をカウントする。次のステップS10
9では、多数決を処理を行うため、0値が任意範囲の画
素数の過半数を占めるか否かを判定する。多数決判定の
結果、0値が任意範囲内の画素数の過半数を占める場合
は、ステップS110に分岐し、被処理画素の多数決フ
ィルタ処理二値画像のデータとして背景差分二値画像の
画素値を0値に置換する。ステップS109において、
逆に0値が任意範囲内の画素数の過半数を占めない場
合、つまり1値が過半数であった場合は、ステップS1
11に分岐し、被処理画素の多数決フィルタ処理二値画
像のデータとして背景差分二値画像の画素値を1値に置
換する。
First, in step S108, the pixel value (0 value or 1 value) in an arbitrary range around one arbitrary pixel to be processed is counted for the background difference binary image created by the above processing. I do. Next step S10
In step 9, it is determined whether or not the 0 value occupies a majority of the number of pixels in an arbitrary range in order to perform a majority decision. As a result of the majority decision, when the 0 value occupies the majority of the number of pixels in the arbitrary range, the process branches to step S110, and the pixel value of the background difference binary image is set to 0 as the data of the majority filtered binary image of the pixel to be processed. Replace with a value. In step S109,
Conversely, if the 0 value does not occupy a majority of the number of pixels in the arbitrary range, that is, if the 1 value is a majority, step S1
The process branches to 11 and replaces the pixel value of the background difference binary image with one value as data of the majority filter-processed binary image of the pixel to be processed.

【0018】上記の多数決フィルタ処理の例を図6及び
図7に示す。図6及び図7において、x,y を画素位置を
示すアドレス(座標値)とし、画素(x,y)を多数決フィ
ルタ処理を行う被処理画素(注目画素)とする。多数決
を取る画素は例えば図のように被処理画素を含む9画素
[(x-1,y-1 )、(x,y-1)、(x+1,y-1)、(x-1,y)、
(x,y)、(x+1,y)、(x-1,y+1)、(x,y+1)、(x+1,y+
1)]を用いる。図6(a)は多数決フィルタ処理前のデ
ータであり、0値の画素が6画素[(x-1,y-1 )、(x,
y-1)、(x+1,y-1)、(x-1,y)、(x+1,y)、(x-1,y+1)]
存在している。また1値の画素が3画素[(x,y)、(x,
y+1)、(x+1,y+1)]存在している。多数決フィルタ処理
後は、0値の画素数が多いので、被処理画素(x,y)は0
値に変換され、図6(b)のようになる。
FIGS. 6 and 7 show examples of the majority filter processing. 6 and 7, x, y is an address (coordinate value) indicating a pixel position, and the pixel (x, y) is a pixel to be processed (pixel of interest) on which majority filtering is performed. The pixels that take the majority decision are, for example, 9 pixels including the pixel to be processed [(x-1, y-1), (x, y-1), (x + 1, y-1), (x-1 , y),
(X, y), (x + 1, y), (x-1, y + 1), (x, y + 1), (x + 1, y +
1)] is used. FIG. 6A shows data before the majority filter processing, and the 0-valued pixel has six pixels [(x-1, y-1), (x,
y-1), (x + 1, y-1), (x-1, y), (x + 1, y), (x-1, y + 1)]
Existing. In addition, one-valued pixel has three pixels [(x, y), (x,
y + 1), (x + 1, y + 1)]. After the majority filter processing, the number of 0-valued pixels is large, so that the pixel to be processed (x, y) is 0
The values are converted into values as shown in FIG.

【0019】また図7(a)は別の例の多数決フィルタ
処理前のデータである。ここでは0値の画素が2画素
[(x+1,y-1)、(x+1,y)]存在し、1値の画素が7画素
[(x-1,y-1 )、(x,y-1)、(x-1,y)、(x,y)、(x-1,
y+1)、(x,y+1)、(x+1,y+1)]存在している。1値の画
素数が多いので、多数決フィルタ処理後は、被処理画素
(x,y)は処理前と同じく1値のままとなり、図7(b)
のようになる。
FIG. 7A shows another example of the data before the majority filter processing. Here, there are two 0-valued pixels [(x + 1, y-1), (x + 1, y)], and one-valued pixels are seven pixels [(x-1, y-1), ( x, y-1), (x-1, y), (x, y), (x-1,
y + 1), (x, y + 1), (x + 1, y + 1)]. Since the number of one-valued pixels is large, the pixel to be processed (x, y) remains at the one-valued value after the majority filter processing, as in FIG.
become that way.

【0020】図2のステップS112において、上記の
多数決フィルタ処理が1フレーム分終了したか否かを調
べ、1フレーム分終了の場合は次の画像作成処理に移
る。ステップS112において、1フレーム分終了して
いない場合は、ステップS108の処理に戻り、次画素
の多数決フィルタ処理を行う。
In step S112 of FIG. 2, it is checked whether or not the majority filtering process has been completed for one frame, and if one frame has been completed, the process proceeds to the next image forming process. If one frame has not been completed in step S112, the process returns to step S108, and the majority pixel filtering process for the next pixel is performed.

【0021】図2及び図3に示すフロチャートは、多数
決フィルタ処理二値画像と混合画像を用いて多数決フィ
ルタ処理カラー画像を作成すると共に、多数決フィルタ
処理二値画像のブロック化を行い、更にエッジを検出す
る処理について示したものである。ステップS201で
は、ステップS108〜S112の処理で作成した多数
決フィルタ処理二値画像データに対して、混合画像を乗
算し、多数決フィルタ処理カラー画像を作成する。即
ち、多数決フィルタ処理二値画像データが1値であれ
ば、混合画像がそのまま出力され、多数決フィルタ処理
二値画像データが0値であれば、輝度0のデータ即ち黒
データが出力される。ここで得られた多数決フィルタ処
理カラー画像は、後述する出力画像作成処理に用いられ
る。
The flowcharts shown in FIGS. 2 and 3 form a majority filtering filtered color image using the majority filtering binary image and the mixed image, block the majority filtering binary image, and further execute edge processing. This is a diagram illustrating the process of detecting. In step S201, the majority filter-processed binary image data created in steps S108 to S112 is multiplied by the mixed image to create a majority filter-processed color image. That is, if the binary image data of the majority filter processing is a single value, the mixed image is output as it is, and if the binary image data of the majority filter processing is a zero value, data of luminance 0, that is, black data is output. The majority filter-processed color image obtained here is used for an output image creation process described later.

【0022】続いて人物部分の虫食いの除去を行うため
の画像データのブロック化処理について説明する。ステ
ップS202では、まず1フレームの画像を任意のブロ
ックに分割し、ブロック単位の多数決フィルタ処理二値
画像を得る。図3のステップS203に進むと、分割し
たブロック内の画素データに1画素でも1値が存在する
か否かを調べる。1画素でも1値が存在すれば、そのブ
ロックに人物データとみなされる画素が含まれると判断
し、ステップS204に分岐する。ステップS204で
は、ブロック化処理二値画像に1値を格納し、そのブロ
ックは人物が包含されているブロックであると見なす。
Next, a description will be given of a process of blocking image data for removing worms in a person portion. In step S202, first, an image of one frame is divided into arbitrary blocks, and a binary image subjected to majority filtering on a block basis is obtained. In step S203 of FIG. 3, it is checked whether or not one value exists even in one pixel in the pixel data in the divided block. If even one pixel has one value, it is determined that the block includes a pixel regarded as person data, and the flow branches to step S204. In step S204, one value is stored in the block-processed binary image, and the block is regarded as a block including a person.

【0023】ステップS203において、ブロック内の
画素に1つも1値がない場合、つまりそのブロックに人
物データと見なされる画素が含まれていない場合は、ス
テップS205に分岐し、ブロック化処理二値画像に0
値を格納し、そのブロック内は背景データのみであると
見なす。次のステップS206では、以上のステップS
203〜S205のブロック化処理が1フレーム分終了
したか否かを判定し、1フレーム分終了していない場合
は、ステップS203の処理に戻り、次ブロックのブロ
ック化処理を行う。またステップS206において、1
フレーム分終了した場合は、次の信号処理に移る。図1
0は以上の処理でブロック化処理を行った画像例であ
る。
If it is determined in step S203 that none of the pixels in the block has a single value, that is, if the block does not include a pixel regarded as human data, the process branches to step S205, where the block-processed binary image is processed. To 0
The value is stored, and it is assumed that only the background data is contained in the block. In the next step S206, the above step S
It is determined whether or not the block processing of 203 to S205 has been completed for one frame. If the processing has not been completed for one frame, the process returns to step S203 to perform the block processing of the next block. In step S206, 1
When the processing has been completed for the number of frames, the processing proceeds to the next signal processing. FIG.
0 is an example of an image obtained by performing the blocking process in the above process.

【0024】以上のステップS202〜S206の処理
で作成したブロック化処理二値画像のデータに対して、
画像のX方向(横方向) 、及びY方向(縦方向) のエッ
ジを検出する方法について、図8及び図9を用いて説明
する。ここではX,Y をブロック位置を示すアドレス(座
標値)とする。
With respect to the data of the block-processed binary image created in the processes of steps S202 to S206,
A method of detecting edges in the X direction (horizontal direction) and the Y direction (vertical direction) of an image will be described with reference to FIGS. Here, X and Y are addresses (coordinate values) indicating block positions.

【0025】まず、図3のステップS207に進むと、
ブロック化処理二値画像のデータについてX方向のエッ
ジ検出を行う。このため、X方向に隣り合うブロック化
処理二値画像の値を比較する。図8に示すように、任意
のブロック(X,Y)が1値であり、各々隣り合うブロック
(X-1,Y)と(X+1,Y)の値を比較し、(X-1,Y)≠(X+1,Y)
の場合は、ステップS209に分岐する。例えば図8
(a)に示すように(X,Y)= 1値、(X-1,Y)= 0値、
(X+1,Y)= 1値の場合、又は図8(b)に示すように
(X,Y)= 1値、(X-1,Y)= 1値、(X+1,Y)= 0値の場合
には、ブロック(X,Y)をエッジブロックとみなし、ステ
ップS209においてブロック化されているX方向のエ
ッジ検出処理二値画像のデータとして1値を格納する。
この条件に当てはまらない場合は、ステップS208か
らステップS210に分岐し、そのブロックは非エッジ
とみなし、このエッジ検出処理二値画像のデータとして
0値を格納する。
First, proceeding to step S207 in FIG.
Edge detection in the X direction is performed on the data of the block processing binary image. Therefore, the values of the block-processed binary images adjacent in the X direction are compared. As shown in FIG. 8, an arbitrary block (X, Y) has one value, and the value of each adjacent block (X-1, Y) is compared with the value of (X + 1, Y). , Y) ≠ (X + 1, Y)
In the case of, the process branches to step S209. For example, FIG.
As shown in (a), (X, Y) = 1 value, (X-1, Y) = 0 value,
When (X + 1, Y) = 1, or as shown in FIG. 8B, (X, Y) = 1, (X-1, Y) = 1, (X + 1, Y) If the value is 0, the block (X, Y) is regarded as an edge block, and a single value is stored as the data of the edge-detected binary image in the X direction in step S209.
If this condition is not met, the process branches from step S208 to step S210, where the block is regarded as a non-edge, and a 0 value is stored as the data of the edge detection binary image.

【0026】ステップS211では、ステップS207
〜S210のX方向エッジ検出処理が1フレーム分終了
したか否かを調べ、1フレーム分処理が終了していない
場合はステップS207の処理に戻り、次ブロックのX
方向エッジ検出処理を行う。ステップS211におい
て、1フレーム分の処理が終了すれば、次のY方向エッ
ジ検出処理に移る。このように、図10に示すブロック
化処理二値画像に対して、X方向のエッジ検出を行う
と、図11のような画像が得られる。
In step S211, step S207
It is checked whether or not the X-direction edge detection processing in steps S210 to S210 has been completed for one frame. If the processing has not been completed for one frame, the process returns to step S207 to return to the processing of step S207.
Perform direction edge detection processing. In step S211, when the processing for one frame is completed, the process proceeds to the next Y-direction edge detection processing. As described above, when the edge detection in the X direction is performed on the block-processed binary image shown in FIG. 10, an image as shown in FIG. 11 is obtained.

【0027】続いて、図4の処理に進み、まずブロック
配列のデータについてY方向にエッジ検出を行う。図4
及び図5のステップS301〜S313の処理は、Y方
向のエッジ検出処理と、出力画像作成処理とについて示
している。ステップS301では、Y方向に隣り合うブ
ロック化処理二値画像の値を比較する。このためステッ
プS302に進み、注目ブロック(X,Y)が1値であり、
且つ隣接ブロックにおいて(X,Y-1)≠(X,Y+1)が成立す
るか否かを調べる。この条件を満足していれば、ステッ
プS303に分岐し、この条件を満足していなけれれ
ば、ステップS304に分岐する。
Subsequently, the process proceeds to the process shown in FIG. 4, and first, edge detection is performed in the Y direction on the data in the block array. FIG.
The processing in steps S301 to S313 in FIG. 5 shows the edge detection processing in the Y direction and the output image creation processing. In step S301, the values of the block-processed binary images adjacent in the Y direction are compared. Therefore, the process proceeds to step S302, and the block of interest (X, Y) has one value,
It is checked whether (X, Y-1) ≠ (X, Y + 1) is satisfied in the adjacent block. If this condition is satisfied, the flow branches to step S303. If this condition is not satisfied, the flow branches to step S304.

【0028】図9に示す例では、注目ブロック(X,Y)が
1値であるので、このブロックと各々隣り合うブロック
(X,Y-1)と(X,Y+1)の値と比較し、(X,Y-1)≠(X,Y+1)
の場合、即ち図9(a)に示すように(X,Y)= 1値、
(X,Y-1)= 0値、(X,Y+1)= 1値の場合、又は図9
(b)に示すように(X,Y)= 1値、(X,Y-1)= 1値、
(X,Y+1)= 0値の場合は、ステップS303に分岐し
て、ブロック(X,Y)をエッジブロックとみなし、ブロッ
ク化されているY方向のエッジ検出処理二値画像のデー
タとして1値を格納する。この条件に当てはまらない場
合は、ステップS304に分岐し、そのブロックは非エ
ッジとみなし、エッジ検出処理二値画像のデータとして
0値を格納する。
In the example shown in FIG. 9, since the block of interest (X, Y) has one value, this block is compared with the values of the blocks (X, Y-1) and (X, Y + 1) adjacent thereto. Then (X, Y-1) ≠ (X, Y + 1)
In other words, as shown in FIG. 9A, (X, Y) = 1 value,
(X, Y-1) = 0 value, (X, Y + 1) = 1 value, or FIG.
As shown in (b), (X, Y) = 1 value, (X, Y-1) = 1 value,
If (X, Y + 1) = 0, the flow branches to step S303, where the block (X, Y) is regarded as an edge block, and is used as the data of the edge-detected binary image in the Y direction that has been blocked. 1 value is stored. If this condition is not satisfied, the flow branches to step S304, the block is regarded as a non-edge, and a 0 value is stored as data of the edge detection binary image.

【0029】次のステップS305では、ステップS3
01〜S304のY方向エッジ検出処理が1フレーム分
終了したか否かを調べ、1フレーム分終了していない場
合は、ステップS301の処理に戻り、次ブロックのY
方向エッジ検出処理を行う。ステップS305におい
て、1フレーム分終了すれば、ステップS306の処理
に移る。図10のようなブロック化処理二値画像に対し
て、Y方向にエッジ検出を行うと、図12のような画像
が得られる。
In the next step S305, step S3
It is checked whether or not the Y-direction edge detection processing of 01 to S304 has been completed for one frame, and if it has not been completed for one frame, the process returns to step S301 to return to the processing of Y of the next block.
Perform direction edge detection processing. If one frame is completed in step S305, the process proceeds to step S306. When edge detection is performed in the Y direction on the block-processed binary image as shown in FIG. 10, an image as shown in FIG. 12 is obtained.

【0030】ステップS306では、X方向及びY方向
にエッジ検出した2枚のエッジ検出処理二値画像に対し
て論理和(OR)を取り、全体のエッジ検出処理二値画
像を作成する。この処理を行うと、図13に示すように
エッジが連続したエッジ検出処理二値画像が得られる。
In step S306, a logical OR (OR) is performed on the two edge detection binary images detected in the X direction and the Y direction to create an entire edge detection binary image. When this processing is performed, an edge detection processing binary image in which edges are continuous as shown in FIG. 13 is obtained.

【0031】エッジ検出処理終了後、エッジ検出処理二
値画像とブロック化処理二値画像の値により、出力画像
カラーデータを決定する。このため図5のステップS3
08では、注目ブロックが非エッジであり、且つこのブ
ロックが0値か否かを調べる。図13の斜線ブロック部
に示すようにエッジ検出処理二値画像が0値であり、図
10の斜線ブロック部に示すようにブロック化処理二値
画像が0値の場合、つまり、非エッジで、なおかつ背景
データである場合は、ステップS307に分岐し、その
ブロックに出力カラー画像データとして0値(黒色)を
格納する。またステップS308の条件を満足しない場
合は、ステップS310に分岐する。
After the edge detection processing is completed, the output image color data is determined based on the values of the edge detection binary image and the blocking binary image. Therefore, step S3 in FIG.
At 08, it is checked whether the target block is a non-edge and this block has a value of 0. When the edge detection binary image has a 0 value as shown in the hatched block portion in FIG. 13 and the block processing binary image has a 0 value as shown in the hatched block portion in FIG. If the data is background data, the process branches to step S307, and a 0 value (black) is stored in the block as output color image data. If the condition in step S308 is not satisfied, the flow branches to step S310.

【0032】ステップS310では、注目ブロックが非
エッジであり、且つこのブロックが1値か否かを調べ
る。図13の斜線ブロック部に示すようにエッジ検出処
理二値画像が0値であり、図10の白色ブロック部に示
すようにブロック化処理二値画像が1値の場合、つまり
非エッジで、なおかつ人物データである場合は、ステッ
プS309に分岐し、出力カラー画像データとして混合
画像データの値を格納する。またステップS310の条
件を満足しない場合は、ステップS311に分岐する。
In step S310, it is checked whether or not the target block is a non-edge and whether or not this block has a value of one. In the case where the edge detection processing binary image has a 0 value as shown in a hatched block portion in FIG. 13 and the blocking processing binary image has a 1 value as shown in a white block portion in FIG. 10, that is, non-edge and If the data is person data, the flow branches to step S309 to store the value of the mixed image data as output color image data. If the condition in step S310 is not satisfied, the flow branches to step S311.

【0033】ステップS311では、注目ブロックがエ
ッジであり、且つこのブロックが1値か否かを調べる。
図13の白色ブロック部に示すようにエッジ検出処理二
値画像が1値であり、図10の白色ブロック部で示すよ
うにブロック化処理二値画像が1値である場合、つま
り、背景と人物の境界部である場合はステップS312
に分岐し、出力画像のデータとしてステップS201で
得られた多数決フィルタ処理カラー画像を格納する。
In step S311, it is checked whether the target block is an edge and this block has a value of one.
When the binary image of the edge detection processing is one-valued as shown in the white block part of FIG. 13, and the binary image of the blocking processing is one-valued as shown in the white block part of FIG. If it is the boundary portion of step S312,
And stores the majority filtered color image obtained in step S201 as data of the output image.

【0034】最後のステップS313で得られた出力画
像例を図14に示す。図14の斜線ブロックには黒色デ
ータが格納され、横線ブロックには混合画像データが格
納され、白色ブロックには多数決フィルタ処理カラー画
像が格納される。なお、図14において出力画像はブロ
ックで表示しているが、実際の出力画像データはブロッ
ク単位から画素単位に戻される。また、本実施の形態で
は人物以外の背景部分を黒色データに置換したが、別の
単一色データや任意の画像やグラフィックデータなどに
置き換えてもよい。
FIG. 14 shows an example of the output image obtained in the last step S313. In FIG. 14, the shaded block stores black data, the horizontal block stores mixed image data, and the white block stores majority filter processed color images. Although the output image is displayed in blocks in FIG. 14, the actual output image data is returned from the block unit to the pixel unit. Further, in the present embodiment, the background portion other than the person is replaced with black data, but may be replaced with another single color data, arbitrary image or graphic data, or the like.

【0035】[0035]

【発明の効果】以上のように本発明によれば、撮影した
画像から人物のみを抽出することができ、背景にノイズ
が付加されたり人物が虫食い状態になる等の問題なく、
人物のみをきれいに抽出することが可能であるという効
果が得られる。
As described above, according to the present invention, it is possible to extract only a person from a photographed image, and there is no problem that noise is added to the background or the person becomes wormy.
An effect is obtained that it is possible to extract only a person clearly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態における人物抽出法の信号
処理(その1)示すフローチャートである。
FIG. 1 is a flowchart illustrating signal processing (part 1) of a person extraction method according to an embodiment of the present invention.

【図2】本発明の実施の形態における人物抽出法の信号
処理(その2)示すフローチャートである。
FIG. 2 is a flowchart illustrating signal processing (part 2) of the person extraction method according to the embodiment of the present invention.

【図3】本発明の実施の形態における人物抽出法の信号
処理(その3)示すフローチャートである。
FIG. 3 is a flowchart illustrating signal processing (part 3) of the person extraction method according to the embodiment of the present invention.

【図4】本発明の実施の形態における人物抽出法の信号
処理(その4)示すフローチャートである。
FIG. 4 is a flowchart illustrating signal processing (part 4) of the person extraction method according to the embodiment of the present invention.

【図5】本発明の実施の形態における人物抽出法の信号
処理(その5)示すフローチャートである。
FIG. 5 is a flowchart showing signal processing (part 5) of the person extraction method according to the embodiment of the present invention.

【図6】本実施の形態における多数決フィルタ処理の例
(その1)を示す動作説明図である。
FIG. 6 is an operation explanatory diagram showing an example (part 1) of majority filter processing in the present embodiment.

【図7】本実施の形態における多数決フィルタ処理の例
(その2)を示す動作説明図である。
FIG. 7 is an operation explanatory diagram showing an example (part 2) of majority filter processing in the present embodiment.

【図8】本実施の形態におけるX方向(横方向)のエッ
ジ検出方法を示す動作説明図である。
FIG. 8 is an operation explanatory diagram showing an edge detection method in the X direction (horizontal direction) in the present embodiment.

【図9】本実施の形態におけるY方向(縦方向)のエッ
ジ検出方法を示す動作説明図である。
FIG. 9 is an operation explanatory diagram showing a Y-direction (vertical direction) edge detection method according to the present embodiment.

【図10】本実施の形態において、ブロック化処理を行
ったブロック化処理二値画像例である。
FIG. 10 is an example of a block-processed binary image obtained by performing a block process in the present embodiment.

【図11】本実施の形態のブロック化処理二値画像に対
し、X方向(横方向)のエッジ検出を行った画像例であ
る。
FIG. 11 is an example of an image obtained by performing edge detection in the X direction (horizontal direction) on the block-processed binary image according to the present embodiment.

【図12】本実施の形態のブロック化処理二値画像に対
し、Y方向(縦方向)のエッジ検出を行った画像例であ
る。
FIG. 12 is an example of an image obtained by performing edge detection in the Y direction (vertical direction) on a block-processed binary image according to the present embodiment.

【図13】本実施の形態のおいて、最終エッジ検出処理
を行った二値画像例である。
FIG. 13 is an example of a binary image subjected to a final edge detection process in the present embodiment.

【図14】本実施の形態の人物抽出法で得られた出力画
像例である。
FIG. 14 is an example of an output image obtained by the person extraction method according to the present embodiment.

【符号の説明】[Explanation of symbols]

x,y 画素アドレス X,Y ブロックアドレス x, y pixel address X, Y block address

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C064 AA01 AA02 AB04 AC02 AC08 AC12 AD08 AD14 5L096 AA02 AA06 BA08 DA04 EA43 FA06 FA19 GA08 GA19 GA28 GA55 9A001 BB06 HH23  ────────────────────────────────────────────────── ─── Continued on the front page F term (reference) 5C064 AA01 AA02 AB04 AC02 AC08 AC12 AD08 AD14 5L096 AA02 AA06 BA08 DA04 EA43 FA06 FA19 GA08 GA19 GA28 GA55 9A001 BB06 HH23

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 予め撮影されて記憶された背景、及び前
記背景と人物が撮影されている混合画像の2枚の画像を
背景差分法を用いて比較し、等しい部分を背景画像と
し、異なっている部分を人物画像として背景差分処理画
像を得る第1のステップと、 前記第1のステップで得られた背景差分処理画像を二値
化するため、人物画像の画素を第1の値に設定し、背景
画像の画素を第2の値に設定することにより、設定背景
差分二値画像を生成する第2のステップと、 前記第2のステップで得られた背景差分二値画像の特定
の画素を注目画素とするとき、前記注目画素を取り囲む
複数の画素について前記第1の値の合計値及び前記第2
の値の合計値を夫々算出し、その計数結果に基づいて、
前記注目画素の値を前記第1の値又は前記第2の値に設
定することにより多数決フィルタ処理を行い、多数決フ
ィルタ処理二値画像を得る第3のステップと、 前記第3のステップで得られた前記多数決フィルタ処理
二値画像と前記混合画像の画素とを乗算することによ
り、多数決フィルタ処理カラー画像を得る第4のステッ
プと、 前記第3のステップで得られた1フレームの前記多数決
フィルタ処理二値画像を分割して複数画素からなるブロ
ック化を行い、ブロック化処理二値画像を得る第5のス
テップと、 前記第5のステップで得られたブロック化処理二値画像
において、ブロック単位でエッジ検出を行い、エッジ又
は非エッジを示すエッジ検出処理二値画像を得る第6の
ステップと、 前記第6のステップで得られたエッジ検出処理二値画像
において、エッジと判定されたブロックには、前記第4
のステップで得られた多数決フィルタ処理カラー画像を
置換し、非エッジと判定され前記第1の値からなるブロ
ックには、前記混合画像を置換し、非エッジと判定され
前記第2の値からなるブロックには、所望の背景色を置
換することにより、出力画像を得る第7のステップと、
を有することを特徴とする人物抽出法。
1. A background image captured and stored in advance, and two images of a mixed image in which the background and a person are imaged are compared by using a background subtraction method, and an equal portion is set as a background image. A first step of obtaining a background difference processing image using the portion that is present as a person image, and setting the pixels of the person image to a first value in order to binarize the background difference processing image obtained in the first step. A second step of generating a set background difference binary image by setting the pixels of the background image to a second value, and a specific pixel of the background difference binary image obtained in the second step. When the pixel of interest is used, the sum of the first values and the second value for a plurality of pixels surrounding the pixel of interest
Are calculated respectively, and based on the counting result,
A third step of performing majority filtering by setting the value of the pixel of interest to the first value or the second value to obtain a majority filtered binary image; A fourth step of obtaining a majority-filtered color image by multiplying the majority-filtered binary image by the pixels of the mixed image, and a majority-filter processing of one frame obtained in the third step. A fifth step of dividing the binary image into blocks composed of a plurality of pixels to obtain a block processing binary image, and in the block processing binary image obtained in the fifth step, A sixth step of performing edge detection to obtain an edge detection processing binary image indicating an edge or a non-edge; and an edge detection processing binary obtained in the sixth step. In the image, a block determined to be an edge includes the fourth
Replaces the majority-filtered color image obtained in step b) and replaces the mixed image with a block consisting of the first value determined as non-edge, and replaces the mixed image with the second value determined as non-edge. The block includes a seventh step of obtaining an output image by replacing a desired background color;
A person extraction method characterized by having:
【請求項2】 前記第3のステップは、 前記注目画素の周囲の画素で第1の値と第2の値との多
数決処理を行い、注目画素の値が、多数決処理結果とし
て多い方の値に変換する多数決フィルタ処理であること
を特徴とする請求項1記載の人物抽出法。
2. The method according to claim 3, wherein the third step performs a majority process between a first value and a second value in pixels around the pixel of interest, and determines that the value of the pixel of interest is the larger value as a result of the majority process. 2. The method according to claim 1, wherein the filtering is a majority filtering process.
【請求項3】 前記第5のステップは、 所定ブロックに含まれる画素のうち一画素でも第1の値
の画素が存在すれば、前記所定ブロックの全画素を前記
第1の値に変換してブロック化処理二値画像を得る処理
であることを特徴とする請求項1記載の人物抽出法。
3. In the fifth step, if at least one of the pixels included in the predetermined block has a pixel of the first value, all the pixels of the predetermined block are converted into the first value. 2. The person extracting method according to claim 1, wherein the process is a process for obtaining a binary image.
【請求項4】 前記第6のステップは、 夫々のブロックの縦方向又は横方向において、前記第2
の値から第1の値又は前記第1の値から第2の値に変化
する画素があるとき、エッジブロックと判定し、その他
は非エッジブロックと判定することにより、エッジ検出
処理二値画像を得る処理であることを特徴とする請求項
1記載の人物抽出法。
4. The method according to claim 1, wherein the sixth step is to perform the second step in a vertical direction or a horizontal direction of each block.
When there is a pixel whose value changes from the first value to the first value or from the first value to the second value, it is determined that the pixel is an edge block, and the others are determined to be non-edge blocks. 2. The method according to claim 1, wherein the process is an obtaining process.
【請求項5】 前記第6のステップは、 夫々のブロックの縦方向及び横方向において、前記第2
の値から第1の値又は前記第1の値から第2の値に変化
する画素があるとき、エッジブロックと判定し、その他
は非エッジブロックと判定することにより、エッジ検出
処理二値画像を得る処理であることを特徴とする請求項
1記載の人物抽出法。
5. The method according to claim 6, wherein the sixth step is to perform the second step in a vertical direction and a horizontal direction of each block.
When there is a pixel whose value changes from the first value to the first value or from the first value to the second value, it is determined that the pixel is an edge block, and the others are determined to be non-edge blocks. 2. The method according to claim 1, wherein the process is an obtaining process.
【請求項6】 前記第4のステップは、 前記第3のステップで得られた前記多数決フィルタ処理
二値画像において、前記第1の値を有する画素のみを前
記混合画像の画素に置換することにより、多数決フィル
タ処理カラー画像を得る処理であることを特徴とする請
求項1記載の人物抽出法。
6. In the fourth step, in the majority filtered binary image obtained in the third step, only pixels having the first value are replaced by pixels of the mixed image. 2. A method for extracting a person according to claim 1, wherein the process is a process of obtaining a majority-filtered color image.
JP11187536A 1999-07-01 1999-07-01 People extraction method Pending JP2001014474A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11187536A JP2001014474A (en) 1999-07-01 1999-07-01 People extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11187536A JP2001014474A (en) 1999-07-01 1999-07-01 People extraction method

Publications (1)

Publication Number Publication Date
JP2001014474A true JP2001014474A (en) 2001-01-19

Family

ID=16207817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11187536A Pending JP2001014474A (en) 1999-07-01 1999-07-01 People extraction method

Country Status (1)

Country Link
JP (1) JP2001014474A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010212947A (en) * 2009-03-10 2010-09-24 Sony Corp Information processing device and method, information processing system, and program
US8942511B2 (en) 2010-08-26 2015-01-27 Canon Kabushiki Kaisha Apparatus and method for detecting object from image, and program
CN106056532A (en) * 2016-05-20 2016-10-26 深圳市奥拓电子股份有限公司 Method and device of removing background images
US20180106598A1 (en) * 2016-10-14 2018-04-19 Fujitsu Limited Distance measuring apparatus and distance measuring method
JP2023540021A (en) * 2020-08-24 2023-09-21 グーグル エルエルシー Real-time virtual teleportation in your browser

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010212947A (en) * 2009-03-10 2010-09-24 Sony Corp Information processing device and method, information processing system, and program
US8942511B2 (en) 2010-08-26 2015-01-27 Canon Kabushiki Kaisha Apparatus and method for detecting object from image, and program
CN106056532A (en) * 2016-05-20 2016-10-26 深圳市奥拓电子股份有限公司 Method and device of removing background images
US20180106598A1 (en) * 2016-10-14 2018-04-19 Fujitsu Limited Distance measuring apparatus and distance measuring method
US10648795B2 (en) * 2016-10-14 2020-05-12 Fujitsu Limited Distance measuring apparatus and distance measuring method
JP2023540021A (en) * 2020-08-24 2023-09-21 グーグル エルエルシー Real-time virtual teleportation in your browser
US12137005B2 (en) 2020-08-24 2024-11-05 Google Llc Real time virtual teleportation in a browser
JP7651684B2 (en) 2020-08-24 2025-03-26 グーグル エルエルシー Real-time virtual teleportation in the browser

Similar Documents

Publication Publication Date Title
JP3461626B2 (en) Specific image region extraction method and specific image region extraction device
EP2130176B1 (en) Edge mapping using panchromatic pixels
KR101223046B1 (en) Image segmentation device and method based on sequential frame imagery of a static scene
US20020186881A1 (en) Image background replacement method
CN106023204B (en) A kind of method and system removing mosquito noise based on edge detection algorithm
CN111161136B (en) Image blurring method, image blurring device, equipment and storage device
JP2020129276A (en) Image processing apparatus, image processing method, and program
US20040218073A1 (en) Color filter array interpolation
CN111368819B (en) Light spot detection method and device
CN111563908A (en) Image processing method and related device
CN112435182B (en) Image noise reduction method and device
JP3490910B2 (en) Face area detection device
CN111183630B (en) A kind of photo processing method and processing device of intelligent terminal
CN104966266A (en) Method and system to automatically blur body part
CN109005367A (en) High dynamic range image generation method, mobile terminal and storage medium
CN115578294B (en) Image enhancement method, device, equipment and storage medium
CN111369469A (en) Image processing method and device and electronic equipment
CN103793923A (en) Method and device for acquiring moving object in image
KR100869134B1 (en) Image processing apparatus and method
US20030031376A1 (en) Image enhancement method
CN113989531A (en) Image processing method and device, computer equipment and storage medium
CN113379702A (en) Blood vessel path extraction method and device of microcirculation image
CN105447827A (en) Image noise reduction method and system thereof
JP2001014474A (en) People extraction method
CN116263942A (en) Method, storage medium and computer program product for adjusting image contrast