[go: up one dir, main page]

JP2016099980A - Image segmentation method, apparatus, and program - Google Patents

Image segmentation method, apparatus, and program Download PDF

Info

Publication number
JP2016099980A
JP2016099980A JP2014239327A JP2014239327A JP2016099980A JP 2016099980 A JP2016099980 A JP 2016099980A JP 2014239327 A JP2014239327 A JP 2014239327A JP 2014239327 A JP2014239327 A JP 2014239327A JP 2016099980 A JP2016099980 A JP 2016099980A
Authority
JP
Japan
Prior art keywords
object region
image
unit
candidate
association
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014239327A
Other languages
Japanese (ja)
Other versions
JP6389742B2 (en
Inventor
周平 田良島
Shuhei Tarashima
周平 田良島
豪 入江
Takeshi Irie
豪 入江
啓之 新井
Hiroyuki Arai
啓之 新井
行信 谷口
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014239327A priority Critical patent/JP6389742B2/en
Publication of JP2016099980A publication Critical patent/JP2016099980A/en
Application granted granted Critical
Publication of JP6389742B2 publication Critical patent/JP6389742B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately segment an object area of an extraction target even when an image not including the extraction target is mixed in an input image group or when an image having a plurality of extraction target objects reflected thereon is mixed in one image.SOLUTION: An image segmentation device 10 extracts one or more object area candidates representing an extraction target object from images included in an image group; estimates an appearance model for each of the extracted object area candidates; estimates association of pixels between each of the extracted object area candidates and another similar object area; updates the object area candidates on the basis of the object area candidates, appearance models, and association; repeatedly performs estimation of the appearance models, estimation of association, and update of the object area candidates until predetermined convergence conditions are satisfied; and outputs the object area candidates of the images included in the image group as object areas.SELECTED DRAWING: Figure 1

Description

本発明は、画像セグメンテーション方法、装置、及びプログラムに係り、特に、抽出対象の物体が多くの割合で含まれる画像群を入力として、入力された画像群に含まれる物体を自動でセグメンテーションする画像セグメンテーション方法、装置、及びプログラムである。   The present invention relates to an image segmentation method, apparatus, and program, and in particular, image segmentation that automatically segments an object included in an input image group using an image group including a large percentage of objects to be extracted as an input. A method, an apparatus, and a program.

物体の写り込んだ画像が与えられたとき、画像から物体が写り込んだ領域を抽出する、すなわちセグメンテーションすることは、例えば画像ベースの物体検索の辞書、画像アノテーションの学習データ、及び画像編集の素材等を構築するための重要な要素処理である。一般に、上記辞書、学習データ、及び素材等を構築するには大量の画像が必要であるが、それらの画像を一つ一つ手動でセグメンテーションするのはコストが高い。上記辞書、学習データ、及び素材等を低コストで構築し、上記のような大規模の画像アプリケーションサービスを実現するためには、人手を介することなく膨大な画像を精度良くセグメンテーションする技術は不可欠であると言える。   When an image in which an object is reflected is given, the region in which the object is reflected is extracted from the image, that is, segmentation is performed by, for example, an image-based object search dictionary, image annotation learning data, and image editing material. It is an important element processing for constructing etc. In general, a large amount of images are required to construct the dictionary, learning data, materials, and the like, but it is expensive to manually segment these images one by one. In order to construct the above dictionary, learning data, materials, etc. at a low cost and realize such a large-scale image application service as described above, a technology for accurately segmenting an enormous amount of images without human intervention is indispensable. It can be said that there is.

膨大な画像を自動でセグメンテーションするにあたり、ウェブにおいて構造化された情報は有効であると考えられる。例えば、種々の検索エンジンや画像共有サイトが提供するキーワード画像検索を用いることで、キーワード(例えば「飛行機」、「車」など)に関連する物体が写り込んだ複数の画像は容易に入手可能である。或るキーワードで検索した結果得られた画像群を入力とし、その中に含まれるキーワードに該当する物体を自動でセグメンテーションすることができれば、ラベル(すなわち検索キーワード)が付与された物体領域を自動で取得することが可能となる。   In order to automatically segment an enormous amount of images, structured information on the web is considered effective. For example, by using keyword image search provided by various search engines and image sharing sites, a plurality of images in which objects related to keywords (for example, “airplane”, “car”, etc.) are reflected can be easily obtained. is there. If an image group obtained as a result of searching with a certain keyword is input, and an object corresponding to the keyword included therein can be automatically segmented, an object region to which a label (that is, a search keyword) is assigned automatically. It can be acquired.

キーワード検索の結果得られた画像群の多くには、キーワードに相当する物体領域が含まれている。入力された画像群に共通する物体が写り込んでいるという情報を活用して、自動で画像群を同時にセグメンテーションする公知の技術として、非特許文献1には、各画像の類似する隣接ピクセルのラベル(前景か背景かのラベル)の一貫性を評価する項と、画像中の前景ラベルを有するピクセル集合から抽出される特徴量の、背景ラベルを有するピクセル集合から抽出される特徴量に対する識別性を評価する項と、から構成されるエネルギー関数を最小化することにより、各画像中のピクセルに対してラベルを割り当てる方法が開示されている。非特許文献1に開示された技術は、ラベル割当問題を解くために、入力された画像群の全ての画像に抽出対象の物体が写り込んでいることを前提としている。   Many of the image groups obtained as a result of the keyword search include an object region corresponding to the keyword. As a known technique for automatically segmenting an image group at the same time by using information that an object common to the input image group is reflected, Non-Patent Document 1 discloses a label of a similar adjacent pixel of each image. A term that evaluates the consistency of (foreground or background label) and a feature amount extracted from a pixel set having a foreground label in an image to a feature amount extracted from a pixel set having a background label. A method is disclosed for assigning labels to pixels in each image by minimizing an energy function comprised of terms to be evaluated. The technique disclosed in Non-Patent Document 1 is based on the premise that objects to be extracted are reflected in all images of the input image group in order to solve the label allocation problem.

一方、非特許文献2には、入力された画像群のうち特に類似した画像のペアでSIFT Flowによるピクセル間の対応付けを行い、得られた対応付けに基づいて定義される、各ピクセルの抽出対象の物体らしさを評価する項を含むエネルギー最小化問題を解くことによって、入力された画像群に一部混在する抽出対象以外の物体は除外しつつ、抽出対象の物体を抽出することが可能な方法が開示されている。非特許文献2で開示された技術は、入力された画像群に抽出対象の物体が全く写り込んでいない画像が含まれ得ることが考慮されているという点で、非特許文献1の技術よりも、入力された画像群から抽出対象の物体領域を精度良く抽出することが可能な技術であると言える。   On the other hand, in Non-Patent Document 2, a pixel pair is associated by SIFT Flow with a pair of particularly similar images in the input image group, and each pixel is defined based on the obtained association. By solving an energy minimization problem that includes a term that evaluates the object-likeness of an object, it is possible to extract the object to be extracted while excluding objects other than the object to be extracted that are partially mixed in the input image group A method is disclosed. The technique disclosed in Non-Patent Document 2 is more advantageous than the technique of Non-Patent Document 1 in that the input image group can include an image in which an object to be extracted is not reflected at all. It can be said that this is a technique capable of accurately extracting an object region to be extracted from an input image group.

A. Joulin et al., Multi-Class Cosegmentation, in Proc. CVPR, 2012. インターネット(URL:http://www.di.ens.fr/~fbach/joulin_cvpr2012.pdf)A. Joulin et al., Multi-Class Cosegmentation, in Proc. CVPR, 2012. Internet (URL: http://www.di.ens.fr/~fbach/joulin_cvpr2012.pdf) M. Rubinstein et al., Unsupervised Joint Object Discovery and Segmentation in Internet Images, in Proc. CVPR, 2013. インターネット(URL:http://people.csail.mit.edu/mrub/papers/ObjectDiscovery-cvpr13.pdf)M. Rubinstein et al., Unsupervised Joint Object Discovery and Segmentation in Internet Images, in Proc. CVPR, 2013. Internet (URL: http://people.csail.mit.edu/mrub/papers/ObjectDiscovery-cvpr13.pdf)

しかしながら、非特許文献1に開示された方法では、以下のような問題があった。キーワード検索結果として得られる画像群の一部には、抽出対象の物体が全く写り込んでいない画像が含まれていることが多いため、非特許文献1が仮定する、入力された画像群の全ての画像に抽出対象の物体が写っているという条件は、一般には成立しない。そのため、キーワード検索の結果得られた画像群を入力とし、非特許文献1に開示された技術を用いてセグメンテーションした結果は、本来の物体領域を正しく捉えることができず精度が低い、という問題があった。   However, the method disclosed in Non-Patent Document 1 has the following problems. Since part of the image group obtained as a keyword search result often includes an image in which the object to be extracted is not reflected at all, all of the input image group assumed by Non-Patent Document 1 is assumed. Generally, the condition that the object to be extracted is shown in the image is not satisfied. For this reason, the image group obtained as a result of the keyword search is used as an input, and the result of segmentation using the technique disclosed in Non-Patent Document 1 has a problem that the original object region cannot be correctly captured and accuracy is low. there were.

また、非特許文献2における抽出対象以外の物体の除外を実現するピクセル間の対応付け処理は、画像ペア間でピクセルの一対一の対応付けが可能であることを前提として実行されている。すなわち、画像ペア間で抽出対象の物体数は同一であるという仮定が暗になされている。   Further, the association processing between pixels that realizes the exclusion of objects other than the extraction target in Non-Patent Document 2 is executed on the assumption that one-to-one pixel correspondence is possible between image pairs. That is, the assumption is made that the number of objects to be extracted is the same between image pairs.

また、キーワード検索の結果得られる画像群の一部には、一枚の中に抽出対象の物体が複数写り込んだ画像が含まれることは、抽出対象以外の物体が写り込んだ画像が混在することと同様に一般的である。そのため、非特許文献2に開示された、画像ペア間でピクセルの一対一の対応付けが可能であるという仮説は一般には成り立たず、特に一枚に複数の抽出対象の物体が写り込んだ画像を多く含む画像群を入力とした場合、非特許文献2に開示された技術を用いてセグメンテーションした結果は、本来の物体領域を正しく捉えることができず精度が低い、という問題がある。   Also, a part of the image group obtained as a result of the keyword search includes an image in which a plurality of objects to be extracted are included in one image. As general as it is. For this reason, the hypothesis disclosed in Non-Patent Document 2 that a one-to-one correspondence between pixels is possible does not generally hold, and in particular, an image in which a plurality of objects to be extracted are reflected in one sheet. When a large number of image groups are input, the result of segmentation using the technique disclosed in Non-Patent Document 2 has a problem in that the original object region cannot be correctly captured and accuracy is low.

さらに、非特許文献1及び非特許文献2の何れの方法についても、画像内に抽出対象の物体が複数写り込んでいた場合、それらを自動で分離する手段を有していない、という問題があった。これは、非特許文献1及び非特許文献2で開示されている方法が、入力された画像群に含まれる各画像の各ピクセルが「抽出対象の物体であるか否か」のみを決定する方法であり、画像中に複数の物体が写っている場合、それらのうちどの物体に属するかを判別する機能を有していない。   Furthermore, both methods of Non-Patent Document 1 and Non-Patent Document 2 have a problem that when a plurality of objects to be extracted appear in an image, there is no means for automatically separating them. It was. This is because the method disclosed in Non-Patent Document 1 and Non-Patent Document 2 determines only whether or not each pixel of each image included in the input image group is an object to be extracted. When there are a plurality of objects in the image, it does not have a function of determining which of them belongs.

上記の画像アプリケーションサービスを実現するための辞書や学習データは、物体個々をデータの単位として用いるのが一般的であるが、既存の公知技術では、画像に含まれる複数の物体が空間的に離れている場合、それらを分離するための後処理が必要となる。個々の物体が画像中で空間的に明らかに分離している場合は、自動でそれらを分離することは難しくないものの、複数の物体が空間的に接して写り込んでいる場合、それらを自動で分離することは非常に困難であり、コストの高い人手による作業が避けられない、という問題があった。   In the dictionary and learning data for realizing the above image application service, it is common to use each object as a unit of data. However, in the existing known technology, a plurality of objects included in an image are spatially separated. If so, a post-treatment is required to separate them. If individual objects are clearly separated spatially in the image, it is not difficult to automatically separate them, but if multiple objects are reflected spatially, they are automatically separated. It was very difficult to separate, and there was a problem that work with high cost was inevitable.

このように、キーワード検索の結果得られた画像群を入力としてキーワードに該当する物体領域を同時にセグメンテーションする既存の公知の技術では、キーワード検索の結果得られる画像群の特徴である「抽出対象の物体領域を含んでいない又は抽出対象以外の物体を含む画像が混在する」という特徴と、「抽出対象の物体が複数写り込んでいる画像が混在する」という特徴とを同時に捉え、画像に含まれる個々の抽出対象の物体を精度良く分離してセグメンテーションすることができない、という問題があった。   As described above, in the existing known technique for simultaneously segmenting the object region corresponding to the keyword by using the image group obtained as a result of the keyword search, the “object to be extracted” which is a feature of the image group obtained as a result of the keyword search. Each feature included in the image is captured simultaneously with the feature that `` images that do not contain areas or objects that include objects other than the extraction target are mixed '' and the feature that `` images that include multiple objects to be extracted are mixed '' There is a problem that the object to be extracted cannot be separated and segmented with high accuracy.

本発明は、上記の事情に鑑みてなされたもので、入力画像群の中に抽出対象の物体領域を含まない画像が混在していたり、1つの画像に複数の抽出対象の物体が写り込んでいる画像が混在していたりする場合でも、抽出対象の物体領域を精度よくセグメンテーションすることができる画像セグメンテーション方法、装置、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an input image group includes a mixture of images that do not include an object region to be extracted, or a plurality of objects to be extracted appear in one image. It is an object of the present invention to provide an image segmentation method, apparatus, and program capable of accurately segmenting an object region to be extracted even when there are mixed images.

上記目的を達成するために、本発明の画像セグメンテーション方法は、物体領域抽出部、アピアランスモデル推定部、対応付け推定部、物体領域更新部、収束判定部、及び物体領域出力部を含む画像セグメンテーション装置における画像セグメンテーション方法であって、前記物体領域抽出部が、画像群に含まれる各画像から、抽出対象物体を表す一つ以上の物体領域候補を抽出するステップと、前記アピアランスモデル推定部が、前記物体領域抽出部により抽出された前記物体領域候補又は前記物体領域更新部により更新された前記物体領域候補に基づいて、前記物体領域候補の各々についてアピアランスモデルを推定するステップと、前記対応付け推定部が、前記物体領域抽出部により抽出された前記物体領域候補又は前記物体領域更新部により更新された前記物体領域候補の各々について、類似した他の物体領域候補との間のピクセルの対応付けを推定するステップと、前記物体領域更新部が、前記物体領域抽出部により抽出された前記物体領域候補又は前記物体領域更新部により更新された前記物体領域候補、前記アピアランスモデル推定部により推定された前記アピアランスモデル、及び前記対応付け推定部により推定された対応付けに基づいて、前記画像群に含まれる各画像の前記物体領域候補を更新するステップと、前記収束判定部が、所定の収束条件が満たされるまで、前記アピアランスモデル推定部による推定、前記対応付け推定部による推定、及び前記物体領域更新部による更新を繰り返し行うステップと、前記物体領域出力部が、前記画像群に含まれる各画像の前記物体領域候補を物体領域として出力するステップと、を含む。   In order to achieve the above object, an image segmentation method according to the present invention includes an object region extraction unit, an appearance model estimation unit, an association estimation unit, an object region update unit, a convergence determination unit, and an object region output unit. In the image segmentation method, the object region extraction unit extracts one or more object region candidates representing an extraction target object from each image included in the image group, and the appearance model estimation unit includes the Estimating an appearance model for each of the object region candidates based on the object region candidate extracted by the object region extraction unit or the object region candidate updated by the object region update unit; and the association estimation unit Is the object region candidate extracted by the object region extraction unit or the object region update. For each of the object region candidates updated by the above, a step of estimating a pixel correspondence with another similar object region candidate, and the object region update unit is extracted by the object region extraction unit Based on the object region candidate or the object region candidate updated by the object region update unit, the appearance model estimated by the appearance model estimation unit, and the association estimated by the association estimation unit, the image group Updating the object region candidate of each image included in the image, and the convergence determination unit until the predetermined convergence condition is satisfied, the estimation by the appearance model estimation unit, the estimation by the association estimation unit, and the object A step of repeatedly performing the update by the region update unit, and the object region output unit includes each image included in the image group. Comprising a step wherein outputting the object region candidate object region of the.

また、前記物体領域抽出部が前記物体領域候補を抽出するステップは、画像中で互いに重複する領域が存在しないように前記物体領域候補を抽出するようにしてもよい。   The step of extracting the object region candidates by the object region extraction unit may extract the object region candidates so that there are no overlapping regions in the image.

また、前記アピアランスモデル推定部が前記アピアランスモデルを推定するステップは、前記物体領域抽出部により抽出された各画像の各物体領域候補について前記アピアランスモデルを推定し、各画像の、各物体領域候補の何れにも含まれないピクセル集合で構成される背景領域について、前記アピアランスモデルを推定するようにしてもよい。   Further, the step of estimating the appearance model by the appearance model estimation unit estimates the appearance model for each object region candidate of each image extracted by the object region extraction unit, and determines each object region candidate of each image. The appearance model may be estimated for a background region composed of a pixel set not included in any of them.

また、前記対応付け推定部が前記対応付けを推定するステップは、前記物体領域候補の各々について、類似した他の物体領域候補との間で対応付けられるピクセル間の画像特徴量の類似性を評価する項と、前記物体領域候補内の近傍ピクセルに関する、前記ピクセルの対応付けに伴う移動ベクトルのなめらかさを評価する項と、から構成される最適化関数を解くことによって、前記類似した他の物体領域候補との間のピクセルの対応付けを推定するようにしてもよい。   Further, the step of estimating the association by the association estimation unit evaluates similarity of image feature amounts between pixels associated with other similar object region candidates for each of the object region candidates. And another term that evaluates the smoothness of the movement vector associated with the pixel association with respect to neighboring pixels in the object region candidate. You may make it estimate the correlation of the pixel between area | region candidates.

また、前記物体領域更新部が前記物体領域候補を更新するステップは、前記画像群に含まれる各画像の各ピクセルに関する前記抽出対象物体らしさを評価する項と、前記物体領域抽出部により抽出された前記物体領域候補又は前記物体領域更新部により更新された前記物体領域候補からの空間的な近さを評価する項と、前記画像群に含まれる各画像の各ピクセルに関する、前記アピアランスモデル推定部により推定された前記アピアランスモデルへの寄与を評価する項と、前記対応付け推定部により対応付けられたピクセル間の画像特徴量の類似性を評価する項と、画像内で隣接するピクセルの、物体領域候補に含まれるか否かを示すラベルのなめらかさを評価する項と、前記対応付け推定部により対応付けられたピクセル間の前記ラベルの一貫性を評価する項と、を含む目的関数を最適化することによって、前記画像群に含まれる各画像の前記物体領域候補の更新を行うようにしてもよい。   Further, the step of updating the object region candidate by the object region update unit is a term that evaluates the likelihood of the extraction target object with respect to each pixel of each image included in the image group, and is extracted by the object region extraction unit. The term for evaluating spatial proximity from the object region candidate or the object region candidate updated by the object region update unit, and the appearance model estimation unit for each pixel of each image included in the image group A term that evaluates the estimated contribution to the appearance model, a term that evaluates similarity of image feature amounts between pixels associated by the association estimation unit, and an object region of pixels adjacent in the image A term that evaluates the smoothness of a label indicating whether or not the candidate is included in a candidate, and the label between the pixels associated by the association estimation unit A term evaluating the transmural properties, by optimizing the objective function including, may perform updating of the object region candidate of the images included in the image group.

本発明の画像セグメンテーション装置は、画像群に含まれる各画像から、抽出対象物体を表す一つ以上の物体領域候補を抽出する物体領域抽出部と、前記物体領域抽出部により抽出された前記物体領域候補又は更新された前記物体領域候補に基づいて、前記物体領域候補の各々についてアピアランスモデルを推定するアピアランスモデル推定部と、前記物体領域抽出部により抽出された前記物体領域候補又は更新された前記物体領域候補の各々について、類似した他の物体領域候補との間のピクセルの対応付けを推定する対応付け推定部と、前記物体領域抽出部により抽出された前記物体領域候補又は更新された前記物体領域候補、前記アピアランスモデル推定部により推定された前記アピアランスモデル、及び前記対応付け推定部により推定された対応付けに基づいて、前記画像群に含まれる各画像の前記物体領域候補を更新する物体領域更新部と、所定の収束条件が満たされるまで、前記アピアランスモデル推定部による推定、前記対応付け推定部による推定、及び前記物体領域更新部による更新を繰り返し行う収束判定部と、前記画像群に含まれる各画像の前記物体領域候補を物体領域として出力する物体領域出力部と、を含む。   The image segmentation device of the present invention includes an object region extraction unit that extracts one or more object region candidates representing an extraction target object from each image included in an image group, and the object region extracted by the object region extraction unit. An appearance model estimation unit that estimates an appearance model for each of the object region candidates based on the candidate or updated object region candidate, and the object region candidate or the updated object extracted by the object region extraction unit For each of the area candidates, an association estimation unit that estimates pixel association with another similar object region candidate, and the object region candidate extracted by the object region extraction unit or the updated object region Candidates, the appearance model estimated by the appearance model estimation unit, and the correspondence estimation unit An object region update unit that updates the object region candidate of each image included in the image group based on the association, and an estimation by the appearance model estimation unit until a predetermined convergence condition is satisfied, the association A convergence determination unit that repeatedly performs estimation by the estimation unit and update by the object region update unit; and an object region output unit that outputs the object region candidate of each image included in the image group as an object region.

本発明の画像セグメンテーションプログラムは、コンピュータに、請求項1〜5の何れか1項に記載の画像セグメンテーション方法の各ステップを実行させるための画像セグメンテーションプログラムである。   The image segmentation program of the present invention is an image segmentation program for causing a computer to execute each step of the image segmentation method according to any one of claims 1 to 5.

以上説明したように、本発明の画像セグメンテーション方法、装置、及びプログラムによれば、入力画像群の中に抽出対象を含まない画像が混在していたり、1つの画像に複数の抽出対象の物体が写り込んでいる画像が混在していたりする場合でも、抽出対象の物体領域を精度よくセグメンテーションすることができる、という効果が得られる。   As described above, according to the image segmentation method, apparatus, and program of the present invention, images that do not include an extraction target are mixed in an input image group, or a plurality of extraction target objects exist in one image. Even in the case where captured images are mixed, there is an effect that the object region to be extracted can be accurately segmented.

本実施の形態に係る画像セグメンテーション装置の機能的な構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the image segmentation apparatus which concerns on this Embodiment. 本実施の形態における画像セグメンテーションルーチンを示すフローチャートである。It is a flowchart which shows the image segmentation routine in this Embodiment. 画像から抽出された複数の物体領域の一例を示す図である。It is a figure which shows an example of the several object area | region extracted from the image. 画像から抽出された複数の物体領域のうち重複する領域の割合が大きい物体領域を除去した例を示す図である。It is a figure which shows the example which removed the object area | region with a large ratio of the overlapping area | region among the several object area | regions extracted from the image. 重複した領域のピクセルを何れかの物体領域にラベリングした例を示す図である。It is a figure which shows the example which labeled the pixel of the overlapping area | region to any object area | region. 入力された画像群及び当該画像群から抽出された物体領域のみを含む出力画像の画像群の一例を示す図である。It is a figure which shows an example of the image group of the output image containing only the input image group and the object area | region extracted from the said image group. 従来技術において一部が重複した複数の物体領域を含む画像から抽出された1つの物体領域を示す図である。It is a figure which shows one object area | region extracted from the image containing the several object area | region in which some overlapped in the prior art. 本実施の形態において一部が重複した複数の物体領域を含む画像から抽出された2つの物体領域を示す図である。It is a figure which shows two object area | regions extracted from the image containing several object area | regions in which one part overlapped in this Embodiment.

以下、図面を参照して、本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本実施の形態では、一例として、キーワード検索の結果得られた画像群を入力として、入力された画像群に含まれる、キーワードに該当する物体領域を自動でセグメンテーションする。   In this embodiment, as an example, an image group obtained as a result of keyword search is used as an input, and object regions corresponding to the keyword included in the input image group are automatically segmented.

<システム構成> <System configuration>

図1に示すように、本実施の形態に係る画像セグメンテーション装置10は、物体領域抽出部12、アピアランスモデル推定部14、対応付け推定部16、物体領域更新部18、収束判定部20、及び物体領域出力部22を備えている。   As shown in FIG. 1, the image segmentation device 10 according to the present embodiment includes an object region extraction unit 12, an appearance model estimation unit 14, an association estimation unit 16, an object region update unit 18, a convergence determination unit 20, and an object An area output unit 22 is provided.

物体領域抽出部12は、入力された入力画像群に含まれる各画像から、一つ以上の物体領域を抽出する。物体領域抽出部12に入力される入力画像群は、例えば画像検索サイト等において物体を表すキーワードを入力し、キーワードに対応する物体を含む画像を検索することにより得られた画像群である。なお、画像群に含まれる画像の多くは、キーワードに対応する物体を含むが、必ずしも全ての画像にキーワードに対応する抽出対象物体が含まれるとは限らない。   The object region extraction unit 12 extracts one or more object regions from each image included in the input image group that has been input. The input image group input to the object region extraction unit 12 is an image group obtained by inputting a keyword representing an object on an image search site or the like and searching for an image including the object corresponding to the keyword. Many of the images included in the image group include an object corresponding to the keyword, but not all images necessarily include an extraction target object corresponding to the keyword.

アピアランスモデル推定部14は、物体領域抽出部12により抽出された物体領域候補又は物体領域更新部18により更新された物体領域候補に基づいて、物体領域候補の各々についてアピアランスモデルを推定する。   The appearance model estimation unit 14 estimates an appearance model for each object region candidate based on the object region candidate extracted by the object region extraction unit 12 or the object region candidate updated by the object region update unit 18.

対応付け推定部16は、物体領域抽出部12により抽出された物体領域候補又は物体領域更新部18により更新された物体領域候補の各々について、類似した他の物体領域との間のピクセルの対応付けを推定する。   The association estimation unit 16 associates pixels with other similar object regions for each of the object region candidates extracted by the object region extraction unit 12 or the object region candidates updated by the object region update unit 18. Is estimated.

物体領域更新部18は、物体領域抽出部12により抽出された物体領域候補又は物体領域更新部18により更新された物体領域候補、アピアランスモデル推定部14により推定されたアピアランスモデル、及び対応付け推定部16により推定された対応付けに基づいて、物体領域候補を更新する。   The object region update unit 18 includes the object region candidate extracted by the object region extraction unit 12 or the object region candidate updated by the object region update unit 18, the appearance model estimated by the appearance model estimation unit 14, and the association estimation unit. The object region candidate is updated based on the association estimated by 16.

収束判定部20は、所定の収束条件を満たしたか否かを判定し、所定の収束条件を満たしたと判定されるまで、アピアランスモデルの推定、対応付けの推定、及び物体領域候補の更新を繰り返し行う。   The convergence determination unit 20 determines whether or not a predetermined convergence condition is satisfied, and repeatedly performs appearance model estimation, association estimation, and object region candidate update until it is determined that the predetermined convergence condition is satisfied. .

物体領域出力部22は、収束判定部20が所定の収束条件を満たすと判定した場合に、画像群に含まれる各画像の物体領域候補を、物体領域として出力する。物体領域出力部22は、例えば抽出された物体領域のみを含む画像をネットワーク上の他の端末装置等に送信したり、記憶装置に出力したり、表示装置に出力したりする。   When the convergence determination unit 20 determines that the predetermined convergence condition is satisfied, the object region output unit 22 outputs the object region candidate of each image included in the image group as the object region. The object region output unit 22 transmits, for example, an image including only the extracted object region to another terminal device on the network, outputs it to a storage device, or outputs it to a display device.

物体領域抽出部12、アピアランスモデル推定部14、対応付け推定部16、物体領域更新部18、収束判定部20、及び物体領域出力部22は、例えばCPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する画像セグメンテーションルーチンを実行するための画像セグメンテーションプログラムを記憶したROM(Read Only Memory)と、を備えたコンピュータにより実現される。なお、ROMに代えて不揮発性メモリを用いてもよい。また、画像セグメンテーション装置10を構成するコンピュータは、ハードディスクドライブ等の記憶部や通信インタフェース等を備えていてもよい。また、ハードディスクドライブにCPUが実行するプログラムが記憶されていてもよい。CPUがROMやハードディスク等の記憶部に記憶されているプログラムを読み出して実行することにより、上記ハードウェアとプログラムとを協働させて以下に説明する機能が実現される。   The object region extraction unit 12, appearance model estimation unit 14, association estimation unit 16, object region update unit 18, convergence determination unit 20, and object region output unit 22 are, for example, a CPU (Central Processing Unit) and a RAM (Random Access). And a ROM (Read Only Memory) that stores an image segmentation program for executing an image segmentation routine described later. Note that a nonvolatile memory may be used instead of the ROM. The computer constituting the image segmentation apparatus 10 may include a storage unit such as a hard disk drive, a communication interface, and the like. A program executed by the CPU may be stored in the hard disk drive. When the CPU reads and executes a program stored in a storage unit such as a ROM or a hard disk, functions described below are realized by cooperating the hardware and the program.

<画像セグメンテーション装置の作用> <Operation of image segmentation device>

次に、図2を参照して、本実施の形態に係る画像セグメンテーション装置10において実行される画像セグメンテーションルーチンについて説明する。   Next, an image segmentation routine executed in the image segmentation apparatus 10 according to the present embodiment will be described with reference to FIG.

ステップS100では、物体領域抽出部12が、入力画像群   In step S <b> 100, the object region extraction unit 12 inputs the input image group.

を入力する。Nは画像数である。各画像は元のサイズのままでステップS102以降の処理に用いてもよいし、あるいはリサイズしてもよい。各画像をリサイズする場合、画像 Enter. N is the number of images. Each image may be used in the processing after step S102 with the original size, or may be resized. When resizing each image, the image

の元の高さをheight、幅をwidth、lmaxを定数として、例えば各画像をlmax/max(height,width)のスケールにリサイズする。 For example, each image is resized to a scale of l max / max (height i , width i ), where the original height is height i , the width is width i , and l max is a constant.

次に、物体領域抽出部12が、入力された画像群に含まれる各画像Iに写っている物体領域候補を抽出する。ここで抽出される物体領域候補は、画像内で互いに重複する領域が存在しないように抽出される。以下、画像内で互いに重複しないように物体領域候補を抽出する方法について具体的に説明する。 Next, the object region extraction unit 12 extracts object region candidates that appear in each image I i included in the input image group. The object region candidates extracted here are extracted so that there are no overlapping regions in the image. Hereinafter, a method for extracting object region candidates so as not to overlap each other in an image will be specifically described.

なお、以下では、物体領域候補として矩形領域を抽出する場合について説明するが、抽出する領域の形状は矩形に限られるものではない。   In the following, a case where a rectangular region is extracted as an object region candidate will be described, but the shape of the extracted region is not limited to a rectangle.

まず、画像中の任意の矩形領域について物体のカテゴリに依存しない物体らしさを評価する公知の技術を用いて、物体らしさのスコアが高い矩形領域をNproposal個抽出する。 First, using a known technique for evaluating object-likeness that does not depend on an object category for an arbitrary rectangular region in an image, N proposals of rectangular regions having a high object-likeness score are extracted.

proposalはパラメータであり、予め定めた値を設定する。図3には、一例としてNproposal=5とした場合に画像Iから抽出された矩形領域、すなわち物体領域候補の例を示した。図3に示すように、物体領域候補30は物体領域候補30と重複している。また、物体領域候補30は物体領域候補30及び物体領域候補30と重複している。また、物体領域候補30は物体領域候補30、物体領域候補30、及び物体領域候補30と重複している。また、物体領域候補30は、物体領域候補30及び物体領域候補30と重複している。また、物体領域候補30は、物体領域候補30及び物体領域候補30と重複している。 N proposal is a parameter, and a predetermined value is set. FIG. 3 shows an example of a rectangular area extracted from the image I i , that is, an object area candidate when N proposal = 5 as an example. As shown in FIG. 3, the object region candidate 30 1 overlaps the object region candidate 30 2. Also, the object region candidate 30 2 overlaps the object region candidate 30 1 and the object region candidate 30 3. The object region candidate 30 3 overlaps with the object region candidate 30 2 , the object region candidate 30 4 , and the object region candidate 30 5 . Also, the object region candidate 30 4 overlaps the object region candidate 30 3 and the object region candidate 30 5. Also, the object region candidate 30 5 overlaps the object region candidate 30 3 and the object region candidate 30 4.

以下では、画像Iについて物体領域抽出処理で得られた物体領域候補を In the following, object region candidates obtained by the object region extraction process for the image I i are shown.

、各物体領域候補に対応する物体らしさのスコアを , The object-like score corresponding to each object region candidate

とする。物体領域候補 And Object region candidate

は、ピクセルxが物体領域候補に含まれるとき When pixel x is included in the object region candidate

、それ以外で0をとる画像と同じサイズのバイナリマスクである。画像中の任意の矩形領域について物体のカテゴリに依存しない物体らしさを評価する公知の技術としては、例えば下記参考文献1に開示された方法を用いることができる。 Otherwise, it is a binary mask of the same size as the image that takes 0. As a known technique for evaluating object-likeness that does not depend on an object category for an arbitrary rectangular area in an image, for example, a method disclosed in Reference Document 1 below can be used.

(参考文献1) M.M. Cheng et al., BING: Binarized Normed Gradients for Objectness Estimation at 300fps, in Proc. CVPR, 2014. (Reference 1) M.M. Cheng et al., BING: Binarized Normed Gradients for Objectness Estimation at 300fps, in Proc. CVPR, 2014.

次に、抽出された物体領域候補のうち、他の物体領域候補と重複する領域の割合が大きい物体領域候補をNon Maximal Suppression(NMS)を用いて除去する。図4には、NMSを用いて他の物体領域候補と重複する領域の割合が大きい物体領域候補を除去した場合の例を示した。図4に示すように、物体領域候補30、30が残され、物体領域候補30、30、30は除去されている。図3に示すように、物体領域候補30、30、30は、他の物体領域候補と重複する領域の割合が大きいためである。なお、図4に示すように、物体領域候補30、30は一部の領域32が重複している。このように、重複領域を有する物体領域候補が全て除去されるわけではない。 Next, among the extracted object region candidates, object region candidates having a large proportion of regions overlapping with other object region candidates are removed using Non Maximum Suppression (NMS). FIG. 4 shows an example in which an object region candidate having a large proportion of regions overlapping with other object region candidates is removed using NMS. As shown in FIG. 4, object region candidates 30 2 , 30 3 are left, and object region candidates 30 1 , 30 4 , 30 5 are removed. As shown in FIG. 3, the object region candidates 30 1 , 30 4 , and 30 5 have a large ratio of regions that overlap with other object region candidates. As shown in FIG. 4, the object region candidates 30 2 and 30 3 are partially overlapped by a region 32. In this way, not all object region candidates having overlapping regions are removed.

以下では、NMSの結果残った物体領域候補集合を   Below, the object region candidate set remaining as a result of NMS

とする。 And

は、画像Iから抽出される物体領域候補の数である。NMSの結果残った物体領域候補は、重複する領域は小さいものの互いに重複している可能性がある。そこで、領域が重複するのを避けるため、上記数7で示した物体領域候補集合に含まれる2つ以上の物体領域候補に属する各ピクセルについては、その色、位置、及び隣接ピクセルとのラベル一貫性を評価することにより、上記数7で示した物体領域候補集合に含まれる何れかの物体領域候補への割り当て処理を行う。上記割り当て処理は、例えば下記(1)式で示すエネルギー関数を最小化するような物体領域候補集合 Is the number of object region candidates extracted from the image I i . Object region candidates remaining as a result of NMS may overlap each other even though the overlapping region is small. Therefore, in order to avoid overlapping of regions, for each pixel belonging to two or more object region candidates included in the object region candidate set shown in Equation 7, the color, position, and label consistency with adjacent pixels are consistent. By evaluating the property, assignment processing to any object region candidate included in the object region candidate set shown in the above equation 7 is performed. The above allocation process is performed by, for example, an object region candidate set that minimizes the energy function expressed by the following equation (1).

を求めることで得られる。 It is obtained by seeking.

・・・(1) ... (1)

ここで、 here,

は、上記数7に示す物体領域候補集合に含まれる物体領域候補のうち少なくとも一つ以上の物体領域候補に含まれるピクセルの集合、Nは、ピクセルxの近傍ピクセルの集合(例えばピクセルxの上下左右に存在するピクセルから構成される集合)である。 Is a set of pixels included in at least one object region candidate among the object region candidates included in the object region candidate set shown in Equation 7, and N x is a set of neighboring pixels of the pixel x (for example, the pixel x A set of pixels that exist in the top, bottom, left, and right).

上記(1)の右辺第一項は、ピクセルxの位置を評価する項であり、例えば下記(2)式のように定義できる。   The first term on the right side of the above (1) is a term for evaluating the position of the pixel x, and can be defined as, for example, the following equation (2).

・・・(2) ... (2)

ここで、 here,

は物体領域候補 Is the object region candidate

に含まれるピクセルの集合、 The set of pixels contained in

はピクセルxの座標である。また、κpositionはパラメータであり、予め定めた値を設定する。 Is the coordinate of pixel x. Further, κ position is a parameter, and a predetermined value is set.

上記(1)式の右辺第二項は、物体領域候補   The second term on the right side of equation (1) above is the object region candidate

のアピアランスモデルに対するピクセルxの寄与を評価する項、すなわちピクセルxの色を評価する項であり、例えば下記(3)式のように定義できる。 This term is a term for evaluating the contribution of the pixel x to the appearance model, that is, a term for evaluating the color of the pixel x, and can be defined, for example, by the following equation (3).

・・・(3) ... (3)

ここで、 here,

は、上記数14で示す物体領域候補に対応するアピアランスモデル Is an appearance model corresponding to the object region candidate shown by the above-mentioned equation 14

に対するピクセルxの輝度値 Luminance value of pixel x with respect to

の対数尤度、κcolorはパラメータであり、予め定めた値を設定する。上記数19で示したアピアランスモデルは、例えばGaussian Mixture Modelを用いて構築することができる。 The log-likelihood, kappa color is a parameter, and sets the predetermined value. The appearance model shown in the above equation 19 can be constructed using, for example, a Gaussian Mixture Model.

上記(1)式の右辺第三項は、輝度値の類似した隣接ピクセルx、x’の、物体領域候補に含まれるか否かを示すラベルの一貫性を評価する項であり、例えば下記(4)式のように定義することができる。   The third term on the right side of the above equation (1) is a term for evaluating the consistency of the label indicating whether or not adjacent pixels x and x ′ having similar luminance values are included in the object region candidate. 4) can be defined as:

・・・(4) ... (4)

ここで、κintはパラメータであり、予め定めた値を設定する。また、[]は、[]内の条件が満たされる場合に1、満たされない場合に0となるインジケータ関数である。 Here, κ int is a parameter, and a predetermined value is set. [] Is an indicator function that becomes 1 when the condition in [] is satisfied and becomes 0 when the condition is not satisfied.

は、ピクセルxが上記数9で示した物体領域候補集合に含まれる何れの物体領域候補にも含まれない場合に0、物体領域候補Rijに含まれる場合にjとなる。 Is 0 when the pixel x is not included in any of the object region candidates included in the object region candidate set represented by Equation 9, and is j when it is included in the object region candidate R ij .

以上の処理によって、各画像Iについて上記数9で示すような、互いに重複しない物体領域候補集合が得られる。例えば図4に示すように物体領域候補30、30の一部が重複した領域32のピクセルは、図5に示すように物体領域候補30及び物体領域候補30の何れか一方にラベリングされることとなる。このため、上記数9で示すような互いに重複しない物体領域候補集合に含まれる各物体領域候補は、必ずしも矩形領域になるとは限らない。 Through the above processing, object region candidate sets that do not overlap with each other are obtained for each image I i as shown in Equation 9 above. For example, as shown in FIG. 4, a pixel in a region 32 where a part of the object region candidates 30 2 and 30 3 partially overlaps is labeled as one of the object region candidate 30 2 and the object region candidate 30 3 as shown in FIG. Will be. For this reason, each object area candidate included in the object area candidate sets that do not overlap each other as shown in the above equation 9 is not necessarily a rectangular area.

ステップS102では、アピアランスモデル推定部14が、ステップS102で得られた上記数9で示す各画像の物体領域候補集合に基づいて、アピアランスモデルを推定する。ここで、アピアランスモデルは、各画像から抽出された物体領域候補集合を構成する各物体領域候補と、何れの物体領域候補にも含まれないピクセル集合で構成される領域、すなわち背景領域と、について推定する。   In step S102, the appearance model estimation unit 14 estimates an appearance model based on the object region candidate set of each image shown in the above equation 9 obtained in step S102. Here, the appearance model is for each object region candidate constituting the object region candidate set extracted from each image, and a region composed of a pixel set not included in any object region candidate, that is, a background region. presume.

以下では、画像Iについて推定されたアピアランスモデル集合を In the following, the appearance model set estimated for the image I i is

とする。ここで、アピアランスモデル And Where the appearance model

は、物体領域候補 Is the object region candidate

に対応しており、物体領域候補Rijに含まれるピクセル集合 And a set of pixels included in the object region candidate R ij

から推定することができる。アピアランスモデルHi0は、上記数9で示した物体領域候補集合を構成する何れの物体領域候補にも含まれない領域、すなわち背景領域から推定されるアピアランスモデルであり、上記数9で示した物体領域候補集合を構成する何れの物体領域候補にも含まれないピクセル集合から推定することができる。アピアランスモデルは、例えばGaussian Mixture Modelを用いて構築することができる。 Can be estimated from The appearance model H i0 is an appearance model estimated from a region that is not included in any of the object region candidates constituting the object region candidate set represented by Equation 9 above, that is, a background region, and the object represented by Equation 9 above. It can be estimated from a pixel set that is not included in any object region candidate that constitutes the region candidate set. The appearance model can be constructed using, for example, a Gaussian Mixture Model.

ステップS104では、対応付け推定部16が、ステップS102で得られた各画像の各物体領域候補について、各画像に含まれる全ての物体領域候補の中から特に類似した物体領域候補とのピクセル間の密な対応付けを推定する。ここで、類似する物体領域候補間におけるピクセル間の密な対応付けは、対応付けられるピクセル間の画像特徴量の類似性を評価する項と、物体領域候補内の近傍ピクセルに関する、対応付けに伴う移動ベクトルのなめらかさを評価する項と、から構成される最適化関数を解くことによって算出する。例えば、以下の処理を実行する。   In step S104, the association estimation unit 16 performs pixel-to-pixel comparison between each object region candidate of each image obtained in step S102 and a particularly similar object region candidate among all object region candidates included in each image. Estimate close correspondence. Here, the close association between the pixels between the similar object region candidates is associated with the association between the term for evaluating the similarity of the image feature amount between the associated pixels and the neighboring pixels in the object region candidate. It is calculated by solving an optimization function composed of a term for evaluating the smoothness of the movement vector. For example, the following processing is executed.

まず、各物体領域候補から画像特徴量を抽出し、各物体領域候補   First, image feature values are extracted from each object region candidate, and each object region candidate is extracted.

について、抽出した画像特徴量に関して特に類似した|N|個の物体領域候補との間で下記参考文献2に開示されているSIFT Flowを算出する。|N|はパラメータであり、予め定めた値を設定する。また、各物体領域候補から画像特徴量を抽出する方法としては、例えば下記参考文献3に開示されたGIST特徴量を用いることができる。 The SIFT Flow disclosed in Reference Document 2 below is calculated between | N R | object region candidates that are particularly similar with respect to the extracted image feature quantity. | N R | is a parameter, and a predetermined value is set. As a method for extracting the image feature amount from each object region candidate, for example, the GIST feature amount disclosed in Reference Document 3 below can be used.

(参考文献2) C. Liu et al., SIFT Flow: Dense Correspondence across the Scenes and its Applications, TPAMI, 33(5),2011. (Reference 2) C. Liu et al., SIFT Flow: Dense Correspondence across the Scenes and its Applications, TPAMI, 33 (5), 2011.

インターネット(URL:http://people.csail.mit.edu/celiu/SIFTflow/SIFTflow.pdf) Internet (URL: http://people.csail.mit.edu/celiu/SIFTflow/SIFTflow.pdf)

(参考文献3) A. Oliva et al., Modeling the Spape of the Scene: A Holistic Representation of the Spatial Envelope, IJCV, 42(3), pp145-175, 2001. (Reference 3) A. Oliva et al., Modeling the Spape of the Scene: A Holistic Representation of the Spatial Envelope, IJCV, 42 (3), pp145-175, 2001.

インターネット(URL:http://cvcl.mit.edu/Papers/IJCV01-Oliva-Torralba.pdf) Internet (URL: http://cvcl.mit.edu/Papers/IJCV01-Oliva-Torralba.pdf)

以下では、対応付け推定処理で得られた対応付け集合を   Below, the correspondence set obtained by the correspondence estimation process is

とする。wRR’(x)は、ピクセルx∈Rに対応付けられる And w RR ′ (x) is associated with pixel x∈R

内のピクセルである。 Pixels within.

ステップS106では、物体領域候補更新部18が、ステップS102で得られた上記数9で示すような物体領域候補集合又は前回ステップS106を実行することにより更新された物体領域候補集合、ステップS102のアピアランスモデル推定処理で得られたアピアランスモデル集合、及びステップS104の対応付け推定処理で得られた対応付け集合の結果を用いて、物体領域候補を更新する。   In step S106, the object region candidate update unit 18 obtains the object region candidate set as shown in the above equation 9 obtained in step S102 or the object region candidate set updated by executing the previous step S106, the appearance of step S102. The object region candidate is updated using the appearance model set obtained by the model estimation process and the result of the association set obtained by the association estimation process in step S104.

ここで、物体領域候補の更新は、入力された画像群に含まれる各画像の各ピクセルに関する物体らしさを評価する項と、ステップS102で得られた上記数9で示すような物体領域候補集合又は前回ステップS106を実行することにより更新された物体領域候補集合に含まれる物体領域候補の空間上の近さを評価する項と、ステップS102のアピアランスモデル推定処理で得られたアピアランスモデルへの寄与を評価する項と、ステップS104の対応付け処理で対応付けられたピクセル間の画像特徴量の類似性を評価する項と、画像内で隣接するピクセルのラベルのなめらかさを評価する項と、ステップS104の対応付け処理で対応付けられたピクセルのラベルの一貫性を評価する項と、を含む目的関数を最適化することによって行う。このような目的関数は、例えば下記(5)式のように定義することができる。   Here, the update of the object region candidate includes the term for evaluating the object-likeness regarding each pixel of each image included in the input image group, and the object region candidate set as shown in the equation 9 obtained in step S102 or A term for evaluating the spatial proximity of object region candidates included in the object region candidate set updated by executing step S106 last time, and a contribution to the appearance model obtained by the appearance model estimation process in step S102 A term to be evaluated, a term to evaluate the similarity of image feature amounts between pixels associated in the association processing in step S104, a term to evaluate the smoothness of labels of adjacent pixels in the image, and step S104 A term that evaluates the consistency of the labels of the pixels associated with the mapping process, and by optimizing the objective function . Such an objective function can be defined as the following equation (5), for example.

・・・(5) ... (5)

ここで、上記(5)式の右辺第一項は、各画像の各ピクセルに定義されるエネルギー項であり、下記(6)式のように定義される。 Here, the first term on the right side of the above equation (5) is an energy term defined for each pixel of each image, and is defined as the following equation (6).

・・・(6) ... (6)

ここで、βはパラメータであり、予め定めた値を設定する。上記(6)式のEobj(x)は、ピクセルxの物体らしさを評価する項であり、例えばステップS100の物体領域抽出処理で得られた上記数3で示した物体領域候補及び上記数4で示した各物体領域候補に対応する物体らしさのスコアを用いて、下記(7)式のように定義することができる。 Here, β is a parameter, and a predetermined value is set. E obj (x) in the above equation (6) is a term for evaluating the object-likeness of the pixel x. For example, the object region candidate represented by the above equation 3 obtained by the object region extraction process in step S100 and the above equation 4 Using the object-like score corresponding to each object region candidate shown in (5), it can be defined as the following equation (7).

・・・(7) ... (7)

ここで、λobjはパラメータであり、予め定めた値を設定する。上記(6)式の Here, λ obj is a parameter, and a predetermined value is set. Of the above formula (6)

は、ピクセルxの位置について、前回更新された物体領域候補からの空間上の近さを評価する項であり、例えば下記(8)式で定義することができる。 Is a term that evaluates the spatial proximity from the previously updated object region candidate for the position of the pixel x, and can be defined, for example, by the following equation (8).

・・・(8) ... (8)

ここで、λpositionはパラメータであり、予め定めた値を設定する。上記(6)式の Here, λ position is a parameter, and a predetermined value is set. Of the above formula (6)

は、ステップS104の対応付け処理で対応付けられたピクセル間の画像特徴量の類似性を評価する項であり、例えば下記(9)式のように定義することができる。 Is a term for evaluating the similarity of image feature amounts between pixels associated in the association processing in step S104, and can be defined as, for example, the following equation (9).

・・・(9) ... (9)

ここで、α、λmatchはパラメータであり、予め定めた値を設定する。dはピクセルxに定義される局所画像特徴量であり、例えばSIFT記述子を用いることができる。 Here, α and λ match are parameters, and predetermined values are set. d x is a local image feature amount defined for the pixel x, and for example, a SIFT descriptor can be used.

上記(5)式の右辺第二項は、各画像の各ピクセルのアピアランスモデルに対する寄与を評価する項であり、例えば下記(10)式のように定義できる。   The second term on the right side of the above equation (5) is a term for evaluating the contribution of each pixel of each image to the appearance model, and can be defined as the following equation (10), for example.

・・・(10) ... (10)

ここで、logp(c|Hij)は、物体領域候補Rijに対応するアピアランスモデルHijに対する上記数19で示したピクセルxの輝度値の対数尤度である。また、λcolorは、パラメータであり、予め定めた値を設定する。 Here, logp (c x | H ij ) is a logarithmic likelihood of the luminance value of the pixel x expressed by the above equation 19 with respect to the appearance model H ij corresponding to the object region candidate R ij . Further, λ color is a parameter, and a predetermined value is set.

上記(5)式の右辺第三項は、画像内で隣接するピクセルのラベルのなめらかさを評価する項であり、下記(11)式のように定義することができる。   The third term on the right side of the above equation (5) is a term for evaluating the smoothness of the labels of adjacent pixels in the image, and can be defined as the following equation (11).

・・・(11) (11)

ここで、λintはパラメータであり、予め定めた値を設定する。 Here, λ int is a parameter, and a predetermined value is set.

上記(5)式の右辺第四項は、ステップS104の対応付け推定処理で対応付けられたピクセル間のラベルのなめらかさを評価する項であり、下記(12)式のように定義することができる。   The fourth term on the right side of the above equation (5) is a term for evaluating the smoothness of the label between the pixels associated in the association estimation process in step S104, and can be defined as the following equation (12). it can.

・・・(12) (12)

ここで、λextはパラメータであり、予め定めた値を設定する。また、B(x)は、 Here, λ ext is a parameter, and a predetermined value is set. In addition, B i (x) is

のとき0、それ以外で1をとる。 0 for 0, 1 otherwise.

上記(5)式は、例えば以下のように解くことができる。まず画像Iを選択し、それ以外の画像に含まれる物体領域候補は全て固定する。この場合、上記(5)式は画像Iに対応する、上記数9で示した物体領域候補集合を変数とする関数となり、これはloopy belief propagation等の公知のアルゴリズムを用いて解くことができる。この処理を各画像について実行することにより、上記数9で示した物体領域候補集合を更新することができる。 The above equation (5) can be solved as follows, for example. First, an image I i is selected, and all object region candidates included in other images are fixed. In this case, the above equation (5) is a function corresponding to the image I i and having the object region candidate set shown in the above equation 9 as a variable, which can be solved by using a known algorithm such as loop belief propagation. . By executing this process for each image, the object region candidate set shown in Equation 9 can be updated.

ステップS108では、収束判定部20が、ステップS108の物体領域更新処理の結果が収束条件を満たすか否かを判定する。収束条件としては、例えば物体領域更新処理で定義された目的関数の値の変化量が一定以下になったことを収束条件としてもよいし、ステップS102〜S106までの一連の処理を繰り返す回数を予め定めておき、ステップS102〜S106までの一連の処理を予め定めた回数繰り返したことを収束条件としてもよい。そして、収束判定部20が、収束条件を満たすと判定した場合はステップS108へ移行し、収束条件を満たさないと判定した場合はステップS102へ移行する。   In step S108, the convergence determination unit 20 determines whether the result of the object region update process in step S108 satisfies the convergence condition. As the convergence condition, for example, the convergence condition may be that the amount of change in the value of the objective function defined in the object region update process is equal to or less than a certain value, and the number of times of repeating a series of processes from step S102 to S106 may be set in advance. The convergence condition may be that a series of processing from steps S102 to S106 is repeated a predetermined number of times. When the convergence determination unit 20 determines that the convergence condition is satisfied, the process proceeds to step S108, and when it is determined that the convergence condition is not satisfied, the process proceeds to step S102.

ステップS108では、物体領域出力部22が、ステップS106の物体領域更新処理により得られた物体領域を含む画像を出力する。図6には、入力画像群40と、入力画像群40に対してステップS100〜S108の処理を実行することにより得られた物体領域のみを含む出力画像群50を示した。なお、図6に示すように、入力画像群40は、抽出対象を飛行機とした画像群である。   In step S108, the object area output unit 22 outputs an image including the object area obtained by the object area update process in step S106. FIG. 6 shows the input image group 40 and the output image group 50 including only the object region obtained by executing the processes of steps S100 to S108 on the input image group 40. As shown in FIG. 6, the input image group 40 is an image group in which the extraction target is an airplane.

図6に示すように、入力画像群40に含まれる入力画像42には1機の飛行機が含まれており、この入力画像42からは、1機の飛行機のみを含む出力画像52が得られる。また、入力画像44には向かい合わせの2機の飛行機が含まれており、この入力画像44からは、右向きの飛行機のみを含む出力画像54、左向きの飛行機のみを含む出力画像54が得られる。また、入力画像46には大小様々な複数の飛行機が含まれており、この入力画像46からは、それぞれの飛行機のみを含む出力画像56、56、56、・・・が得られる。また、入力画像48には、飛行機は1機も含まれていないため、この入力画像48からは、飛行機が抽出された出力画像は得られない。 As shown in FIG. 6, the input image 42 included in the input image group 40 includes one airplane, and an output image 52 including only one airplane is obtained from the input image 42. It also includes a two planes opposed to the input image 44, from the input image 44, an output image 54 1 containing only airplane right, obtained output image 542 including only airplane left It is done. The input image 46 includes a plurality of large and small airplanes, and output images 56 1 , 56 2 , 56 3 ,... Including only the respective airplanes are obtained from the input image 46. Since the input image 48 does not include one airplane, an output image from which the airplane is extracted cannot be obtained from the input image 48.

ここで、例えば図7に示すように、入力画像60に一部が重なり合う2つの物体領域候補62、62が含まれている場合、従来技術では、2つの物体領域候補62、62を精度良くセグメンテーションすることができず、出力画像70は、1つの物体領域候補72のみを含む出力画像となってしまう。 Here, for example, as shown in FIG. 7, if it contains some two object region that overlaps candidate 62 1, 62 2 to the input image 60, in the prior art, the two object region candidate 62 1, 62 2 Cannot be segmented with high accuracy, and the output image 70 is an output image including only one object region candidate 72.

これに対し、本実施形態では、図8に示すように、入力画像60に一部が重なり合う2つの物体領域候補62、62が含まれている場合、2つの物体領域候補62、62を精度良くセグメンテーションすることができ、出力画像70は、2つの物体領域候補62、62に対応した2つの物体領域候補72、72を含む出力画像となる。 In contrast, in the present embodiment, as shown in FIG. 8, the two object region candidate 62 1 partially overlaps the input image 60, 62 if 2 is contained, two object region candidate 62 1, 62 2 can be accurately segmented, and the output image 70 is an output image including two object region candidates 72 1 , 722 corresponding to the two object region candidates 62 1 , 62 2 .

このように、入力画像群の中に1つの画像に複数の抽出対象の物体が写り込んでいる画像が混在していたり、抽出対象の物体領域を含まない画像が混在していたりする場合でも、抽出対象の物体領域を精度よくセグメンテーションすることができる。   In this way, even when an input image group includes a mixture of images in which a plurality of objects to be extracted are included in one image or an image that does not include an object region to be extracted, The object region to be extracted can be segmented with high accuracy.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

また、上述の画像セグメンテーション装置10は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。   Further, the image segmentation apparatus 10 described above has a computer system therein, but the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. .

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体、例えばCD−ROMやメモリーカード等に格納して提供することも可能である。   Further, in the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium such as a CD-ROM or a memory card. It is.

10 画像セグメンテーション装置
12 物体領域抽出部
14 アピアランスモデル推定部
16 対応付け推定部
18 物体領域更新部
20 収束判定部
22 物体領域出力部
DESCRIPTION OF SYMBOLS 10 Image segmentation apparatus 12 Object area extraction part 14 Appearance model estimation part 16 Association estimation part 18 Object area update part 20 Convergence determination part 22 Object area output part

Claims (7)

物体領域抽出部、アピアランスモデル推定部、対応付け推定部、物体領域更新部、収束判定部、及び物体領域出力部を含む画像セグメンテーション装置における画像セグメンテーション方法であって、
前記物体領域抽出部が、画像群に含まれる各画像から、抽出対象物体を表す一つ以上の物体領域候補を抽出するステップと、
前記アピアランスモデル推定部が、前記物体領域抽出部により抽出された前記物体領域候補又は前記物体領域更新部により更新された前記物体領域候補に基づいて、前記物体領域候補の各々についてアピアランスモデルを推定するステップと、
前記対応付け推定部が、前記物体領域抽出部により抽出された前記物体領域候補又は前記物体領域更新部により更新された前記物体領域候補の各々について、類似した他の物体領域候補との間のピクセルの対応付けを推定するステップと、
前記物体領域更新部が、前記物体領域抽出部により抽出された前記物体領域候補又は前記物体領域更新部により更新された前記物体領域候補、前記アピアランスモデル推定部により推定された前記アピアランスモデル、及び前記対応付け推定部により推定された対応付けに基づいて、前記画像群に含まれる各画像の前記物体領域候補を更新するステップと、
前記収束判定部が、所定の収束条件が満たされるまで、前記アピアランスモデル推定部による推定、前記対応付け推定部による推定、及び前記物体領域更新部による更新を繰り返し行うステップと、
前記物体領域出力部が、前記画像群に含まれる各画像の前記物体領域候補を物体領域として出力するステップと、
を含む画像セグメンテーション方法。
An image segmentation method in an image segmentation device including an object region extraction unit, an appearance model estimation unit, an association estimation unit, an object region update unit, a convergence determination unit, and an object region output unit,
The object region extraction unit extracting one or more object region candidates representing an extraction target object from each image included in the image group; and
The appearance model estimation unit estimates an appearance model for each of the object region candidates based on the object region candidate extracted by the object region extraction unit or the object region candidate updated by the object region update unit. Steps,
For each of the object region candidate extracted by the object region extraction unit or the object region candidate updated by the object region update unit, the association estimation unit is a pixel between other similar object region candidates. Estimating the correspondence of
The object region update unit is the object region candidate extracted by the object region extraction unit or the object region candidate updated by the object region update unit, the appearance model estimated by the appearance model estimation unit, and Updating the object region candidate of each image included in the image group based on the association estimated by the association estimation unit;
The convergence determination unit repeatedly performs estimation by the appearance model estimation unit, estimation by the association estimation unit, and update by the object region update unit until a predetermined convergence condition is satisfied;
The object region output unit outputting the object region candidate of each image included in the image group as an object region;
An image segmentation method comprising:
前記物体領域抽出部が前記物体領域候補を抽出するステップは、画像中で互いに重複する領域が存在しないように前記物体領域候補を抽出する
請求項1記載の画像セグメンテーション方法。
The image segmentation method according to claim 1, wherein the step of extracting the object region candidate by the object region extraction unit extracts the object region candidate so that there are no overlapping regions in the image.
前記アピアランスモデル推定部が前記アピアランスモデルを推定するステップは、前記物体領域抽出部により抽出された各画像の各物体領域候補について前記アピアランスモデルを推定し、各画像の、各物体領域候補の何れにも含まれないピクセル集合で構成される背景領域について、前記アピアランスモデルを推定する
請求項1又は請求項2記載の画像セグメンテーション方法。
The step of estimating the appearance model by the appearance model estimation unit estimates the appearance model for each object region candidate of each image extracted by the object region extraction unit, and to which of the object region candidates of each image The image segmentation method according to claim 1, wherein the appearance model is estimated for a background region including a pixel set that is not included.
前記対応付け推定部が前記対応付けを推定するステップは、
前記物体領域候補の各々について、
類似した他の物体領域候補との間で対応付けられるピクセル間の画像特徴量の類似性を評価する項と、
前記物体領域候補内の近傍ピクセルに関する、前記ピクセルの対応付けに伴う移動ベクトルのなめらかさを評価する項と、
から構成される最適化関数を解くことによって、前記類似した他の物体領域候補との間のピクセルの対応付けを推定する
請求項1〜3の何れか1項に記載の画像セグメンテーション方法。
The step of estimating the association by the association estimation unit includes:
For each of the object region candidates,
A term for evaluating the similarity of image feature amounts between pixels associated with other similar object region candidates;
A term for evaluating the smoothness of a movement vector associated with the pixel association with respect to neighboring pixels in the object region candidate;
The image segmentation method according to any one of claims 1 to 3, wherein a pixel association with another similar object region candidate is estimated by solving an optimization function composed of:
前記物体領域更新部が前記物体領域候補を更新するステップは、
前記画像群に含まれる各画像の各ピクセルに関する前記抽出対象物体らしさを評価する項と、
前記物体領域抽出部により抽出された前記物体領域候補又は前記物体領域更新部により更新された前記物体領域候補からの空間的な近さを評価する項と、
前記画像群に含まれる各画像の各ピクセルに関する、前記アピアランスモデル推定部により推定された前記アピアランスモデルへの寄与を評価する項と、
前記対応付け推定部により対応付けられたピクセル間の画像特徴量の類似性を評価する項と、
画像内で隣接するピクセルの、物体領域候補に含まれるか否かを示すラベルのなめらかさを評価する項と、
前記対応付け推定部により対応付けられたピクセル間の前記ラベルの一貫性を評価する項と、
を含む目的関数を最適化することによって、前記画像群に含まれる各画像の前記物体領域候補の更新を行う
請求項1〜4の何れか1項に記載の画像セグメンテーション方法。
The step of updating the object region candidate by the object region updating unit includes:
A term for evaluating the likelihood of the extraction target object regarding each pixel of each image included in the image group;
A term for evaluating spatial proximity from the object region candidate extracted by the object region extraction unit or the object region candidate updated by the object region update unit;
A term for evaluating a contribution to the appearance model estimated by the appearance model estimation unit for each pixel of each image included in the image group;
A term for evaluating the similarity of image feature amounts between pixels associated by the association estimation unit;
A term for evaluating the smoothness of a label indicating whether or not an adjacent pixel in an image is included in a candidate object region;
A term for evaluating the consistency of the label between pixels associated by the correspondence estimation unit;
The image segmentation method according to claim 1, wherein the object region candidate of each image included in the image group is updated by optimizing an objective function including the image function.
画像群に含まれる各画像から、抽出対象物体を表す一つ以上の物体領域候補を抽出する物体領域抽出部と、
前記物体領域抽出部により抽出された前記物体領域候補又は更新された前記物体領域候補に基づいて、前記物体領域候補の各々についてアピアランスモデルを推定するアピアランスモデル推定部と、
前記物体領域抽出部により抽出された前記物体領域候補又は更新された前記物体領域候補の各々について、類似した他の物体領域候補との間のピクセルの対応付けを推定する対応付け推定部と、
前記物体領域抽出部により抽出された前記物体領域候補又は更新された前記物体領域候補、前記アピアランスモデル推定部により推定された前記アピアランスモデル、及び前記対応付け推定部により推定された対応付けに基づいて、前記画像群に含まれる各画像の前記物体領域候補を更新する物体領域更新部と、
所定の収束条件が満たされるまで、前記アピアランスモデル推定部による推定、前記対応付け推定部による推定、及び前記物体領域更新部による更新を繰り返し行う収束判定部と、
前記画像群に含まれる各画像の前記物体領域候補を物体領域として出力する物体領域出力部と、
を含む画像セグメンテーション装置。
An object region extraction unit that extracts one or more object region candidates representing an extraction target object from each image included in the image group;
An appearance model estimation unit that estimates an appearance model for each of the object region candidates based on the object region candidate extracted by the object region extraction unit or the updated object region candidate;
An association estimation unit that estimates pixel association with other similar object region candidates for each of the object region candidates extracted by the object region extraction unit or the updated object region candidates;
Based on the object region candidate extracted or updated by the object region extraction unit, the updated object region candidate, the appearance model estimated by the appearance model estimation unit, and the association estimated by the association estimation unit , An object region updating unit that updates the object region candidate of each image included in the image group;
A convergence determination unit that repeatedly performs estimation by the appearance model estimation unit, estimation by the association estimation unit, and update by the object region update unit until a predetermined convergence condition is satisfied;
An object region output unit that outputs the object region candidate of each image included in the image group as an object region;
Image segmentation device including:
コンピュータに、請求項1〜5の何れか1項に記載の画像セグメンテーション方法の各ステップを実行させるための画像セグメンテーションプログラム。   The image segmentation program for making a computer perform each step of the image segmentation method of any one of Claims 1-5.
JP2014239327A 2014-11-26 2014-11-26 Image segmentation method, apparatus, and program Expired - Fee Related JP6389742B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014239327A JP6389742B2 (en) 2014-11-26 2014-11-26 Image segmentation method, apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014239327A JP6389742B2 (en) 2014-11-26 2014-11-26 Image segmentation method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2016099980A true JP2016099980A (en) 2016-05-30
JP6389742B2 JP6389742B2 (en) 2018-09-12

Family

ID=56077258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014239327A Expired - Fee Related JP6389742B2 (en) 2014-11-26 2014-11-26 Image segmentation method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP6389742B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018032078A (en) * 2016-08-22 2018-03-01 Kddi株式会社 Device for tracking object in consideration for image area of other object, program therefor and method therefor
KR101874471B1 (en) * 2016-11-07 2018-07-04 광주과학기술원 An apparatus, a method, and a computer-readable storage medium for refining object proposal
JP2018180646A (en) * 2017-04-04 2018-11-15 日本電信電話株式会社 Object candidate area estimation device, object candidate area estimation method, and object candidate area estimation program
JP2019114103A (en) * 2017-12-25 2019-07-11 オムロン株式会社 Object recognition processing device, object recognition processing method and program
WO2019239743A1 (en) * 2018-06-11 2019-12-19 日本電信電話株式会社 Object detection device, method, and program
JP2023145228A (en) * 2022-03-28 2023-10-11 セコム株式会社 Target region extraction device, learning device, target region extraction method, and target region extraction program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198848A (en) * 2011-03-23 2012-10-18 Burein:Kk Object identification device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198848A (en) * 2011-03-23 2012-10-18 Burein:Kk Object identification device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MICHAEL RUBINSTEIN,外3名: "Unsupervised Joint Object Discovery and Segmentation in Internet Images", PROC. CVPR,2013, JPN7018000086, June 2013 (2013-06-01), pages 第1頁−第8頁 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018032078A (en) * 2016-08-22 2018-03-01 Kddi株式会社 Device for tracking object in consideration for image area of other object, program therefor and method therefor
KR101874471B1 (en) * 2016-11-07 2018-07-04 광주과학기술원 An apparatus, a method, and a computer-readable storage medium for refining object proposal
JP2018180646A (en) * 2017-04-04 2018-11-15 日本電信電話株式会社 Object candidate area estimation device, object candidate area estimation method, and object candidate area estimation program
JP2019114103A (en) * 2017-12-25 2019-07-11 オムロン株式会社 Object recognition processing device, object recognition processing method and program
WO2019239743A1 (en) * 2018-06-11 2019-12-19 日本電信電話株式会社 Object detection device, method, and program
JP2019215609A (en) * 2018-06-11 2019-12-19 日本電信電話株式会社 Device, method and program for detecting object
JP2023145228A (en) * 2022-03-28 2023-10-11 セコム株式会社 Target region extraction device, learning device, target region extraction method, and target region extraction program
JP7729790B2 (en) 2022-03-28 2025-08-26 セコム株式会社 Object area extraction device, learning device, object area extraction method, and object area extraction program

Also Published As

Publication number Publication date
JP6389742B2 (en) 2018-09-12

Similar Documents

Publication Publication Date Title
CN109685067B (en) A Semantic Image Segmentation Method Based on Region and Deep Residual Networks
CN104392228B (en) Target class detection method in UAV images based on conditional random field model
Ronneberger et al. U-net: Convolutional networks for biomedical image segmentation
JP6389742B2 (en) Image segmentation method, apparatus, and program
CN105184772B (en) A kind of self-adaption colorful image partition method based on super-pixel
JP2018195293A (en) Image processing system, method for performing multi-label meaning edge detection in image, and non-transitory computer-readable storage medium
CN104392456B (en) SAR (synthetic aperture radar) image segmentation method based on depth autoencoders and area charts
CN113592881B (en) Picture referential segmentation method, device, computer equipment and storage medium
CN106204522A (en) The combined depth of single image is estimated and semantic tagger
JP2021051589A5 (en)
Xu et al. Weakly supervised deep semantic segmentation using CNN and ELM with semantic candidate regions
CN113744280B (en) Image processing method, device, equipment and medium
JP2020087165A (en) Learning data generation program, learning data generation device, and learning data generation method
KR20180067909A (en) Apparatus and method for segmenting image
Sun et al. A click-based interactive segmentation network for point clouds
CN106373126B (en) Image significance detection method based on fusion class geodesic curve and boundary comparison
CN110992379A (en) Rapid image segmentation method based on directional superpixels
CN107533760B (en) An image segmentation method and device
CN109215047A (en) Moving target detection method and device based on deep sea video
JP2014149788A (en) Object area boundary estimation device, object area boundary estimation method, and object area boundary estimation program
KR101592087B1 (en) Method for generating saliency map based background location and medium for recording the same
JP6448036B2 (en) Object region identification method, apparatus, and program
Zhang et al. Logosp: Local-global grouping of superpoints for unsupervised semantic segmentation of 3d point clouds
Cui et al. Conceptual text region network: Cognition-inspired accurate scene text detection
KR102444172B1 (en) Intelligent mining method and processing system of image big data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6389742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees