JP2019045909A - Image recognition system - Google Patents
Image recognition system Download PDFInfo
- Publication number
- JP2019045909A JP2019045909A JP2017164759A JP2017164759A JP2019045909A JP 2019045909 A JP2019045909 A JP 2019045909A JP 2017164759 A JP2017164759 A JP 2017164759A JP 2017164759 A JP2017164759 A JP 2017164759A JP 2019045909 A JP2019045909 A JP 2019045909A
- Authority
- JP
- Japan
- Prior art keywords
- information
- product
- processing unit
- image information
- product tag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 538
- 238000002372 labelling Methods 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 194
- 230000008569 process Effects 0.000 claims description 165
- 238000012937 correction Methods 0.000 claims description 77
- 230000000630 rising effect Effects 0.000 claims description 26
- 238000003708 edge detection Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 description 48
- 238000000605 extraction Methods 0.000 description 37
- 230000000875 corresponding effect Effects 0.000 description 27
- 238000005070 sampling Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 8
- 230000010365 information processing Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 235000013405 beer Nutrition 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010016173 Fall Diseases 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006386 neutralization reaction Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
- Character Discrimination (AREA)
Abstract
Description
本発明は,店舗などに陳列されている商品を特定するための画像認識システムに関する。 The present invention relates to an image recognition system for identifying a product displayed in a store or the like.
小売業界においては,商品の陳列状況が商品の販売に影響することが知られている。そのため,商品の製造会社,販売会社としては,自社または他社のどのような商品が店舗に陳列されているのかを把握することで,自社商品の開発戦略,販売戦略につなげることができる。 In the retail industry, it is known that the display condition of goods affects the sale of goods. Therefore, as a product manufacturing company or sales company, it can be connected to the development strategy and sales strategy of their own products by grasping what kind of products of their own company or other companies are displayed in the store.
一方,その実現のためには,店頭に陳列されている商品の正確な特定が重要である。そこで,店舗の陳列棚を撮影し,その画像情報から陳列されている商品を,人間が手作業で特定をすることが考えられる。この場合,ほぼ正確に商品を特定することができる。しかし,商品の陳列状況を継続的に把握するためには,一定期間ごとにその陳列状況を把握しなければならないが,店舗の陳列棚を撮影した画像情報から毎回,人間が商品を特定するのは負担が大きく,また非効率である。 On the other hand, accurate identification of the products displayed at the store is important for achieving that. Therefore, it is conceivable that the display shelf of the store is photographed and a person manually specifies the displayed product from the image information. In this case, the product can be identified almost accurately. However, in order to continuously grasp the display status of a product, it is necessary to grasp the display status at regular intervals, but every time a person specifies a product from image information obtained by photographing a display shelf of a store Is burdensome and inefficient.
そこで店舗の陳列棚を撮影した画像情報から,そこに陳列されている商品を自動的に特定し,商品の陳列状況を把握することが求められる。たとえば商品ごとの標本画像をもとに,店舗の陳列棚を撮影した画像に対して画像認識技術を用いる方法がある。これらの従来技術として,たとえば,下記特許文献1乃至特許文献3に示すような技術を用いて,商品の陳列状況を管理するシステムが存在する。 Therefore, it is required to automatically identify the products displayed on the display shelves from the image information obtained by photographing the display shelf of the store and grasp the display condition of the products. For example, there is a method of using image recognition technology for an image obtained by photographing a display shelf of a store based on a sample image of each product. As these prior art, there exist systems which manage the display condition of goods using art as shown in the following patent documents 1 thru / or patent documents 3, for example.
特許文献1の発明は,商品をどの陳列棚に陳列すべきかが知識のない者にもできるように支援するシステムである。そのため,実際に陳列されている商品を把握することはできない。また特許文献2は,商品の陳列を支援する棚割支援システムにおいて,商品画像の入力を支援するシステムである。しかし特許文献2のシステムでは,棚割支援システムを利用する際の商品画像の入力を支援するのみであって,このシステムを用いたとしても,実際に陳列されている商品を把握することはできない。 The invention of Patent Document 1 is a system for assisting even a person who does not have knowledge on which display shelf a product should be displayed. Therefore, it is not possible to grasp the products actually displayed. Moreover, patent document 2 is a system which supports the input of a goods image in the shelving allocation support system which supports the display of goods. However, the system of Patent Document 2 only supports the input of a product image when using the shelving allocation support system, and even if this system is used, it is not possible to grasp the actually displayed products .
特許文献3は,陳列棚に空き空間がある場合に,その空き空間に陳列すべき商品を特定したり,陳列棚に陳列すべき商品を置き間違えた場合にそれを通知する発明である。この発明でも,商品と,陳列棚に陳列されている商品との画像マッチング処理を行って,陳列棚に陳列されている商品を特定しているが,認識精度が低いのが実情である。 Patent Document 3 is an invention that specifies a product to be displayed in the empty space when there is an empty space in the display shelf, or notifies that when a product to be displayed in the display shelf is misplaced. Even in the present invention, the image matching process between the product and the product displayed on the display shelf is performed to specify the product displayed on the display shelf, but the reality is that the recognition accuracy is low.
陳列棚を撮影した画像に対して,商品の標本画像をもとに画像認識技術を用いる場合,その画像認識の精度や処理負荷が問題となる。たとえば,陳列棚が設置されている店舗では,照明の状態が均一ではなく,標本画像の照明との差が大きいと,画像認識の精度が低下する。そのため,陳列棚を撮影した画像から,そこに陳列されている商品を特定することは容易ではない場合がある。また,画像認識には大きな処理負荷が発生するので,多大なリソースが必要となってしまう。そのため,投下資本が大きくなってしまう。 When using an image recognition technology based on a sample image of a product for an image taken of a display shelf, the accuracy and processing load of the image recognition become a problem. For example, in a store where display cabinets are installed, the state of illumination is not uniform, and if the difference between the illumination of the sample image and the illumination is large, the accuracy of image recognition is degraded. Therefore, it may not be easy to identify the goods displayed there from the image which image | photographed the display shelf. In addition, since a large processing load occurs in image recognition, a large amount of resources are required. As a result, investment capital will increase.
本発明者は,陳列棚を撮影した画像に写っている商品を識別するための一つの方法として,その商品の価格等を表示するための商品タグに着目し,陳列されている商品を精度よく特定することができる画像認識システムを発明した。また,陳列棚に写っている商品を認識するとともに,商品タグに記載されている情報を認識し,それらを照合することで,陳列されている商品を精度よく特定することができる画像認識システムを発明した。 The present inventor focuses on a product tag for displaying the price etc. of the product as one method for identifying the product appearing in the image of the display shelf, and accurately displays the displayed product. We have invented an image recognition system that can be identified. Also, an image recognition system capable of identifying a displayed commodity with high accuracy by recognizing a commodity shown on a display shelf, recognizing information described in a commodity tag, and collating them. Invented.
第1の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ特定処理部は,前記画像情報の明度情報を用いて商品タグ領域を特定し,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,前記特定したブロックに対して前記OCR認識処理を実行し,前記OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。 In the first invention, a product tag identification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown, and a product tag specifying processing unit performing OCR recognition processing in the specified product tag area Product tag internal information identification processing unit for identifying the processed information, the product tag identification processing unit identifies the product tag area using the lightness information of the image information, and the product tag internal information The specification processing unit specifies the box by binarizing the specified product tag area and performing labeling processing, and specifies the boxes satisfying the predetermined condition as blocks among the specified boxes, and the specified block The above-mentioned OCR recognition processing is executed for the above, and the tax exclusion price is executed by executing the judgment processing of logical consistency for the two price information specified by the above-mentioned OCR recognition. And to identify the tax-inclusive price, which is an image recognition system.
本発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。 By using the image recognition system of the present invention, the information written on the product tag can be recognized with high accuracy, so that the displayed product can be identified with high accuracy.
第2の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ特定処理部は,前記画像情報の明度情報を用いて商品タグ領域を特定する,画像認識システムである。 According to a second aspect of the present invention, there is provided a product tag identification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown, and performing OCR recognition processing on a part or all of the specified product tag areas. And the product tag identification processing unit identifies the product tag area using the lightness information of the image information, and the product tag identification processing unit identifies the information described in the product tag in the product tag. It is an image recognition system.
第1の発明と同様に,本発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。 Similar to the first invention, by using the image recognition system of the present invention, the information written on the product tag can be recognized with high accuracy, so that the displayed product can be specified with high accuracy. it can.
上述の各発明において,前記商品タグ特定処理部は,前記画像情報の明度情報を横方向に積算することで,商品タグの上辺位置,下辺位置を特定し,前記画像情報の明度情報を縦方向に積算することで,商品タグの左辺位置,右辺位置を特定する,画像認識システムのように構成することができる。 In each invention described above, the product tag identification processing unit identifies the upper side position and the lower side position of the product tag by integrating the lightness information of the image information in the horizontal direction, and the lightness information of the image information in the vertical direction The image recognition system can be configured to specify the left side position and the right side position of the product tag by integrating into the above.
上述の各発明において,前記商品タグ特定処理部は,前記画像情報の明度情報を横方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,商品タグの上辺位置,下辺位置を特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,立ち上がりから所定距離内にある立ち下がりをペアとして商品タグの左辺位置,右辺位置を特定する,画像認識システムのように構成することができる。 In each of the above-described inventions, the product tag identification processing unit identifies the upper side position and the lower side position of the product tag by specifying the rising and falling of the histogram obtained by integrating the lightness information of the image information in the horizontal direction. Image recognition by specifying the left side position and the right side position of the product tag as a pair by specifying the rise and fall of the histogram obtained by integrating the lightness information of the image information in the vertical direction, as a pair within the predetermined distance from the rise It can be configured as a system.
商品タグに表記されている情報を精度よく認識するためには,商品タグ領域をできるだけ正確に特定する必要がある。一般的に,商品タグの地の色は白色が多いので,陳列棚を撮影した場合,商品タグの部分が明るくなっている。この点に着目し,これらの発明のように,画像情報の明度情報を,縦方向,横方向にそれぞれ積算することで商品タグ領域を精度よく特定することができる。 In order to accurately recognize the information described in the product tag, it is necessary to specify the product tag area as accurately as possible. Generally, since the ground color of the product tag is white, when the display shelf is photographed, the part of the product tag is bright. Focusing on this point, as in the present invention, the product tag area can be specified with high accuracy by integrating the lightness information of the image information in the vertical direction and the horizontal direction.
上述の発明において,前記商品タグ特定処理部は,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がりのうち,ペアを形成できなかった立ち上がりについてその右側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち下がりのうち,ペアを形成できなかった立ち下がりについてその左側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定する,画像認識システムのように構成することができる。 In the above-described invention, the commodity tag identification processing unit may set a tag region within a predetermined distance on the right side of the rising of the pair that can not form among the risings of the histogram obtained by integrating the lightness information of the image information in the vertical direction. If not, the tag area is identified as the product tag area, and of the fall of the histogram in which the lightness information of the image information is integrated in the vertical direction, the tag area is within a predetermined distance on the left side of the fall that could not form a pair. If not, it can be configured as an image recognition system that specifies as a product tag area.
商品タグは,その一部が重なって取り付けられている場合もある。その場合,明度情報の積算によるヒストグラムでは,連続して立ち上がりまたは立ち下がりとなる。そこで,本発明の処理を実行することで,重なって取り付けられている商品タグについての商品タグ領域を特定することができる。 The product tag may be attached partially overlapping. In that case, in the histogram based on the integration of the lightness information, the rise and fall occur continuously. Therefore, by executing the process of the present invention, it is possible to specify a product tag area for a product tag that is attached in an overlapping manner.
第6の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,前記特定したブロックに対して前記OCR認識処理を実行する,画像認識システムである。 The sixth invention is described in the product tag by carrying out the OCR recognition process in the specified product tag area and the product tag specification processing unit for specifying the product tag area in the image information in which the display shelf for displaying the product is shown. Product tag internal information specification processing unit for specifying the processed information, and the product tag internal information specification processing unit binarizes the specified product tag area and performs labeling processing It is an image recognition system which specifies the boxes which satisfy | fill a predetermined condition among the specified and specified boxes as a block, and performs the said OCR recognition process with respect to the specified block.
第7の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ内情報特定処理部は,前記OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。 A seventh aspect of the invention relates to a product tag identification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown, and performing OCR recognition processing on a part or all of the specified product tag areas. And the in-product tag information specification processing unit for specifying information described in the product tag in the product tag, and the in-product tag information specification processing unit logically performs the two price information specified by the OCR recognition. This is an image recognition system that identifies tax-excluded prices and tax-included prices by executing consistency determination processing.
第1の発明と同様に,これらの発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。 Similar to the first invention, by using the image recognition system according to these inventions, the information written on the product tag can be recognized with high accuracy, so the products displayed corresponding to it can be specified with high accuracy. Can.
上述の各発明において,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域において二値化処理を実行し,前記二値化した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,画像認識システムのように構成することができる。 In each of the above-described inventions, the in-product tag information identification processing unit executes binarization processing in the identified commodity tag area and performs labeling processing in the binarized image information, so that consecutive pixels Are grouped to identify boxes, and adjacent boxes having a predetermined similarity among the identified boxes are merged and identified as a block, and the highest block among the identified blocks is priced It can be configured as an image recognition system that performs OCR recognition processing by estimating a region.
商品タグに表記されている情報を認識するためには,商品タグ領域のすべてに対してOCR認識処理を実行してもよいが,その場合,ノイズ等が多く検出されてしまい,精度の悪化につながる。また処理時間も多くなる。そこで,商品タグ領域の一部分のみにOCR認識処理を実行することが好ましい。本発明の処理を特定したブロックに対してOCR認識処理を実行することで,その認識精度を向上させることができる。また,価格が商品の購入者にとってもっとも重要であるので,もっとも高さが高いブロックは価格領域であることが多い。そこでこのブロックを価格領域と推定してOCR認識処理を実行することで,精度よく価格を認識することができる。 In order to recognize the information described in the product tag, OCR recognition processing may be executed for all of the product tag areas, but in that case a large amount of noise etc. will be detected and the accuracy will deteriorate. Connect. Moreover, processing time also increases. Therefore, it is preferable to execute the OCR recognition processing only on a part of the product tag area. The recognition accuracy can be improved by executing the OCR recognition processing on the block specifying the processing of the present invention. Also, since the price is most important to the purchaser of the goods, the highest block is often the price area. Therefore, the price can be recognized with high accuracy by estimating this block as a price area and executing the OCR recognition processing.
上述の発明において,前記商品タグ内情報特定処理部は,前記OCR認識によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムのように構成することができる。 In the above invention, the product tag internal information identification processing unit matches the price size and / or the tax rate consistency of the price information recognized as the tax-excluded price and the price information recognized as the tax-included price by the OCR recognition. By performing the determination process of the above, it is possible to configure as an image recognition system that specifies the tax-excluded price and the tax-included price.
商品タグには一般的に,税抜価格と税込価格が表記されている。そこで税抜価格,税込価格としてそれぞれ認識した価格の論理的整合性が成立しているかを判定することで,さらに精度を向上させることができる。 In general, the price excluding tax and the price including tax are indicated on the product tag. Therefore, the accuracy can be further improved by determining whether the logical consistency of the price recognized as the tax-excluded price and the tax-included price respectively is established.
第10の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域における商品識別情報を特定する商品タグ認識処理部と,前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部と,前記特定した商品タグ領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部と,を有する画像認識システムである。 A tenth aspect of the invention relates to a product tag recognition processing unit for specifying product identification information in a product tag area in image information in which a display shelf for displaying a product is displayed, and product identification information of a product displayed in the image information. The recognition result of comparing the displayed product recognition processing unit to be specified, the product identification information in the specified product tag area, and the product identification information on the specified displayed product, and collating whether the recognition result matches It is an image recognition system which has a collation process part.
本発明によって,陳列棚に写っている商品を認識した結果と,商品タグに表記されている情報の認識結果とを照合することができる。これによって,陳列されている商品を精度よく特定することができる。 According to the present invention, it is possible to collate the result of recognition of the product appearing on the display shelf with the recognition result of the information written on the product tag. This makes it possible to identify the displayed product with high accuracy.
上述の発明において,前記認識結果照合処理部は,前記陳列商品認識処理部における認識処理により,類似性の高いフェイスが並んでいる区画を一群とし,各棚段における各群に,前記商品タグ認識処理部による商品タグの認識結果を対応づける,画像認識システムのように構成することができる。 In the above-mentioned invention, the recognition result collating processing unit makes the section in which faces with high similarity are lined up as a group by the recognition processing in the display commodity recognition processing unit, and the commodity tag recognition in each group in each tray It can be configured as an image recognition system that associates the recognition result of the product tag by the processing unit.
本発明を用いることで,陳列されている商品の認識結果と,商品タグの認識結果とを対応づけることができる。 By using the present invention, the recognition result of the displayed product can be associated with the recognition result of the product tag.
上述の発明において,前記画像認識システムは,さらに,前記陳列棚を撮影した撮影画像情報に対して台形補正処理を実行する撮影画像情報正置化処理部,を有しており,前記撮影画像情報正置化処理部は,第1の撮影画像情報と,第2の撮影画像情報との対応関係に基づいて,前記第1の撮影画像情報における台形補正処理で用いた頂点を,前記第2の撮影画像情報に射影し,前記射影した頂点に基づいて前記第2の撮影画像情報の台形補正処理を実行する,画像認識システムのように構成することができる。 In the above-described invention, the image recognition system further includes a photographed image information regularization processing unit that executes keystone correction processing on photographed image information obtained by photographing the display shelf, and the photographed image information The normalization processing unit is configured to use the second vertex of the first captured image information, which is used in the keystone correction processing, based on the correspondence between the first captured image information and the second captured image information. The present invention can be configured as an image recognition system that projects onto captured image information and executes a keystone correction process of the second captured image information based on the projected vertex.
撮影画像情報は,正面から撮影した画像情報にはならないことも多い。撮影画像情報そのものから処理を実行した場合,その精度は低くなる。そのため,台形補正処理を行い,正置化することが好ましい。そこで,台形補正処理の基準となる頂点を担当者が特定しなければならないが,それは負担が大きい。本発明を用いることで,台形補正処理の基準となる頂点を自動的に特定することができ,担当者の作業負担を軽減できる。 Photographed image information often does not become image information photographed from the front. If the process is performed from the photographed image information itself, the accuracy is low. Therefore, it is preferable to perform keystone correction processing to correct the image. Therefore, although the person in charge must specify the vertex that is the basis of the keystone correction processing, it is burdensome. By using the present invention, it is possible to automatically specify a vertex which is a reference of the keystone correction processing, and it is possible to reduce the workload of the person in charge.
上述の発明において,前記画像認識システムは,さらに,前記撮影画像情報正置化処理部において台形補正処理を実行した前記撮影画像情報において,商品タグ配置領域を特定する位置特定処理部と,前記特定した商品タグ配置領域において台形補正処理を実行する商品タグ配置領域正置化処理部と,を有しており,前記商品タグ特定処理部は,前記台形補正処理を実行したあとの画像情報に対して処理を実行する,画像認識システムのように構成することができる。 In the above-described invention, the image recognition system further includes a position specifying processing unit for specifying a product tag arrangement area in the photographed image information which has been subjected to the keystone correction processing in the photographed image information regularization processing unit; Product tag placement area regularization processing unit for executing keystone correction processing in the product tag placement area, and the product tag identification processing unit performs processing for the image information after the keystone correction processing is performed It can be configured as an image recognition system that performs processing.
陳列棚の面が垂直であるのに対し,商品タグの面は,垂直面よりも上向き(顧客向き)に取り付けられていることが多い。これは,顧客が商品タグを視認しやすくするためである。そのため,商品タグ配置領域を正置化処理することで,商品タグ領域をより精度高く特定することができる。これは,たとえば明度情報(画像情報を色相,明度,彩度の2次元情報に分解したときにおける明度の量の情報)におけるヒストグラムの立ち上がり,立ち下がりが急峻になるためである。また,本発明によって,商品タグ領域におけるOCR認識処理の精度を向上させることができる。 While the surface of the display rack is vertical, the surface of the product tag is often attached upward (toward the customer) than the vertical surface. This is to make it easy for the customer to visually identify the product tag. Therefore, the product tag area can be specified with higher accuracy by performing a regularization process on the product tag placement area. This is because, for example, the rising and falling of the histogram in the lightness information (information on the amount of lightness when the image information is decomposed into two-dimensional information of hue, lightness, and saturation) become sharp. Further, according to the present invention, it is possible to improve the accuracy of the OCR recognition processing in the product tag area.
上述の発明において,前記商品タグ配置領域正置化処理部は,前記商品タグ配置領域においてエッジ検出を行い,垂直方向の角度の所定条件を充足する直線群を検出し,前記検出した直線群のうち,少なくとも2本の直線を特定し,前記特定した2本の直線を用いて台形補正処理を実行する,画像認識システムのように構成することができる。 In the above-described invention, the commodity tag placement area regularization processing unit performs edge detection in the commodity tag placement region, detects a straight line group satisfying a predetermined condition of an angle in the vertical direction, and detects the straight line group detected. Among them, it can be configured as an image recognition system that identifies at least two straight lines and executes keystone correction processing using the two identified straight lines.
本発明の処理を実行することで,台形補正処理に用いるための傾き角度を特定できるので,商品タグ配置領域の台形補正処理を実行することができる。 By executing the process of the present invention, the inclination angle to be used for the keystone correction process can be specified, so that the keystone correction process of the commodity tag arrangement area can be executed.
第1の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ特定処理部は,前記画像情報の明度情報を用いて商品タグ領域を特定し,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,前記特定したブロックに対して前記OCR認識処理を実行し,前記OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識プログラムである。 The image recognition system of the first invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, the product tag identification processing unit identifies the product tag area in the image information in which the display shelf for displaying the product is displayed, and the computer displays the product tag by performing the OCR recognition processing in the specified product tag area. An image recognition program to be functioned as a product tag internal information specification processing unit for specifying information, wherein the product tag specification processing unit specifies a product tag area using lightness information of the image information, and The information identification processing unit binarizes the identified product tag area and performs labeling processing to identify a box, and among the identified boxes, identifies boxes satisfying a predetermined condition as blocks, and identifies the blocks. Execute the OCR recognition process on the block and logically match the two price information specified by the OCR recognition By executing the determining process, identifies the tax price and price including tax, an image recognition program.
第2の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ特定処理部は,前記画像情報の明度情報を用いて商品タグの領域を特定する,画像認識プログラムである。 The image recognition system of the second invention can be realized by causing a computer to read and execute the image recognition program of the present invention. That is, the product tag identification processing unit that specifies the area of the product tag in the image information in which the display shelf displaying the product is displayed, and the computer performs OCR recognition processing on part or all of the specified product tag area. An image recognition program that causes the product tag identification information processing unit to function as an in-product tag information specification processing unit that specifies information described in a product tag by performing the product tag identification processing unit; Is an image recognition program that specifies the area of
第6の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ内情報特定処理部は,前記特定した商品タグの領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,前記特定したブロックに対して前記OCR認識処理を実行する,画像認識プログラムである。 The image recognition system of the sixth invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, the product tag identification processing unit that specifies the area of the product tag in the image information in which the display shelf displaying the product is displayed, and the product tag by performing the OCR recognition processing in the area of the specified product tag. An image recognition program that causes the product identification information processing unit to function as a product tag information identification processing unit for identifying the information described in the item information processing unit, wherein the product tag in-data identification processing unit binarizes the area of the identified product tag and performs labeling processing The image recognition program is configured to specify a box by performing a box, specify boxes among the specified boxes that satisfy predetermined conditions as blocks, and execute the OCR recognition processing on the specified block.
第7の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ内情報特定処理部は,前記OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識プログラムである。 The image recognition system of the seventh invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, the product tag identification processing unit that specifies the area of the product tag in the image information in which the display shelf displaying the product is displayed, and the computer performs OCR recognition processing on part or all of the specified product tag area. An image recognition program that causes the product identification information processing unit to function as a product tag information specification processing unit that specifies information described in a product tag by performing the product tag information specification processing unit; It is an image recognition program that identifies tax-excluded prices and tax-included prices by executing logical consistency determination processing on information.
第10の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域における商品識別情報を特定する商品タグ認識処理部,前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部,前記特定した商品タグの領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部,として機能させる画像認識プログラムである。 The image recognition system of the tenth invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, a product tag recognition processing unit that specifies product identification information in a region of a product tag in image information in which a display shelf displaying a product is displayed on a computer, product identification information of a displayed product in the image information A display product recognition processing unit for specifying the product identification information for comparing the product identification information in the area of the specified product tag with the product identification information of the specified displayed product, and checking whether the recognition results match It is an image recognition program to function as a result matching processing unit.
本発明の画像認識システムを用いることによって,陳列棚に陳列されている商品を精度よく特定することができる。 By using the image recognition system of the present invention, it is possible to accurately identify the products displayed on the display shelf.
本発明の画像認識システム1のシステム構成の一例を図1に示す。画像認識システム1は,管理端末2と撮影画像情報入力端末4とを用いる。 An example of a system configuration of the image recognition system 1 of the present invention is shown in FIG. The image recognition system 1 uses a management terminal 2 and a photographed image information input terminal 4.
管理端末2は,画像認識システム1を運営する企業等の組織が利用するコンピュータである。また,撮影画像情報入力端末4は,店舗の陳列棚を撮影した画像情報の入力を行う端末である。 The management terminal 2 is a computer used by an organization such as a company that operates the image recognition system 1. The photographed image information input terminal 4 is a terminal for inputting image information obtained by photographing a display shelf of a store.
画像認識システム1における管理端末2,撮影画像情報入力端末4は,コンピュータを用いて実現される。図2にコンピュータのハードウェア構成の一例を模式的に示す。コンピュータは,プログラムの演算処理を実行するCPUなどの演算装置70と,情報を記憶するRAMやハードディスクなどの記憶装置71と,情報を表示するディスプレイなどの表示装置72と,情報の入力が可能なキーボードやマウスなどの入力装置73と,演算装置70の処理結果や記憶装置71に記憶する情報をインターネットやLANなどのネットワークを介して送受信する通信装置74とを有している。 The management terminal 2 and the photographed image information input terminal 4 in the image recognition system 1 are realized using a computer. FIG. 2 schematically shows an example of the hardware configuration of the computer. The computer can input information by using an arithmetic device 70 such as a CPU that executes arithmetic processing of a program, a storage device 71 such as a RAM or a hard disk that stores information, and a display device such as a display that displays information. It has an input device 73 such as a keyboard and a mouse, and a communication device 74 that transmits and receives the processing result of the arithmetic device 70 and information stored in the storage device 71 via a network such as the Internet or LAN.
コンピュータがタッチパネルディスプレイを備えている場合には,表示装置72と入力装置73とが一体的に構成されていてもよい。タッチパネルディスプレイは,たとえばタブレット型コンピュータやスマートフォンなどの可搬型通信端末などで利用されることが多いが,それに限定するものではない。 When the computer includes a touch panel display, the display device 72 and the input device 73 may be integrally configured. The touch panel display is often used, for example, in portable communication terminals such as tablet computers and smartphones, but is not limited thereto.
タッチパネルディスプレイは,そのディスプレイ上で,直接,所定の入力デバイス(タッチパネル用のペンなど)や指などによって入力を行える点で,表示装置72と入力装置73の機能が一体化した装置である。 The touch panel display is an apparatus in which the functions of the display device 72 and the input device 73 are integrated in that input can be directly performed by a predetermined input device (such as a pen for a touch panel) or a finger on the display.
撮影画像情報入力端末4は,上記の各装置のほか,カメラなどの撮影装置を備えていてもよい。撮影画像情報入力端末4として,携帯電話,スマートフォン,タブレット型コンピュータなどの可搬型通信端末を用いることもできる。 The photographed image information input terminal 4 may include a photographing device such as a camera in addition to the above-described devices. A portable communication terminal such as a mobile phone, a smartphone, or a tablet computer can also be used as the captured image information input terminal 4.
本発明における各手段は,その機能が論理的に区別されているのみであって,物理上あるいは事実上は同一の領域を為していても良い。本発明の各手段における処理は,その処理順序を適宜変更することもできる。また,処理の一部を省略してもよい。たとえば正置化処理を省略することもできる。その場合,正置化処理をしていない画像情報に対する処理を実行することができる。 The respective means in the present invention may only logically distinguish their functions, and may physically or virtually form the same area. The processing in each means of the present invention can also change the processing order as appropriate. Also, part of the processing may be omitted. For example, the formalization process can be omitted. In that case, it is possible to execute processing for image information that has not been subjected to orthographic processing.
画像認識システム1における管理端末2は,撮影画像情報入力端末4とネットワークを介して情報の送受信が可能である。 The management terminal 2 in the image recognition system 1 can transmit and receive information to and from the captured image information input terminal 4 via a network.
画像認識システム1は,撮影画像情報入力受付処理部20と,撮影画像情報記憶部21と,撮影画像情報正置化処理部22と,位置特定処理部23と,商品タグ配置領域切出処理部24と,商品タグ配置領域正置化処理部25と,商品タグ特定処理部26と,商品タグ内情報特定処理部27とを有する。 The image recognition system 1 includes a photographed image information input acceptance processing unit 20, a photographed image information storage unit 21, a photographed image information regularization processing unit 22, a position specification processing unit 23, and a commodity tag placement area cutout processing unit A commodity tag arrangement area regularization processing unit 25, a commodity tag specification processing unit 26, and a commodity tag information identification processing unit 27 are provided.
撮影画像情報入力受付処理部20は,撮影画像情報入力端末4で撮影した店舗の陳列棚の画像情報(撮影画像情報)の入力を受け付け,後述する撮影画像情報記憶部21に記憶させる。撮影画像情報入力端末4からは,撮影画像情報のほか,撮影日時,店舗名などの店舗識別情報,画像情報を識別する画像情報識別情報などをあわせて入力を受け付けるとよい。 The photographed image information input reception processing unit 20 receives an input of image information (photographed image information) of a display shelf of a store photographed with the photographed image information input terminal 4 and stores it in a photographed image information storage unit 21 described later. In addition to the photographed image information, it is preferable that the photographed image information, the shop identification information such as the photographing date, the shop name, the image information identification information for identifying the image information and the like be received from the photographed image information input terminal 4 together.
撮影画像情報記憶部21は,撮影画像情報入力受付処理部20で受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報などを対応づけて記憶する。撮影画像情報とは,台形補正処理を実行する対象となる画像情報であればよく,一つの陳列棚を複数枚で撮影した場合に,それが一つの画像情報として合成された画像情報も含まれる。また,歪み補正処理が実行された後の画像情報も撮影画像情報に含まれる。 The photographed image information storage unit 21 stores the photographed image information received by the photographed image information input reception processing unit 20, the photographing date and time, the store identification information, the image information identification information, and the like in association with each other. The photographed image information may be image information to be subjected to the keystone correction processing, and when one display shelf is photographed with a plurality of sheets, the image information combined as one image information is also included. . Further, image information after the distortion correction processing has been performed is also included in the captured image information.
撮影画像情報正置化処理部22は,撮影画像情報記憶部21に記憶した撮影画像情報に対して台形補正処理を実行して正置化した,正置画像情報を生成する。台形補正処理は,撮影画像情報に写っている陳列棚の棚段が水平に,そこに陳列されている商品に対する商品タグが垂直になるように行う補正処理である。 The photographed image information regularization processing unit 22 generates orthographic image information obtained by performing trapezoidal correction processing on photographed image information stored in the photographed image information storage unit 21. The keystone correction process is a correction process performed so that the shelf of the display shelf reflected in the photographed image information is horizontal and the product tag for the product displayed there is vertical.
撮影画像情報正置化処理部22が実行する台形補正処理は,撮影画像情報において4頂点の指定の入力を受け付け,その各頂点を用いて台形補正処理を実行する。指定を受け付ける4頂点としては,陳列棚の棚段の4頂点であってもよいし,陳列棚の棚位置の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。4頂点としては任意の4点を指定できる。 The keystone correction process performed by the photographed image information regularization processing unit 22 receives input of designation of four vertices in the photographed image information, and executes the keystone correction process using each vertex. The four apexes for receiving the designation may be the four apexes of the shelf of the display rack or the four apexes of the shelf position of the display rack. Also, it may be four vertices of a group of two or three trays. Any four points can be specified as the four vertices.
図7および図8に正置化処理がされた撮影画像情報(正置画像情報)の一例を示す。図7は,陳列棚として,ビールなどの飲料用缶の商品を,上下2段の棚段に陳列をしている正置画像情報である。図8は,歯ブラシなどの商品を陳列棚に吊す態様で陳列する吊し棚であって,上下2段に商品を陳列している正置画像情報である。 FIGS. 7 and 8 show an example of photographed image information (for example, orthographic image information) subjected to the orthographic process. FIG. 7 shows right-placed image information in which products of beverage cans such as beer are displayed on upper and lower two tiers as display shelves. FIG. 8 shows a hanging shelf for displaying a product such as a toothbrush and the like on a display shelf, and is right-placed image information displaying the product in two upper and lower stages.
位置特定処理部23は,撮影画像情報正置化処理部22において撮影画像情報に対して台形補正処理を実行した正置画像情報のうち,商品タグが取り付けられる可能性のある領域(商品タグ配置領域)を特定する。すなわち,撮影画像情報および正置画像情報には陳列棚が写っているが,陳列棚には,商品が陳列される棚段の領域と,そこに陳列される商品に対する商品タグが取り付けられる可能性のある商品タグ配置領域とがある。そのため,正置画像情報から商品タグ配置領域を特定する。商品タグ配置領域の特定としては,管理端末2の操作者が手動で商品タグ配置領域を指定し,それを位置特定処理部23が受け付けてもよいし,初回に手動で入力を受け付けた商品タグ配置領域の情報に基づいて,二回目以降は自動で商品タグ配置領域を特定してもよい。 The position specifying processing unit 23 is a region where there is a possibility that a product tag may be attached to the fixed image information in which the keystone correction processing is performed on the photographed image information in the photographed image information normalization processing unit 22 (product tag arrangement Identify the area). That is, although the display shelf is reflected in the photographed image information and the right-placed image information, the display shelf may have the area of the shelf on which the product is displayed and the possibility that the product tag for the product displayed there is attached There is a product tag placement area with Therefore, the product tag placement area is specified from the orthographic image information. As the specification of the product tag arrangement area, the operator of the management terminal 2 may manually specify the product tag arrangement area, and the position specification processing unit 23 may receive it, or the product tag for which the input is received manually at the first time The commodity tag placement area may be automatically specified for the second and subsequent times based on the information of the placement area.
図9に,図7の正置画像情報に対して商品タグ配置領域の指定の入力を受け付けた状態を模式的に示す。また,図10に,図8の正置画像情報に対して商品タグ配置領域の指定の入力を受け付けた状態を模式的に示す。 FIG. 9 schematically shows a state in which an input of designation of a product tag arrangement area is received with respect to the orthographic image information of FIG. Further, FIG. 10 schematically shows a state in which an input of specification of a product tag arrangement area is received with respect to the orthographic image information of FIG.
商品タグ配置領域切出処理部24は,位置特定処理部23で特定した商品タグ配置領域の画像情報を商品タグ配置領域画像情報として切り出す。商品タグ配置領域切出処理部24は,実際に,画像情報として切り出してもよいし,実際には画像情報としては切り出さずに,仮想的に切り出すのでもよい。画像情報を仮想的に切り出すとは,特定した領域,たとえば商品タグ配置領域の範囲を処理対象として処理を実行させることをいう。 The product tag placement area cutout processing unit 24 cuts out the image information of the product tag placement area specified by the position specification processing unit 23 as product tag placement area image information. The product tag placement area cutout processing unit 24 may actually cut out as image information, or may virtually cut out as image information without actually cutting out as image information. To virtually cut out the image information means to execute the processing with the specified area, for example, the range of the commodity tag arrangement area as the processing target.
商品タグ配置領域正置化処理部25は,商品タグ配置領域切出処理部24において切り出した商品タグ配置領域画像情報を正置化する台形補正処理を実行する。陳列棚の面が垂直であるのに対し,商品タグの面は,顧客から見やすいように,垂直面よりも上向きをしていることが多い。そこで商品タグ配置領域の画像情報を正置化することで,認識精度を向上させる。図11に,図9の商品タグ配置領域の画像情報に対して,正置化した商品タグ配置領域の画像情報の一例を示す。図11(a)が図9における上の棚段の商品タグ配置領域の画像情報を正置化した商品タグ配置領域の画像情報であり,図11(b)が図9における下の棚段の商品タグ配置領域の画像情報を正置化した商品タグ配置領域の画像情報である。 The product tag placement area unification processing unit 25 executes a keystone correction process of unifying the product tag placement area image information cut out by the product tag placement area cutting processing unit 24. While the surface of the display rack is vertical, the surface of the product tag often faces upward from the vertical surface so as to be easily viewed by the customer. Therefore, the recognition accuracy is improved by normalizing the image information of the product tag placement area. FIG. 11 shows an example of the image information of the commodity tag arrangement region which has been formalized with respect to the image information of the commodity tag arrangement region of FIG. 11 (a) is image information of a product tag placement area obtained by normalizing the image information of the product tag placement area of the upper tray in FIG. 9, and FIG. 11 (b) is a bottom tray in FIG. It is the image information of the goods tag arrangement field which carried out regularization of the image information of the goods tag arrangement field.
商品タグ配置領域正置化処理部25は,以下のような処理を実行することで,商品タグ配置領域の画像情報を正置化する。すなわち,商品タグ配置領域の画像情報において,エッジ検出を行い,左右の両端に近い箇所で,一定の長さ以上の垂直に近い輪郭線(たとえば70度から110度のように,垂直(90度)から所定範囲の角度内の輪郭線)を特定する。なお,左右の両端に近い箇所の輪郭線を抽出することが好ましいが,それに限定しない。図9の商品タグ配置領域の画像情報の場合,図12に示すように,L1乃至L4をそれぞれ特定する。図12(a)が図9における上の棚段の商品タグ配置領域であり,図12(b)が図9における下の棚段の商品タグ配置領域である。なお,特定する輪郭線L1乃至L4は,実際に商品タグ配置領域の画像情報に描画するわけではない。そして図12(a)のL1,L2,図12(b)のL3,L4が,それぞれ垂直線となるように,商品タグ配置領域の画像情報に対する台形補正処理をそれぞれ実行する。このような処理を実行することで,商品タグ配置領域の画像情報を正置化し,図11に示す正置化した商品タグ配置領域の画像情報を得られる。なお,商品タグ配置領域正置化処理部25の処理を実行することで,商品タグ特定処理部26,商品タグ内情報特定処理部27の精度を向上させることができることから,その処理を実行することが好ましいが,省略することもできる。その場合,商品タグ特定処理部26,商品タグ内情報特定処理部27は,商品タグ配置領域切出処理部24で切り出した商品タグ配置領域に対して実行することとなる。 The product tag placement area regularization processing unit 25 performs the following process to regularize the image information of the product tag placement area. That is, in the image information of the product tag placement area, edge detection is performed, and at a location near both ends on the left and right, a contour line close to the vertical with a certain length or more (for example, 70 degrees to 110 degrees; The outline in the angle of a predetermined range from) is specified. In addition, although it is preferable to extract the outline of the location close | similar to the both ends on either side, it does not limit to it. In the case of the image information of the product tag arrangement area of FIG. 9, as shown in FIG. 12, L1 to L4 are specified respectively. 12 (a) is the product tag arrangement area of the upper shelf in FIG. 9, and FIG. 12 (b) is the product tag arrangement area of the lower shelf in FIG. Note that the outlines L1 to L4 to be specified are not actually drawn on the image information of the commodity tag arrangement area. Then, the keystone correction processing is performed on the image information of the product tag placement area so that L1 and L2 in FIG. 12A and L3 and L4 in FIG. 12B respectively become vertical lines. By executing such a process, the image information of the product tag arrangement area can be orthographically obtained, and the image information of the regularized product tag arrangement area shown in FIG. 11 can be obtained. In addition, by executing the processing of the product tag placement area regularization processing unit 25, the accuracy of the product tag identification processing unit 26 and the in-product tag information identification processing unit 27 can be improved, so that processing is executed. Although it is preferable, it can be omitted. In that case, the product tag identification processing unit 26 and the product tag internal information specification processing unit 27 are executed on the product tag placement area cut out by the product tag placement area cutout processing unit 24.
商品タグ特定処理部26は,正置化した商品タグ配置領域画像情報から,各商品タグの領域(商品タグ領域)を特定する。商品タグ領域の特定処理には,主に2種類の方法を用いることができる。第1の方法は,輪郭線に基づいて商品タグ領域を特定する方法であり,第2の方法は,全体の明暗の分布などの全体的な特徴を,商品タグのテンプレートの画像情報とマッチングすることで商品タグ領域を特定する方法である。第1の方法,第2の方法以外の方法を用いることもできる。 The product tag identification processing unit 26 identifies the region (product tag region) of each product tag from the normalized product tag arrangement region image information. Mainly two types of methods can be used to specify the product tag area. The first method is a method of identifying the product tag area based on the outline, and the second method is to match the overall characteristics such as the distribution of the whole brightness and darkness with the image information of the product tag template Is a method of specifying a product tag area. Methods other than the first method and the second method can also be used.
第1の方法は,商品タグの地の色(背景色)が白色が多い(背景より明るい)ことを利用する方法である。すなわち,まず正置化した商品タグ配置領域の画像情報のうち,画像情報の明度情報を横方向に積算したヒストグラムを生成する。そしてヒストグラムの立ち上がり,立ち下がり位置を特定し,商品タグの上辺位置A,下辺位置Bを特定する。この処理を模式的に示すのが図13である。立ち上がりとは,ヒストグラムにおいて,黒から白の方向に急峻(あらかじめ定められた比率以上)に増加する箇所であり,立ち下がりとは,ヒストグラムにおいて,白から黒の方向に急峻に減少する箇所である。 The first method is a method utilizing the fact that the ground color (background color) of the product tag is rich in white (brighter than the background). That is, first, a histogram is generated by integrating the lightness information of the image information in the horizontal direction among the image information of the product tag placement area that has been formalized. Then, the rising and falling positions of the histogram are specified, and the upper side position A and the lower side position B of the product tag are specified. FIG. 13 schematically shows this process. The rising is a place where the black-to-white direction increases sharply (more than a predetermined ratio) in the histogram, and the falling is a place where the white-to-black direction decreases sharply in the histogram .
そして,正置化した商品タグ配置領域の画像情報のうち,上辺位置A,下辺位置Bの間を切り出し,正置化した商品タグ配置領域画像情報の明度情報を縦方向に積算したヒストグラムを生成する。そして,ヒストグラムの立ち上がり,立ち下がり位置を特定し,立ち上がりとその右の所定の距離範囲にある立ち下がりとをペアとし,それぞれを左辺位置,右辺位置として,商品タグ領域を特定する。そして,ペアを形成できなかった立ち上がりについてはその右側に,ペアを形成できなかった立ち下がりについてはその左側に,あらかじめ定めた距離内に商品タグ領域がなければ,商品タグ領域として特定をする。この処理を模式的に示すのが図14である。 Then, out of the image information of the product tag arrangement area which has been formalized, a section between the upper side position A and the lower side position B is cut out, and a histogram is generated by integrating the lightness information of the product tag arrangement area image information which is regularized in the vertical direction. Do. Then, the rising and falling positions of the histogram are identified, and the rising and the falling within a predetermined distance range to the right are paired, and the product tag area is specified as the left side position and the right side position. Then, with regard to the rise where the pair could not be formed, on the right side of the fall where the pair could not be formed, and as the product tag area within a predetermined distance on the left side, the product tag area is specified. FIG. 14 schematically shows this process.
また第1の方法により,図11の正置化した商品タグ配置領域の画像情報から,商品タグ領域を特定した状態を図15に示す。上辺位置A,下辺位置B,左辺位置(立ち上がり)U,右辺位置(立ち下がり)Dのそれぞれで構成される矩形領域が,特定された商品タグの領域である。 Further, FIG. 15 shows a state in which the product tag area is specified from the image information of the regularized product tag arrangement area of FIG. 11 by the first method. A rectangular area constituted by each of the upper side position A, the lower side position B, the left side position (rising) U, and the right side position (falling) D is an area of the identified product tag.
第2の方法は,いわゆるテンプレートマッチングである。すなわち,テンプレートとして,商品タグの画像情報をあらかじめ登録しておき,テンプレートと,正置化した商品タグ配置領域の画像情報とのマッチングをすることで,商品タグ領域を特定する。 The second method is so-called template matching. That is, the product tag area is specified by registering image information of a product tag in advance as a template, and matching the template with the image information of the product tag arrangement area that has been formalized.
商品タグには,税抜価格,税込価格,商品識別情報(商品名など),メーカー名,定格などが含まれる。そのため,テンプレートとなる商品タグの画像情報に,商品名など商品識別情報や価格の具体的な数字,文字を含めるとその部分も含めて画像マッチング処理の判定対象となるため,その部分をモザイク化,削除等することで,判定対象から中立化や除外してあることが好ましい。中立化とは,どんな入力について高い点,低い点を配点しないことであり,除外とは,画像マッチング処理の際に,その部分をマッチングの対象から除外することである。 The product tags include tax-excluded prices, tax-included prices, product identification information (such as product names), manufacturer names, ratings, and the like. Therefore, if the image information of the product tag that is the template includes the product identification information such as the product name and the specific figures of the price and characters, including that part will be the judgment target of the image matching process, so that part will be mosaicked It is preferable to neutralize or exclude from the judgment object by deleting or the like. Neutralization means not giving high or low points for any input, and exclusion means excluding that part from matching in the image matching process.
商品タグ内情報特定処理部27は,商品タグ特定処理部26で特定した商品タグ領域に記載されている情報をOCR認識などにより特定する処理を実行する。OCR認識をする場合には,商品タグ領域として特定した領域のすべてまたは一部について行うことができる。商品タグ領域として特定したすべての領域に行うとノイズなどにより誤認識が発生する可能性が高いので,OCR認識をする対象領域を限定することが好ましい。この場合,商品タグ特定処理部26で用いた第1の方法,第2の方法にそれぞれ対応した処理を実行する。 The product tag internal information specification processing unit 27 executes processing for specifying the information described in the product tag area specified by the product tag specification processing unit 26 by OCR recognition or the like. When performing OCR recognition, it can carry out about all or one part of the field specified as a goods tag field. If the process is performed on all the areas specified as the product tag area, there is a high possibility that false recognition may occur due to noise or the like, so it is preferable to limit the target area for OCR recognition. In this case, processing corresponding to the first method and the second method used by the product tag identification processing unit 26 is executed.
商品タグ特定処理部26で第1の方法を用いた場合,特定した商品タグ領域において,まず二値化処理を行う。そして,二値化した画像情報においてラベリング処理を実行する。ラベリング処理とは,二値画像情報において,白または黒が連続した画素に同一の番号(識別情報)を割り振る処理を実行することで,連続する画素同士を一つの島(グループ)化する処理である。そしてラベリング処理によって検出した島を含む矩形領域(ボックス)を生成し,ボックスの高さ,幅,ベースラインを求める。ボックスを生成する際には,同一番号にラベリングされた領域を囲む最小の,垂直,水平の線分で囲まれた長方形を生成することが好ましいが,それに限定しない。なおボックスを生成する際に,あらかじめ定めた閾値となる高さ,幅を充足しない島はノイズとしてボックスを生成せず,そのまま処理対象から除去する。たとえば高さが小さすぎる島は横罫線や画像上のゴミの可能性があり,幅が広すぎる島はロゴなどの可能性があり,これらはノイズとして除去をする。 When the first method is used in the product tag identification processing unit 26, first, binarization processing is performed in the identified product tag area. Then, labeling processing is performed on the binarized image information. The labeling process is a process of converting consecutive pixels into one island (group) by executing a process of allocating the same number (identification information) to pixels in which white or black is continuous in binary image information. is there. Then, a rectangular area (box) including islands detected by the labeling processing is generated, and the height, width, and baseline of the box are obtained. When generating a box, it is preferable, but not limited to, to generate a rectangle surrounded by the smallest vertical and horizontal line segments that encloses the areas labeled with the same number. When generating a box, an island that does not satisfy the height and width, which is a predetermined threshold value, is not generated as a noise as a box, and is removed as it is from the processing target. For example, an island whose height is too small may have horizontal ruled lines or dust on an image, and an island whose width is too wide may be a logo or the like, which are removed as noise.
商品タグで使用される文字は,一般的にはゴシック体など太字が多い。そのため,画像情報に多少のピンぼけがある場合でも,一つの文字列を形成する文字群は,ベースラインと高さがそろった島として検出することができる。 The characters used in product tags are generally in bold, such as gothic. Therefore, even if the image information has some blurring, the character group forming one character string can be detected as an island whose height is aligned with the baseline.
そして商品タグ内情報特定処理部27は,所定の類似性を有する隣接したボックス同士を併合し,ブロックを構成する。すなわち,ベースラインと高さが所定範囲内で一致し,高さおよび幅が一定の閾値の範囲内にある連続するボックスを併合し,ブロックを構成する。この際に,併合するブロックの間にある小さいボックスなどもまとめて一つのブロックとして構成する。これによって,濁点,半濁点,ハイフンなども一つのブロックに取り込まれることとなる。ブロックは,OCR認識の対象となる領域である。そして,ブロックのうち,高さがもっとも高いブロックを価格領域(税抜価格領域)と推定し,OCR認識を行う。また,ほかのブロックについても同様に,OCR認識を行う。以上のような処理を実行することで,商品タグ領域において複数行にわたって自由にレイアウトされた原稿に対応したOCR認識を行うよりも精度よく,文字認識処理を実行することができる。この処理を模式的に示すのが図16乃至図18である。図16は二値化した画像情報であり,図17はボックス(破線で示す領域)を生成した状態を示す図である。また図18はブロック(破線で示す領域)を生成した状態を示す図である。 Then, the in-product tag information identification processing unit 27 merges adjacent boxes having a predetermined similarity to form a block. That is, a block is formed by merging consecutive boxes whose baseline and height coincide within a predetermined range and whose height and width are within a certain threshold. At this time, small boxes and the like between the blocks to be merged are also collectively configured as one block. As a result, a cloud point, a cloud point, a hyphen, etc. will also be taken into one block. A block is an area targeted for OCR recognition. Then, among the blocks, the block with the highest height is estimated as a price area (excluding tax price area), and OCR recognition is performed. In addition, OCR recognition is similarly performed on other blocks. By executing the above-described processing, it is possible to execute character recognition processing more accurately than performing OCR recognition corresponding to a document freely laid out over a plurality of lines in the product tag area. FIGS. 16 to 18 schematically show this process. FIG. 16 shows binarized image information, and FIG. 17 shows a state in which a box (an area indicated by a broken line) is generated. FIG. 18 is a diagram showing a state in which a block (an area indicated by a broken line) is generated.
以上のようにして商品タグ内情報特定処理部27は,商品タグに記載した情報を文字認識することができる。 As described above, the in-product tag information specification processing unit 27 can perform character recognition on the information described in the product tag.
商品タグ特定処理部26で第2の方法を用いた場合,テンプレートとした商品タグの画像情報に,あらかじめ税抜価格,税込価格,メーカー名,商品名などの商品識別情報,定格が表記されるそれぞれの文字枠の位置,大きさ(高さ,幅)が設定されている。そのため,商品タグ特定処理部26で特定した商品タグ領域から,該当箇所の画像情報を切り出し,OCR認識処理を実行する。この際に,価格,メーカー名,商品名などの商品識別情報,定格によって使用される文字種別(たとえば数字,ローマ字,記号,文字列など)を制約条件として定めておくことで,OCR認識処理の精度を向上させることができる。 When the second method is used in the product tag identification processing unit 26, product identification information such as tax excluding price, tax included price, manufacturer name, product name, and rating are described in advance in the image information of the product tag as a template The position and size (height and width) of each character frame are set. Therefore, the image information of the corresponding part is cut out from the product tag area specified by the product tag specification processing unit 26, and the OCR recognition processing is executed. At this time, by defining product identification information such as price, manufacturer name, product name, etc., and character type (for example, numbers, Roman characters, symbols, character strings, etc.) used by rating as constraint conditions, Accuracy can be improved.
さらに商品タグ内情報特定処理部27は,読み取った情報の整合性を確認する処理を実行する。整合性確認処理としては,辞書照合による整合性の確認処理,ロジカルチェックの2種類を行うことが好ましい。 Further, the in-product tag information identification processing unit 27 executes a process of confirming the integrity of the read information. As consistency check processing, it is preferable to perform two types of check processing of consistency by dictionary collation and logical check.
辞書照合による整合性の確認処理は,たとえば以下のように実行する。画像認識システム1には,陳列棚に陳列される可能性のある商品の商品名などの商品識別情報と,それに対応するコード情報(たとえばJANコード)とを対応づけて記憶する商品辞書(図示せず)を備えている。そして,商品タグ内情報特定処理部27で認識した価格を示す領域から読み取った文字列以外の文字列と,商品辞書に登録されたすべての商品名などの商品識別情報との編集距離(レーベンシュタイン距離)を求める。そして求めた編集距離のうち,最小の編集距離が一つであるならば,その編集距離の商品名などの商品識別情報を最終候補とする。そして最終候補となった商品名などの商品識別情報の文字列の長さに対して,許容できる編集距離をあらかじめ定めておき,許容できる編集距離内であれば商品名などの商品識別情報を同定する。許容できる編集距離を超えていれば,読み取った文字列は未確定とする。また,最小の編集距離が複数ある場合には,読み取った文字列は未確定とする。 The check process of consistency by dictionary collation is executed as follows, for example. The image recognition system 1 stores a product dictionary (not shown) that associates product identification information such as the product name of a product that may be displayed on the display shelf with code information (for example, JAN code) corresponding thereto. )). Then, the edit distance between the character string other than the character string read from the area indicating the price recognized by the in-product tag information specification processing unit 27 and the product identification information such as all product names registered in the product dictionary Find the distance). Then, if the minimum editing distance among the calculated editing distances is one, product identification information such as the product name of the editing distance is determined as the final candidate. Then, an allowable edit distance is determined in advance with respect to the length of the character string of the product identification information such as the product name which is the final candidate, and if within the allowable edit distance, the product identification information such as the product name is identified. Do. If the allowable edit distance is exceeded, the read character string is considered as undetermined. Also, if there are multiple minimum edit distances, the read character string is considered as undetermined.
編集距離とは,二つの文字列がどの程度異なっているかを示す距離の一種であって,具体的には,一文字の挿入,削除,置換によって,一方の文字列をもう一方の文字列に変形するのに必要な手順の最小回数である。図19に商品タグに表記された商品名,OCR認識の結果,商品辞書に記憶する商品名のうち編集距離が最小の商品名,編集距離の一例を示す。また,図20に,最終候補の文字数ごとの確定してよい編集距離の対応関係の表を示す。なお,本明細書では編集距離を用いて処理をする場合を説明するが,編集距離の算出において置換の距離を短くする処理を行った距離関数であってもよい。この距離関数には,二つの文字列がどの程度異なっているかを示す距離を算出する関数であって,上述の編集距離も含まれる。 Editing distance is a kind of distance indicating how different two character strings are. Specifically, one character is converted to the other character string by inserting, deleting or replacing one character. The minimum number of steps required to do this. FIG. 19 shows an example of the product name with the minimum edit distance among the product names stored in the product dictionary and the product name stored in the product dictionary as a result of the OCR recognition and the product name described in the product tag. Further, FIG. 20 shows a table of correspondence relationships of edit distances which may be determined for each number of characters of the final candidate. Although the case of processing using the editing distance will be described in this specification, it may be a distance function obtained by performing processing for shortening the replacement distance in calculating the editing distance. This distance function is a function that calculates the distance indicating how different the two character strings are, and includes the above-mentioned editing distance.
そして,上記の最小の編集距離の商品名などの商品識別情報を求めた後,OCR認識結果から商品名などの商品識別情報の該当部分を除いた文字列に対し,別に備える定格辞書(図示せず)に記憶する各定格との編集距離,メーカー名辞書(図示せず)に記憶する各メーカー名との編集距離をそれぞれ求める。たとえば図19における「のどごし 生 350ml」の例では,「350ml」の部分に対し,定格の辞書における「350ml」と編集距離0で一致し,定格部分の文字列であることを同定する。同様に,メーカー名についても編集距離を求め,最小の編集距離にある文字列をメーカー名であることを同定する。そしてOCR認識結果から定格部分,メーカー名部分の各文字列を取り除いて,取り除いた残りの文字列に対し,商品名辞書における最短の編集距離にある文字列を求め,許容できる編集距離であるか否かを判定する。許容できる編集距離内であれば,商品名などの商品識別情報,メーカー名,定格を確定する。このような処理をすることで,商品名などの商品識別情報に定格,メーカー名が含まれる場合にも適切に確定をすることができる。なお,定格辞書とは,陳列棚に陳列される可能性のある商品の定格(容量など)を記憶する辞書である。メーカー名辞書とは,陳列棚に陳列される可能性のある商品のメーカー名を記憶する辞書である。 Then, after the product identification information such as the product name with the minimum editing distance is determined, a rating dictionary (shown in FIG. 6) is separately provided for the character string excluding the corresponding part of the product identification information such as the product name from the OCR recognition result. The edit distance to each rating stored in (a) and the edit distance to each maker name stored in a maker name dictionary (not shown) are respectively determined. For example, in the example of "350ml" in Fig. 19, "350ml" in the rated dictionary corresponds to "350ml" at the editing distance 0, and it is identified that it is the character string of the rated part. Similarly, the edit distance is determined for the maker name, and the character string at the minimum edit distance is identified as the maker name. Then, remove each character string of rated part and maker name part from the OCR recognition result and find the character string with the shortest editing distance in the product name dictionary for the remaining character string removed, is it an acceptable editing distance? It is determined whether or not. If it is within the allowable edit distance, the product identification information such as the product name, the manufacturer name, and the rating are determined. By performing such processing, it is possible to appropriately determine even when the product identification information such as the product name includes the rating and the manufacturer name. The rating dictionary is a dictionary that stores ratings (such as capacity) of products that may be displayed on the display shelf. The maker name dictionary is a dictionary that stores maker names of products that may be displayed on the display shelf.
認識結果を利用者に示し,選択してもらうための表示を行う際には,確定した文字列,未確定の文字列については,それぞれが特定可能な方法で表示が行われているとよい。たとえば確定した文字列と未確定の文字列との色を分ける,確定の文字列および/または未確定の文字列には確定または未確定を示す情報を付するなどがある。未確定の文字列については,最小の編集距離となった商品名などの商品識別情報の候補が複数ある場合には,各候補を表示してもよい。 When displaying a recognition result for the user to display for selection, it is preferable that the confirmed character string and the unconfirmed character string be displayed by a method which can identify each. For example, the color of the confirmed character string and the unconfirmed character string may be separated, or the confirmed character string and / or the unconfirmed character string may be attached with information indicating fixed or unfixed. As for the undecided character string, when there are a plurality of candidates for product identification information such as a product name having the minimum editing distance, each candidate may be displayed.
商品タグ内情報特定処理部27におけるロジカルチェック(認識した情報の論理的整合性の判定処理)は以下のように行うことができる。たとえば価格領域として2つの価格を読み取った場合,一つは税抜価格,一つは税込価格となるが,税抜価格が税込価格よりも高くなっている場合には,それらを逆転して認識させる。また,税抜価格に消費税率を乗算して得た値が税込価格とは一致しない場合には,いずれかまたは双方に誤認識があるとする。さらに,商品名などの商品識別情報を認識した場合には,その商品または商品カテゴリの通常の価格帯に収まっているか,を判定する。また,商品名などの商品識別情報,メーカー名,定格の対応関係が一致しているかを判定してもよい。 The logical check (determination process of the logical consistency of the recognized information) in the product tag internal information specification processing unit 27 can be performed as follows. For example, if two prices are read as the price area, one is the tax-excluded price and one is the tax-included price, but if the tax-exclusive price is higher than the tax-included price, they are reversed and recognized Let In addition, if the value obtained by multiplying the consumption tax rate by the tax-excluded price does not match the tax-included price, it is assumed that either or both have an erroneous recognition. Furthermore, when the product identification information such as the product name is recognized, it is determined whether or not it falls within the normal price range of the product or the product category. Further, it may be determined whether the correspondence relationship of the product identification information such as the product name, the maker name, and the rating match.
以上のように商品タグ内の情報の整合性を確認することで,撮影画像情報に写っている商品タグに含まれる情報を確定することができる。このように確定した情報は,たとえば表形式で出力をすることができる。 As described above, by checking the consistency of the information in the product tag, it is possible to determine the information included in the product tag shown in the photographed image information. The information determined in this way can be output, for example, in tabular form.
つぎに本発明の画像認識システム1の処理プロセスの一例を図3乃至図6のフローチャートを用いて説明する。 Next, an example of the processing process of the image recognition system 1 of the present invention will be described using the flowcharts of FIG. 3 to FIG.
店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末4から入力され,管理端末2の撮影画像情報入力受付処理部20でその入力を受け付ける(S100)。図21および図22に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部20は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部21に記憶させる。 The photographed image information in which the display shelf of the store is photographed is inputted from the photographed image information input terminal 4 and the photographed image information input acceptance processing unit 20 of the management terminal 2 receives the input (S100). 21 and 22 show an example of the photographed image information. In addition, the input of the photographing date and time, the shop identification information, and the image information identification information of the photographed image information is received. Then, the photographed image information input acceptance processing unit 20 associates the photographed image information, the photographing date and time, the store identification information, and the image information identification information of the photographed image information, which have received the input, and stores them in the photographed image information storage unit 21.
管理端末2において所定の操作入力を受け付けると,正置画像情報正置化処理部は,撮影画像情報記憶部21に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S110)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図7および図8である。 When the management terminal 2 receives a predetermined operation input, the orthographic image information regularization processing unit extracts the photographed image information stored in the photographed image information storage unit 21 and is a shelf which is a vertex for performing the keystone correction processing The input of four points of the position (the position of the display shelf) is received, and the keystone correction process is executed (S110). FIGS. 7 and 8 show an example of the photographed image information (right-handed image information) for which the keystone correction processing has been executed in this manner.
そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,位置特定処理部23は,商品タグ配置領域を特定する(S120)。すなわち,正置画像情報における商品タグ配置領域の入力を受け付ける。図9および図10が,商品タグ配置領域が特定された状態を示す図である。そして,商品タグ配置領域切出処理部24はS120で特定した商品タグ配置領域の画像情報を切り出し(S130),商品タグ配置領域正置化処理部25が台形補正処理を実行することで,商品タグ配置領域の画像情報に対する正置化処理を実行する(S140)。 Then, the position specifying processing unit 23 specifies the product tag arrangement area by receiving a predetermined operation input in the management terminal 2 with respect to the directly-placed image information (S120). That is, the input of the product tag arrangement area in the orthographic image information is accepted. FIG. 9 and FIG. 10 are diagrams showing a state in which the product tag placement area is specified. Then, the product tag placement area cutout processing unit 24 cuts out the image information of the product tag placement area specified in S120 (S130), and the product tag placement area regularization processing unit 25 executes the keystone correction processing to obtain the product. The orthographic process is performed on the image information of the tag placement area (S140).
商品タグ配置領域の画像情報に対する正置化処理としては,まず,商品タグ配置領域の画像情報においてエッジ検出を行う。そして,検出したエッジのうち,一定の長さ以上であって,垂直から所定範囲の角度内にある輪郭線を特定する(S200)。そして,特定した輪郭線のうち,もっとも左および右にある輪郭線を特定する(S210)。このように特定した輪郭線の一例を図12に示す。そして,特定した輪郭線(図12(a)のL1,L2,図12(b)のL3,L4)が,それぞれ垂直線となるように,商品タグ配置領域の画像情報に対する台形補正処理を実行する(S220)。このような処理を実行することで,商品タグ配置領域の画像情報を正置化し,図11に示す正置化した商品タグ配置領域の画像情報を得られる。 As a regularization process for the image information of the product tag arrangement area, first, edge detection is performed on the image information of the product tag arrangement area. Then, among the detected edges, an outline having a predetermined length or more and within an angle of a predetermined range from the vertical is specified (S200). Then, among the identified contour lines, the contour lines located at the left and right are identified (S210). An example of the outline specified in this way is shown in FIG. Then, the keystone correction process is performed on the image information of the product tag placement area so that the identified outlines (L1 and L2 in FIG. 12A and L3 and L4 in FIG. 12B respectively) become vertical lines. (S220). By executing such a process, the image information of the product tag arrangement area can be orthographically obtained, and the image information of the regularized product tag arrangement area shown in FIG. 11 can be obtained.
S140において商品タグ配置領域の画像情報の正置化処理が終了すると,商品タグ特定処理部26が,第1の方法または第2の方法により,商品タグ配置領域の画像情報から,個々の商品タグ領域を特定する(S150)。 When the formalization process of the image information of the product tag arrangement area is completed in S140, the product tag identification processing unit 26 determines the individual product tags from the image information of the product tag arrangement area by the first method or the second method. An area is identified (S150).
第1の方法の場合には,正置化した商品タグ配置領域の画像情報のうち,画像情報の明度情報を横方向に積算したヒストグラムを生成し(S300),ヒストグラムの立ち上がり,立ち下がり位置を特定する。そして,特定したヒストグラムの立ち上がりを商品タグの上辺位置A,ヒストグラムの立ち下がり位置を商品タグの下辺位置Bとして特定する(S310)。 In the case of the first method, a histogram is generated by integrating the lightness information of the image information in the horizontal direction among the image information of the regularized product tag placement area (S300), and the rising and falling positions of the histogram are Identify. Then, the rising edge of the identified histogram is specified as the upper side position A of the product tag, and the falling position of the histogram is specified as the lower side position B of the product tag (S310).
つぎに,正置化した商品タグ配置領域の画像情報のうち,上辺位置A,下辺位置Bの間を切り出し,正置化した商品タグ配置領域の画像情報の明度情報を縦方向に積算したヒストグラムを生成する(S320)。 Next, a histogram obtained by vertically extracting the lightness information of the image information of the product tag placement area cut out between the upper side position A and the lower side position B out of the image information of the product tag placement area turned out to be regularized Are generated (S320).
生成したヒストグラムにおいて立ち上がり位置U,立ち下がり位置Dを特定し,立ち上がり位置U(左辺位置)とその右の所定の距離範囲にある立ち下がり位置D(右辺位置)とをペアとして特定し,商品タグ領域として特定する(S330)。 The rising position U and the falling position D are specified in the generated histogram, and the rising position U (left side position) and the falling position D (right side position) within a predetermined distance range to the right thereof are specified as a pair. It specifies as a field (S330).
ペアを形成できなかった立ち上がり位置Uについてはその右側に,ペアを形成できなかった立ち下がり位置Dについてはその左側に,あらかじめ定めた距離内に商品タグ領域がなければ,商品タグ領域として特定をする(S340)。 For the rising position U where the pair could not be formed on the right side, for the falling position D where the pair could not be formed on the left side, if there is no product tag area within a predetermined distance, specification as a product tag area (S340).
以上のような処理によって,それぞれの商品タグ領域を特定した状態が図15である。 FIG. 15 shows a state in which the respective product tag areas are specified by the above processing.
また第2の方法を用いる場合には,商品タグ特定処理部26は,あらかじめ登録しているテンプレートの商品タグの画像情報と,正置化した商品タグ配置領域の画像情報との画像マッチング処理を実行することで,商品タグ領域を特定する。 Further, when using the second method, the product tag identification processing unit 26 performs image matching processing between the image information of the product tag of the template registered in advance and the image information of the emplaced product tag arrangement area. The product tag area is specified by execution.
以上のようにして商品タグ特定処理部26が商品タグ領域を特定すると,商品タグ内情報特定処理部27が,商品タグ内における情報を特定する(S160)。 As described above, when the product tag identification processing unit 26 identifies the product tag area, the in-product tag information identification processing unit 27 identifies information in the product tag (S160).
商品タグ内情報特定処理部27における第1の方法は,特定した商品タグ領域について二値化処理することで,二値化した画像情報とする(S400)。そして,二値化した画像情報におけるラベリング処理により,ボックスを特定する(S410)。なお,あらかじめ定めた閾値となる高さ,幅を充足しない島はノイズとしてボックスを生成せず,そのまま処理対象から除去する。 The first method in the product tag internal information specification processing unit 27 binarizes the specified product tag area to obtain binarized image information (S400). Then, a box is specified by the labeling process on the binarized image information (S410). In addition, the island which does not satisfy height and width used as a predetermined threshold does not generate a box as noise, but removes it from processing object as it is.
そして生成したボックスの高さ,幅,ベースラインを求め,ベースラインと高さが所定範囲内で一致し,高さおよび幅が一定の閾値の範囲内にある隣接するボックスを特定することで,特定したボックスを併合し,ブロックを構成する(S420)。そしてブロックのうち,高さがもっとも高いブロックを価格領域(税抜価格領域)と推定し,OCR認識を行う(S430)。OCR認識の結果,価格情報を得られなければ(数値の文字列を認識できなければ)(S440),高さが次に高いブロックを価格領域(税抜価格領域)と推定し,同様にOCR認識を行う。 Then, by determining the height, width, and baseline of the generated box, and identifying adjacent boxes in which the baseline and height coincide within a predetermined range and the height and width are within a constant threshold range, The identified boxes are merged to form a block (S420). Then, among the blocks, the block with the highest height is estimated as a price area (excluding tax price area), and OCR recognition is performed (S430). As a result of the OCR recognition, if the price information can not be obtained (if the character string of the numerical value can not be recognized) (S440), the block with the next highest height is estimated as the price area (tax excluding price area). Recognize.
なおS430のOCR認識においては,価格に用いる「数字」,「コンマ」等の価格表示を構成する文字認識を制約条件として付加することで価格の読み取り精度を向上することができる。 In addition, in the OCR recognition of S430, the reading accuracy of the price can be improved by adding the character recognition constituting the price display such as "number" and "comma" used for the price as a constraint condition.
このように価格領域(税抜価格領域)と推定したブロックから価格情報をOCR認識により取得すると(S440),S430で価格領域(税抜価格領域)と推定して取得した価格情報以外のブロックを特定し(S450),特定した各ブロックに対してOCR認識を行う(S460)。このOCR認識については,2種類のOCR認識処理を行うことが好ましい。すなわち,通常の標準的なOCR認識処理と,価格表示を構成する文字認識を制約条件として付加したOCR認識処理である。 When price information is acquired from the block estimated as the price area (tax excluded price area) by OCR recognition (S440), the block other than the price information acquired by estimating as the price area (tax excluded price area) in S430 is selected. The identification is performed (S450), and the OCR recognition is performed on each identified block (S460). It is preferable to perform two types of OCR recognition processing for this OCR recognition. That is, ordinary standard OCR recognition processing and OCR recognition processing in which character recognition constituting price display is added as a constraint condition.
S450で特定したブロックには,価格領域(税込価格領域)のブロックと,メーカー名,商品名などの商品識別情報,定格などの情報の領域のブロックが含まれる。そして各ブロックについて2種類のOCR認識処理を実行する。メーカー名,商品名などの商品識別情報,定格などの情報の領域のブロックについては,標準的なOCR認識処理では文字列を認識し,制約条件を付したOCR認識処理では多くはエラーを含む文字列となる。この場合,2つの認識処理の認識結果が所定値以上相違するかを判定し,相違する場合には,標準的なOCR認識処理で実行した文字列を認識結果とし,価格領域(税込価格領域)のブロック以外のブロックであると判定する。一方,価格領域(税込価格領域)のブロックについては,標準的なOCR認識処理では価格情報の文字列を認識し,制約条件を付したOCR認識処理でも価格情報の文字列を認識する。この場合,2つの認識処理の認識結果が所定値以上相違するかを判定し,相違しない場合には,価格領域(税込価格領域)のブロックであると判定し,制約条件を付加した認識処理による文字列を認識結果の価格情報とする。 The blocks identified in S450 include a block of a price area (tax-included price area), a block of an area of information such as product identification information such as a manufacturer name and a product name, and a rating. Then, two types of OCR recognition processing are executed for each block. For a block of an area of information such as product identification information such as manufacturer name and product name, rating, etc., a character string is recognized in the standard OCR recognition processing, and many characters include an error in the restricted OCR recognition processing. It becomes a column. In this case, it is determined whether or not the recognition results of the two recognition processes differ by a predetermined value or more. If they differ, the character string executed in the standard OCR recognition process is regarded as the recognition result, and the price area (tax included price area) It is determined that the block is not a block of On the other hand, for blocks in the price area (tax-included price area), a standard OCR recognition process recognizes a character string of price information, and a character string of price information is recognized even in an OCR recognition process to which constraints are attached. In this case, it is determined whether or not the recognition results of the two recognition processes differ by a predetermined value or more, and if not, they are determined to be blocks in the price area (tax-included price area). A string is used as the price information of the recognition result.
以上のようにして商品タグ内情報特定処理部27は,商品タグに記載した情報を文字認識することができる。 As described above, the in-product tag information specification processing unit 27 can perform character recognition on the information described in the product tag.
なお,商品タグ特定処理部26で第2の方法を用いた場合には,テンプレートとした商品タグには,あらかじめ税抜価格,税込価格,メーカー名,商品名などの商品識別情報,定格がそれぞれ表記される文字枠の位置,サイズが設定されている。そのため,商品タグ特定処理部26で特定した商品タグ領域から,該当箇所の画像情報を切り出し,OCR認識処理を実行すればよい。 In the case where the second method is used in the product tag identification processing unit 26, the product tag as a template is pre-taxed, tax-included price, manufacturer's name, product identification information such as product name, etc. The position and size of the character frame to be written are set. Therefore, the image information of the corresponding part may be cut out from the product tag area specified by the product tag specification processing unit 26 and the OCR recognition processing may be executed.
そして商品タグ内情報特定処理部27は,特定した商品名等との辞書照合処理を実行する(S470)。すなわち,読み取った文字列と,商品辞書における各商品名などの商品識別情報との編集距離を求め,最小の編集距離の商品名などの商品識別情報を特定し,それがあらかじめ定めた所定距離内であれば商品名などの商品識別情報として同定する。そして,読み取った文字列から最短の編集距離の商品名部分を取り除き,残りの部分文字列に対し,定格辞書における各定格との編集距離を求め,最小の編集距離が所定距離内であるかを判定して,所定距離内にあればその部分を定格の文字列として同定する。同様に,読み取った文字列から最小の編集距離の商品名部分と定格部分を取り除き,残りの部分文字列に対し,メーカー名辞書における各メーカー名との編集距離を求め,最小の編集距離が所定距離内であるかを判定して,所定距離内にあればその部分をメーカー名の文字列として同定する。 Then, the in-product tag information specification processing unit 27 executes a dictionary matching process with the specified product name and the like (S470). That is, the edit distance between the read character string and the product identification information such as each product name in the product dictionary is determined, the product identification information such as the product name with the minimum edit distance is specified, and it is within a predetermined distance determined in advance. If it is, it identifies as goods identification information, such as a goods name. Then, the product name portion of the shortest editing distance is removed from the read character string, and for the remaining partial character strings, the editing distance to each rating in the rated dictionary is determined, and it is determined whether the minimum editing distance is within the predetermined distance. If it is within the predetermined distance, the part is identified as a rated character string. Similarly, the product name part and the rated part of the minimum editing distance are removed from the read character string, and for the remaining partial strings, the editing distance with each maker name in the maker name dictionary is determined, and the minimum editing distance is specified. It is determined whether it is within the distance, and if it is within the predetermined distance, the part is identified as a character string of the maker name.
さらに,商品タグ内情報特定処理部27は,文字認識した文字列に対するロジカルチェックの処理を実行する(S480)。すなわち文字認識した文字列が論理的に矛盾しないか,などを判定する。 Further, the in-product tag information identification processing unit 27 executes processing of logical check on the character string in which the character is recognized (S480). That is, it is determined whether or not the character string in which the character is recognized logically contradicts.
ロジカルチェックの結果,矛盾がないようであれば,それぞれ認識した文字列について,税抜価格,税込価格,商品名などの商品識別情報,メーカー,定格を特定し,それらを,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報と対応づけて所定の記憶領域に記憶,出力をする。たとえば表形式で出力をする。 As a result of the logical check, if there is no contradiction, identify the product identification information such as tax-excluded price, tax-included price, and product name, manufacturer and rating for each recognized character string, identify them, shooting date and time, store identification Information and image information identification information of captured image information are stored and output in a predetermined storage area in association with each other. For example, output in tabular format.
実施例1においては,撮影画像情報から商品タグに記載される情報を読み取る場合を説明したが,さらに,陳列棚に陳列する商品の画像認識と対応づけるようにしてもよい。すなわち,陳列棚に陳列する商品の商品名などの商品識別情報を,商品タグに記載される情報からも特定し,それらを照合するようにしてもよい。 In the first embodiment, the case where the information described in the product tag is read out from the photographed image information has been described, but it may be further correlated with the image recognition of the product displayed on the display shelf. That is, the product identification information such as the product name of the product to be displayed on the display shelf may be specified also from the information described in the product tag, and they may be collated.
この場合,実施例1の画像認識システム1は,本実施例2における画像認識システム1の一部の機能を構成する。実施例2における画像認識システム1は,撮影画像情報入力受付処理部20と,撮影画像情報記憶部21と,撮影画像情報記憶部21と,撮影画像情報正置化処理部22と,位置特定処理部23と,商品タグ認識処理部28と,陳列商品認識処理部29と,標本画像情報記憶部30と,商品識別情報記憶部31と,整合性判定処理部32と,認識結果照合処理部33とを有する。図23に,実施例2における画像認識システム1のシステム構成の一例を示す。また,図24に商品タグ認識処理部28の構成の一例を,図25に陳列商品認識処理部29の構成の一例を示す。 In this case, the image recognition system 1 of the first embodiment constitutes part of the functions of the image recognition system 1 of the second embodiment. The image recognition system 1 in the second embodiment includes a photographed image information input acceptance processing unit 20, a photographed image information storage unit 21, a photographed image information storage unit 21, a photographed image information regularization processing unit 22, and a position specifying process. Unit 23, product tag recognition processing unit 28, display product recognition processing unit 29, sample image information storage unit 30, product identification information storage unit 31, consistency determination processing unit 32, recognition result verification processing unit 33 And. An example of a system configuration | structure of the image recognition system 1 in Example 2 is shown in FIG. Further, FIG. 24 shows an example of the configuration of the product tag recognition processing unit 28, and FIG. 25 shows an example of the configuration of the display product recognition processing unit 29.
画像認識システム1における管理端末2は,撮影画像情報入力端末4とネットワークを介して情報の送受信が可能である。 The management terminal 2 in the image recognition system 1 can transmit and receive information to and from the captured image information input terminal 4 via a network.
撮影画像情報入力受付処理部20,撮影画像情報記憶部21,撮影画像情報正置化処理部22は,実施例1と同様である。 The photographed image information input acceptance processing unit 20, the photographed image information storage unit 21, and the photographed image information regularization processing unit 22 are the same as in the first embodiment.
位置特定処理部23は,実施例1における位置特定処理部23の機能に加え,棚段の領域(棚段領域)を特定する。すなわち,撮影画像情報および正置画像情報に写っている陳列棚のうち,商品が陳列される棚段領域と,そこに陳列される商品に対する商品タグが取り付けられている商品タグ配置領域とがある。そのため,正置画像情報から商品タグ配置領域と棚段領域とを特定する。商品タグ配置領域,棚段領域の特定としては,管理端末2の操作者が手動で商品タグ配置領域,棚段領域を指定し,それを位置特定処理部23が受け付けてもよいし,初回に手動で入力を受け付けた商品タグ配置領域,棚段領域の情報に基づいて,二回目以降は自動で商品タグ配置領域,棚段領域を特定してもよい。 In addition to the function of the position identification processing unit 23 in the first embodiment, the position identification processing unit 23 identifies a tray area (shelf area). That is, of the display racks shown in the photographed image information and the right-placed image information, there are a shelf area where products are displayed and a product tag arrangement area where product tags for products displayed there are attached . Therefore, the product tag placement area and the shelf area are specified from the orthographic image information. The operator of the management terminal 2 may manually designate the product tag placement area and the shelf area as the specification of the product tag placement area and the tray area, and the position specification processing unit 23 may receive it. The product tag placement area and the shelf area may be automatically specified for the second and subsequent times based on the information on the product tag placement area and the shelf area which have been manually input.
商品タグ認識処理部28は,商品タグの認識処理を実行する。すなわち,実施例1の画像認識システム1における商品タグ配置領域切出処理部24,商品タグ配置領域正置化処理部25,商品タグ特定処理部26,商品タグ内情報特定処理部27の各処理を実行する。各処理部における処理は,実施例1の画像認識システム1の場合と同様である。 The product tag recognition processing unit 28 executes a product tag recognition process. That is, each process of the product tag placement area cutout processing unit 24, the product tag placement area regularization processing unit 25, the product tag identification processing unit 26, and the product tag internal information identification processing unit 27 in the image recognition system 1 of the first embodiment. Run. The processing in each processing unit is the same as that of the image recognition system 1 of the first embodiment.
陳列商品認識処理部29は,撮影画像情報に写っている陳列棚における棚段に陳列されている商品を認識する処理を実行する。陳列商品認識処理部29は,棚段領域切出処理部291とフェイス特定処理部292と商品識別情報特定処理部293と棚段画像マッチング処理部294とを有する。 The display product recognition processing unit 29 executes a process of recognizing a product displayed on the shelf in the display shelf reflected in the photographed image information. The display product recognition processing unit 29 has a shelf area extraction processing unit 291, a face identification processing unit 292, a product identification information identification processing unit 293, and a shelf image matching processing unit 294.
棚段領域切出処理部291は,位置特定処理部23で特定した棚段の領域の画像情報を棚段領域画像情報として切り出す。棚段領域切出処理部291は,実際に,画像情報として切り出してもよいし,実際には画像情報としては切り出さずに,仮想的に切り出すのでもよい。なお,陳列棚に棚段が複数ある場合には,それぞれが棚段領域画像情報として切り出される。 The tray area extraction processing unit 291 cuts out the image information of the area of the tray specified by the position specification processing unit 23 as rack area image information. The tray area extraction processing unit 291 may actually cut out as image information, or may virtually cut out without actually cutting out as image information. In addition, when there are multiple shelf steps in the display shelf, each is cut out as shelf step area image information.
フェイス特定処理部292は,正置画像情報における棚段領域における棚段ごとに,商品が置かれているフェイス(商品が置かれている領域)を特定する。フェイス特定処理部292は,初回のフェイスの特定処理と,二回目以降のフェイスの特定処理とに分かれる。 The face identification processing unit 292 identifies, for each tray in the tray area in the face-to-face image information, the face on which the product is placed (the area in which the product is placed). The face identification processing unit 292 is divided into an identification process of the first face and an identification process of the second and subsequent faces.
フェイス特定処理部292における初回のフェイスの特定処理は,位置特定処理部23で特定した棚段の座標で構成される領域(好ましくは矩形領域)の範囲内において,商品が置かれている領域(フェイス)を特定する。具体的には,商品と商品との間に生じる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスの領域を特定する。フェイスの特定処理としては,商品のカテゴリや商品の形態によって,任意の方法を採用可能であり,上記に限定するものではない。また,自動的に特定したフェイスに対して,担当者による修正入力を受け付けてもよい。さらに,担当者からフェイスの位置の入力を受け付けるのでもよい。特定したフェイスを構成する領域の座標は,正置画像情報におけるフェイスの領域の座標に,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報とを対応づけて管理する。またフェイスの領域を示す座標としては,矩形領域を特定するために必要な頂点の座標であり,たとえば4点,または右上と左下,左上と右下の2点の座標でよい。 The first face identification process in the face identification processing unit 292 is an area in which a product is placed within a range (preferably a rectangular area) formed by the coordinates of the trays identified by the position identification processing unit 23 Identify the face). Specifically, the division is performed based on restrictions such as specifying narrow and narrow shadows that occur between products and products, specifying repetitive images of images, specifying steps on the upper side of a package, and identical product widths. Identify the area of the face by specifying the position, etc. As the identification process of the face, an arbitrary method can be adopted depending on the category of the product or the form of the product, and the method is not limited to the above. In addition, correction input by the person in charge may be accepted for the face that is automatically identified. Furthermore, the input of the position of the face may be accepted from the person in charge. The coordinates of the area constituting the identified face are the photographing date and time information, the store information, the image information identification information of the photographed image information, the image identification information of the normal image information, and the face at the coordinates of the face area in the orthographic image information. It manages in association with face identification information for identification. The coordinates indicating the area of the face are the coordinates of the vertices required to specify the rectangular area, and may be, for example, the coordinates of four points, or two points of upper right and lower left, upper left and lower right.
フェイス特定処理部292における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とする。 The second and subsequent face identification processes in the face identification processing unit 292 are performed this time on the coordinates of the area of the face identified in the previous (N-1 th) orthographic image information for the same shelf row of the same display shelf The coordinates of the area of the face specified in the (N-th) orthographic image information are used.
フェイスの領域の座標は,棚段の位置の座標と同様に,正置画像情報における陳列棚など,画像情報における所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。 The coordinates of the area of the face are relative coordinates based on a predetermined place (for example, the upper left vertex C1 of the display shelf) in the image information such as the display shelf in the orthographic image information, as in the coordinate of the position of the tray.
商品識別情報特定処理部293は,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報を特定する。商品識別情報としては,商品名のほか,その商品に対して割り当てられているJANコードなどがあるが,それに限定されない。商品を識別することができる情報であればいかなるものでもよい。 The commodity identification information identification processing unit 293 identifies commodity identification information of the commodity displayed on the face for each shelf of the display shelf. As the product identification information, in addition to the product name, there is a JAN code assigned to the product, but it is not limited thereto. Any information that can identify the product may be used.
商品識別情報特定処理部293は,以下のような処理を実行する。すなわち,フェイスごとに,フェイスの画像情報と,後述する標本画像情報記憶部30に記憶する商品の標本画像情報とマッチングすることで,そのフェイスに表示されている商品の商品識別情報を特定する。具体的には,まず,処理対象となるフェイスの座標で構成される領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報との類似性を判定し,その類似性がもっとも高い標本画像情報に対応する商品識別情報を,上記座標で構成されるフェイスに表示されている商品の商品識別情報として特定をする。 The product identification information identification processing unit 293 executes the following processing. That is, the product identification information of the product displayed on the face is specified by matching the image information of the face with the sample image information of the product stored in the sample image information storage unit 30 described later for each face. Specifically, first, the similarity between the image information of the area constituted by the coordinates of the face to be processed and the sample image information stored in the sample image information storage unit 30 is determined, and the similarity is highest The product identification information corresponding to the sample image information is specified as the product identification information of the product displayed on the face constituted by the coordinates.
ここでフェイスの画像情報と標本画像情報との類似性を判定するには,以下のような処理を行う。まず,商品識別情報特定処理部293における商品識別情報の特定処理の前までの処理において,正置画像情報の棚段におけるフェイスの領域の画像情報と,標本画像情報との方向が同じ(横転や倒立していない)となっており,また,それぞれの画像情報の大きさがおおよそ同じとなっている(所定範囲以上で画像情報の大きさが異なる場合には,類似性の判定の前にそれぞれの画像情報の大きさが所定範囲内となるようにサイズ合わせをしておく)。そして,フェイスの画像情報と,標本画像情報との類似性は,フェイスの画像情報の画像特徴量(たとえば局所特徴量)に基づく特徴点と,標本画像情報との画像特徴量(たとえば局所特徴量)に基づく特徴点を,それぞれ抽出する。そして,フェイスの画像情報の特徴点と,標本画像情報の特徴点とでもっとも類似性が高いペアを検出し,それぞれで対応する点の座標の差を求める。そして,差の平均値を求める。差の平均値は,フェイスの画像情報と,標本画像情報との全体の平均移動量を示している。そして,すべての特徴点のペアの座標差を平均の座標差と比較し,外れ度合いの大きなペアを除外する。そして,残った対応点の数で類似性を順位付ける。 Here, in order to determine the similarity between the face image information and the sample image information, the following process is performed. First, in the processing before the product identification information identification processing in the product identification information identification processing unit 293, the direction of the image information of the area of the face in the tray of the orthographic image information and the sample image information is the same (rollover or And the size of each image information is approximately the same (when the size of the image information is different in a predetermined range or more, each of them is determined before the similarity determination. The size of the image information is adjusted so as to be within a predetermined range). Then, the similarity between the image information of the face and the sample image information is the image feature amount of the sample image information (for example, the local feature amount) based on the image feature amount (for example, the local feature amount) of the image information of the face Each feature point based on) is extracted. Then, a pair having the highest similarity is detected between the feature point of the image information of the face and the feature point of the sample image information, and the difference in the coordinates of the corresponding point is determined. Then, the average value of the differences is obtained. The average value of the differences indicates the overall average movement amount of the image information of the face and the sample image information. Then, the coordinate difference of all feature point pairs is compared with the average coordinate difference, and the pair with a large degree of deviation is excluded. Then, the similarity is ranked by the number of corresponding points remaining.
以上のような方法でフェイスの画像情報と,標本画像情報との類似性を算出できる。また,その精度を向上させるため,さらに,色ヒストグラム同士のEMD(Earth Movers Distance)を求め,類似性の尺度としてもよい。これによって,撮影された画像情報の明度情報等の環境変化に比較的強い類似性の比較を行うことができ,高精度で特定をすることができる。なお,類似性の判定は,上述に限定をするものではない。特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The similarity between the face image information and the sample image information can be calculated by the above method. In addition, in order to improve the accuracy, EMD (Earth Moves Distance) between color histograms may be obtained as a measure of similarity. This makes it possible to compare relatively strong similarity to environmental changes such as brightness information of captured image information, and to specify with high accuracy. The determination of the similarity is not limited to the above. The identified product identification information is associated with the shooting date and time information, the store information, the image information identification information of the captured image information, the image identification information of the normal image information, the face identification information for identifying the face, and the product identification information storage unit Store in 31
以上のようにして特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The product identification information specified as described above is associated with the shooting date and time information, the store information, the image information identification information of the photographed image information, the image identification information of the justification image information, and the face identification information for identifying the face. It is stored in the product identification information storage unit 31.
棚段画像マッチング処理部294は,前回(N−1回目)の正置画像情報における棚段の領域の画像情報と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づいて,その類似性が高ければその棚段における各フェイスの商品識別情報は同一と判定する。この類似性の判定処理は,上述のように,前回(N−1回目)の正置画像情報における棚段の領域の画像情報の画像特徴量と,今回(N回目)の正置画像情報における棚段の領域の画像情報とに基づく類似性の判定でもよいし,色ヒストグラム同士のEMDを用いたものであってもよい。また,それらに限定するものではない。そして,商品識別情報特定処理部293におけるフェイス単位ごとの特定処理ではなく,商品識別情報特定処理部293に,N回目の正置画像情報におけるその棚段における各フェイスの商品識別情報を,N−1回目の同一の棚段における各フェイスの商品識別情報と同一として,商品識別情報記憶部31に記憶させる。これによって,あまり商品の動きがない棚段や逆にきわめて短いサイクルで管理される棚段など,変化がほとんど生じない棚段についての処理を省略することができる。なお,棚段画像マッチング処理部294による処理は設けなくてもよい。 The tray image matching processing unit 294 sets the image information of the region of the tray in the previous (N−1) -th emplacement image information and the image information of the region of the tray in the current (N th) orthographic image information If the similarity is high, the product identification information of each face in the tray is determined to be identical. As described above, this similarity determination process is performed on the image feature amount of the image information of the area of the tray in the previous (N-1st) orthographic image information and the current (Nth) orthographic image information. The determination of the similarity based on the image information of the area of the tray may be used, or the EMD of color histograms may be used. Moreover, it does not limit to them. Then, instead of the identification processing for each face unit in the product identification information identification processing unit 293, the product identification information identification processing unit 293 determines the product identification information of each face at that tray in the N-th justification image information. The item identification information storage unit 31 stores the item identification information as the same as the item identification information of each face in the first same tray. As a result, it is possible to omit processing for trays with few changes, such as trays with little product movement or trays that are managed with extremely short cycles. The processing by the tray image matching unit 294 may not be provided.
標本画像情報記憶部30は,正置画像情報に写っている陳列棚の棚段における各フェイスの商品がどの商品であるかを識別するための標本画像情報を記憶する。標本画像情報は,陳列棚に陳列される可能性のある商品を,上下,左右,斜めなど複数の角度から撮影をした画像情報である。図28に標本画像情報記憶部30に記憶される標本画像情報の一例を示す。図28では,標本画像情報として,缶ビールをさまざまな角度から撮影をした場合を示しているが,缶ビールに限られない。標本画像情報記憶部30は,標本画像情報と,商品識別情報とを対応付けて記憶する。 The sample image information storage unit 30 stores sample image information for identifying which item the item of each face on the shelf of the display shelf is included in the regular image information. The sample image information is image information obtained by photographing a product that is likely to be displayed on the display shelf from a plurality of angles such as up, down, left, right, and diagonally. FIG. 28 shows an example of sample image information stored in the sample image information storage unit 30. Although FIG. 28 shows a case where canned beer is photographed from various angles as sample image information, the present invention is not limited to canned beer. The sample image information storage unit 30 associates and stores sample image information and product identification information.
なお,標本画像情報記憶部30には,標本画像情報とともに,または標本画像情報に代えて,標本画像情報から抽出された,類似性の算出に必要となる情報,たとえば画像特徴量とその位置のペアの情報を記憶していてもよい。標本画像情報には,類似性の算出に必要となる情報も含むとする。この場合,商品識別情報特定処理部293は,フェイスの領域の画像情報と,標本画像情報とのマッチング処理を行う際に,標本画像情報について毎回,画像特徴量を算出せずともよくなり,計算時間を短縮することができる。 In the sample image information storage unit 30, information necessary for calculation of similarity extracted from sample image information together with sample image information or in place of sample image information, for example, an image feature amount and its position The information on the pair may be stored. It is assumed that the sample image information also includes information required to calculate the similarity. In this case, the product identification information identification processing unit 293 does not have to calculate the image feature amount for each sample image information when performing matching processing between the image information of the area of the face and the sample image information. Time can be shortened.
商品識別情報記憶部31は,陳列棚の棚段の各フェイスに表示されている商品の商品識別情報を記憶する。たとえば,商品識別情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The commodity identification information storage unit 31 stores commodity identification information of the commodity displayed on each face of the shelf of the display shelf. For example, in association with product identification information, shooting date and time information, store information, image information identification information of captured image information, image identification information of normal image information, face identification information for identifying a face, and product identification It is stored in the information storage unit 31.
整合性判定処理部32は,商品タグ認識処理部28による商品タグに表示される情報の認識結果と,陳列商品認識処理部29による商品(商品識別情報)の認識結果について,各棚や各棚段に含まれている可能性の高い商品かどうかの整合性を判定する。たとえば,商品タグに表示される情報の認識結果,または商品の認識結果において,定格が350mlの商品と認識しているが,その商品の陳列棚または棚段には500mlの商品が陳列されていること定められている場合には,同一の商品名の定格を「500ml」に変更する。陳列棚または棚段に載置される商品については,あらかじめ設定されており,撮影画像情報記憶部21に記憶する撮影画像情報に対応づけられていることが好ましい。 The consistency determination processing unit 32 performs each shelf or each shelf for the recognition result of the information displayed on the product tag by the product tag recognition processing unit 28 and the recognition result of the product (product identification information) by the display product recognition processing unit 29. Determine the integrity of items that are likely to be included in the column. For example, in the recognition result of the information displayed on the product tag or the recognition result of the product, the product is recognized as a product rated at 350 ml, but 500 ml of the product is displayed on the display shelf or tray of the product If it is determined, change the rating of the same brand name to "500 ml". It is preferable that items to be placed on the display rack or the shelf are set in advance and correspond to the photographed image information stored in the photographed image information storage unit 21.
認識結果照合処理部33は,陳列商品認識処理部29において認識したフェイスごとの商品の商品識別情報と,商品タグ認識処理部28において認識した商品の情報(商品識別情報)とを突合し,認識結果が一致しているかを照合する。 The recognition result collation processing unit 33 matches the product identification information of the product for each face recognized in the display product recognition processing unit 29 with the information (product identification information) of the product recognized in the product tag recognition processing unit 28, and the recognition result Check whether the matches.
具体的には,まず陳列商品認識処理部29による認識処理の結果,類似性の高いフェイスが並んでいる区画を一群として,一つの棚段に何群あるかを特定する。また,それぞれの群の棚段の左右位置がどこかを特定する。そして,各群と左右位置が一致している,商品タグ認識処理部28による商品タグの認識結果の情報を,各群に対応づける。 Specifically, first, as a result of the recognition processing by the display product recognition processing unit 29, it is specified as a group the sections in which the faces with high similarity are lined up, and how many groups are present in one tray. Also, identify the left and right positions of the trays of each group. Then, the information on the recognition result of the product tag by the product tag recognition processing unit 28 in which the left and right positions coincide with each group is associated with each group.
フェイスによる群と商品タグとが対応づけている場合,以下の処理を実行する。まず,商品タグ認識処理部28による商品タグの認識の結果,読み取った商品名(商品識別情報)を,尤度付きの候補商品リストに変換をする。この場合,商品A1である確率をp1,商品A2である確率をp2といったように確率に対応させて変換をする。なお,商品タグの認識結果から,メーカー名や定格情報が得られている場合には,そのメーカーの商品,その定格が存在する商品の尤度を高く設定する。また,商品タグの認識結果から価格情報が得られている場合には,その価格帯を売価としてもつ商品の尤度を高くする。さらに,税抜価格と税込価格の2つの価格が読み取られ,それらの間の比率がちょうど消費税の有無に一致しているなど,ロジカルチェックと一致している場合には,尤度を一層,高く設定する。加えて,このとき,陳列棚の棚段に陳列されている商品のジャンルなどがわかっている場合には,それらのジャンルに属する商品の尤度を高くまたは低く設定する。 If the group by the face is associated with the product tag, the following processing is performed. First, as a result of recognition of a product tag by the product tag recognition processing unit 28, the read product name (product identification information) is converted into a candidate product list with a likelihood. In this case, conversion is performed by associating the probability of being the product A1 with p1 and the probability of being the product A2 with the probability such as p2. If the manufacturer's name or rating information is obtained from the recognition result of the product tag, the likelihood of the product of the manufacturer and the product having that rating is set high. When price information is obtained from the recognition result of the product tag, the likelihood of the product having the price range as the selling price is increased. Furthermore, when the two prices of tax-excluded price and tax-included price are read, and the ratio between them is in agreement with the logical check, such as just matching the presence or absence of the consumption tax, the likelihood is further increased, Set high. In addition, at this time, if the genre of the product displayed on the shelf of the display shelf is known, the likelihood of the product belonging to the genre is set to be high or low.
そして陳列商品認識処理部29による認識の結果,認識した商品の情報についても,同様に,画像類似性の程度に基づいて,尤度付きの候補商品リストを与える。この場合,商品B1である確率をPb1,商品B2である確率をPb2といったように確率に対応させて変換をする。 And about the information of the goods recognized as a result of recognition by the display goods recognition process part 29, the candidate goods list with a likelihood is similarly provided based on the grade of image similarity. In this case, the probability of being the product B1 is converted in such a manner that the probability of being the product Pb1 and the product B2 is made to correspond to the probability such as Pb2.
そして,商品タグの認識結果による商品A1,A2などの各候補商品のリストと,陳列商品認識処理部29の認識結果による商品B1,B2などの各候補商品のリストとを比較し,商品が両方に現れる(ケース1),A群のみに現れる(ケース2),B群のみに現れる(ケース3)のいずれかに分類をし,ケース1についてはそれぞれのA群,B群の商品の尤度を合成した,いずれよりも高い尤度とする。また,ケース2,ケース3については,商品タグ認識処理部28による商品タグの認識結果の精度と,陳列商品認識処理部29による商品情報の認識結果の精度の総意を反映させた合成関数を適用することで,最終的な尤度付きの候補商品リストを生成する。 Then, the list of candidate products such as products A1 and A2 according to the recognition result of the product tag is compared with the list of candidate products such as products B1 and B2 according to the recognition result of the display product recognition processing unit 29. Classification (case 1), only in group A (case 2), or only in group B (case 3), and for case 1, the likelihood of products in groups A and B respectively Combined, with a higher likelihood than either. In addition, for Case 2 and Case 3, a combination function is applied that reflects the agreement between the accuracy of the product tag recognition result by the product tag recognition processing unit 28 and the accuracy of the product information recognition result by the display product recognition processing unit 29. By doing this, the final candidate product list with likelihood is generated.
以上のように最終的な尤度付きの候補商品リストを生成することで,候補となる商品を順位づけて特定することができるので,たとえば最上位(1位)の候補となる商品を商品として確定してもよいし,1位から所定順位までの候補となる商品を表示させ,目視の判断結果の選択入力を受け付けてもよい。 As described above, by generating the final candidate product list with likelihood, it is possible to rank and specify candidate products, so for example, the product that is the candidate for the top (first) candidate is a product The determination may be made, or a product which is a candidate from the first place to a predetermined order may be displayed, and a selection input of a visual judgment result may be received.
そして,確定した商品について,再度,読み取られた価格の尤度を算出する。すなわち,税抜価格と税込価格の比率,商品の売価の範囲内か,同商品の頻出価格との一致性または乖離性を判定し,価格の尤度を決定する。そして,この尤度があらかじめ定められた閾値よりも高ければその価格を自動的に確定し,低ければその旨を表示に反映させ,選択による入力を受け付けてもよい。 Then, for the determined product, the likelihood of the read price is calculated again. That is, the ratio of tax-excluded price to tax-included price, whether it is within the selling price range of the product, or consistency or divergence with the frequent price of the product is determined, and the likelihood of the price is determined. Then, if the likelihood is higher than a predetermined threshold value, the price may be automatically determined, and if lower, the result may be reflected on the display to receive an input by selection.
つぎに本実施例2における画像認識システム1の処理プロセスの一例を図26のフローチャートを用いて説明する。なお,実施例1と同様の処理は説明を省略する。 Next, an example of the processing process of the image recognition system 1 according to the second embodiment will be described with reference to the flowchart of FIG. The same processes as in the first embodiment will not be described.
店舗の陳列棚が撮影された撮影画像情報(図21,図22)は,撮影画像情報入力端末4から入力され,管理端末2の撮影画像情報入力受付処理部20でその入力を受け付ける(S100)。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部20は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報を対応づけて撮影画像情報記憶部21に記憶させる。 The photographed image information (FIG. 21, FIG. 22) obtained by photographing the display shelf of the store is inputted from the photographed image information input terminal 4, and the photographed image information input acceptance processing unit 20 of the management terminal 2 receives the input (S100) . In addition, the input of the photographing date and time, the shop identification information, and the image information identification information of the photographed image information is received. Then, the photographed image information input acceptance processing unit 20 associates the photographed image information, the photographing date and time, the store identification information, and the image information identification information of the photographed image information, which have received the input, and stores them in the photographed image information storage unit 21.
管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部22は,撮影画像情報記憶部21に記憶する撮影画像情報を抽出し,台形補正処理を行うための頂点である棚位置(陳列棚の位置)の4点の入力を受け付け,台形補正処理を実行する(S110)。このようにして台形補正処理が実行された撮影画像情報(正置画像情報)の一例が,図7,図8である。 When a predetermined operation input is received in the management terminal 2, the photographed image information regularization processing unit 22 extracts the photographed image information stored in the photographed image information storage unit 21 and is a shelf which is a vertex for performing the keystone correction processing The input of four points of the position (the position of the display shelf) is received, and the keystone correction process is executed (S110). FIGS. 7 and 8 show an example of photographed image information (right-handed image information) for which the keystone correction processing has been performed in this manner.
そして,正置画像情報に対して,管理端末2において所定の操作入力を受け付けることで,位置特定処理部23は,棚段領域および商品タグ配置領域を特定する(S120)。すなわち,正置画像情報における棚段領域,商品タグ配置領域の入力を受け付ける。図29および図30が,棚段領域および商品タグ配置領域が特定された状態を示す図である。 Then, the position specifying processing unit 23 specifies the rack area and the product tag arrangement area by receiving a predetermined operation input in the management terminal 2 with respect to the emplacement image information (S120). That is, the input of the shelf area and the product tag arrangement area in the orthographic image information is received. FIG. 29 and FIG. 30 are diagrams showing a state in which the tray area and the commodity tag arrangement area are specified.
以上のようにして,棚段領域,商品タグ配置領域を特定すると,棚段領域における陳列商品の認識処理を陳列商品認識処理部29が,商品タグ配置領域における商品タグ認識処理を商品タグ認識処理部28がそれぞれ実行する。なお陳列商品認識処理部29における陳列商品の認識処理,商品タグ認識処理部28による商品タグ認識処理は,並行して行ってもよいし,異なるタイミングで行ってもよい。 As described above, when the shelf area and the product tag arrangement area are specified, the display product recognition processing unit 29 recognizes the display product in the shelf area and the product tag recognition process in the product tag arrangement area Each unit 28 executes. Note that the recognition processing of the display commodity in the display commodity recognition processing unit 29 and the commodity tag recognition processing by the commodity tag recognition processing unit 28 may be performed in parallel or at different timings.
商品タグ認識処理部28における商品タグ認識処理(S130乃至S160)は,実施例1と同様である。すなわち,商品タグ認識処理部28における商品タグ配置領域切出処理部24はS120で特定した商品タグ配置領域の画像情報を切り出し(S130),商品タグ配置領域正置化処理部25が台形補正処理を実行することで,正置化処理を実行する(S140)。 The commodity tag recognition processing (S130 to S160) in the commodity tag recognition processing unit 28 is the same as that of the first embodiment. That is, the product tag placement area cutout processing unit 24 in the product tag recognition processing unit 28 cuts out the image information of the product tag placement area specified in S120 (S130), and the product tag placement area regularization processing unit 25 performs trapezoidal correction processing. Is executed to execute the regularization process (S140).
S140において商品タグ配置領域の正置化処理が終了すると,商品タグ認識処理部28における商品タグ特定処理部26が,正置化した商品タグ配置領域の画像情報から,個々の商品タグ領域を特定する(S150)。 When the product tag specification processing unit 28 in the product tag recognition processing unit 28 identifies individual product tag regions from the image information of the product tag arrangement region that has been made regularized, when the product tag recognition processing unit 28 completes the regularization process of the product tag arrangement region To do (S150).
商品タグ特定処理部26が商品タグ領域を特定すると,商品タグ内情報特定処理部27が,商品タグ内における情報を特定する(S160)。この特定によって,商品タグに記載した情報,たとえば税抜価格,税込価格,商品名(商品識別情報),定格などの情報を文字認識することができる。 When the product tag identification processing unit 26 identifies the product tag area, the in-product tag information identification processing unit 27 identifies the information in the product tag (S160). By this specification, it is possible to character-recognize information described in the product tag, for example, information such as tax-excluded price, tax-included price, product name (product identification information), rating and the like.
つぎに陳列商品認識処理部29による陳列商品の認識処理を説明する。 Next, recognition processing of a display commodity by the display commodity recognition processing unit 29 will be described.
棚段領域切出処理部291は,S120で入力を受け付けた棚段の領域に基づいて,正置画像情報から棚段領域の画像情報を切り出す(S170)。そして,棚段領域画像情報における棚段ごとに,フェイスを特定する処理を実行する(S180)。具体的には,棚段領域における棚段について,4点の座標で構成される矩形領域の範囲内において,商品と商品との間に生ずる細く狭い陰影を特定する,画像の繰り返しパターンを特定する,パッケージの上辺の段差を特定する,商品幅が同一であるなどの制約に基づいて区切り位置を特定する,などによって,フェイスを特定する。特定したフェイスには,フェイスを識別するためのフェイス識別情報を付す。そして,特定した各フェイスの座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイスを識別するためのフェイス識別情報と対応付けて記憶させる。なお,フェイスの座標は4点を記憶せずとも,矩形領域を特定可能な2点であってもよい。 The tray area extraction processing unit 291 cuts out the image information of the tray area from the fixed image information based on the area of the tray for which the input is received in S120 (S170). Then, the process of specifying the face is executed for each tray in the tray area image information (S180). Specifically, for a tray in a tray area, a narrow and narrow shadow that occurs between goods and goods is specified within the range of a rectangular area formed by four coordinates, and a repetitive pattern of an image is specified. The face is specified by specifying a step on the upper side of the package, specifying a dividing position based on constraints such as the same product width, and the like. The identified face is attached with face identification information for identifying the face. Then, the coordinates of each identified face are stored in association with the shooting date, store identification information, image information identification information of the captured image information, image information identification information of the direct image information, and face identification information for identifying the face. Let The coordinates of the face may be two points that can specify a rectangular area without storing four points.
以上のように正置画像情報の棚段位置領域画像情報における各棚段の各フェイスを特定すると,商品識別情報特定処理部293は,フェイスごとに,標本画像情報記憶部30に記憶する標本画像情報とマッチング処理を実行し,そのフェイスに表示されている商品の商品識別情報を特定する(S190)。すなわち,ある棚段のフェイスの矩形領域(この領域のフェイスのフェイス識別情報をXとする)における画像情報と,標本画像情報記憶部30に記憶する各標本画像情報とから,それぞれの画像特徴量を算出し,特徴点のペアを求めることで,類似性を判定する。そして,もっとも類似性の高い標本画像情報を特定し,そのときの類似性があらかじめ定められた閾値以上であれば,その標本画像情報に対応する商品識別情報を標本画像情報記憶部30に基づいて特定する。そして,特定した商品識別情報を,そのフェイス識別情報Xのフェイスに表示されている商品の商品識別情報とする。そして商品識別情報特定処理部293は,特定した商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて商品識別情報記憶部31に記憶する(S200)。 As described above, when each face of each tray in the tray position area image information of the emplacement image information is specified, the product identification information identification processing unit 293 stores the sample image stored in the sample image information storage unit 30 for each face. Information and matching processing are executed, and the product identification information of the product displayed on the face is specified (S190). That is, from the image information in the rectangular area of the face of a certain tray (the face identification information of the face of this area is X) and each sample image information stored in the sample image information storage unit 30, each image feature amount The similarity is determined by calculating and calculating the feature point pairs. Then, the sample image information having the highest similarity is specified, and if the similarity at that time is equal to or more than a predetermined threshold value, the product identification information corresponding to the sample image information is based on the sample image information storage unit 30 Identify. Then, the specified product identification information is used as the product identification information of the product displayed on the face of the face identification information X. Then, the product identification information identification processing unit 293 associates the specified product identification information with the shooting date and time, the store identification information, the image information identification information of the captured image information, the image information identification information of the direct image information, and the face identification information. It stores in the commodity identification information storage unit 31 (S200).
なお,すべてのフェイスの商品識別情報を特定できるとは限らない。そこで,特定できていないフェイスについては,商品識別情報の入力を受け付け,入力を受け付けた商品識別情報を,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報,正置画像情報の画像情報識別情報,フェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。また,特定した商品識別情報の修正処理についても同様に,入力を受け付けてもよい。 In addition, it is not always possible to specify the product identification information of all faces. Therefore, for faces that can not be identified, the input of product identification information is accepted, and the product identification information for which the input is accepted is the date and time of shooting, store identification information, image information identification information of captured image information, and image information of frontal image information The item identification information and the face identification information are stored in the item identification information storage unit 31 in association with each other. Similarly, the input may be accepted for the correction process of the specified product identification information.
以上のような処理を行うことで,撮影画像情報に写っている陳列棚の棚段に陳列されている商品の商品識別情報を特定することができる。 By performing the process as described above, it is possible to specify the product identification information of the product displayed on the shelf of the display shelf which is reflected in the photographed image information.
このように商品タグ認識処理部28による商品タグの認識結果,陳列商品認識処理部29による陳列商品の認識結果,整合性判定処理部32が各棚,各棚段に含まれている可能性の高い商品かどうかの整合性を判定する(S210)。たとえば,商品タグの認識結果,または商品の認識結果において,定格が350mlの商品と認識しているが,その商品の陳列棚または棚段には500mlの商品が陳列されていること定められている場合には,同一の商品名の定格を「500ml」に変更する。 Thus, as a result of recognition of the product tag by the product tag recognition processing unit 28, as a result of recognition of the display product by the display product recognition processing unit 29, there is a possibility that the consistency determination processing unit 32 is included in each shelf and each shelf It is determined whether the product is high or not (S210). For example, in the recognition result of the product tag or the recognition result of the product, although the product is recognized as a product whose rating is 350 ml, it is determined that 500 ml of the product is displayed on the display shelf or tray of the product In the case, change the rating of the same brand name to "500 ml".
また,認識結果照合処理部33は,陳列商品認識処理部29において認識したフェイスごとの商品の商品識別情報と,商品タグ認識処理部28において認識した商品の情報(商品識別情報)とを突合し,認識結果が一致しているかを照合する(S220)。 Further, the recognition result collation processing unit 33 collates the product identification information of the product for each face recognized in the display product recognition processing unit 29 with the information (product identification information) of the product recognized in the product tag recognition processing unit 28, It is collated whether the recognition results match (S220).
すなわち,認識結果照合処理部33は,陳列商品認識処理部29による認識処理の結果,類似性の高いフェイスが並んでいる区画を一群として,一つの棚段に何群あるかを特定する。また,それぞれの群の棚段の左右位置がどこかを特定する。そして,各群と左右位置が一致している,商品タグ認識処理部28による商品タグの認識結果の情報を,群に対応づける。 That is, as a result of the recognition processing by the display product recognition processing unit 29, the recognition result matching processing unit 33 specifies, as a group, sections where faces with high similarity are arranged, how many groups are present in one tray. Also, identify the left and right positions of the trays of each group. Then, the information on the recognition result of the product tag by the product tag recognition processing unit 28 in which the left and right positions coincide with each other is associated with the group.
このようにフェイスによる群と商品タグとの対応付け後,商品識別情報記憶部31に記憶するフェイスまたは群に対応する商品識別情報(商品名)と,商品タグ認識処理部28による商品タグの認識結果とを比較し,それらの認識結果が一致するかを特定し,また読み取った価格を確定する。 As described above, product identification information (product name) corresponding to the face or group to be stored in the product identification information storage unit 31 after association of a group with a product tag by a face and recognition of a product tag by the product tag recognition processing unit 28 The results are compared, the recognition results are identified if they match, and the read price is determined.
以上のような処理によって,陳列棚に陳列されている商品を画像認識処理によって認識した結果と,商品タグによる文字認識処理によって認識した結果とを比較して照合することができる。 By the above processing, it is possible to compare and collate the result of the recognition of the commodity displayed on the display shelf by the image recognition processing with the result of the recognition of the character by the commodity tag.
上述した実施例1,実施例2では,4点を指定することで台形補正処理を実行することとしたが,その基準となる頂点を毎回,指定して入力することは負担が大きい。そこで,台形補正処理の基準となる頂点を自動的に特定するように構成してもよい。この場合の処理を説明する。 In the first and second embodiments described above, the keystone correction process is performed by specifying four points. However, it is burdensome to specify and input the reference vertex every time. Therefore, it may be configured to automatically specify a vertex which is a reference of the keystone correction processing. The process in this case will be described.
この場合の撮影画像情報正置化処理部22は,初回の台形補正処理と,二回目以降の台形補正処理とに分かれる。なお,初回とは一回目のほか,頂点を自動的に特定する際のずれを修正するため,任意のタイミングで手動で行う場合も含まれる。二回目以降とは初回以外である。 The photographed image information regularization processing unit 22 in this case is divided into a first keystone correction process and a second and subsequent keystone correction process. In addition to the first case, the first case also includes the case where the process is performed manually at an arbitrary timing in order to correct a shift in automatically specifying a vertex. The second and subsequent times are other than the first time.
撮影画像情報正置化処理部22における初回の台形補正処理は,実施例1と同様に,陳列棚の長方形の領域の4頂点の指定の入力を受け付ける。陳列棚の長方形の領域の4頂点としては,陳列棚の棚位置の4頂点であってもよいし,棚段の4頂点や商品タグを取り付ける領域の4頂点であってもよい。また,2段,3段の棚段のまとまりの4頂点であってもよい。ここで指定を受け付けた4頂点は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。そして撮影画像情報正置化処理部22は,指定を受け付けた4頂点の座標に基づいて,撮影画像情報に対して台形補正処理を実行し,正置画像情報とする。 As in the first embodiment, the first keystone correction processing in the photographed image information regularization processing unit 22 receives an input of designation of four vertices of a rectangular area of the display shelf. The four apexes of the rectangular area of the display rack may be the four apexes of the rack position of the display rack, or the four apexes of the racks or the four apexes of the area to which the product tag is attached. Also, it may be four vertices of a group of two or three trays. Here, the four vertexes whose specification has been accepted are stored in association with the shooting date and time information, the store information, and the image information identification information of the shot image information. Then, based on the coordinates of the four vertexes whose specification has been received, the photographed image information regularization processing unit 22 executes a keystone correction process on the photographed image information, and uses it as orthographic image information.
撮影画像情報は,一定期間ごとに,同じような領域を同じような角度で撮影がされることが望ましい。しかし完全に同じ領域を同じ角度で撮影をすることはできない。そこで,撮影画像情報正置化処理部22は,二回目以降の台形補正処理を以下のように実行をする。 It is desirable that the photographed image information be photographed at the same angle in the same area at regular intervals. However, it is not possible to shoot completely the same area at the same angle. Therefore, the photographed image information regularization processing unit 22 executes the second and subsequent keystone correction processing as follows.
まず,撮影画像情報正置化処理部22は,N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標を,前回の処理の際に記憶した情報から特定する。N回目の撮影画像情報に対応する同じ(ほぼ同じ)領域を撮影したN−1回目の撮影画像情報の頂点座標は,撮影画像情報に対応する店舗識別情報,画像識別情報,撮影日時情報などに基づいて特定をする。そして,N−1回目の撮影画像情報に対して,特定をした4頂点の頂点座標を含む所定の大きさの矩形領域,たとえば棚段の幅の1/5程度の正方形を特徴量採取領域220として設定をする。N−1回目の撮影画像情報に対して,特徴量採取領域220を設定した状態の一例を図31に示す。特徴量採取領域220は,頂点座標を含む矩形領域であればよい。一方,陳列棚の背景同士がマッチングをしてしまうと,撮影位置が少しずれるだけで背景が大きくずれてしまう。そこで,特徴量採取領域220は,なるべく陳列棚の内側を多く含む位置に設定することが好ましい。つまり,頂点座標は,特徴量採取領域220において,特徴量採取領域220の中心点よりも陳列棚の外側方向に位置していることが好ましい。 First, the photographed image information regularization processing unit 22 sets the vertex coordinates of the (N-1) th photographed image information obtained by photographing the same (approximately the same) area corresponding to the Nth photographed image information in the previous processing. Identify from stored information. The vertex coordinates of the (N-1) th shot image information obtained by shooting the same (almost the same) area corresponding to the N-th shot image information are the store identification information, the image identification information, the shooting date and time information, etc. Identify based on. Then, for the N−1th captured image information, a rectangular area of a predetermined size including the apex coordinates of the specified four apexes, for example, a square of about 1⁄5 of the width of the tray is selected as the feature amount extraction area 220 Set as. An example of a state in which the feature amount collecting area 220 is set for the (N−1) -th shot image information is shown in FIG. The feature amount extraction area 220 may be a rectangular area including vertex coordinates. On the other hand, if the backgrounds of the display shelves are matched with each other, the backgrounds may be largely deviated only by the slight shift of the photographing position. Therefore, it is preferable to set the feature amount collecting area 220 at a position including the inside of the display shelf as much as possible. That is, it is preferable that the vertex coordinates be located in the feature amount extraction area 220 in the outer direction of the display shelf than the center point of the feature amount extraction area 220.
たとえば,頂点座標の4点は左上,右上,左下,右下に位置する。そして,特徴量採取領域220の矩形領域を縦横の中心でそれぞれ2分割した合計4領域に分割すると,左上の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち左上の領域に位置するように特徴量採取領域220を設定する。同様に,右上の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち右上の領域に位置するように特徴量採取領域220を設定し,左下の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち左下の領域に位置するように特徴量採取領域220を設定し,右下の頂点座標を含む特徴量採取領域220では,その頂点座標が矩形領域のうち右下の領域に位置するように特徴量採取領域220を設定する。これによって,頂点座標は,特徴量採取領域220において,特徴量採取領域220の中心点よりも陳列棚の外側方向に位置することとなる。 For example, four points of vertex coordinates are located at upper left, upper right, lower left, and lower right. Then, when the rectangular area of the feature extraction area 220 is divided into four areas each of which is divided into two at the vertical and horizontal centers, in the feature extraction area 220 including the upper left apex coordinates, the apex coordinates are the upper left area of the rectangular area. The feature amount collecting area 220 is set to be located at Similarly, in the feature amount extraction area 220 including the upper right apex coordinates, the feature amount extraction area 220 is set so that the apex coordinates are located in the upper right area of the rectangular area, and the feature amount extraction including the lower left apex coordinates In the area 220, the feature amount extraction area 220 is set so that the vertex coordinates are located in the lower left area of the rectangular area, and in the feature amount extraction area 220 including the vertex coordinates of the lower right, the vertex coordinates are rectangular areas. The feature value collecting area 220 is set to be located in the lower right area. As a result, the vertex coordinates are located in the feature amount extraction area 220 in the outer direction of the display shelf than the center point of the feature amount extraction area 220.
つぎに,撮影画像情報正置化処理部22は,N回目の撮影画像情報において,N−1回目の撮影画像情報に設定した特徴量採取領域220を内包し,N−1回目の撮影画像情報の特徴量採取領域220以上の大きさの特徴量採取領域221を設定する。N回目の撮影画像情報に設定する特徴量採取領域221は,短辺の1/2の大きさは超えない。さらに,撮影画像情報よりも外側に出る場合には,その範囲をトリミングする。N回目の撮影画像情報に対して特徴量採取領域221を設定した状態の一例を図32に示す。 Next, the photographed image information regularization processing unit 22 includes, in the Nth photographed image information, the feature amount collection area 220 set in the N-1th photographed image information, and the N−1th photographed image information A feature amount sampling area 221 having a size equal to or larger than the feature quantity sampling area 220 of FIG. The feature value collection area 221 set in the N-th captured image information does not exceed 1/2 the size of the short side. Furthermore, if it goes outside the captured image information, the area is trimmed. An example of a state in which the feature amount collecting area 221 is set for the Nth captured image information is shown in FIG.
そして撮影画像情報正置化処理部22は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域220において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域221において,局所特徴量を採取し,局所特徴量による特徴点とその座標のセットとを記憶する。 Then, the photographed image information regularization processing unit 22 extracts local feature amounts in each of the feature amount extraction regions 220 set for the (N−1) -th captured image information, and extracts the feature points and their coordinates according to the local feature amounts. Remember the set. In addition, local feature quantities are sampled in each feature quantity sampling area 221 set for N-th captured image information, and feature points and their sets of coordinates according to the local feature quantities are stored.
撮影画像情報正置化処理部22は,N−1回目の撮影画像情報の特徴量採取領域220における特徴点の局所特徴量と,N−1回目の撮影画像情報の特徴量採取領域220に対応する位置にあるN回目の撮影画像情報の特徴量採取領域221における特徴点の局所特徴量とを比較する。そして,N−1回目の撮影画像情報の各特徴点の各局所特徴量にもっとも近い,N回目の撮影画像情報の各局所特徴量の特徴点を特定する。そしてもっとも近い局所特徴量同士の特徴点をペアとし,ペアとなる局所特徴量による特徴点の座標を対応づける。なお,この際に,局所特徴量同士の近さ(類似性)があらかじめ定められた閾値未満のペアは除外をする。これによって,N−1回目の特徴量採取領域220における局所特徴量の特徴点と,N回目の特徴量採取領域221におけるもっとも近い局所特徴量の特徴点同士のペアを特定できる。N−1回目の特徴量採取領域220の局所特徴量の特徴点と,N回目の特徴量採取領域221の局所特徴量の特徴点とのペアの関係を図33に示す。図33では,N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域221における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をCで示している。 The photographed image information regularization processing unit 22 corresponds to the local feature amount of the feature point in the feature amount sampling region 220 of the N-1th shot image information and the feature amount sampling region 220 of the N-1th shot image information The local feature amounts of the feature points in the feature amount collection region 221 of the N-th captured image information located at the same position are compared. Then, the feature point of each local feature amount of the N-th shot image information that is closest to each local feature amount of each feature point of the (N-1) -th shot image information is specified. Then, the feature points of the closest local feature amounts are paired, and the coordinates of the feature points according to the local feature amounts forming a pair are associated. At this time, pairs in which the closeness (similarity) between local feature quantities is less than a predetermined threshold value are excluded. In this way, it is possible to specify a pair of feature points of local feature amounts in the (N−1) -th feature amount extraction region 220 and feature points of nearest local feature amounts in the N-th feature amount extraction region 221. The relationship of the pair of the feature point of the local feature amount of the (N-1) -th feature amount extraction region 220 and the feature point of the local feature amount of the N-th feature amount extraction region 221 is shown in FIG. In FIG. 33, point groups of feature points by local feature amounts in the (N-1) -th feature amount extraction region 220 are A, and point groups of feature points by local feature amounts in the N-th feature amount extraction region 221 are B, N- The vertex used for the first trapezoidal correction process is indicated by C.
N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群Aの座標と,点群Aに対応するN回目の特徴量採取領域221における局所特徴量による特徴点の点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(アフィン変換)を求める。関数Fは,サンプリング推定を反復する,ロバスト推定の一種であるOpenCVのRANSACを利用するなどの方法があるが,それらに限定しない。なお,射影の関係にある関係線からずれが大きいペアは処理対象から除外をする。 Coordinates of point group A of feature points according to local feature amounts in N−1th feature amount extraction area 220 and point group B of feature points according to local feature amounts in Nth feature amount extraction area 221 corresponding to point group A The function F (affine transformation) for projecting the point group A onto the point group B is obtained based on the coordinates of The function F has methods such as repeating sampling estimation, using RANCAC of OpenCV which is a kind of robust estimation, but is not limited thereto. Note that pairs with large deviations from the relation line in the projection relationship are excluded from the processing targets.
撮影画像情報正置化処理部22において関数Fを求めたのち,撮影画像情報正置化処理部22は,N−1回目の台形補正処理で用いた頂点Cの座標を,関数Fに基づいてN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する。これを模式的に示すのが図34である。 After obtaining the function F in the photographed image information regularization processing unit 22, the photographed image information normalization processing unit 22 determines the coordinates of the vertex C used in the N−1th keystone correction process based on the function F. It projects onto the Nth captured image information and specifies it as the coordinates of the vertex D for the Nth keystone correction processing. FIG. 34 schematically shows this.
以上の処理を各特徴量採取領域220,221に対して行うことで,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定する。そして,撮影画像情報正置化処理部22は,特定した4頂点に基づいて,N回目の撮影画像情報に対する台形補正処理を実行して正置化し,正置画像情報を生成し,記憶する。この際に,撮影画像情報正置化処理部22は,正置画像情報に対応付けて,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報と対応づけて記憶をさせる。特定したN回目の撮影画像情報に対応する頂点の座標は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報と対応づけて記憶させる。 The above processing is performed on each of the feature amount extraction areas 220 and 221 to specify four vertexes of the shelf position for the keystone correction processing in the N-th captured image information. Then, the photographed image information regularization processing unit 22 executes trapezoidal correction processing on the Nth photographed image information based on the specified four vertices, normalizes it, and generates and stores orthographic image information. At this time, the photographed image information regularization processing unit 22 associates the photographed date information, the store information, the image information identification information of the photographed image information, and the image identification information of the regular image information in association with the fixed image information. I will make them remember. The coordinates of the vertex corresponding to the specified N-th captured image information are stored in association with the captured date / time information, the store information, and the image information identification information of the captured image information.
なお,撮影画像情報正置化処理部22における台形補正処理で用いる頂点の特定処理は,本発明のように陳列棚を撮影した画像情報から商品を特定する場合に限らず,同一の撮影対象物を撮影した複数の画像情報を正置化し,正置画像情報を生成する画像認識システム1にも適用することができる。これによって,同一の撮影対象物を撮影した複数の画像情報について,それぞれ正置化して,その撮影対象物の正置画像情報を生成することができる。 The vertex identification process used in the keystone correction process in the captured image information regularization processing unit 22 is not limited to the case where the product is identified from the image information obtained by imaging the display shelf as in the present invention, and the same imaging object The present invention can also be applied to the image recognition system 1 that normalizes a plurality of pieces of image information obtained by photographing and generates the same. As a result, the plurality of pieces of image information obtained by photographing the same object to be photographed can be orthographically converted, and the image to be imaged of the object to be photographed can be generated.
また,N回目の撮影画像情報における台形補正処理のための棚位置の4頂点を特定するため,上述では,N−1回目の撮影画像情報における特徴量採取領域220での局所特徴量による特徴点の点群Aと,N回目の撮影画像情報における特徴量採取領域221での局所特徴量による特徴点の点群Bとを用いて関数Fを求め,N−1回目の台形補正処理で用いた頂点Cの座標を,関数FによりN回目の撮影画像情報に射影し,N回目の台形補正処理のための頂点Dの座標として特定する処理を説明した。しかし,かかる処理では,N−1回目の撮影画像情報と,N回目の撮影画像情報とにおいて,類似する画像情報の対応点の座標(位置)を見つければよいので,上記の方法にするものではなく,画像情報内の箇所を特定するタイプの特徴量であればいかなるものであってもよい。たとえば,画像情報内における尖った箇所,ハイライトのポイントなどがある。本明細書では,局所特徴量などの,画像情報内の箇所を特定する特徴量を画像特徴量(位置特定型画像特徴量)という。なお,本明細書の説明では,画像特徴量として,上述のように局所特徴量を用いる場合を説明する。 In addition, in order to specify the four vertices of the shelf position for the keystone correction processing in the N-th captured image information, the feature points by the local feature amount in the feature amount extraction region 220 in the N-1th captured image information are described above. Function F is obtained using point group A of the image point and point group B of feature points according to local feature amounts in the feature amount extraction region 221 in the N-th captured image information, and used in the N-1th trapezoid correction process The process of projecting the coordinates of the vertex C onto the N-th captured image information by the function F and specifying the coordinates as the coordinates of the vertex D for the N-th keystone correction process has been described. However, in such processing, it is sufficient to find the coordinates (position) of corresponding points of similar image information in the (N-1) -th shot image information and the N-th shot image information. Instead, any feature quantity may be used as long as it is a type of feature that identifies a location in image information. For example, there are sharp points in the image information and points of highlight. In the present specification, a feature that specifies a portion in image information, such as a local feature, is referred to as an image feature (position-specific image feature). In the description of the present specification, a case where local feature quantities are used as image feature quantities as described above will be described.
つぎに,実施例3における台形補正処理を行うための頂点の特定処理を説明する。この場合,任意の陳列棚を撮影した撮影画像情報において台形補正処理を行うための頂点がすでに特定されており,所定期間(たとえば一週間)経過後に,同一の陳列棚について,同じような領域を同じような角度で撮影した撮影画像情報について行う場合を説明する。 Next, a process of specifying a vertex for performing the keystone correction process according to the third embodiment will be described. In this case, the apex for performing the keystone correction process has already been identified in the photographed image information obtained by photographing an arbitrary display shelf, and after a predetermined period (for example, one week) has elapsed, similar areas are displayed for the same display shelf. A case will be described in which photographed image information photographed at a similar angle is performed.
店舗の陳列棚が撮影された撮影画像情報は,撮影画像情報入力端末4から入力され,管理端末2の撮影画像情報入力受付処理部20でその入力を受け付ける。図35に,撮影画像情報の一例を示す。また,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報の入力を受け付ける。そして,撮影画像情報入力受付処理部20は,入力を受け付けた撮影画像情報,撮影日時,店舗識別情報,画像情報識別情報を対応づけて撮影画像情報記憶部21に記憶させる。 The photographed image information in which the display shelf of the store is photographed is input from the photographed image information input terminal 4, and the photographed image information input acceptance processing unit 20 of the management terminal 2 receives the input. FIG. 35 shows an example of the photographed image information. In addition, the input of the photographing date and time, the shop identification information, and the image information identification information of the photographed image information is received. Then, the photographed image information input acceptance processing unit 20 associates the photographed image information, the photographing date and time, the store identification information, and the image information identification information, which have received the input, and stores them in the photographed image information storage unit 21.
管理端末2において所定の操作入力を受け付けると,撮影画像情報正置化処理部22は撮影画像情報記憶部21に記憶する撮影画像情報を抽出し,台形補正処理を実行するための,棚位置の頂点D(D1乃至D4)を特定する処理を実行する。 When a predetermined operation input is received in the management terminal 2, the photographed image information regularization processing unit 22 extracts the photographed image information stored in the photographed image information storage unit 21, and executes shelf correction processing to execute the keystone correction process. A process of specifying the vertex D (D1 to D4) is executed.
今回(N回目)の撮影画像情報(図35)に対応する同じまたはほぼ同じ領域を撮影した前回(N−1回目)の撮影画像情報(図36)の頂点座標(たとえば頂点座標C1乃至C4とする)を特定する。前回の撮影画像情報の頂点座標は,撮影日時,店舗識別情報,撮影画像情報の画像識別情報などに基づいて特定をすればよい。 The vertex coordinates (e.g., vertex coordinates C1 to C4) of the previous (N-1) -th shot image information (FIG. 36) obtained by shooting the same or substantially the same region corresponding to the (th) -th shot image information (FIG. 35) To identify The vertex coordinates of the previous captured image information may be specified based on the shooting date, store identification information, image identification information of the captured image information, and the like.
撮影画像情報正置化処理部22は,撮影画像情報記憶部21からN−1回目の撮影画像情報を抽出し,それぞれの頂点C1乃至C4について,頂点を一つずつ含む所定の大きさの矩形領域を特徴量採取領域220として,N−1回目の撮影画像情報に設定する。N−1回目の撮影画像情報に特徴量採取領域220を設定した状態を図36に示す。 The photographed image information regularization processing unit 22 extracts the (N-1) th photographed image information from the photographed image information storage unit 21 and a rectangle of a predetermined size including one vertex for each of the vertices C1 to C4. The region is set as the feature amount extraction region 220 in the (N-1) -th shot image information. FIG. 36 shows a state in which the feature amount collecting area 220 is set in the (N-1) th shot image information.
また,撮影画像情報正置化処理部22は,撮影画像情報記憶部21からN回目の撮影画像情報(図35)を抽出し,N−1回目の特徴量採取領域220よりも広い範囲の特徴量採取領域221を,N回目の撮影画像情報に設定する。N回目の撮影画像情報に特徴量採取領域221を設定した状態を図37に示す。N回目の撮影画像情報におけるそれぞれの特徴量採取領域221は,N−1回目の特徴量採取領域220を一つずつ含む。図37では,N回目の特徴量採取領域221に,N−1回目の特徴量採取領域220を示すことで,その包含関係を示している。 Further, the photographed image information regularization processing unit 22 extracts the Nth photographed image information (FIG. 35) from the photographed image information storage unit 21, and the features of the range wider than the (N−1) th feature amount collecting region 220 The amount collection area 221 is set to N-th captured image information. FIG. 37 shows a state in which the feature amount collecting area 221 is set in the N-th shot image information. Each feature amount sampling area 221 in the N-th shot image information includes one N-1th feature amount sampling area 220. In FIG. 37, the inclusion relationship is indicated by showing the (N−1) -th feature amount sampling region 220 in the N-th feature amount sampling region 221.
そして撮影画像情報正置化処理部22は,N−1回目の撮影画像情報に対して設定した各特徴量採取領域220において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。また,N回目の撮影画像情報に対して設定した各特徴量採取領域221において局所特徴量を採取し,局所特徴量による特徴点と座標のセットとを記憶する。 Then, the photographed image information regularization processing unit 22 extracts local feature amounts in each feature amount collection region 220 set for the N−1th captured image information, and sets a set of feature points and coordinates according to the local feature amounts. Remember. In addition, local feature quantities are sampled in each feature quantity sampling area 221 set for N-th captured image information, and feature points and sets of coordinates according to the local feature quantities are stored.
撮影画像情報正置化処理部22は,N−1回目の撮影画像情報の特徴量採取領域220での各特徴点の各局所特徴量にもっとも近いN回目の撮影画像情報の特徴量採取領域221での局所特徴量の特徴点を特定し,それらをペアとなる局所特徴量の特徴点として,それぞれの座標を対応付ける。図33に示すのがN−1回目のN−1回目の特徴量採取領域220と,N回目の特徴量採取領域221とのペアの関係である。 The photographed image information regularization processing unit 22 calculates the feature amount sampling area 221 of the N-th shot image information closest to the local feature quantities of the feature points in the feature quantity sampling area 220 of the (N-1) -th shot image information. The feature points of the local feature amount at are identified, and the respective coordinates are associated with each other as the feature point of the local feature amount to be a pair. FIG. 33 shows the relationship of the pair of the (N−1) th N−1th feature amount sampling region 220 and the Nth time feature amount sampling region 221.
そして,N−1回目の特徴量採取領域220における局所特徴量による特徴点の点群をA,N回目の特徴量採取領域221における局所特徴量による特徴点の点群をB,N−1回目の台形補正処理に用いた頂点をC(C1乃至C4)とすると,撮影画像情報正置化処理部22は,点群Aと点群Bの座標とに基づいて,点群Aを点群Bに射影する関数F(アフィン変換)を求める。 Then, the point group of feature points by the local feature amount in the N-1th feature amount extraction region 220 is A, the point group of the feature point by the local feature amount in the Nth extraction amount feature region 221 is B, N-1 Let C (C1 to C4) be a vertex used in the keystone correction processing of the captured image information regularization processing unit 22 set the point group A to the point group B based on the point group A and the coordinates of the point group B. Find a function F (affine transformation) to project onto.
そして撮影画像情報正置化処理部22は,N−1回目の台形補正処理で用いた頂点C(C1乃至C4)の座標を,求めた関数Fに基づいて射影し,N回目の台形補正処理のための頂点D(D1乃至D4)の座標として特定する。 Then, the photographed image information regularization processing unit 22 projects the coordinates of the vertex C (C1 to C4) used in the (N-1) th trapezoidal correction processing based on the obtained function F, and the Nth trapezoidal correction processing As the coordinates of the vertex D (D1 to D4) for.
以上の処理を各特徴量採取領域220,221に対して行うことで,N回目の台形補正処理のための4頂点D(D1乃至D4)が自動的に特定できる。特定したN回目の頂点D(D1乃至D4)の座標は,撮影日時,店舗識別情報,撮影画像情報の画像情報識別情報に対応づけて記憶させる。特定された頂点D1乃至D4を示すのが図38である。 By performing the above-described process on each of the feature value extraction areas 220 and 221, it is possible to automatically specify four vertices D (D1 to D4) for the Nth keystone correction process. The coordinates of the specified N-th vertex D (D1 to D4) are stored in association with the shooting date and time, the store identification information, and the image information identification information of the captured image information. FIG. 38 shows the identified vertices D1 to D4.
以上のようにして,N回目の撮影画像情報に対する台形補正処理のための棚位置の頂点D(D1乃至D4)を特定すると,撮影画像情報正置化処理部22は,頂点D(D1乃至D4)に基づいて,N回目の撮影画像情報に対して台形補正処理を実行する。 As described above, when the vertex D (D1 to D4) of the shelf position for the keystone correction process for the N-th captured image information is specified, the captured image information regularization processing unit 22 determines the vertex D (D1 to D4). The keystone correction process is performed on the N-th time captured image information on the basis of.
以上のような処理を実行することで,二回目以降の台形補正処理について,台形補正処理で用いる4頂点を指定せずとも,対応する頂点を自動的に特定することができるようになり,担当者の負担を軽減することができる。 By executing the above processing, for the second and subsequent keystone correction processing, it becomes possible to automatically identify the corresponding vertex without specifying four vertices used in the keystone correction processing. Can reduce the burden on
さらに実施例2のフェイス特定処理部292におけるフェイスの特定処理の変形例を説明する。本実施例では,実施例2のフェイスの特定処理を初回の処理として,二回目以降のフェイスの特定処理として,自動的にフェイスを特定する処理を行うようにしてもよい。この場合の処理を説明する。 Further, a modified example of the face identification process in the face identification processing unit 292 of the second embodiment will be described. In this embodiment, the process of specifying the face may be performed automatically as the process of specifying the second and subsequent faces, with the process of specifying the face of the second embodiment as the first process. The process in this case will be described.
なお,初回とは一回目のほか,自動的に特定する際のずれを修正するため,任意のタイミングで実施例2の処理を行う場合も含まれる。二回目以降とは初回以外である。 In addition to the first case, the first case also includes the case where the process of the second embodiment is performed at an arbitrary timing in order to correct a deviation in automatic specification. The second and subsequent times are other than the first time.
フェイス特定処理部292は,実施例2の処理と同様の処理を初回のフェイスの特定処理として実行する。そして,フェイス特定処理部292における二回目以降のフェイスの特定処理は,同一の陳列棚の同一の棚段について,前回(N−1回目)の正置画像情報で特定したフェイスの領域の座標を抽出し,その座標を今回(N回目)の正置画像情報で特定したフェイスの領域の座標とする。 The face identification processing unit 292 executes the same process as the process of the second embodiment as an initial face identification process. The second and subsequent face identification processes in the face identification processing unit 292 are the coordinates of the area of the face identified in the previous (N−1) -th emplacement image information for the same shelf of the same display shelf. The coordinates are extracted as the coordinates of the area of the face specified by the present (N-th) orthographic image information.
フェイスの領域の座標は,棚段の位置の座標と同様に,正置画像情報における,陳列棚内での所定箇所(たとえば陳列棚の左上の頂点C1)を基準とした相対座標である。 The coordinates of the area of the face are relative coordinates based on a predetermined location (for example, the upper left vertex C1 of the display shelf) in the display shelf, like the coordinates of the position of the trays.
さらに実施例2の変形例として,商品識別情報特定処理部293における,陳列棚の棚段ごとに,フェイスに表示されている商品の商品識別情報を特定する処理として,実施例2の処理を初回の商品識別情報の特定処理とし,二回目以降の商品識別情報の特定処理として,以下のような処理を実行する。 Further, as a modification of the second embodiment, the process of the second embodiment is performed as the process of specifying the product identification information of the product displayed on the face for each shelf of the display shelf in the product identification information specification processing unit 293. The following processing is executed as the identification processing of the product identification information of the above and the identification processing of the commodity identification information of the second and subsequent times.
商品識別情報特定処理部293は,N回目の正置画像情報におけるフェイスの商品識別情報の特定処理は,まず処理対象となるフェイスのフェイス識別情報を特定する。特定したフェイス識別情報をXとする。そして,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,フェイス識別情報Xに対応する位置にあるN−1回目の正置画像情報における領域の画像情報とを比較する。類似性の判定については,色ヒストグラム同士のEMDを求め,類似性の尺度とすることが好ましいが,それに限定するものではない。その類似性が一定の閾値以上であれば,N−1回目の正置画像情報におけるその領域のフェイスに対応する商品識別情報を商品識別情報記憶部31から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報とする。これによって,処理対象となるN回目の正置画像情報におけるフェイス識別情報Xの商品識別情報を特定できる。もし類似性が一定の閾値未満であれば,初回の場合と同様に,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報として特定をする。 The commodity identification information identification processing unit 293 first identifies the face identification information of the face to be processed in the identification processing of the commodity identification information of the face in the N-th direct image information. Let X be the identified face identification information. Then, the image information of the area of the face identification information X in the N-th orthographic image information and the image information of the area in the (N-1) -th orthographic information at the position corresponding to the face identification information X are compared. With regard to the determination of similarity, it is preferable to obtain the EMD of color histograms and use it as a measure of similarity, but it is not limited thereto. If the similarity is equal to or more than a certain threshold value, the product identification information corresponding to the face of the area in the N-1th orthographic image information is extracted from the product identification information storage unit 31, and the Nth orthographic image information Item identification information of the face identification information X in As a result, it is possible to specify the product identification information of the face identification information X in the N-th orthographic image information to be processed. If the similarity is less than a certain threshold, the image information of the area of the face identification information X in the N-th orthographic image information and the sample image information stored in the sample image information storage unit 30 as in the first case. The product identification information having the similarity higher than a predetermined threshold value and the highest similarity is specified as the product identification information of the face of the face identification information X in the N-th orthographic image information.
なお,N−1回目の正置画像情報におけるフェイスの領域の画像情報との比較において,対応するフェイスの位置との比較のみならず,所定範囲のフェイスを比較対象として含めてもよい。たとえばN回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と比較する場合,比較対象としては,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,その領域から所定範囲にあるフェイスの領域,たとえばその左右方向に一または複数離隔している位置にあるフェイス,上下の棚段に位置するフェイスの領域も含めてもよい。さらに,N−1回目の正置画像情報におけるフェイス識別情報Xの領域のほか,フェイス識別情報X−2,X−1,X,X+1,X+2のように,複数の隣接するフェイスの領域を含めてもよい。 In addition, in comparison with the image information of the area of the face in the (N−1) -th orthographic image information, not only the comparison with the position of the corresponding face but also a face in a predetermined range may be included as a comparison target. For example, when comparing with the image information of the area of face identification information X in the N-th orthographic image information, the comparison target includes the area of the face identification information X in the N-1th orthographic image information and the area It is also possible to include the area of the face within a predetermined range, for example, the face located at a position separated by one or more in the left-right direction, and the area of the face located in the upper and lower trays. Furthermore, in addition to the area of the face identification information X in the (N-1) -th time orthographic image information, areas of a plurality of adjacent faces are included as in the face identification information X-2, X-1, X, X + 1, X + 2. May be
この場合,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,N−1回目の正置画像情報における,比較対象となる範囲のフェイスの範囲の領域のそれぞれの画像情報とを比較し,もっとも類似性が高いN−1回目の正置画像情報のフェイス識別情報を特定する。なお,類似性は,類似性は一定の閾値以上であることを条件としてもよい。そして特定したN−1回目の正置画像情報のフェイス識別情報に対応する商品識別情報を商品識別情報記憶部31から抽出し,N回目の正置画像情報におけるフェイス識別情報Xの商品識別情報とする。この処理を模式的に示すのが図27である。図27(a)は前回(N−1回目)の正置画像情報であり,図27(b)は今回(N回目)の正置画像情報である。そして,N回目の正置画像情報の棚段1の各フェイスの領域の画像情報と,N−1回目の正置画像情報の棚段1の各フェイスの領域の画像情報とをそれぞれ比較することで類似性を判定し,もっとも類似性が高いN−1回目の正置画像情報の棚段1のフェイスの商品識別情報を,N回目の正置画像情報の棚段1のフェイスの商品識別情報として特定をすることを示す。図27では,N回目の正置画像情報のフェイスに対応する位置にあるN−1回目の正置画像情報のフェイスに加え,その左右2つずつのフェイスとの比較を行う場合を示している。なお同一棚段のみならず,上下の棚段のフェイス位置の画像情報との比較を行ってもよい。たとえば図27の場合,N回目の正置画像情報の棚段2の中心のフェイス位置の商品識別情報を特定する際に,N−1回目の正置画像情報の棚段2の中心およびその左右2つずつのフェイスの領域の画像情報と比較するのみならず,N−1回目の正置画像情報の棚段1の中心およびその左右2つずつのフェイスの領域の画像情報,N−1回目の正置画像情報の棚段3の中心およびその左右2つずつのフェイスの領域の画像情報と類似性の比較を行ってもよい。 In this case, the image information of the area of the face identification information X in the N-th time orthographic image information, and the image information of each of the area of the range of the face to be compared in the (N-1) -th time orthographic image information To identify the face identification information of the (N-1) -th orthographic image information with the highest similarity. The similarity may be conditional on the similarity being equal to or greater than a certain threshold. Then, the product identification information corresponding to the face identification information of the specified N-1 first emplacement image information is extracted from the product identification information storage unit 31, and the product identification information of the face identification information X in the N th emposiment image information Do. FIG. 27 schematically shows this process. FIG. 27 (a) is the previous (N-1st) orthographic image information, and FIG. 27 (b) is the current (Nth) orthographic image information. Then, compare the image information of the area of each face of tray 1 of the N-th orthographical image information with the image information of the area of each face of tray 1 of the N-1st orthographic image information. Product identification information of the face of tray 1 of the N-1st right emplacement image information with the highest similarity and the product identification information of the face of tray 1 of the n th right emplaced image information Indicates to identify as. FIG. 27 shows the case where the comparison is made with the two right and left faces in addition to the (N-1) th face of the normal position image information at the position corresponding to the Nth direct position image information face. . In addition, comparison may be performed with the image information of the face position of not only the same tray but also the upper and lower trays. For example, in the case of FIG. 27, when specifying the product identification information of the face position of the center of the tray 2 of the N-th orthographic image information, the center of the tray 2 of the N-1-th orthographic image information and its left and right Not only comparison with the image information of the area of two faces each, but also the image information of the area of the center of the tray 1 of the N-1st right emplacement image information and the area of the two faces to the left and right thereof, N-1 Image information and similarity may be compared between the center of the tray 3 of the emplacement image information and the area of the face of each of the left and right two faces.
N−1回目の正置画像情報のフェイスの画像情報との比較の結果,類似性が閾値を充足しないなどによって商品識別情報を特定できなかった場合には,N回目の正置画像情報におけるフェイス識別情報Xの領域の画像情報と,標本画像情報記憶部30に記憶する標本画像情報とを比較して,類似性が所定の閾値以上で,かつ,もっとも類似性が高い商品識別情報を,N回目の正置画像情報におけるフェイス識別情報Xのフェイスの商品識別情報として特定をする。この場合の類似性の判定処理は,初回の商品識別情報の特定処理と同様に行える。 When the product identification information can not be specified because the similarity does not satisfy the threshold value or the like as a result of comparison with the image information of the face of the N-1th orthographic image information, the face in the Nth orthographic information The image information of the area of the identification information X and the sample image information stored in the sample image information storage unit 30 are compared, and the product identification information having the similarity equal to or greater than a predetermined threshold and having the highest similarity is N The identification information is specified as the product identification information of the face of the face identification information X in the first emplacement image information. The determination processing of the similarity in this case can be performed in the same manner as the identification processing of the first item identification information.
以上のようにして特定した商品識別情報は,撮影日時情報,店舗情報,撮影画像情報の画像情報識別情報,正置画像情報の画像識別情報,フェイスを識別するためのフェイス識別情報に対応づけて商品識別情報記憶部31に記憶する。 The product identification information specified as described above is associated with the shooting date and time information, the store information, the image information identification information of the photographed image information, the image identification information of the justification image information, and the face identification information for identifying the face. It is stored in the product identification information storage unit 31.
なお本発明の画像認識システム1の実施例1乃至実施例5において,各処理部における処理対象となる画像情報については,それぞれ前処理として正置化処理などが実行されていることで精度を向上させることができ,上述の各実施例ではその場合を説明した。しかし,必ずしも処理対象となる画像情報について正置化処理が実行されている必要はなく,その場合は,各処理部における処理対象となるのは,正置化処理が実行されていない場合の画像情報である。たとえば,位置特定処理部23,商品タグ配置領域切出処理部24,商品タグ配置領域正置化処理部25,商品タグ特定処理部26,商品タグ内情報特定処理部27,商品タグ認識処理部28,陳列商品認識処理部29,棚段領域切出処理部291,フェイス特定処理部292,商品識別情報特定処理部293,棚段画像マッチング処理部294において,正置化処理が実行されていない画像情報を処理対象としてもよい。この場合,正置化処理が実行されていなくても,商品を陳列した陳列棚が写っている画像情報に対する処理を実行すればよい。なお,商品を陳列した陳列棚が写っている画像情報には,正置化処理をした画像情報,正置化処理をしていない画像情報の双方が含まれる。 In the first to fifth embodiments of the image recognition system 1 of the present invention, the accuracy is improved by executing a normalization process and the like as preprocessing for image information to be processed by each processing unit. In the above-described embodiments, the case has been described. However, it is not necessary that the orthographic process is necessarily performed on the image information to be processed, and in such a case, the image to be processed in each processing unit is an image when the orthographic process is not performed. It is information. For example, position specification processing unit 23, product tag placement area cutout processing unit 24, product tag placement area regularization processing unit 25, product tag specification processing unit 26, product tag internal information specification processing unit 27, product tag recognition processing unit 28. In the display product recognition processing unit 29, the tray area extraction processing unit 291, the face identification processing unit 292, the product identification information identification processing unit 293, and the tray image matching processing unit 294, the formalization processing is not executed. Image information may be processed. In this case, even if the formalization process is not performed, the process may be performed on the image information in which the display shelf on which the product is displayed is shown. Note that the image information in which the display rack on which the product is displayed includes both the image information subjected to the regularization process and the image information not subjected to the regularization process.
本発明の画像認識システム1を用いることによって,陳列棚に陳列されている商品を精度よく特定することができる。 By using the image recognition system 1 of the present invention, it is possible to accurately identify the goods displayed on the display shelf.
1:画像認識システム
2:管理端末
4:撮影画像情報入力端末
20:撮影画像情報入力受付処理部
21:撮影画像情報記憶部
22:撮影画像情報正置化処理部
23:位置特定処理部
24:商品タグ配置領域切出処理部
25:商品タグ配置領域正置化処理部
26:商品タグ特定処理部
27:商品タグ内情報特定処理部
28:商品タグ認識処理部
29:陳列商品認識処理部
30:標本画像情報記憶部
31:商品識別情報記憶部
32:整合性判定処理部
33:認識結果照合処理部
220:N−1回目の画像情報における特徴量採取領域
221:N回目の画像情報における特徴量採取領域
291:棚段領域切出処理部
292:フェイス特定処理部
293:商品識別情報特定処理部
294:棚段画像マッチング処理部
70:演算装置
71:記憶装置
72:表示装置
73:入力装置
74:通信装置
1: Image recognition system 2: Management terminal 4: Photographed image information input terminal 20: Photographed image information input acceptance processing unit 21: Photographed image information storage unit 22: Photographed image information regularization processing unit 23: Position specification processing unit 24: Merchandise tag placement area cutout processing unit 25: Merchandise tag placement area regularization processing unit 26: Merchandise tag specification processing unit 27: Merchandise tag internal information identification processing unit 28: Merchandise tag recognition processing unit 29: Display merchandise recognition processing unit 30 : Sample image information storage unit 31: Product identification information storage unit 32: Consistency determination processing unit 33: Recognition result comparison processing unit 220: Feature quantity collection area 221 in the N-1st image information: Feature in the Nth image information Amount collection area 291: tray stage area cutout processor 292: face identification processor 293: product identification information identification processor 294: tray image matching processor 70: arithmetic unit 71: storage unit 7 : Display device 73: input device 74: communication device
第1の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ特定処理部は,前記画像情報の明度情報を用いて商品タグ領域を特定し,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,前記特定したブロックに対して前記OCR認識処理を実行し,前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。
In the first invention, a product tag identification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown, and a product tag specifying processing unit performing OCR recognition processing in the specified product tag area Product tag internal information identification processing unit for identifying the processed information, the product tag identification processing unit identifies the product tag area using the lightness information of the image information, and the product tag internal information The specification processing unit specifies the box by binarizing the specified product tag area and performing labeling processing, and specifies the boxes satisfying the predetermined condition as blocks among the specified boxes, and the specified block the running OCR recognition process, the two price information identified by the OCR recognition process by executing the logical consistency of the determination process with respect to, tax To determine the rating and the price including tax, is an image recognition system.
第2の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ特定処理部は,前記画像情報の明度情報を横方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,商品タグの上辺位置,下辺位置を特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,立ち上がりから所定距離内にある立ち下がりをペアとして商品タグの左辺位置,右辺位置を特定する,画像認識システムである。
According to a second aspect of the present invention, there is provided a product tag identification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown, and performing OCR recognition processing on a part or all of the specified product tag areas. The product tag identification processing unit identifies the information described in the product tag in the product tag , and the product tag identification processing unit starts up a histogram obtained by integrating the lightness information of the image information in the horizontal direction, By specifying the falling edge, the upper side position and the lower side position of the product tag are specified, and by specifying the rising edge and falling edge of the histogram obtained by integrating the lightness information of the image information in the vertical direction, within a predetermined distance from the rising edge. This is an image recognition system that specifies the left side position and the right side position of a product tag with a certain falling as a pair .
第1の発明と同様に,本発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。
商品タグに表記されている情報を精度よく認識するためには,商品タグ領域をできるだけ正確に特定する必要がある。一般的に,商品タグの地の色は白色が多いので,陳列棚を撮影した場合,商品タグの部分が明るくなっている。この点に着目し,これらの発明のように,画像情報の明度情報を,縦方向,横方向にそれぞれ積算することで商品タグ領域を精度よく特定することができる。
Similar to the first invention, by using the image recognition system of the present invention, the information written on the product tag can be recognized with high accuracy, so that the displayed product can be specified with high accuracy. it can.
In order to accurately recognize the information described in the product tag, it is necessary to specify the product tag area as accurately as possible. Generally, since the ground color of the product tag is white, when the display shelf is photographed, the part of the product tag is bright. Focusing on this point, as in the present invention, the product tag area can be specified with high accuracy by integrating the lightness information of the image information in the vertical direction and the horizontal direction.
第3の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ特定処理部は,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がりのうち,ペアを形成できなかった立ち上がりについてその右側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち下がりのうち,ペアを形成できなかった立ち下がりについてその左側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定する,画像認識システムである。
According to a third aspect of the present invention, there is provided a product tag identification processing unit for specifying a product tag area in image information in which display shelves for displaying products are displayed, and performing OCR recognition processing on a part or all of the specified product tag areas. The product tag identification processing unit identifies the information described in the product tag in the product tag, and the product tag identification processing unit is configured to start up a histogram obtained by integrating the lightness information of the image information in the vertical direction. Among them, if there is no tag area within a predetermined distance on the right side of the rising that failed to form a pair, it is identified as a product tag area, and among the fallings of the histogram integrated vertically in the lightness information of the image information, identifying a product tag area if there is no tag area within distance predetermined to the left about the fall could not be formed a pair, image The recognition system.
第1の発明と同様に,本発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。
商品タグは,その一部が重なって取り付けられている場合もある。その場合,明度情報の積算によるヒストグラムでは,連続して立ち上がりまたは立ち下がりとなる。そこで,本発明の処理を実行することで,重なって取り付けられている商品タグについての商品タグ領域を特定することができる。
Similar to the first invention, by using the image recognition system of the present invention, the information written on the product tag can be recognized with high accuracy, so that the displayed product can be specified with high accuracy. it can.
The product tag may be attached partially overlapping. In that case, in the histogram based on the integration of the lightness information, the rise and fall occur continuously. Therefore, by executing the process of the present invention, it is possible to specify a product tag area for a product tag that is attached in an overlapping manner.
第4の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域において二値化処理を実行し,前記二値化処理した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,画像認識システムである。
The fourth invention is described in a product tag by performing product recognition processing with a product tag identification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown and an identified product tag area. Product tag internal information specification processing unit for specifying the processed information, the product tag internal information specification processing unit executes the binarization processing in the specified product tag area, and performs the binarization By performing labeling processing in the processed image information, consecutive pixels are grouped to specify a box, and adjacent boxes having a predetermined similarity among the specified boxes are merged and specified as a block. The image recognition system is configured to estimate a block having the highest height among the identified blocks as a price area and execute an OCR recognition process .
第1の発明と同様に,これらの発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。Similar to the first invention, by using the image recognition system according to these inventions, the information written on the product tag can be recognized with high accuracy, so the products displayed corresponding to it can be specified with high accuracy. Can.
商品タグに表記されている情報を認識するためには,商品タグ領域のすべてに対してOCR認識処理を実行してもよいが,その場合,ノイズ等が多く検出されてしまい,精度の悪化につながる。また処理時間も多くなる。そこで,商品タグ領域の一部分のみにOCR認識処理を実行することが好ましい。本発明の処理を特定したブロックに対してOCR認識処理を実行することで,その認識精度を向上させることができる。また,価格が商品の購入者にとってもっとも重要であるので,もっとも高さが高いブロックは価格領域であることが多い。そこでこのブロックを価格領域と推定してOCR認識処理を実行することで,精度よく価格を認識することができる。In order to recognize the information described in the product tag, OCR recognition processing may be executed for all of the product tag areas, but in that case a large amount of noise etc. will be detected and the accuracy will deteriorate. Connect. Moreover, processing time also increases. Therefore, it is preferable to execute the OCR recognition processing only on a part of the product tag area. The recognition accuracy can be improved by executing the OCR recognition processing on the block specifying the processing of the present invention. Also, since the price is most important to the purchaser of the goods, the highest block is often the price area. Therefore, the price can be recognized with high accuracy by estimating this block as a price area and executing the OCR recognition processing.
第5の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ内情報特定処理部は,前記OCR認識処理によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。
In the fifth invention, a product tag identification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown, and a product tag specifying processing unit performing OCR recognition processing in the specified product tag area The product tag internal information identification processing unit identifies the processed information, and the product tag internal information identification processing unit recognizes the price information recognized as the tax-excluded price by the OCR recognition processing and the tax-included price It is an image recognition system which specifies the tax excluded price and the tax-included price by executing judgment processing of consistency of the size of the price and / or the tax rate for the recognized price information .
第1の発明と同様に,これらの発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。Similar to the first invention, by using the image recognition system according to these inventions, the information written on the product tag can be recognized with high accuracy, so the products displayed corresponding to it can be specified with high accuracy. Can.
商品タグには一般的に,税抜価格と税込価格が表記されている。そこで税抜価格,税込価格としてそれぞれ認識した価格の論理的整合性が成立しているかを判定することで,さらに精度を向上させることができる。In general, the price excluding tax and the price including tax are indicated on the product tag. Therefore, the accuracy can be further improved by determining whether the logical consistency of the price recognized as the tax-excluded price and the tax-included price respectively is established.
第6の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部と,前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,前記商品タグ内情報特定処理部は,前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識システムである。
A sixth aspect of the invention relates to a product tag identification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown, and performing OCR recognition processing on a part or all of the specified product tag areas. And the in-product tag information specification processing unit for specifying information described in the product tag in the product tag, and the in-product tag information specification processing unit performs logic on the two price information specified by the OCR recognition process . It is an image recognition system that specifies tax-excluded price and tax-included price by executing the judgment process of the target consistency.
第1の発明と同様に,これらの発明の画像認識システムを用いることで,商品タグに表記されている情報を精度よく認識できるので,それに対応して陳列されている商品を精度よく特定することができる。Similar to the first invention, by using the image recognition system according to these inventions, the information written on the product tag can be recognized with high accuracy, so the products displayed corresponding to it can be specified with high accuracy. Can.
第9の発明は,商品を陳列する陳列棚が写っている画像情報における商品タグ領域における商品識別情報を特定する商品タグ認識処理部と,前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部と,前記特定した商品タグ領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部と,を有しており,前記認識結果照合処理部は,前記陳列商品認識処理部における認識処理により,類似性の高いフェイスが並んでいる区画を一群とし,各棚段における各群に,前記商品タグ認識処理部による商品タグの認識結果を対応づける,画像認識システムである。
A ninth invention is a product tag recognition processing unit for specifying product identification information in a product tag area in image information in which a display shelf for displaying a product is displayed , and product identification information of a product displayed in the image information. The recognition result of comparing the displayed product recognition processing unit to be specified, the product identification information in the specified product tag area, and the product identification information on the specified displayed product, and collating whether the recognition result matches And the recognition result collating processing unit, by the recognition processing in the display product recognition processing unit, makes a group in which faces with high similarity are lined up as a group, and each group in each tray And an image recognition system that associates the recognition result of the product tag by the product tag recognition processing unit .
本発明によって,陳列棚に写っている商品を認識した結果と,商品タグに表記されている情報の認識結果とを照合することができる。これによって,陳列されている商品を精度よく特定することができる。
また,本発明を用いることで,陳列されている商品の認識結果と,商品タグの認識結果とを対応づけることができる。
According to the present invention, it is possible to collate the result of recognition of the product appearing on the display shelf with the recognition result of the information written on the product tag. This makes it possible to identify the displayed product with high accuracy.
Further, by using the present invention, the recognition result of the displayed product can be associated with the recognition result of the product tag.
上述の発明において,前記画像認識システムは,さらに,前記陳列棚を撮影した画像情報に対して台形補正処理を実行する撮影画像情報正置化処理部,を有しており,前記撮影画像情報正置化処理部は,第1の画像情報と,第2の画像情報との対応関係に基づいて,前記第1の画像情報における台形補正処理で用いた頂点を,前記第2の画像情報に射影し,前記射影した頂点に基づいて前記第2の画像情報の台形補正処理を実行する,画像認識システムのように構成することができる。
In the above-described invention, the image recognition system further includes a photographed image information regularization processing unit that executes keystone correction processing on the image information obtained by photographing the display shelf, and the photographed image information corrector置化processing unit includes a first image information, based on the correspondence between the second image information, the vertices used in the keystone correction process in the first image information, projected to the second image information The present invention can be configured as an image recognition system that executes keystone correction processing of the second image information based on the projected vertices.
撮影した画像情報は,正面から撮影した画像情報にはならないことも多い。撮影した画像情報そのものから処理を実行した場合,その精度は低くなる。そのため,台形補正処理を行い,正置化することが好ましい。そこで,台形補正処理の基準となる頂点を担当者が特定しなければならないが,それは負担が大きい。本発明を用いることで,台形補正処理の基準となる頂点を自動的に特定することができ,担当者の作業負担を軽減できる。
Photographed image information, it is also often not be the image information taken from the front. When executing the processing from the captured image information itself, its accuracy is low. Therefore, it is preferable to perform keystone correction processing to correct the image. Therefore, although the person in charge must specify the vertex that is the basis of the keystone correction processing, it is burdensome. By using the present invention, it is possible to automatically specify a vertex which is a reference of the keystone correction processing, and it is possible to reduce the workload of the person in charge.
上述の発明において,前記画像認識システムは,さらに,前記撮影画像情報正置化処理部において台形補正処理を実行した前記画像情報において,商品タグ配置領域を特定する位置特定処理部と,前記特定した商品タグ配置領域において台形補正処理を実行する商品タグ配置領域正置化処理部と,を有する画像認識システムのように構成することができる。
In the above-described invention, the image recognition system further includes a position specification processing unit for specifying a product tag arrangement area in the image information on which the trapezoidal correction processing is performed in the photographed image information regularization processing unit; And a product tag placement area regularization processing unit that executes keystone correction processing in the product tag placement area.
第1の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部,前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ特定処理部は,前記画像情報の明度情報を用いて商品タグ領域を特定し,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,前記特定したブロックに対して前記OCR認識処理を実行し,前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識プログラムである。
The image recognition system of the first invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, the product tag identification processing unit identifies the product tag area in the image information in which the display shelf for displaying the product is displayed, and the computer displays the product tag by performing the OCR recognition processing in the specified product tag area. An image recognition program to be functioned as a product tag internal information specification processing unit for specifying information, wherein the product tag specification processing unit specifies a product tag area using lightness information of the image information, and The information identification processing unit binarizes the identified product tag area and performs labeling processing to identify a box, and among the identified boxes, identifies boxes satisfying a predetermined condition as blocks, and identifies the blocks. executing the OCR recognition process for a block, the two price information identified by the OCR recognition process, logical By executing the determining process of compatibility, specifying the tax price and price including tax, an image recognition program.
第2の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ特定処理部は,前記画像情報の明度情報を横方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,商品タグの上辺位置,下辺位置を特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,立ち上がりから所定距離内にある立ち下がりをペアとして商品タグの左辺位置,右辺位置を特定する,画像認識プログラムである。
第3の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ特定処理部は,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がりのうち,ペアを形成できなかった立ち上がりについてその右側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定し,前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち下がりのうち,ペアを形成できなかった立ち下がりについてその左側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定する,画像認識プログラムである。
The image recognition system of the second invention can be realized by causing a computer to read and execute the image recognition program of the present invention. That is, the product tag identification processing unit that specifies the area of the product tag in the image information in which the display shelf displaying the product is displayed, and the computer performs OCR recognition processing on part or all of the specified product tag area. An image recognition program that causes the product tag identification processing unit to function as a product tag internal information identification processing unit that identifies information represented in a product tag by performing the product tag identification processing unit, the brightness information of the image information is accumulated in the horizontal direction By specifying the rising and falling of the histogram, the upper side position and the lower side position of the product tag are specified, and the rising and falling of the histogram obtained by integrating the lightness information of the image information in the vertical direction are specified. left position of the product tag falling as a pair is within a predetermined distance from, it identifies the right position, an image recognition program That.
The image recognition system of the third invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, the product tag identification processing unit that specifies the area of the product tag in the image information in which the display shelf displaying the product is displayed, and the computer performs OCR recognition processing on part or all of the specified product tag area. An image recognition program that causes the product tag identification processing unit to function as a product tag internal information specification processing unit that specifies information described in a product tag by performing the product tag identification processing unit, the brightness information of the image information is integrated in the vertical direction Among the rising edges of the histograms, if there is no tag region within a predetermined distance on the right side of the rising edge that can not form a pair, it is identified as a product tag region, and the histogram of the brightness information of the image information is integrated in the vertical direction. Of the falling edges, the falling edge that could not form a pair is displayed on the left side within a predetermined distance. Identifying a product tag area Without area, an image recognition program.
第4の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ内情報特定処理部は,前記特定した商品タグ領域において二値化処理を実行し,前記二値化処理した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,画像認識プログラムである。
第5の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ内情報特定処理部は,前記OCR認識処理によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識プログラムである。
The image recognition system of the fourth invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, the product tag identification processing unit that specifies the area of the product tag in the image information in which the display shelf displaying the product is displayed, and the product tag by performing the OCR recognition processing in the area of the specified product tag. An image recognition program that causes the product identification information processing unit to function as a product tag information identification processing unit for identifying the information described in the item information processing unit, and the product tag in-data identification processing unit executes binarization processing in the identified product tag area By performing labeling processing on the binarized image information, successive pixels are grouped to specify a box, and adjacent boxes having a predetermined similarity among the specified boxes are merged. Block, and the block with the highest height among the above identified blocks is estimated as the price area and the OCR recognition is performed. Processing is executed, an image recognition program.
The image recognition system of the fifth invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, the product tag identification processing unit that specifies the area of the product tag in the image information in which the display shelf displaying the product is displayed, and the product tag by performing the OCR recognition processing in the area of the specified product tag. An image recognition program that causes the product identification information processing unit to function as the in-product tag information identification processing unit for identifying the information described in the item information, wherein the in-product tag information identification processing unit recognizes price information recognized as a tax excluded price by the OCR recognition processing. And, it is an image recognition program which specifies the tax excluded price and the tax-included price by executing judgment processing of the size of the price and / or the consistency of the tax rate on the price information recognized as the tax-included price .
第6の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,前記商品タグ内情報特定処理部は,前記OCR認識処理によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,画像認識プログラムである。
The image recognition system of the sixth invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, the product tag identification processing unit that specifies the area of the product tag in the image information in which the display shelf displaying the product is displayed, and the computer performs OCR recognition processing on part or all of the specified product tag area. an image recognition program to function as a product tag information specifying unit, for identifying the title information to the product tag by performing the product tag information specifying processing unit, two identified by the OCR recognition process It is an image recognition program that identifies tax-excluded prices and tax-included prices by executing logical consistency determination processing on price information.
第9の発明の画像認識システムは,本発明の画像認識プログラムをコンピュータに読み込ませて実行することで実現することができる。すなわち,コンピュータを,商品を陳列している陳列棚が写っている画像情報における商品タグの領域における商品識別情報を特定する商品タグ認識処理部,前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部,前記特定した商品タグの領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部,として機能させる画像認識プログラムであって,前記認識結果照合処理部は,前記陳列商品認識処理部における認識処理により,類似性の高いフェイスが並んでいる区画を一群とし,各棚段における各群に,前記商品タグ認識処理部による商品タグの認識結果を対応づける,画像認識プログラムである。
The image recognition system of the ninth invention can be realized by reading and executing the image recognition program of the present invention on a computer. That is, a product tag recognition processing unit that specifies product identification information in a region of a product tag in image information in which a display shelf displaying a product is displayed on a computer, product identification information of a displayed product in the image information A display product recognition processing unit for specifying the product identification information for comparing the product identification information in the area of the specified product tag with the product identification information of the specified displayed product, and checking whether the recognition results match An image recognition program to be functioned as a result collating processing unit , wherein the recognition result collating processing unit groups sections in which faces with high similarity are lined up as a group by recognition processing in the display product recognition processing unit; It is an image recognition program which matches the recognition result of the goods tag by the said goods tag recognition process part to each group in a row | line .
Claims (19)
前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ特定処理部は,
前記画像情報の明度情報を用いて商品タグ領域を特定し,
前記商品タグ内情報特定処理部は,
前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,
特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,
前記特定したブロックに対して前記OCR認識処理を実行し,
前記OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識システム。 A product tag specification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown;
And an in-product tag information specification processing unit for specifying information described in the product tag by performing an OCR recognition process in the specified product tag area.
The product tag identification processing unit
Identify the product tag area using the lightness information of the image information,
The product tag internal information identification processing unit
Specify a box by binarizing the specified product tag area and performing labeling processing,
Of the identified boxes, identify the boxes satisfying the predetermined condition as blocks,
Execute the OCR recognition process on the identified block;
Specify the tax-excluded price and the tax-included price by executing logical consistency judgment processing on the two price information identified by the OCR recognition,
An image recognition system characterized by
前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ特定処理部は,
前記画像情報の明度情報を用いて商品タグ領域を特定する,
ことを特徴とする画像認識システム。 A product tag specification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown;
And an in-product tag information specification processing unit that specifies information described in the product tag by performing an OCR recognition process on a part or all of the specified product tag area.
The product tag identification processing unit
Identify the product tag area using the lightness information of the image information,
An image recognition system characterized by
前記画像情報の明度情報を横方向に積算することで,商品タグの上辺位置,下辺位置を特定し,
前記画像情報の明度情報を縦方向に積算することで,商品タグの左辺位置,右辺位置を特定する,
ことを特徴とする請求項1または請求項2に記載の画像認識システム。 The product tag identification processing unit
By integrating the lightness information of the image information in the horizontal direction, the upper side position and lower side position of the product tag are specified,
Identify the left side position and the right side position of the product tag by vertically integrating the lightness information of the image information,
The image recognition system according to claim 1 or 2, characterized in that:
前記画像情報の明度情報を横方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,商品タグの上辺位置,下辺位置を特定し,
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がり,立ち下がりを特定することで,立ち上がりから所定距離内にある立ち下がりをペアとして商品タグの左辺位置,右辺位置を特定する,
ことを特徴とする請求項1から請求項3のいずれかに記載の画像認識システム。 The product tag identification processing unit
Identify the upper side position and lower side position of the product tag by specifying the rising and falling of the histogram that integrates the lightness information of the image information in the horizontal direction,
By specifying the rising and falling of a histogram obtained by integrating the lightness information of the image information in the vertical direction, the left side position and the right side position of the product tag are specified by pairing the falling within a predetermined distance from the rising.
The image recognition system according to any one of claims 1 to 3, characterized in that:
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち上がりのうち,ペアを形成できなかった立ち上がりについてその右側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定し,
前記画像情報の明度情報を縦方向に積算したヒストグラムの立ち下がりのうち,ペアを形成できなかった立ち下がりについてその左側にあらかじめ定めた距離内にタグ領域がなければ商品タグ領域として特定する,
ことを特徴とする請求項1から請求項4のいずれかに記載の画像認識システム。 The product tag identification processing unit
Of the rising edges of the histogram obtained by integrating the lightness information of the image information in the vertical direction, if there is no tag region within a predetermined distance on the right of the rising edge that can not form a pair, it is specified as a product tag region;
Among the falling edges of the histogram obtained by integrating the lightness information of the image information in the vertical direction, if there is no tag region within a predetermined distance on the left side of the falling edge where the pair could not be formed,
The image recognition system according to any one of claims 1 to 4, characterized in that:
前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ内情報特定処理部は,
前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,
特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,
前記特定したブロックに対して前記OCR認識処理を実行する,
ことを特徴とする画像認識システム。 A product tag specification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown;
And an in-product tag information specification processing unit for specifying information described in the product tag by performing an OCR recognition process in the specified product tag area.
The product tag internal information identification processing unit
Specify a box by binarizing the specified product tag area and performing labeling processing,
Of the identified boxes, identify the boxes satisfying the predetermined condition as blocks,
Execute the OCR recognition process on the identified block,
An image recognition system characterized by
前記特定した商品タグ領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部と,を有しており,
前記商品タグ内情報特定処理部は,
前記OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識システム。 A product tag specification processing unit for specifying a product tag area in image information in which a display shelf for displaying a product is shown;
And an in-product tag information specification processing unit that specifies information described in the product tag by performing an OCR recognition process on a part or all of the specified product tag area.
The product tag internal information identification processing unit
Specify the tax-excluded price and the tax-included price by executing logical consistency judgment processing on the two price information identified by the OCR recognition,
An image recognition system characterized by
前記特定した商品タグ領域において二値化処理を実行し,
前記二値化した画像情報においてラベリング処理を行うことで,連続する画素同士をグループ化してボックスを特定し,
前記特定したボックスのうち,所定の類似性を有する隣接したボックス同士を合併させてブロックとして特定し,
前記特定したブロックのうち,もっとも高さが高いブロックを価格領域と推定してOCR認識処理を実行する,
ことを特徴とする請求項1から請求項7のいずれかに記載の画像認識システム。 The product tag internal information identification processing unit
Execute binarization processing in the specified product tag area,
By performing labeling processing on the binarized image information, consecutive pixels are grouped to specify a box,
Of the specified boxes, adjacent boxes having a predetermined similarity are merged and specified as a block,
Of the identified blocks, the block with the highest height is estimated to be the price area and the OCR recognition process is performed,
The image recognition system according to any one of claims 1 to 7, characterized in that:
前記OCR認識によって,税抜価格として認識した価格情報と,税込価格として認識した価格情報について,その価格の大小および/または税率の整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする請求項1から請求項8のいずれかに記載の画像認識システム。 The product tag internal information identification processing unit
With regard to the price information recognized as tax excluded price and the price information recognized as tax-included price by the OCR recognition, the tax-excluded price and tax-included price are executed by executing judgment processing of consistency of the price and / or the tax rate. Identify the
The image recognition system according to any one of claims 1 to 8, characterized in that.
前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部と,
前記特定した商品タグ領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部と,
を有することを特徴とする画像認識システム。 A product tag recognition processing unit that specifies product identification information in a product tag area in image information in which display shelves for displaying products are displayed;
A display product recognition processing unit that specifies product identification information of a displayed product in the image information;
A recognition result collation processing unit that compares the product identification information in the specified product tag area with the product identification information of the displayed displayed product, and checks whether the recognition results match each other;
An image recognition system characterized by having.
前記陳列商品認識処理部における認識処理により,類似性の高いフェイスが並んでいる区画を一群とし,各棚段における各群に,前記商品タグ認識処理部による商品タグの認識結果を対応づける,
ことを特徴とする請求項10に記載の画像認識システム。 The recognition result collation processing unit
By the recognition processing in the display product recognition processing unit, divisions in which faces with high similarity are arranged are made into a group, and the recognition result of the product tag by the product tag recognition processing unit is associated with each group in each tray
The image recognition system according to claim 10, characterized in that:
前記陳列棚を撮影した撮影画像情報に対して台形補正処理を実行する撮影画像情報正置化処理部,を有しており,
前記撮影画像情報正置化処理部は,
第1の撮影画像情報と,第2の撮影画像情報との対応関係に基づいて,前記第1の撮影画像情報における台形補正処理で用いた頂点を,前記第2の撮影画像情報に射影し,
前記射影した頂点に基づいて前記第2の撮影画像情報の台形補正処理を実行する,
ことを特徴とする請求項1から請求項11のいずれかに記載の画像認識システム。 The image recognition system further comprises
And a photographed image information regularization processing unit that executes keystone correction processing on photographed image information obtained by photographing the display shelf.
The photographed image information regularization processing unit
Projecting a vertex used in the keystone correction process in the first captured image information onto the second captured image information based on the correspondence between the first captured image information and the second captured image information,
Performing a keystone correction process of the second captured image information based on the projected vertex;
The image recognition system according to any one of claims 1 to 11, characterized in that:
前記撮影画像情報正置化処理部において台形補正処理を実行した前記撮影画像情報において,商品タグ配置領域を特定する位置特定処理部と,
前記特定した商品タグ配置領域において台形補正処理を実行する商品タグ配置領域正置化処理部と,を有しており,
前記商品タグ特定処理部は,
前記台形補正処理を実行したあとの画像情報に対して処理を実行する,
ことを特徴とする請求項1から請求項12のいずれかに記載の画像認識システム。 The image recognition system further comprises
A position specification processing unit for specifying a product tag placement area in the photographed image information for which the trapezoidal correction processing has been performed in the photographed image information regularization processing unit;
And a product tag placement area regularization processing unit that executes keystone correction processing in the specified product tag placement area.
The product tag identification processing unit
Execute processing on the image information after the keystone correction processing has been performed,
The image recognition system according to any one of claims 1 to 12, characterized in that:
前記商品タグ配置領域においてエッジ検出を行い,垂直方向の角度の所定条件を充足する直線群を検出し,
前記検出した直線群のうち,少なくとも2本の直線を特定し,
前記特定した2本の直線を用いて台形補正処理を実行する,
ことを特徴とする請求項13に記載の画像認識システム。 The commodity tag placement area regularization processing unit
Edge detection is performed in the product tag arrangement area, and a straight line group satisfying a predetermined condition of the angle in the vertical direction is detected;
Identify at least two straight lines out of the detected straight line group,
Execute keystone correction processing using the two specified straight lines,
The image recognition system according to claim 13, characterized in that.
商品を陳列する陳列棚が写っている画像情報における商品タグ領域を特定する商品タグ特定処理部,
前記特定した商品タグ領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ特定処理部は,
前記画像情報の明度情報を用いて商品タグ領域を特定し,
前記商品タグ内情報特定処理部は,
前記特定した商品タグ領域を二値化してラベリング処理を行うことでボックスを特定し,
特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,
前記特定したブロックに対して前記OCR認識処理を実行し,
前記OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識プログラム。 Computer,
Merchandise tag specification processing unit for specifying a merchandise tag area in image information in which a display shelf for displaying merchandise is shown,
It is an image recognition program to be functioned as an in-product tag information specification processing unit that specifies information described in a product tag by performing an OCR recognition process in the specified product tag area,
The product tag identification processing unit
Identify the product tag area using the lightness information of the image information,
The product tag internal information identification processing unit
Specify a box by binarizing the specified product tag area and performing labeling processing,
Of the identified boxes, identify the boxes satisfying the predetermined condition as blocks,
Execute the OCR recognition process on the identified block;
Specify the tax-excluded price and the tax-included price by executing logical consistency judgment processing on the two price information identified by the OCR recognition,
An image recognition program characterized by
商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,
前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ特定処理部は,
前記画像情報の明度情報を用いて商品タグの領域を特定する,
ことを特徴とする画像認識プログラム。 Computer,
Merchandise tag specification processing unit that specifies the area of the merchandise tag in the image information in which the display shelf displaying the merchandise is shown,
It is an image recognition program to be functioned as an in-product tag information specification processing unit that specifies information described in a product tag by performing an OCR recognition process on a part or all of the specified product tag area,
The product tag identification processing unit
Identify the area of the product tag using the lightness information of the image information,
An image recognition program characterized by
商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,
前記特定した商品タグの領域においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ内情報特定処理部は,
前記特定した商品タグの領域を二値化してラベリング処理を行うことでボックスを特定し,
特定したボックスのうち,所定条件を充足するボックス同士をブロックとして特定し,
前記特定したブロックに対して前記OCR認識処理を実行する,
ことを特徴とする画像認識プログラム。 Computer,
Merchandise tag specification processing unit that specifies the area of the merchandise tag in the image information in which the display shelf displaying the merchandise is shown,
It is an image recognition program which is made to function as an in-product tag information specification processing unit that specifies information described in a product tag by performing OCR recognition processing in the area of the specified product tag,
The product tag internal information identification processing unit
Specifying a box by binarizing the area of the specified product tag and performing a labeling process,
Of the identified boxes, identify the boxes satisfying the predetermined condition as blocks,
Execute the OCR recognition process on the identified block,
An image recognition program characterized by
商品を陳列している陳列棚が写っている画像情報における商品タグの領域を特定する商品タグ特定処理部,
前記特定した商品タグの領域の一部または全部においてOCR認識処理を行うことで商品タグに表記された情報を特定する商品タグ内情報特定処理部,として機能させる画像認識プログラムであって,
前記商品タグ内情報特定処理部は,
前記OCR認識によって特定した二つの価格情報について,論理的整合性の判定処理を実行することで,税抜価格および税込価格を特定する,
ことを特徴とする画像認識プログラム。 Computer,
Merchandise tag specification processing unit that specifies the area of the merchandise tag in the image information in which the display shelf displaying the merchandise is shown,
It is an image recognition program to be functioned as an in-product tag information specification processing unit that specifies information described in a product tag by performing an OCR recognition process on a part or all of the specified product tag area,
The product tag internal information identification processing unit
Specify the tax-excluded price and the tax-included price by executing logical consistency judgment processing on the two price information identified by the OCR recognition,
An image recognition program characterized by
商品を陳列している陳列棚が写っている画像情報における商品タグの領域における商品識別情報を特定する商品タグ認識処理部,
前記画像情報における陳列されている商品の商品識別情報を特定する陳列商品認識処理部,
前記特定した商品タグの領域における商品識別情報と,前記特定した陳列されている商品の商品識別情報とを比較し,認識結果が一致しているかを照合する認識結果照合処理部,
として機能させることを特徴とする画像認識プログラム。 Computer,
Merchandise tag recognition processing unit that specifies merchandise identification information in the area of the merchandise tag in the image information in which the display shelf displaying the merchandise is shown,
A display product recognition processing unit that specifies product identification information of a displayed product in the image information,
A recognition result collation processing unit that compares product identification information in the area of the specified product tag with product identification information of the specified displayed product, and checks whether the recognition results match
An image recognition program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017164759A JP6458239B1 (en) | 2017-08-29 | 2017-08-29 | Image recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017164759A JP6458239B1 (en) | 2017-08-29 | 2017-08-29 | Image recognition system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018194877A Division JP6831951B2 (en) | 2018-10-16 | 2018-10-16 | Image recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6458239B1 JP6458239B1 (en) | 2019-01-30 |
JP2019045909A true JP2019045909A (en) | 2019-03-22 |
Family
ID=65228872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017164759A Active JP6458239B1 (en) | 2017-08-29 | 2017-08-29 | Image recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6458239B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020198054A (en) * | 2019-06-05 | 2020-12-10 | 日本ユニシス株式会社 | Program, information processing system, information processing device, and information processing method |
JP6810302B1 (en) * | 2020-07-29 | 2021-01-06 | ファーストアカウンティング株式会社 | Data processing equipment, data processing methods and programs |
WO2021060032A1 (en) * | 2019-09-25 | 2021-04-01 | 日本電気株式会社 | Image processing device, image processing method, and program |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6887167B2 (en) * | 2019-04-01 | 2021-06-16 | 株式会社マーケットヴィジョン | Image processing system |
CN110321895A (en) * | 2019-04-30 | 2019-10-11 | 北京市商汤科技开发有限公司 | Document identification method and device, electronic device, computer-readable storage medium |
JP7340353B2 (en) * | 2019-05-22 | 2023-09-07 | 東芝テック株式会社 | Information processing device, article identification device, and article identification system |
CN113962263B (en) * | 2021-10-22 | 2025-06-06 | 上海汉时信息科技有限公司 | A method and system for detecting commodities |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08339421A (en) * | 1995-06-13 | 1996-12-24 | Kobe Steel Ltd | Character area determining method for image |
JPH09128478A (en) * | 1995-11-06 | 1997-05-16 | Sharp Corp | Image processing device |
JP2012022575A (en) * | 2010-07-15 | 2012-02-02 | Canon Inc | Image processing apparatus, image processing method, and program |
JP2012053711A (en) * | 2010-09-01 | 2012-03-15 | Toshiba Tec Corp | Information processor, store system and program |
JP2016071782A (en) * | 2014-10-01 | 2016-05-09 | 辛東主 | Merchandise display information totalization system |
-
2017
- 2017-08-29 JP JP2017164759A patent/JP6458239B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08339421A (en) * | 1995-06-13 | 1996-12-24 | Kobe Steel Ltd | Character area determining method for image |
JPH09128478A (en) * | 1995-11-06 | 1997-05-16 | Sharp Corp | Image processing device |
JP2012022575A (en) * | 2010-07-15 | 2012-02-02 | Canon Inc | Image processing apparatus, image processing method, and program |
JP2012053711A (en) * | 2010-09-01 | 2012-03-15 | Toshiba Tec Corp | Information processor, store system and program |
JP2016071782A (en) * | 2014-10-01 | 2016-05-09 | 辛東主 | Merchandise display information totalization system |
Non-Patent Citations (1)
Title |
---|
土井 泰法: "ラベル要素検出とモデル照合による商品棚ラベル認識", 情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM), JPN6015028992, 15 October 2010 (2010-10-15), JP, ISSN: 0003873684 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020198054A (en) * | 2019-06-05 | 2020-12-10 | 日本ユニシス株式会社 | Program, information processing system, information processing device, and information processing method |
WO2021060032A1 (en) * | 2019-09-25 | 2021-04-01 | 日本電気株式会社 | Image processing device, image processing method, and program |
JPWO2021060032A1 (en) * | 2019-09-25 | 2021-04-01 | ||
JP6810302B1 (en) * | 2020-07-29 | 2021-01-06 | ファーストアカウンティング株式会社 | Data processing equipment, data processing methods and programs |
WO2022024262A1 (en) * | 2020-07-29 | 2022-02-03 | ファーストアカウンティング株式会社 | Data processing device, data processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6458239B1 (en) | 2019-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6458239B1 (en) | Image recognition system | |
JP6831951B2 (en) | Image recognition system | |
JP6693059B2 (en) | Product shelf recognition device, product shelf recognition method, program, and image processing device | |
US11494573B2 (en) | Self-checkout device to which hybrid product recognition technology is applied | |
JP6098701B2 (en) | Method, system and computer readable program for analyzing an image containing a plurality of organized objects | |
JP6651169B2 (en) | Display status judgment system | |
CN107403128B (en) | Article identification method and device | |
CN106056112B (en) | Image processing apparatus and image processing method | |
JP6579456B1 (en) | Search target information narrowing system | |
JP6885563B2 (en) | Display status judgment system | |
JP6941331B2 (en) | Image recognition system | |
JP2018139062A (en) | Commodity information acquisition system | |
US10706658B2 (en) | Vending machine recognition apparatus, vending machine recognition method, and recording medium | |
JPWO2014030400A1 (en) | Object identification device, object identification method, and program | |
JP7231165B2 (en) | Verification system | |
JP6628336B2 (en) | Information processing system | |
CN107403179B (en) | Registration method and device for article packaging information | |
JP6670511B2 (en) | Product information acquisition system | |
US20230334277A1 (en) | Information processing system | |
JP2021119475A (en) | Narrowing down processing system | |
JP6536707B1 (en) | Image recognition system | |
WO2019181441A1 (en) | Information processing device, control method, program | |
JP6890849B2 (en) | Information processing system | |
JP7328642B1 (en) | Information processing system | |
JP7343115B1 (en) | information processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6458239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |