[go: up one dir, main page]

JP2013246790A - Recognition dictionary creation device and program - Google Patents

Recognition dictionary creation device and program Download PDF

Info

Publication number
JP2013246790A
JP2013246790A JP2012122243A JP2012122243A JP2013246790A JP 2013246790 A JP2013246790 A JP 2013246790A JP 2012122243 A JP2012122243 A JP 2012122243A JP 2012122243 A JP2012122243 A JP 2012122243A JP 2013246790 A JP2013246790 A JP 2013246790A
Authority
JP
Japan
Prior art keywords
image
recognition dictionary
data
product
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012122243A
Other languages
Japanese (ja)
Inventor
Hiroshi Sugasawa
広志 菅澤
Hitoshi Iizaka
仁志 飯坂
Hidehiro Naito
英浩 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Tec Corp
Original Assignee
Toshiba Tec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Tec Corp filed Critical Toshiba Tec Corp
Priority to JP2012122243A priority Critical patent/JP2013246790A/en
Publication of JP2013246790A publication Critical patent/JP2013246790A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】認識辞書の作成に要する手間と時間を削減する。
【解決手段】認識辞書作成装置は、撮像手段で撮像された物品の画像を記憶部で記憶する。また認識辞書作成装置は、記憶部で記憶された画像を、当該画像に含まれる物品を撮像手段で異なる方向から撮像した画像に加工する。さらに認識辞書作成装置は、加工された画像から、当該画像に含まれる物品の特徴量データを抽出する。そして認識辞書作成装置は、抽出された特徴量データを認識辞書ファイルに登録する。
【選択図】 図4
To reduce labor and time required for creating a recognition dictionary.
A recognition dictionary creation device stores an image of an article captured by an imaging unit in a storage unit. In addition, the recognition dictionary creation apparatus processes the image stored in the storage unit into an image obtained by capturing the articles included in the image from different directions with the imaging unit. Furthermore, the recognition dictionary creation device extracts feature amount data of articles included in the image from the processed image. The recognition dictionary creation device registers the extracted feature data in the recognition dictionary file.
[Selection] Figure 4

Description

本発明の実施形態は、画像からこの画像に含まれる物品を認識するシステムに用いられる認識辞書の作成装置及びコンピュータを当該認識辞書作成装置として機能させるためのプログラムに関する。   Embodiments described herein relate generally to a recognition dictionary creation device used in a system for recognizing an article included in an image from an image, and a program for causing a computer to function as the recognition dictionary creation device.

対象となる物品(オブジェクト)を撮像部で撮像した画像データから当該物品の特徴量を抽出し、認識辞書に登録された特徴量データと照合して類似度を算出し、この類似度に応じて当該物品の種別等を認識する技術がある。このような画像中に含まれる物品を認識する技術は、一般物体認識(generic object recognition)と呼ばれる。この一般物体認識の技術については、下記の文献において各種認識技術が解説されている。   The feature quantity of the article is extracted from the image data obtained by imaging the target article (object) with the imaging unit, and the similarity is calculated by comparing with the feature quantity data registered in the recognition dictionary. There is a technique for recognizing the type of the article. Such a technique for recognizing an article included in an image is called generic object recognition. Regarding this general object recognition technique, various recognition techniques are described in the following documents.

柳井 啓司,“一般物体認識の現状と今後”,情報処理学会論文誌,Vol.48,No.SIG16[平成22年8月10日検索],インターネット< URL: http://mm.cs.uec.ac.jp/IPSJ-TCVIM-Yanai.pdf >
また、画像をオブジェクト毎に領域分割することによって、一般物体認識を行う技術が、下記の文献において解説されている。
Jamie Shottonら,“Semantic Texton Forests for Image Categorization and Segmentation”,[平成22年8月10日検索],インターネット< URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.145.3036&rep=repl&type=pdf >
近年、例えば小売店の会計システム(POSシステム)において、顧客が買い上げる商品を認識する装置に、一般物体認識の技術を適用することが提案されている。
Keiji Yanai, “Current Status and Future of General Object Recognition”, IPSJ Journal, Vol. 48, no. SIG16 [Search August 10, 2010], Internet <URL: http://mm.cs.uec.ac.jp/IPSJ-TCVIM-Yanai.pdf>
Further, a technique for performing general object recognition by dividing an image into regions for each object is described in the following document.
Jamie Shotton et al., “Semantic Texton Forests for Image Categorization and Segmentation”, [Search August 10, 2010], Internet <URL: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1. 1.145.3036 & rep = repl & type = pdf>
In recent years, for example, in an accounting system (POS system) of a retail store, it has been proposed to apply a general object recognition technique to a device that recognizes a product purchased by a customer.

特開2010−237886号公報JP 2010-237886 A

一般物体認識の技術において、認識精度を高めるには認識辞書を充実させることが重要である。認識辞書には、対象となる物品の外観形状、色合い、模様、凹凸具合等の表面情報をパラメータで表わす特徴量データが保存される。ただし同じ物品でも、表面情報はその物品の向きによって異なる。しかも、ユーザが物品をどの向きで撮像部に向けるかは定かでない。そこで、予め物品を様々な角度から撮影した画像データから表面情報の特徴量を抽出し、これらの特徴量を当該物品の特徴量データとして認識辞書に登録する必要がある。このため、認識辞書の作成に多大な手間と時間を要する。   In general object recognition technology, it is important to enhance the recognition dictionary in order to improve recognition accuracy. In the recognition dictionary, feature amount data that represents surface information such as the external shape, color, pattern, and unevenness of the target article as parameters is stored. However, even for the same product, the surface information varies depending on the orientation of the product. In addition, it is not certain in which direction the user points the article toward the imaging unit. Therefore, it is necessary to extract feature amounts of surface information from image data obtained by photographing an article in advance from various angles, and register these feature quantities in the recognition dictionary as feature quantity data of the article. For this reason, it takes a lot of labor and time to create a recognition dictionary.

本発明が解決しようとする課題は、認識辞書の作成に要する手間と時間を削減できる認識辞書作成装置を提供しようとするものである。   The problem to be solved by the present invention is to provide a recognition dictionary creation device that can reduce the labor and time required to create a recognition dictionary.

一実施形態において、認識辞書作成装置は、ファイルアクセス手段と、記憶手段と、加工手段と、抽出手段と、データ登録手段とを備える。ファイルアクセス手段は、認識対象である物品毎にその物品の表面情報を表わす特徴量データが保存される認識辞書ファイルにアクセスする。記憶手段は、撮像手段で撮像された物品の画像を記憶する。加工手段は、記憶手段で記憶された画像を、当該画像に含まれる物品を撮像手段で異なる方向から撮像した画像に加工する。抽出手段は、加工手段で加工された画像から、当該画像に含まれる物品の特徴量データを抽出する。データ登録手段は、抽出手段で抽出された特徴量データを、ファイルアクセス手段を介して認識辞書ファイルに登録する。   In one embodiment, the recognition dictionary creation device includes a file access unit, a storage unit, a processing unit, an extraction unit, and a data registration unit. The file access means accesses a recognition dictionary file in which feature amount data representing the surface information of each article is stored for each article to be recognized. The storage means stores an image of the article imaged by the imaging means. The processing means processes the image stored in the storage means into an image obtained by imaging the article included in the image from different directions by the imaging means. The extraction unit extracts feature amount data of an article included in the image from the image processed by the processing unit. The data registration unit registers the feature amount data extracted by the extraction unit in the recognition dictionary file via the file access unit.

一実施形態である店舗会計システムの外観図。The external view of the store accounting system which is one Embodiment. 店舗会計システムの商品読取装置とPOS端末とのハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of the goods reading apparatus and POS terminal of a store accounting system. 店舗会計システムで用いられる認識辞書ファイルのデータ構造を示す模式図。The schematic diagram which shows the data structure of the recognition dictionary file used with a store accounting system. 第1の実施形態において、商品読取装置で認識辞書作成モードが選択された際に、同商品読取装置のCPUが実現する機能構成を示すブロック図。The block diagram which shows the function structure which CPU of the goods reading apparatus implement | achieves when the recognition dictionary creation mode is selected by the goods reading apparatus in 1st Embodiment. 第1の実施形態において、図4に示される各機能を実現するために必要な記憶部のエリア構成を示す模式図。FIG. 5 is a schematic diagram showing an area configuration of a storage unit necessary for realizing each function shown in FIG. 4 in the first embodiment. 第1の実施形態において、画像の回転方向を説明するための図。The figure for demonstrating the rotation direction of an image in 1st Embodiment. 第1の実施形態において、商品読取装置のCPUが認識辞書作成プログラムに従って実行する情報処理の手順を示す流れ図。The flowchart which shows the procedure of the information processing which CPU of a goods reading apparatus performs according to a recognition dictionary creation program in 1st Embodiment. 図7におけるステップST107の正面画像処理の手順を具体的に示す流れ図。The flowchart which shows the procedure of the front image process of step ST107 in FIG. 7 concretely. 図7におけるステップST108の加工画像処理の手順を具体的に示す流れ図。8 is a flowchart specifically showing a procedure of processed image processing in step ST108 in FIG. 第2の実施形態において、画像の回転方向を説明するための図。The figure for demonstrating the rotation direction of an image in 2nd Embodiment. 第2の実施形態において、図4に示される各機能を実現するために必要な記憶部のエリア構成を示す模式図。FIG. 5 is a schematic diagram showing an area configuration of a storage unit necessary for realizing each function shown in FIG. 4 in the second embodiment. 第2の実施形態において、商品読取装置のCPUが認識辞書作成プログラムに従って実行する情報処理の手順を示す流れ図。The flowchart which shows the procedure of the information processing which CPU of a goods reading apparatus performs according to a recognition dictionary creation program in 2nd Embodiment. 図12におけるステップST4の撮影処理の手順を具体的に示す流れ図。FIG. 13 is a flowchart specifically showing a procedure of a photographing process in step ST4 in FIG. 図12におけるステップST6の正面画像処理の手順を具体的に示す流れ図。FIG. 13 is a flowchart specifically showing the procedure of front image processing in step ST6 in FIG. 12; 図12におけるステップST9及びステップST14の加工画像処理の手順を具体的に示す流れ図。The flowchart which shows concretely the procedure of the process image process of step ST9 and step ST14 in FIG. 図7におけるステップST11の裏面画像処理の手順を具体的に示す流れ図。The flowchart which shows the procedure of the back surface image process of step ST11 in FIG. 7 concretely. 第3の実施形態において、商品読取装置で認識辞書作成モードが選択された際に、同商品読取装置のCPUが実現する機能構成を示すブロック図。The block diagram which shows the function structure which CPU of the goods reading apparatus implement | achieves when the recognition dictionary creation mode is selected by goods reading apparatus in 3rd Embodiment. 第3の実施形態における加工画像処理の手順を具体的に示す流れ図。10 is a flowchart specifically showing a procedure of processed image processing in the third embodiment. 第4の実施形態において、商品読取装置で認識辞書作成モードが選択された際に、同商品読取装置のCPUが実現する機能構成を示すブロック図。The block diagram which shows the function structure which CPU of the product reading apparatus implement | achieves in 4th Embodiment, when the recognition dictionary creation mode is selected by the product reading apparatus. 第4の実施形態で用いられるフラグテーブルのデータ構造を示す模式図。The schematic diagram which shows the data structure of the flag table used in 4th Embodiment. 第4の実施形態において、商品読取装置のCPUが認識辞書作成プログラムに従って実行する情報処理の手順を要部のみ示す流れ図。The flowchart which shows only the principal part of the procedure of the information processing which CPU of a goods reading apparatus performs according to the recognition dictionary creation program in 4th Embodiment. 第4の実施形態における加工画像処理の手順を要部のみ示す流れ図。The flowchart which shows only the principal part about the procedure of the process image process in 4th Embodiment.

以下、認識辞書作成装置に係る実施形態を、図面を用いて説明する。なお、本実施形態は、店舗会計システム(POSシステム)で利用される商品読取装置1に、認識辞書作成装置の機能を持たせた場合である。   Hereinafter, an embodiment according to a recognition dictionary creation device will be described with reference to the drawings. In the present embodiment, the product reading device 1 used in the store accounting system (POS system) is provided with the function of a recognition dictionary creation device.

(第1の実施形態)
始めに,第1の実施形態について、図1〜図9を用いて説明する。
図1は、店舗会計システムの外観図である。このシステムは、顧客が買い上げる商品を登録する登録部としての商品読取装置1と、顧客の代金支払いを処理する決済部としてのPOS(Point Of Sales)端末2とを含む。商品読取装置1は、会計カウンタ3の上に取り付けられる。POS端末2は、レジ台4の上にドロワ5を介して設置される。商品読取装置1とPOS端末2とは、図示しない通信ケーブルによって電気的に接続される。
(First embodiment)
First, a first embodiment will be described with reference to FIGS.
FIG. 1 is an external view of a store accounting system. This system includes a product reading device 1 as a registration unit for registering products purchased by a customer, and a POS (Point Of Sales) terminal 2 as a settlement unit for processing payment for the customer. The commodity reading device 1 is attached on the accounting counter 3. The POS terminal 2 is installed on the cash register 4 via the drawer 5. The product reading device 1 and the POS terminal 2 are electrically connected by a communication cable (not shown).

商品読取装置1は、キーボード11、タッチパネル12及び客用ディスプレイ13を備える。これらの表示・操作デバイス(キーボード11、タッチパネル12、客用ディスプレイ13)は、商品読取装置1の本体を構成する薄型矩形形状のハウジング1Aに取り付けられる。   The merchandise reading apparatus 1 includes a keyboard 11, a touch panel 12, and a customer display 13. These display / operation devices (keyboard 11, touch panel 12, customer display 13) are attached to a thin rectangular housing 1 </ b> A constituting the main body of the commodity reading apparatus 1.

ハウジング1Aには、撮像手段としての撮像部14が内蔵される。また、矩形状の読取窓1Bが、ハウジング1Aの正面に形成される。撮像部14は、エリアイメージセンサであるCCD(Charge Coupled Device)撮像素子及びその駆動回路と、撮像領域の画像をCCD撮像素子に結像させるための撮像レンズとを備える。撮像領域とは、読取窓1Bから撮像レンズを通してCCD撮像素子のエリアに結像するフレーム画像の領域を指す。撮像部14は、撮像レンズを通ってCCD撮像素子に結像した撮像領域の画像を出力する。   The housing 1A incorporates an imaging unit 14 as imaging means. A rectangular reading window 1B is formed in front of the housing 1A. The imaging unit 14 includes a CCD (Charge Coupled Device) imaging device that is an area image sensor and its drive circuit, and an imaging lens for forming an image of the imaging region on the CCD imaging device. The imaging region refers to a region of a frame image that forms an image on the area of the CCD imaging device from the reading window 1B through the imaging lens. The imaging unit 14 outputs an image of the imaging region formed on the CCD imaging device through the imaging lens.

POS端末2は、決済に必要なデバイスとしてキーボード21、オペレータ用ディスプレイ22、客用ディスプレイ23及びレシートプリンタ24を備える。   The POS terminal 2 includes a keyboard 21, an operator display 22, a customer display 23, and a receipt printer 24 as devices necessary for payment.

会計カウンタ3は、その奥側の顧客通路に沿って細長い形状である。レジ台4は、会計カウンタ3に沿って移動する顧客の移動方向に対して下流側の会計カウンタ3の端部手前側に、会計カウンタ3に対して略垂直に置かれる。そして、この会計カウンタ3の手前側とレジ台4の手前側が、会計担当の店員いわゆるキャッシャのスペースとなる。   The checkout counter 3 has an elongated shape along the customer passage on the back side. The cash register 4 is placed substantially perpendicular to the transaction counter 3 on the front side of the end of the transaction counter 3 on the downstream side with respect to the moving direction of the customer moving along the transaction counter 3. The front side of the accounting counter 3 and the front side of the cash register 4 serve as a space for so-called cashiers in charge of accounting.

会計カウンタ3の略中央には、商品読取装置1のハウジング1Aが、キーボード11、タッチパネル12及び読取窓1Bをそれぞれ手前側のキャッシャ側に向けて立設される。商品読取装置1の客用ディスプレイ13は、顧客通路側を向いてハウジング1Aに取り付けられる。   In the approximate center of the accounting counter 3, the housing 1A of the commodity reading apparatus 1 is erected with the keyboard 11, the touch panel 12, and the reading window 1B facing the cashier side on the front side. The customer display 13 of the commodity reading apparatus 1 is attached to the housing 1A so as to face the customer passage.

会計カウンタ3の商品読取装置1を挟んで顧客移動方向上流側の荷受面は、買物客が購入する未登録の商品Mが入れられた買物カゴ6を置くためのスペースとなる。また、下流側の荷受面は、商品読取装置1により登録された商品Mを入れるための買物カゴ7を置くためのスペースとなる。   The receiving surface on the upstream side of the customer movement direction across the commodity reading device 1 of the accounting counter 3 is a space for placing a shopping basket 6 in which unregistered commodity M to be purchased by the shopper is placed. In addition, the downstream receiving surface is a space for placing a shopping basket 7 into which the product M registered by the product reading device 1 is placed.

図2は、商品読取装置1とPOS端末2とのハードウェア構成を示すブロック図である。商品読取装置1は、制御部本体としてCPU(Central Processing Unit)101を搭載する。そしてこのCPU101に、アドレスバス,データバス等のバスライン102を介して、ROM103とRAM104とが接続される。ROM103には、CPU101によって実行されるプログラムが記憶される。   FIG. 2 is a block diagram illustrating a hardware configuration of the commodity reading device 1 and the POS terminal 2. The commodity reading apparatus 1 includes a CPU (Central Processing Unit) 101 as a control unit main body. A ROM 103 and a RAM 104 are connected to the CPU 101 via a bus line 102 such as an address bus or a data bus. The ROM 103 stores a program executed by the CPU 101.

この他、バスライン102には、入出力回路(不図示)を介して前記撮像部14が接続される。また、接続インターフェース105及び接続インターフェース106を介して、表示・操作デバイスであるキーボード11、タッチパネル12及び客用ディスプレイ13が、バスライン102に接続される。タッチパネル12は、例えば液晶ディスプレイを用いたパネル表示部121と、この表示部の画面上に重ねて配置されたタッチパネルセンサ122とを備える。   In addition, the imaging unit 14 is connected to the bus line 102 via an input / output circuit (not shown). In addition, the keyboard 11, the touch panel 12, and the customer display 13, which are display / operation devices, are connected to the bus line 102 via the connection interface 105 and the connection interface 106. The touch panel 12 includes a panel display unit 121 using, for example, a liquid crystal display, and a touch panel sensor 122 arranged on the screen of the display unit.

POS端末2も、制御部本体としてCPU201を搭載する。そしてこのCPU201に、バスライン202を介して、ROM203、RAM204、HDD(Hard Disk Drive)装置205、通信インターフェース206及び接続インターフェース207が接続される。また、バスライン202には、前記キーボード21、オペレータ用ディスプレイ22、客用ディスプレイ23、プリンタ24及びドロワ5の各部も、それぞれ入出力回路(不図示)を介して接続される。   The POS terminal 2 also includes a CPU 201 as a control unit main body. The CPU 201 is connected to a ROM 203, a RAM 204, an HDD (Hard Disk Drive) device 205, a communication interface 206, and a connection interface 207 via a bus line 202. Further, the keyboard 21, the operator display 22, the customer display 23, the printer 24, and the drawer 5 are connected to the bus line 202 through input / output circuits (not shown).

通信インターフェース206は、LAN(Local Area Network)等のネットワークを介して、店舗の中枢を担うストアコンピュータSCと接続される。この接続により、POS端末2は、ストアコンピュータSCとデータの送受信が可能となる。例えばPOS端末2は、ストアコンピュータSCから商品データファイル(不図示)や認識辞書ファイル8を受信する。受信した商品データファイル及び認識辞書ファイル8は、HDD装置205に保存される。   The communication interface 206 is connected to a store computer SC serving as the center of the store via a network such as a LAN (Local Area Network). With this connection, the POS terminal 2 can transmit / receive data to / from the store computer SC. For example, the POS terminal 2 receives a product data file (not shown) and a recognition dictionary file 8 from the store computer SC. The received product data file and recognition dictionary file 8 are stored in the HDD device 205.

接続インターフェース207は、通信ケーブルを介して、商品読取装置1の両接続インターフェース105,106と接続される。この接続により、POS端末2は、商品読取装置1で読み取られた商品情報を受信する。また、商品読取装置1は、HDD装置205に保存された商品データファイルや認識辞書ファイル8へのアクセスが可能となる。   The connection interface 207 is connected to both connection interfaces 105 and 106 of the commodity reading apparatus 1 via a communication cable. With this connection, the POS terminal 2 receives the product information read by the product reading device 1. Further, the product reading device 1 can access the product data file and the recognition dictionary file 8 stored in the HDD device 205.

図3は、認識辞書ファイル8に保存される辞書データの構造を示す模式図である。図3に示すように、認識辞書ファイル8には、認識対象である商品毎に、その商品を識別する商品ID及び商品名と関連付けて、N(Nは複数)個の特徴量データが保存される。特徴量データは、対応する商品IDで識別される商品の表面情報の特徴量をパラメータで表わしたものである。   FIG. 3 is a schematic diagram showing the structure of dictionary data stored in the recognition dictionary file 8. As shown in FIG. 3, the recognition dictionary file 8 stores N (N is a plurality) feature amount data in association with a product ID and a product name for identifying a product for each product to be recognized. The The feature amount data represents the feature amount of the surface information of the product identified by the corresponding product ID as a parameter.

店舗で販売される各商品には、固有の商品IDが割当てられている。商品データファイルには、各商品の商品IDと関連付けて、商品名、単価、分類コード等の商品情報がプリセットされている。   A unique product ID is assigned to each product sold in the store. In the product data file, product information such as product name, unit price, and classification code is preset in association with the product ID of each product.

商品読取装置1は、業務モードとして少なくとも商品認識モードと認識辞書作成モードとを有する。商品認識モードは、顧客が買い上げる商品を認識し、その認識結果をPOS端末2に出力するモードである。認識辞書作成モードは、認識辞書ファイル8に未登録の新規商品の特徴量データを追加したり、認識辞書ファイル8に登録済の既存商品の特徴量データを更新したりすることで、認識辞書ファイル8を作成(編集)するモードである。これらの業務モードは、例えばタッチパネル12に表示されるメニュー画面から選択可能である。なお、認識辞書作成モードについては、パスワード入力等の認証手段を設けることによって、選択できるオペレータを制限することが好ましい。   The product reading device 1 has at least a product recognition mode and a recognition dictionary creation mode as business modes. The product recognition mode is a mode for recognizing a product purchased by a customer and outputting the recognition result to the POS terminal 2. In the recognition dictionary creation mode, a feature dictionary data of an unregistered new product is added to the recognition dictionary file 8 or a feature dictionary data of an existing product registered in the recognition dictionary file 8 is updated. This is a mode for creating (editing) 8. These business modes can be selected from a menu screen displayed on the touch panel 12, for example. Regarding the recognition dictionary creation mode, it is preferable to limit the operators that can be selected by providing authentication means such as password entry.

商品認識モードが選択された場合、CPU101は、撮像部14に撮像オン信号を出力して撮像領域を撮像させる。そしてCPU101は、この撮像領域の画像データから商品の画像を取り込み、取り込んだ商品画像から当該商品の表面情報に関わる特徴量を抽出する。さらにCPU101は、抽出された特徴量を、認識辞書ファイル8に登録されている特徴量データと照合して類似度を算出する。そして、類似度が所定の閾値を超える特徴量データが認識辞書ファイル8に登録されていたならば、CPU101は、その特徴量データに関連付けられた商品IDを顧客の買上商品として認識して、POS端末2に出力する。   When the product recognition mode is selected, the CPU 101 outputs an imaging on signal to the imaging unit 14 to image the imaging area. Then, the CPU 101 captures an image of a product from the image data of the imaging area, and extracts a feature amount related to the surface information of the product from the captured product image. Further, the CPU 101 collates the extracted feature quantity with the feature quantity data registered in the recognition dictionary file 8 to calculate the similarity. If feature amount data whose similarity exceeds a predetermined threshold is registered in the recognition dictionary file 8, the CPU 101 recognizes the product ID associated with the feature amount data as a customer's purchased product, and performs POS. Output to terminal 2.

一方、認識辞書作成モードが選択された場合には、CPU101は、図4のブロック図で示される各機能、すなわち角度受付手段41、記憶手段42、加工手段43、抽出手段44及びデータ登録手段45を実現する。これらの機能は皆、プログラム記憶部であるROM103に格納された認識辞書作成プログラム(不図示)に従って実現される。   On the other hand, when the recognition dictionary creation mode is selected, the CPU 101 performs the functions shown in the block diagram of FIG. 4, that is, the angle reception unit 41, the storage unit 42, the processing unit 43, the extraction unit 44, and the data registration unit 45. Is realized. All of these functions are realized according to a recognition dictionary creation program (not shown) stored in the ROM 103 which is a program storage unit.

角度受付手段41は、キーボード11やタッチパネル12等の入力部31を介して回転角度の入力を受け付ける。記憶手段42は、撮像部14で撮像された商品の画像を記憶部32に記憶させる。加工手段43は、記憶部32で記憶された商品の画像を、当該画像に含まれる商品を撮像部14で異なる方向から撮像した画像に加工する。抽出手段44は、加工手段43により加工された画像から、当該画像に含まれる商品の表面情報に関わる特徴量データを抽出する。データ登録手段45は、抽出手段44で抽出された特徴量データを、ファイルアクセス手段46を介して認識辞書ファイル8に登録する。ファイルアクセス手段46は、POS端末2のHDD装置205に保存される認識辞書ファイル8にアクセスする手段であり、本実施形態では接続インターフェース105が該当する。   The angle receiving unit 41 receives a rotation angle input via the input unit 31 such as the keyboard 11 or the touch panel 12. The storage unit 42 causes the storage unit 32 to store the product image captured by the imaging unit 14. The processing means 43 processes the product image stored in the storage unit 32 into an image obtained by capturing the product included in the image from different directions with the imaging unit 14. The extraction unit 44 extracts feature amount data related to the surface information of the product included in the image from the image processed by the processing unit 43. The data registration unit 45 registers the feature amount data extracted by the extraction unit 44 in the recognition dictionary file 8 via the file access unit 46. The file access means 46 is means for accessing the recognition dictionary file 8 stored in the HDD device 205 of the POS terminal 2, and corresponds to the connection interface 105 in this embodiment.

記憶部32は、RAM104に形成される。記憶部32には、図5に示すように、基準画像メモリ321、加工画像メモリ322及び特徴量データのバッファメモリ323が設けられる。   The storage unit 32 is formed in the RAM 104. As shown in FIG. 5, the storage unit 32 includes a reference image memory 321, a processed image memory 322, and a feature amount data buffer memory 323.

基準画像メモリ321には、加工処理の基準となるフレーム画像が格納される。本実施形態では、撮像部14で撮像された画像を基準画像とする。   The reference image memory 321 stores a frame image serving as a reference for processing. In the present embodiment, an image captured by the imaging unit 14 is used as a reference image.

加工画像メモリ322には、上記基準画像から加工された画像が格納される。本実施形態では、図6に示すように、基準画像(フレーム画像)50の中心Oを回転中心として、当該基準画像51を右方向rに所定角度で回転させた画像が加工画像メモリ322に格納される。なお、画像の回転方向は右方向rに限定されるものではなく、その反対の左方向であってもよい。   The processed image memory 322 stores an image processed from the reference image. In the present embodiment, as shown in FIG. 6, an image obtained by rotating the reference image 51 at a predetermined angle in the right direction r around the center O of the reference image (frame image) 50 is stored in the processed image memory 322. Is done. Note that the rotation direction of the image is not limited to the right direction r, and may be the opposite left direction.

バッファメモリ323には、基準画像及び複数の加工画像からそれぞれ抽出される同一商品の特徴量データが蓄積される。   The buffer memory 323 stores feature amount data of the same product extracted from the reference image and the plurality of processed images.

図7は、認識辞書作成モードが選択されたときのCPU101の主要な情報処理手順を示す流れ図である。認識辞書作成モードが選択されると、認識辞書作成プログラムが起動する。このプログラムの起動により、CPU101は、商品ID、回転角度θ及びサンプル数nの受付画面をタッチパネル12に表示させる(ST101)。そしてCPU101は、上記受付画面から商品ID、回転角度θ及びサンプル数nがそれぞれ入力されるのを待機する(ST102:角度受付手段41)。   FIG. 7 is a flowchart showing the main information processing procedure of the CPU 101 when the recognition dictionary creation mode is selected. When the recognition dictionary creation mode is selected, the recognition dictionary creation program is activated. By starting this program, the CPU 101 causes the touch panel 12 to display a reception screen for the product ID, the rotation angle θ, and the number of samples n (ST101). Then, the CPU 101 waits for the product ID, the rotation angle θ, and the sample number n to be input from the reception screen (ST102: angle reception unit 41).

回転角度θとは、前記加工手段43が基準画像を右方向rに回転させた画像を加工する際の1加工当たりの回転角度である。本実施形態では、前記加工手段43が、基準画像を右方向rに回転角度θずつ回転させた画像をサンプル数nの数だけ加工し、その都度、前記抽出手段44が、加工した画像から商品の特徴量データを抽出してバッファメモリ323に保存する。   The rotation angle θ is a rotation angle per process when the processing unit 43 processes an image obtained by rotating the reference image in the right direction r. In this embodiment, the processing means 43 processes the image obtained by rotating the reference image in the right direction r by the rotation angle θ by the number n of samples, and each time the extraction means 44 uses the processed image to produce a product. Are extracted and stored in the buffer memory 323.

上記受付画面を確認したオペレータは、タッチパネル12またはキーボード11を操作して、辞書作成対象商品の商品IDと所望の回転角度θとサンプル数nとを入力する。なお、商品IDの代わりに商品名を入力してもよい。また、サンプル数nの入力は必須ではない。予め、回転角度θとサンプル数nとを対応付けた設定テーブルを用意しておき、回転角度θが選択されたならば、一義的にサンプル数nが決まるようにしてもよい。また、回転角度θについても、デフォルトの角度を予め設定しておき、回転角度θが入力されないときにはデフォルトの角度を回転角度θとしてもよい。   The operator who has confirmed the reception screen operates the touch panel 12 or the keyboard 11 to input the product ID of the dictionary creation target product, the desired rotation angle θ, and the number of samples n. A product name may be input instead of the product ID. Moreover, the input of the sample number n is not essential. A setting table in which the rotation angle θ and the sample number n are associated in advance is prepared, and if the rotation angle θ is selected, the sample number n may be uniquely determined. Also, a default angle may be set in advance for the rotation angle θ, and the default angle may be set as the rotation angle θ when the rotation angle θ is not input.

タッチパネル12のタッチ入力またはキーボード11のキー入力によって商品ID、回転角度θ及びサンプル数nがそれぞれ入力されたならば(ST102にてYES)、CPU101は、入力された商品ID、回転角度θ及びサンプル数nを、RAM104のワークエリアに格納する(ST103)。次いで、CPU101は、撮影キーが入力されるのを待機する(ST104)。   If product ID, rotation angle θ, and sample number n are input by touch input on touch panel 12 or key input on keyboard 11 (YES in ST102), CPU 101 receives the input product ID, rotation angle θ, and sample. The number n is stored in the work area of the RAM 104 (ST103). Next, CPU 101 waits for an imaging key to be input (ST104).

辞書作成対象商品の商品IDと回転角度θとサンプル数nとを入力したオペレータは、当該商品の面を読取窓1Bにかざす。そしてオペレータは、キーボード11またはタッチパネル12に設けられた撮影キーを入力する。   The operator who has input the product ID, the rotation angle θ, and the number of samples n of the dictionary creation target product holds the product surface over the reading window 1B. Then, the operator inputs a photographing key provided on the keyboard 11 or the touch panel 12.

撮影キーが入力されると(ST104にてYES)、CPU101は、撮像部14に対して撮像オン信号を出力する(ST105)。撮像部14は、撮像オン信号に応じて撮像領域を撮像する。これにより、オペレータが読取窓1Bにかざしている商品の面が撮像部14によって撮像される。CPU101は、撮像部14で撮像されたフレーム画像を取り込む。そしてCPU101は、上記基準画像メモリ321に、上記フレーム画像を格納する(ST106:記憶手段42)。   When the photographing key is input (YES in ST104), CPU 101 outputs an imaging on signal to imaging unit 14 (ST105). The imaging unit 14 images the imaging area in accordance with the imaging on signal. As a result, the surface of the product that the operator holds over the reading window 1 </ b> B is imaged by the imaging unit 14. The CPU 101 captures the frame image captured by the imaging unit 14. The CPU 101 stores the frame image in the reference image memory 321 (ST106: storage means 42).

しかる後、CPU101は、図8に具体的に示す基準画像処理を実行する(ST107)。先ずCPU101は、第1カウンタiを“0”にリセットする(ST201)。次いでCPU101は、基準画像メモリ321のフレーム画像から当該画像に含まれる商品の特徴量データを抽出する(ST202)。   Thereafter, the CPU 101 executes reference image processing specifically shown in FIG. 8 (ST107). First, the CPU 101 resets the first counter i to “0” (ST201). Next, the CPU 101 extracts feature amount data of products included in the image from the frame image in the reference image memory 321 (ST202).

具体的には、CPU101は先ず、フレーム画像から、肌色領域の有無を検出する。肌色領域が検出された場合、すなわちオペレータの手の映り込みが検出された場合、CPU101は、フレーム画像を二値化した画像から輪郭線などを抽出する。これにより、CPU101は、オペレータの手が把持していると想定される商品Mの輪郭抽出を試みる。商品Mの輪郭が抽出されると、CPU101は、その輪郭内の画像を格子状のパッチに分け、そのパッチ毎に商品の形状、表面の色合い、模様、凹凸状況等の特徴量を読み取る。   Specifically, the CPU 101 first detects the presence or absence of a skin color region from the frame image. When the skin color area is detected, that is, when the reflection of the operator's hand is detected, the CPU 101 extracts a contour line or the like from the binarized image of the frame image. As a result, the CPU 101 attempts to extract the contour of the product M that is assumed to be held by the operator's hand. When the contour of the product M is extracted, the CPU 101 divides the image in the contour into grid-like patches, and reads the feature amount such as the shape of the product, the color of the surface, the pattern, and the unevenness state for each patch.

こうして、基準画像メモリ321のフレーム画像から商品のパッチ毎の特徴量データを抽出したならば、CPU101は、この抽出した特徴量データをバッファメモリ323の特徴量データi(iは第1カウンタiの値)に対応するエリアに格納する(ST203)。以上で、基準画像処理は終了する。したがって、バッファメモリ323の特徴量データ0に対応するエリアには、辞書作成対象商品を撮像部14で撮像したフレーム画像から抽出される商品のパッチ毎の特徴量データが格納される。   When the feature amount data for each patch of the product is extracted from the frame image of the reference image memory 321 in this way, the CPU 101 uses the extracted feature amount data as the feature amount data i (i is the value of the first counter i) of the buffer memory 323. Stored in the area corresponding to (value) (ST203). Thus, the reference image processing ends. Therefore, the area corresponding to the feature amount data 0 of the buffer memory 323 stores feature amount data for each patch of the product extracted from the frame image obtained by capturing the dictionary creation target product by the imaging unit 14.

基準画像処理が終了すると、CPU101は、図9に具体的に示す加工画像処理を実行する(ST108)。   When the reference image processing ends, the CPU 101 executes processed image processing specifically shown in FIG. 9 (ST108).

先ずCPU101は、第2カウンタjを“0”にリセットする(ST301)。次いでCPU101は、第2カウンタjを“1”だけカウントアップする(ST302)。そしてCPU101は、第2カウンタjがサンプル数nを超えたか否かを確認する(ST303)。   First, the CPU 101 resets the second counter j to “0” (ST301). Next, the CPU 101 counts up the second counter j by “1” (ST302). Then, the CPU 101 confirms whether or not the second counter j has exceeded the sample number n (ST303).

第2カウンタjがサンプル数nを超えていない場合(ST303にてNO)、CPU101は、第1カウンタiを“1”だけカウントアップする(ST304)。またCPU101は、基準画像メモリ321内の画像を、右方向rに角度jθ(jは第2カウンタjの値、θは回転角度)だけ回転させた画像に加工する(ST305:加工手段43)。   If second counter j does not exceed sample number n (NO in ST303), CPU 101 increments first counter i by “1” (ST304). Further, the CPU 101 processes the image in the reference image memory 321 into an image rotated in the right direction r by an angle jθ (j is a value of the second counter j and θ is a rotation angle) (ST305: processing unit 43).

CPU101は、加工された画像を加工画像メモリ322に格納する。そしてCPU101は、前記ステップST202の処理と同様にして、加工画像メモリ322に格納された画像から、当該画像に含まれる商品の特徴量データを抽出する(ST306:抽出手段44)。そしてCPU101は、この抽出した特徴量データをバッファメモリ323の特徴量データi(iは第1カウンタiの値)に対応するエリアに格納する(ST307)。   The CPU 101 stores the processed image in the processed image memory 322. Then, the CPU 101 extracts the feature amount data of the product included in the image from the image stored in the processed image memory 322 in the same manner as the process of step ST202 (ST306: extraction means 44). CPU 101 stores the extracted feature data in an area corresponding to feature data i (i is the value of first counter i) in buffer memory 323 (ST307).

ステップST307の処理を終了すると、CPU101は、ステップST302の処理に戻る。すなわちCPU101は、第2カウンタjをさらに“1”だけカウントアップする。そしてCPU101は、第2カウンタjがサンプル数nを超えたか否かを確認する(ST303)。   When the process of step ST307 ends, the CPU 101 returns to the process of step ST302. That is, the CPU 101 further increments the second counter j by “1”. Then, the CPU 101 confirms whether or not the second counter j has exceeded the sample number n (ST303).

第2カウンタjがサンプル数nを超えるまで、CPU101は、ステップST304〜ST307の処理を繰り返し実行する。第2カウンタjがサンプル数nを超えたならば(ST303にてYES)、加工画像処理は終了する。   Until the second counter j exceeds the number of samples n, the CPU 101 repeatedly executes the processes of steps ST304 to ST307. If second counter j exceeds sample number n (YES in ST303), the processed image processing ends.

加工画像処理が終了すると、CPU101は、辞書更新処理を実行する(ST109)。すなわちCPU101は、ワークメモリに記憶された商品IDとバッファメモリ323に記憶された特徴量データ0〜N(N=n+1)とを関連付ける。そしてCPU101は、この商品IDと特徴量データ0〜Nとを、接続インターフェース106を介して、POS端末205のHDD装置205に保存されている認識辞書ファイル8に追加登録する(データ登録手段45)。   When the processed image processing is completed, the CPU 101 executes dictionary update processing (ST109). That is, the CPU 101 associates the product ID stored in the work memory with the feature data 0 to N (N = n + 1) stored in the buffer memory 323. Then, the CPU 101 additionally registers the product ID and the feature data 0 to N in the recognition dictionary file 8 stored in the HDD device 205 of the POS terminal 205 via the connection interface 106 (data registration unit 45). .

この際、認識辞書ファイル8に同一商品IDのデータが既に登録されていた場合には、CPU101は、この既存のデータを削除した後、今回の商品IDと特徴量データ0〜Nとを認識辞書ファイル8に追加登録してもよい。あるいはCPU101は、既存のデータに今回の特徴量データ0〜Nを上書きしてもよい。   At this time, if data of the same product ID has already been registered in the recognition dictionary file 8, the CPU 101 deletes the existing data and then recognizes the current product ID and the feature data 0 to N as a recognition dictionary. It may be additionally registered in the file 8. Alternatively, the CPU 101 may overwrite existing data with the current feature data 0 to N.

なお、ストアコンピュータSCは、定期的にPOS端末2にアクセスして、当該POS端末2に保存される認識辞書ファイル8が更新されているか否かを確認する。そして更新されている場合には、ストアコンピュータSCは、更新後の認識辞書ファイル8を取り込んで、自らの認識辞書ファイル8を作成し直す。このとき、商品名の付されていないデータが存在する場合には、ストアコンピュータSCは、商品データファイルを参照して、商品IDに関連付けられた商品名を当該データに追加する。そしてストアコンピュータSCは、作成し直した認識辞書ファイル8をPOS端末2にダウンロードする。   The store computer SC periodically accesses the POS terminal 2 and checks whether the recognition dictionary file 8 stored in the POS terminal 2 has been updated. If it has been updated, the store computer SC takes in the updated recognition dictionary file 8 and recreates its own recognition dictionary file 8. At this time, if there is data without a product name, the store computer SC refers to the product data file and adds the product name associated with the product ID to the data. Then, the store computer SC downloads the recreated recognition dictionary file 8 to the POS terminal 2.

このように本実施形態によれば、商品読取装置1を利用して、認識辞書ファイル8に未登録の新規商品の特徴量データを追加したり、認識辞書ファイル8に登録済の既存商品の特徴量データを更新したりすることができる。   As described above, according to the present embodiment, the product reading device 1 is used to add feature quantity data of a new product that is not registered in the recognition dictionary file 8, or features of existing products that are registered in the recognition dictionary file 8. The quantity data can be updated.

この場合において、オペレータに要求される作業は、辞書作成対象商品を読取窓1Bにかざすだけである。あらゆる角度から商品が撮影されるように、かざした商品の向きを少しずつずらしていくような面倒な作業をオペレータが要求されることはない。したがって、予め物品を様々な角度から撮影した画像データが必要であった従来と比較して、認識辞書の作成に要する手間と時間が大幅に削減される。しかもオペレータは、単に辞書作成対象商品を読取窓1Bにかざせばよいので、オペレータの習熟度に依存しない辞書作成が可能となる。   In this case, all the work required for the operator is to hold the dictionary creation target product over the reading window 1B. The operator is not required to perform the troublesome work of gradually shifting the direction of the product over which the product is held so that the product is photographed from all angles. Therefore, compared with the conventional case where image data obtained by photographing an article from various angles in advance is required, labor and time required for creating a recognition dictionary are greatly reduced. In addition, since the operator simply holds the product for which the dictionary is to be created over the reading window 1B, it is possible to create a dictionary that does not depend on the level of proficiency of the operator.

また、本実施形態では、辞書作成対象商品の商品IDとともに、回転角度θとサンプル数nとを入力するようにしている。例えば形状が単純な矩形や単純な模様等で構成されている商品(例えば商品券等)については、物品の外観から得られる表面情報(形状、模様、色彩等)に関する特徴量が少ないため、商品読取装置の読取窓1Bに翳す商品の僅かな角度の違いによって別の商品に誤認識される可能性がある。そこで、回転角度θを小さくしかつサンプル数nを多くすることで、一商品について様々な角度の画像が得られ、より多くの特徴量を含んだ特徴量データを認識辞書ファイル8に登録することができるので、誤認識を低減することができる。一方、物品の表面情報(形状、模様、色彩等)が複雑な商品については、1画像からより多くの特徴量を含んだ特徴量データを得ることができるので、サンプル数nが少なくすることで認識辞書ファイル8に登録される特徴量データの数を節約するといった運用ができる。   In this embodiment, the rotation angle θ and the sample number n are input together with the product ID of the dictionary creation target product. For example, for products (such as gift certificates) that are composed of simple rectangles or simple patterns, there are few features related to surface information (shape, pattern, color, etc.) obtained from the appearance of the product. There is a possibility that another product may be erroneously recognized due to a slight difference in the angle of the product facing the reading window 1B of the reading device. Therefore, by reducing the rotation angle θ and increasing the number of samples n, images of various angles can be obtained for one product, and feature amount data including more feature amounts can be registered in the recognition dictionary file 8. Therefore, misrecognition can be reduced. On the other hand, for products with complex surface information (shape, pattern, color, etc.), feature data including more feature values can be obtained from one image, so the number n of samples can be reduced. Operation such as saving the number of feature amount data registered in the recognition dictionary file 8 can be performed.

(第2の実施形態)
次に、第2の実施形態について、図10〜図16を用いて説明する。この第2の実施形態において、店舗会計システムの外観図、商品読取装置とPOS端末とのハードウェア構成を示すブロック図、認識辞書ファイルのデータ構造を示す模式図、商品読取装置で認識辞書作成モードが選択された際に、同商品読取装置のCPUが実現する機能構成を示すブロック図は、第1の実施形態と同様なので、図1〜図4をそのまま用いるものとし、第1の実施形態と共通する部分には同一符号を付して、その詳しい説明は省略する。
(Second Embodiment)
Next, a second embodiment will be described with reference to FIGS. In this second embodiment, an external view of a store accounting system, a block diagram showing a hardware configuration of a product reading device and a POS terminal, a schematic diagram showing a data structure of a recognition dictionary file, and a recognition dictionary creation mode in the product reading device The block diagram showing the functional configuration realized by the CPU of the commodity reading apparatus when the item is selected is the same as that of the first embodiment, so FIGS. 1 to 4 are used as they are. Common parts are denoted by the same reference numerals, and detailed description thereof is omitted.

第1の実施形態では、加工手段43が、基準画像51の中心Oを回転中心として、当該基準画像51を二次元方向に回転させた画像を加工する場合を例示した。第2の実施形態では、加工手段43が、基準画像51を三次元方向に回転させた画像を加工する場合を例示する。すなわち加工手段43は、図10の(a)に示すように、基準画像51の画像中心を通る垂線52を回転軸として、当該基準画像51を一方向r1(以下では右方向r1と定義する)またはその逆方向r2(以下では左方向r2と定義する)に所定角度で回転させた画像を加工する。あるいは、図10の(b)に示すように、基準画像(フレーム画像)51の画像中心を通る水平線53を回転軸として、当該基準画像51を一方向r3(以下では前方向r3と定義する)またはその逆方向r4(以下では後方向r4と定義する)に所定角度で回転させた画像を加工する。   In the first embodiment, the case where the processing unit 43 processes an image obtained by rotating the reference image 51 in the two-dimensional direction with the center O of the reference image 51 as the rotation center is illustrated. In the second embodiment, a case where the processing unit 43 processes an image obtained by rotating the reference image 51 in the three-dimensional direction is illustrated. That is, as shown in FIG. 10A, the processing unit 43 uses the perpendicular line 52 passing through the center of the reference image 51 as a rotation axis, and the reference image 51 is defined in one direction r1 (hereinafter, defined as the right direction r1). Alternatively, an image rotated at a predetermined angle in the opposite direction r2 (hereinafter defined as the left direction r2) is processed. Alternatively, as shown in FIG. 10B, the reference image 51 is defined as one direction r3 (hereinafter, defined as the forward direction r3) with the horizontal line 53 passing through the center of the reference image (frame image) 51 as the rotation axis. Alternatively, the image rotated at a predetermined angle in the reverse direction r4 (hereinafter defined as the backward direction r4) is processed.

第2の実施形態において、記憶部32には、図11に示すように、基準画像メモリ321、加工画像メモリ322及び特徴量データのバッファメモリ323の他、正面画像メモリ324、裏面画像メモリ325、左側面画像メモリ326、右側面画像メモリ327、上面画像メモリ328、底面画像メモリ329が設けられる。   In the second embodiment, as shown in FIG. 11, the storage unit 32 includes a reference image memory 321, a processed image memory 322, a feature amount data buffer memory 323, a front image memory 324, a back image memory 325, A left side image memory 326, a right side image memory 327, a top image memory 328, and a bottom image memory 329 are provided.

正面画像メモリ324には、辞書作成対象商品の正面を撮像部14で撮像したときのフレーム画像が格納される。同様に、裏面画像メモリ325、左側面画像メモリ326、右側面画像メモリ327、上面画像メモリ328及び底面画像メモリ329には、辞書作成対象商品の裏面、左側面、右側面、上面及び底面をそれぞれ撮像部14で撮像したときのフレーム画像が格納される。   The front image memory 324 stores a frame image when the imaging unit 14 images the front of the dictionary creation target product. Similarly, the back side image memory 325, the left side image memory 326, the right side image memory 327, the top side image memory 328, and the bottom side image memory 329 include the back side, left side, right side, top side, and bottom side of the dictionary creation target product, respectively. A frame image obtained by the imaging unit 14 is stored.

基準画像メモリ321には、上記正面、裏面、左側面、右側面、上面及び底面の各フレーム画像のうち、加工処理の基準となるフレーム画像が格納される。本実施形態では、正面または裏面のフレーム画像を基準画像とする。   The reference image memory 321 stores a frame image serving as a reference for processing among the frame images of the front surface, the back surface, the left side surface, the right side surface, the top surface, and the bottom surface. In the present embodiment, a front or back frame image is used as a reference image.

加工画像メモリ322には、上記基準画像から右方向r1、左方向r2、前方向r3または後方向r4に所定角度で回転させた画像が格納される。バッファメモリ323には、基準画像及び複数の加工画像からそれぞれ抽出される同一商品の特徴量データが蓄積される。   The processed image memory 322 stores an image rotated from the reference image in the right direction r1, the left direction r2, the front direction r3, or the rear direction r4 by a predetermined angle. The buffer memory 323 stores feature amount data of the same product extracted from the reference image and the plurality of processed images.

図12は、認識辞書作成モードが選択されたときのCPU101の主要な情報処理手順を示す流れ図である。認識辞書作成モードが選択されると、認識辞書作成プログラムが起動する。このプログラムの起動により、CPU101は、商品ID、回転角度θ及びサンプル数nの受付画面をタッチパネル12に表示させる(ST1)。そしてCPU101は、上記受付画面から商品ID、回転角度θ及びサンプル数nがそれぞれ入力されるのを待機する(ST2:角度受付手段41)。   FIG. 12 is a flowchart showing the main information processing procedure of the CPU 101 when the recognition dictionary creation mode is selected. When the recognition dictionary creation mode is selected, the recognition dictionary creation program is activated. By starting this program, the CPU 101 causes the touch panel 12 to display a reception screen for the product ID, the rotation angle θ, and the number of samples n (ST1). Then, the CPU 101 waits for the product ID, the rotation angle θ, and the sample number n to be input from the reception screen (ST2: angle reception means 41).

回転角度θとは、前記加工手段43が基準画像を左、右、前、後の各方向にそれぞれ回転させた画像を加工する際の1加工当たりの回転角度である。本実施形態では、前記加工手段43が、基準画像を一方向とその逆方向にそれぞれ回転角度θずつ回転させた画像をサンプル数nの数だけ加工し、その都度、前記抽出手段44が、加工した画像から商品の特徴量データを抽出してバッファメモリ323に保存する。   The rotation angle θ is a rotation angle per process when the processing unit 43 processes an image obtained by rotating the reference image in the left, right, front, and rear directions, respectively. In the present embodiment, the processing means 43 processes the image obtained by rotating the reference image by one rotation angle θ in one direction and the opposite direction by the number n of samples, and each time the extraction means 44 performs processing. The feature amount data of the product is extracted from the obtained image and stored in the buffer memory 323.

上記受付画面を確認したオペレータは、タッチパネル12またはキーボード11を操作して、辞書作成対象商品の商品IDと所望の回転角度θとサンプル数nとを入力する。なお、商品IDの代わりに商品名を入力してもよい。また、サンプル数nの入力は必須ではない。予め、回転角度θとサンプル数nとを対応付けた設定テーブルを用意しておき、回転角度θが選択されたならば、一義的にサンプル数nが決まるようにしてもよい。また、回転角度θについても、デフォルトの角度を予め設定しておき、回転角度θが入力されないときにはデフォルトの角度を回転角度θとしてもよい。   The operator who has confirmed the reception screen operates the touch panel 12 or the keyboard 11 to input the product ID of the dictionary creation target product, the desired rotation angle θ, and the number of samples n. A product name may be input instead of the product ID. Moreover, the input of the sample number n is not essential. A setting table in which the rotation angle θ and the sample number n are associated in advance is prepared, and if the rotation angle θ is selected, the sample number n may be uniquely determined. Also, a default angle may be set in advance for the rotation angle θ, and the default angle may be set as the rotation angle θ when the rotation angle θ is not input.

タッチパネル12のタッチ入力またはキーボード11のキー入力によって商品ID、回転角度θ及びサンプル数nがそれぞれ入力されたならば(ST2にてYES)、CPU101は、入力された商品ID、回転角度θ及びサンプル数nを、RAM104のワークエリアに格納する(ST3)。次いで、CPU101は、図13に具体的に示す撮影処理を実行する(ST4)。   If product ID, rotation angle θ, and number of samples n are input by touch input on touch panel 12 or key input on keyboard 11 (YES in ST2), CPU 101 receives the input product ID, rotation angle θ, and sample. The number n is stored in the work area of the RAM 104 (ST3). Next, the CPU 101 executes a photographing process specifically shown in FIG. 13 (ST4).

先ずCPU101は、第3カウンタkを“0”にリセットする(ST21)。次いでCPU101は、撮影方向指示画面をタッチパネル12に表示させる(ST22)。撮影方向指示画面には、オペレータに対して辞書作成対象商品の撮影方向を指示する画像が表示される。撮影方向は、第3カウンタkの値によって決まる。本実施形態では、第3カウンタkが“0”のときには正面、“1”のときには裏面、“2”のときには左側面、“3”のときには右側面、“4”のときには上面、“5”のときには底面とする。   First, the CPU 101 resets the third counter k to “0” (ST21). Next, the CPU 101 displays a shooting direction instruction screen on the touch panel 12 (ST22). On the shooting direction instruction screen, an image for instructing the operator of the shooting direction of the dictionary creation target product is displayed. The shooting direction is determined by the value of the third counter k. In the present embodiment, when the third counter k is “0”, the front side is “1”, the left side is “2”, the right side is “3”, the top side is “4”, and “5”. In this case, the bottom is used.

撮影方向指示画面を確認したオペレータは、撮影方向として指示された商品の面を読取窓1Bにかざす。そしてオペレータは、キーボード11またはタッチパネル12に設けられた撮影キーを入力する。   The operator who has confirmed the photographing direction instruction screen holds the surface of the commodity designated as the photographing direction over the reading window 1B. Then, the operator inputs a photographing key provided on the keyboard 11 or the touch panel 12.

CPU101は、撮影キーが入力されるのを待機する(ST23)。撮影キーが入力されたならば(ST23にてYES)、CPU101は、撮像部14に対して撮像オン信号を出力する(ST24)。撮像部14は、撮像オン信号に応じて撮像領域を撮像する。これにより、オペレータが読取窓1Bにかざしている商品の面が撮像部14によって撮像される。CPU101は、撮像部14で撮像されたフレーム画像を取り込む。そしてCPU101は、上記撮影方向指示画面で指示した方向に該当する画像メモリ321,322,323,324,325または326に、上記フレーム画像を格納する(ST25:記憶手段42)。   CPU 101 waits for an imaging key to be input (ST23). If the photographing key is input (YES in ST23), CPU 101 outputs an imaging on signal to imaging unit 14 (ST24). The imaging unit 14 images the imaging area in accordance with the imaging on signal. As a result, the surface of the product that the operator holds over the reading window 1 </ b> B is imaged by the imaging unit 14. The CPU 101 captures the frame image captured by the imaging unit 14. Then, the CPU 101 stores the frame image in the image memories 321, 322, 323, 324, 325, or 326 corresponding to the direction specified on the shooting direction instruction screen (ST25: storage means 42).

しかる後、CPU101は、第3カウンタkを“1”だけカウントアップする(ST26)。そしてCPU101は、第3カウンタkが最大値“5”を超えたか否かを確認する(ST27)。第3カウンタkが最大値“5”を超えていない場合(ST27にてNO)、CPU101は、ステップST22の処理に戻る。すなわちCPU101は、第3カウンタkの値によって決まる撮影方向の指示画面をタッチパネル12に表示させる。そしてCPU101は、ステップST23〜ST27の処理を再度実行する。   Thereafter, the CPU 101 counts up the third counter k by “1” (ST26). Then, the CPU 101 confirms whether or not the third counter k has exceeded the maximum value “5” (ST27). If third counter k does not exceed maximum value “5” (NO in ST27), CPU 101 returns to the process in step ST22. That is, the CPU 101 causes the touch panel 12 to display a shooting direction instruction screen determined by the value of the third counter k. And CPU101 performs the process of step ST23-ST27 again.

こうして、第3カウンタkがカウントアップされる毎に、CPU101は、ステップST22〜ST27の処理を繰り返し実行する。そして、第3カウンタkが最大値“5”を超えたならば(ST27にてYES)、撮影処理が終了する。   Thus, every time the third counter k is incremented, the CPU 101 repeatedly executes the processes of steps ST22 to ST27. If third counter k exceeds maximum value “5” (YES in ST27), the photographing process is terminated.

かくして、辞書作成対象商品の正面を撮像したフレーム画像は正面画像メモリ324に格納され、裏面を撮像したフレーム画像は裏面画像メモリ325に格納され、左側面を撮像したフレーム画像は左側面画像メモリ326に格納され、右側面を撮像したフレーム画像は右側面画像メモリ327に格納され、上面を撮像したフレーム画像は上面画像メモリ328に格納され、底面を撮像したフレーム画像は底面画像メモリ329に格納される。   Thus, the frame image obtained by imaging the front of the dictionary creation target product is stored in the front image memory 324, the frame image obtained by imaging the back is stored in the back image memory 325, and the frame image obtained by imaging the left side is stored in the left side image memory 326. The frame image obtained by imaging the right side is stored in the right side image memory 327, the frame image obtained by imaging the upper surface is stored in the upper image memory 328, and the frame image obtained by imaging the lower surface is stored in the bottom image memory 329. The

撮影処理が終了すると、CPU101は、第4カウンタrを“0”にリセットする(ST5)。そしてCPU101は、図14に具体的に示す正面画像処理を実行する(ST6)。   When the photographing process is completed, the CPU 101 resets the fourth counter r to “0” (ST5). Then, the CPU 101 executes front image processing specifically shown in FIG. 14 (ST6).

先ずCPU101は、第1カウンタiを“0”にリセットする(ST31)。次いでCPU101は、正面画像メモリ324に格納されているフレーム画像のデータを基準画像メモリ321に複写する(ST32)。しかる後、CPU101は、基準画像メモリ321のフレーム画像から当該画像に含まれる商品の特徴量データを抽出する(ST33)。この場合も、前記ステップST202の処理で説明したように、パッチ毎の特徴量データを抽出する。   First, the CPU 101 resets the first counter i to “0” (ST31). Next, the CPU 101 copies the frame image data stored in the front image memory 324 to the reference image memory 321 (ST32). Thereafter, the CPU 101 extracts the feature amount data of the product included in the image from the frame image in the reference image memory 321 (ST33). Also in this case, as described in the process of step ST202, feature amount data for each patch is extracted.

基準画像メモリ321のフレーム画像から商品の特徴量データを抽出したならば、CPU101は、この抽出した特徴量データをバッファメモリ323の特徴量データi(iは第1カウンタiの値)に対応するエリアに格納する(ST34)。以上で、正面画像処理は終了する。したがって、バッファメモリ323の特徴量データ0に対応するエリアには、辞書作成対象商品の正面を撮像したフレーム画像から抽出される商品の特徴量データが格納される。   If the feature amount data of the product is extracted from the frame image of the reference image memory 321, the CPU 101 corresponds the extracted feature amount data to the feature amount data i (i is the value of the first counter i) of the buffer memory 323. Store in the area (ST34). This completes the front image processing. Therefore, in the area corresponding to the feature amount data 0 of the buffer memory 323, the feature amount data of the product extracted from the frame image obtained by capturing the front of the dictionary creation target product is stored.

正面画像処理が終了すると、CPU101は、第4カウンタrを“1”だけカウントアップする(ST7)。そしてCPU101は、第4カウンタrが最大値“4”を超えたか否かを確認する(ST8)。第4カウンタrが最大値“4”を超えていない場合(ST8にてNO)、CPU101は、図15に具体的に示す加工画像処理を実行する(ST9)。   When the front image processing is completed, the CPU 101 counts up the fourth counter r by “1” (ST7). Then, the CPU 101 confirms whether or not the fourth counter r has exceeded the maximum value “4” (ST8). When the fourth counter r does not exceed the maximum value “4” (NO in ST8), the CPU 101 executes processed image processing specifically shown in FIG. 15 (ST9).

先ずCPU101は、第2カウンタjを“0”にリセットする(ST41)。次いでCPU101は、第2カウンタjを“1”だけカウントアップする(ST42)。そしてCPU101は、第2カウンタjがサンプル数nの1/2の値n/2を超えたか否かを確認する(ST43)。   First, the CPU 101 resets the second counter j to “0” (ST41). Next, the CPU 101 counts up the second counter j by “1” (ST42). Then, the CPU 101 confirms whether or not the second counter j exceeds a value n / 2 that is ½ of the number of samples n (ST43).

第2カウンタjが値n/2を超えていない場合(ST43にてNO)、CPU101は、第1カウンタiを“1”だけカウントアップする(ST44)。またCPU101は、基準画像メモリ321内の画像を、r方向に角度jθ(jは第2カウンタjの値、θは回転角度)だけ回転させた画像に加工する(ST45:加工手段43)。   If second counter j does not exceed value n / 2 (NO in ST43), CPU 101 counts up first counter i by “1” (ST44). Further, the CPU 101 processes the image in the reference image memory 321 into an image rotated in the r direction by an angle jθ (j is a value of the second counter j, θ is a rotation angle) (ST45: processing unit 43).

ここで、回転方向を示す“r”は、第4カウンタrの値であり、本実施形態では、第4カウンタrが“1”のときには右方向r1、“2”のときには左方向r2、“3”のときには前方向r3、“4”のときには後方向r4をそれぞれ回転方向とする。   Here, “r” indicating the rotation direction is a value of the fourth counter r. In the present embodiment, when the fourth counter r is “1”, the right direction r1; when “4”, the left direction r2, “ When 3 ", the forward direction r3, and when" 4 ", the backward direction r4 is the rotational direction.

具体的には、回転方向が右方向r1または左方向r2のときには、基準画像メモリ321と左側面画像メモリ326と右側面画像メモリ327とにそれぞれ格納されている辞書作成対象商品の正面、右側面及び左側面の各画像から、当該商品が正面から右方向r1または左方向r2に角度jθだけ回転した画像を、CPU101は作成する。回転方向が前方向r3または後方向r4のときには、基準画像メモリ321と上面画像メモリ328と下面画像メモリ326とにそれぞれ格納されている辞書作成対象商品の正面、上面及び底面の各画像とから、当該商品が正面から前方向r3または後方向r4に角度jθだけ回転した画像を、CPU101は作成する。   Specifically, when the rotation direction is the right direction r1 or the left direction r2, the front and right sides of the dictionary creation target products stored in the reference image memory 321, the left side image memory 326, and the right side image memory 327, respectively. The CPU 101 creates an image obtained by rotating the product from the front in the right direction r1 or the left direction r2 by the angle jθ. When the rotation direction is the forward direction r3 or the backward direction r4, from the front, top, and bottom images of the dictionary creation target product stored in the reference image memory 321, the top image memory 328, and the bottom image memory 326, respectively. The CPU 101 creates an image in which the product is rotated from the front in the forward direction r3 or the backward direction r4 by an angle jθ.

CPU101は、加工された画像を加工画像メモリ322に格納する。そしてCPU101は、加工画像メモリ322に格納された画像から、当該画像に含まれる商品の特徴量データを抽出する(ST46:抽出手段44)。そしてCPU101は、この抽出した特徴量データをバッファメモリ323の特徴量データi(iは第1カウンタiの値)に対応するエリアに格納する(ST47)。   The CPU 101 stores the processed image in the processed image memory 322. Then, the CPU 101 extracts the feature amount data of the product included in the image from the image stored in the processed image memory 322 (ST46: extraction means 44). Then, the CPU 101 stores the extracted feature data in an area corresponding to the feature data i (i is the value of the first counter i) in the buffer memory 323 (ST47).

ステップST47の処理を終了すると、CPU101は、ステップST42の処理に戻る。すなわちCPU101は、第2カウンタjをさらに“1”だけカウントアップする。そしてCPU101は、第2カウンタjが値n/2を超えたか否かを確認する(ST43)。   When the process of step ST47 ends, the CPU 101 returns to the process of step ST42. That is, the CPU 101 further increments the second counter j by “1”. Then, the CPU 101 confirms whether or not the second counter j has exceeded the value n / 2 (ST43).

第2カウンタjが値n/2を超えるまで、CPU101は、ステップST44〜ST47の処理を繰り返し実行する。第2カウンタjが値n/2を超えたならば(ST43にてYES)、加工画像処理は終了する。   Until the second counter j exceeds the value n / 2, the CPU 101 repeatedly executes the processes of steps ST44 to ST47. If second counter j exceeds value n / 2 (YES in ST43), the processed image processing ends.

加工画像処理が終了すると、CPU101は、ステップST7の処理に戻る。すなわちCPU101は、第4カウンタrをさらに“1”だけカウントアップする。そしてCPU101は、第4カウンタrが最大値“4”を超えたか否かを確認する(ST8)。第4カウンタrが最大値“4”を超えるまで、CPU101は、ステップST9の加工画像処理を繰り返し実行する。   When the processed image process ends, the CPU 101 returns to the process of step ST7. That is, the CPU 101 further increments the fourth counter r by “1”. Then, the CPU 101 confirms whether or not the fourth counter r has exceeded the maximum value “4” (ST8). The CPU 101 repeatedly executes the processed image processing in step ST9 until the fourth counter r exceeds the maximum value “4”.

したがって、第4カウンタrが“1”のときには、正面画像から右方向r1に角度θ、2θ、3θ、…、(n/2)θずつ回転させた画像からそれぞれ抽出された商品の特徴量データが、バッファメモリ323の特徴量データ1〜n/2にそれぞれ対応するエリアに格納される。第4カウンタrが“2”のときには、正面画像から左方向r2に角度θ、2θ、3θ、…、(n/2)θずつ回転させた画像からそれぞれ抽出された商品の特徴量データが、バッファメモリ323の特徴量データ{(n/2)+1}〜nにそれぞれ対応するエリアに格納される。第4カウンタrが“3”のときには、正面画像から前方向r3に角度θ、2θ、3θ、…、(n/2)θずつ回転させた画像からそれぞれ抽出された商品の特徴量データが、バッファメモリ323の特徴量データ(n+1)〜(3/2)nにそれぞれ対応するエリアに格納される。第4カウンタrが“4”のときには、正面画像から後方向r4に角度θ、2θ、3θ、…、(n/2)θずつ回転させた画像からそれぞれ抽出された商品の特徴量データが、バッファメモリ323の特徴量データ{(3/2)n+1}〜2nにそれぞれ対応するエリアに格納される。   Therefore, when the fourth counter r is “1”, the feature amount data of the product extracted from the images rotated by the angles θ2, 2θ, 3θ,..., (N / 2) θ in the right direction r1 from the front image. Are stored in areas corresponding to the feature data 1 to n / 2 of the buffer memory 323, respectively. When the fourth counter r is “2”, the feature amount data of the product respectively extracted from the image rotated by the angles θ, 2θ, 3θ,..., (N / 2) θ in the left direction r2 from the front image, It is stored in areas corresponding to the feature data {(n / 2) +1} to n in the buffer memory 323, respectively. When the fourth counter r is “3”, the feature amount data of the product extracted from the images rotated by the angles θ, 2θ, 3θ,..., (N / 2) θ in the forward direction r3 from the front image are respectively The data is stored in areas corresponding to the feature data (n + 1) to (3/2) n of the buffer memory 323, respectively. When the fourth counter r is “4”, the feature amount data of the product respectively extracted from the images rotated by the angles θ, 2θ, 3θ,..., (N / 2) θ from the front image in the backward direction r4, The data is stored in areas corresponding to the feature data {(3/2) n + 1} to 2n in the buffer memory 323, respectively.

第4カウンタrが最大値“4”を超えたならば(ST8にてYES)、CPU101は、第4カウンタrを“0”にリセットする(ST10)。そしてCPU101は、図16に具体的に示す裏面画像処理を実行する(ST11)。   If fourth counter r exceeds maximum value “4” (YES in ST8), CPU 101 resets fourth counter r to “0” (ST10). Then, the CPU 101 executes back surface image processing specifically shown in FIG. 16 (ST11).

先ずCPU101は、第1カウンタiを“1”だけカウントアップする(ST51)。次いでCPU101は、裏面画像メモリ325に保存されているフレーム画像のデータを基準画像メモリ321に複写する(ST52)。しかる後、CPU101は、前記ステップST33の処理と同様にして、基準画像メモリ321のフレーム画像から当該画像に含まれる商品の特徴量データを抽出する(ST53)。そしてCPU101は、この抽出した特徴量データをバッファメモリ323の特徴量データi(iは第1カウンタiの値)に対応するエリアに格納する(ST54)。以上で、裏面画像処理は終了する。したがって、バッファメモリ323の特徴量データ(2n+1)に対応するエリアには、辞書作成対象商品の正面を撮像したフレーム画像から抽出される商品の特徴量データが格納される。   First, the CPU 101 counts up the first counter i by “1” (ST51). Next, the CPU 101 copies the frame image data stored in the back image memory 325 to the reference image memory 321 (ST52). Thereafter, the CPU 101 extracts the feature amount data of the product included in the image from the frame image of the reference image memory 321 in the same manner as in the process of step ST33 (ST53). Then, the CPU 101 stores the extracted feature amount data in an area corresponding to the feature amount data i (i is the value of the first counter i) in the buffer memory 323 (ST54). This is the end of the back surface image processing. Therefore, in the area corresponding to the feature amount data (2n + 1) of the buffer memory 323, the feature amount data of the product extracted from the frame image obtained by capturing the front of the dictionary creation target product is stored.

裏面画像処理が終了すると、CPU101は、第4カウンタrを“1”だけカウントアップする(ST12)。そしてCPU101は、第4カウンタrが最大値“4”を超えたか否かを確認する(ST13)。第4カウンタrが最大値“4”を超えていない場合(ST13にてNO)、CPU101は、加工画像処理を実行する(ST14)。このステップST14における加工画像処理は、図15を用いて説明したステップST10における画像加工処理と同一手順なので、ここでの説明は省略する。   When the back surface image processing is completed, the CPU 101 counts up the fourth counter r by “1” (ST12). Then, the CPU 101 confirms whether or not the fourth counter r has exceeded the maximum value “4” (ST13). If fourth counter r does not exceed maximum value “4” (NO in ST13), CPU 101 executes processed image processing (ST14). Since the processed image process in step ST14 is the same procedure as the image processed process in step ST10 described with reference to FIG. 15, the description thereof is omitted here.

加工画像処理が終了すると、CPU101は、ステップST12の処理に戻る。すなわちCPU101は、第4カウンタrをさらに“1”だけカウントアップする。そしてCPU101は、第4カウンタrが最大値“4”を超えたか否かを確認する(ST13)。第4カウンタrが最大値“4”を超えるまで、CPU101は、ステップST14の加工画像処理を繰り返し実行する。   When the processed image process ends, the CPU 101 returns to the process of step ST12. That is, the CPU 101 further increments the fourth counter r by “1”. Then, the CPU 101 confirms whether or not the fourth counter r has exceeded the maximum value “4” (ST13). Until the fourth counter r exceeds the maximum value “4”, the CPU 101 repeatedly executes the processed image processing in step ST14.

したがって、第4カウンタrが“1”のときには、裏面画像から右方向r1に角度θ、2θ、3θ、…、(n/2)θずつ回転させた画像からそれぞれ抽出された商品の特徴量データが、バッファメモリ323の特徴量データ(2n+2)〜{(5/2)n+1}にそれぞれ対応するエリアに格納される。第4カウンタrが“2”のときには、裏面画像から左方向r2に角度θ、2θ、3θ、…、(n/2)θずつ回転させた画像からそれぞれ抽出された商品の特徴量データが、バッファメモリ323の特徴量データ{(5/2)n+2}〜(3n+1)にそれぞれ対応するエリアに格納される。第4カウンタrが“3”のときには、裏面画像から前方向r3に角度θ、2θ、3θ、…、(n/2)θずつ回転させた画像からそれぞれ抽出された商品の特徴量データが、バッファメモリ323の特徴量データ(3n+2)〜{(7/2)n+1}にそれぞれ対応するエリアに格納される。第4カウンタrが“4”のときには、裏面画像から後方向r4に角度θ、2θ、3θ、…、(n/2)θずつ回転させた画像からそれぞれ抽出された商品の特徴量データが、バッファメモリ323の特徴量データ{(7/2)n+2}〜(4n+1)にそれぞれ対応するエリアに格納される。   Therefore, when the fourth counter r is “1”, the feature amount data of the product extracted from the images rotated by the angles θ2, 2θ, 3θ,..., (N / 2) θ in the right direction r1 from the back image. Are stored in areas corresponding to the feature amount data (2n + 2) to {(5/2) n + 1} of the buffer memory 323, respectively. When the fourth counter r is “2”, the feature quantity data of the product extracted from the images rotated by the angles θ, 2θ, 3θ,..., (N / 2) θ in the left direction r2 from the back image, The data is stored in areas corresponding to the feature data {(5/2) n + 2} to (3n + 1) in the buffer memory 323, respectively. When the fourth counter r is “3”, the feature quantity data of the product extracted from the images rotated by the angles θ, 2θ, 3θ,..., (N / 2) θ in the forward direction r3 from the back image, The data is stored in areas corresponding to the feature data (3n + 2) to {(7/2) n + 1} in the buffer memory 323, respectively. When the fourth counter r is “4”, the feature amount data of the product extracted from the images rotated by the angles θ, 2θ, 3θ,..., (N / 2) θ in the backward direction r4 from the back image, It is stored in the areas corresponding to the feature data {(7/2) n + 2} to (4n + 1) in the buffer memory 323, respectively.

第4カウンタrが最大値“4”を超えたならば(ST13にてYES)、CPU101は、辞書更新処理を実行する(ST15)。すなわちCPU101は、ワークメモリに記憶された商品IDとバッファメモリ323に記憶された特徴量データ0〜N(N=4n+1)とを関連付ける。そしてCPU101は、この商品IDと特徴量データ0〜Nとを、接続インターフェース106を介して、POS端末205のHDD装置205に保存されている認識辞書ファイル8に追加登録する(データ登録手段45)。   If fourth counter r exceeds maximum value “4” (YES in ST13), CPU 101 executes a dictionary update process (ST15). That is, the CPU 101 associates the product ID stored in the work memory with the feature data 0 to N (N = 4n + 1) stored in the buffer memory 323. Then, the CPU 101 additionally registers the product ID and the feature data 0 to N in the recognition dictionary file 8 stored in the HDD device 205 of the POS terminal 205 via the connection interface 106 (data registration unit 45). .

この際、認識辞書ファイル8に同一商品IDのデータが既に登録されていた場合には、CPU101は、この既存のデータを削除した後、今回の商品IDと特徴量データ0〜Nとを認識辞書ファイル8に追加登録してもよい。あるいはCPU101は、既存のデータに今回の特徴量データ0〜Nを上書きしてもよい。   At this time, if data of the same product ID has already been registered in the recognition dictionary file 8, the CPU 101 deletes the existing data and then recognizes the current product ID and the feature data 0 to N as a recognition dictionary. It may be additionally registered in the file 8. Alternatively, the CPU 101 may overwrite existing data with the current feature data 0 to N.

このように本実施形態においても、第1の実施形態と同様に、商品読取装置1を利用して、認識辞書ファイル8に未登録の新規商品の特徴量データを追加したり、認識辞書ファイル8に登録済の既存商品の特徴量データを更新したりすることができる。   As described above, in the present embodiment as well, in the same way as in the first embodiment, by using the product reading device 1, feature quantity data of a new product that has not been registered is added to the recognition dictionary file 8, or the recognition dictionary file 8 It is possible to update the feature amount data of an existing product registered in.

この場合において、オペレータに要求される作業は、撮影方向指示画面の指示に従って辞書作成対象商品の各面を読取窓1Bにかざすだけである。あらゆる角度から商品が撮影されるように、かざした商品の向きを少しずつずらしていくような面倒な作業をオペレータが要求されることはない。したがって、予め物品を様々な角度から撮影した画像データが必要であった従来と比較して、認識辞書の作成に要する手間と時間が大幅に削減される。しかもオペレータは、単に辞書作成対象商品の各面を読取窓1Bにかざせばよいので、オペレータの習熟度に依存しない辞書作成が可能となる。   In this case, all the work required for the operator is to hold each surface of the dictionary creation target product over the reading window 1B according to the instruction on the shooting direction instruction screen. The operator is not required to perform the troublesome work of gradually shifting the direction of the product over which the product is held so that the product is photographed from all angles. Therefore, compared with the conventional case where image data obtained by photographing an article from various angles in advance is required, labor and time required for creating a recognition dictionary are greatly reduced. In addition, since the operator simply has to hold each side of the dictionary creation target product over the reading window 1B, it is possible to create a dictionary independent of the level of proficiency of the operator.

(第3の実施形態)
前記第1または第2の実施形態では、基準画像を回転角度θずつ回転させた全ての画像から商品の特徴量データを抽出して認識辞書ファイル8に反映させている。しかし、商品によっては、回転角度θだけずらしただけでは特徴量データが殆ど変わらないという場合もある。一般物体認識の技術において、認識辞書ファイル8に類似した特徴量データが複数存在することは、データ量の肥大化を招くだけでなく、認識率にばらつきを生じる懸念もある。
(Third embodiment)
In the first or second embodiment, product feature data is extracted from all images obtained by rotating the reference image by the rotation angle θ and reflected in the recognition dictionary file 8. However, depending on the product, there is a case where the feature amount data is hardly changed only by shifting the rotation angle θ. In the general object recognition technique, the presence of a plurality of feature amount data similar to the recognition dictionary file 8 not only causes an increase in the amount of data but also causes a variation in recognition rate.

そこで第3の実施形態として、認識辞書の作成に要する手間と時間を削減できるだけでなく上記課題をも解決できる認識辞書作成装置を、図17及び図18を用いて説明する。なお、第3の実施形態は、第1の実施形態をさらに発展させたものであり、第1の実施形態と共通する部分には同一符号を付して、詳しい説明を省略する。   Therefore, as a third embodiment, a recognition dictionary creation apparatus that can not only reduce the labor and time required to create a recognition dictionary but also solve the above problems will be described with reference to FIGS. 17 and 18. Note that the third embodiment is a further development of the first embodiment, and the same reference numerals are given to portions common to the first embodiment, and detailed description thereof is omitted.

図17は、第3の実施形態において、商品読取装置1で認識辞書作成モードが選択された際に、同商品読取装置1のCPU101が実現する機能構成を示すブロック図である。第1の実施形態の同ブロック図である図4と比較すれば明らかなように、第3の実施形態では、CPU101は、前記角度受付手段41、記憶手段42、加工手段43、抽出手段44及びデータ登録手段45に加えて、判定手段47を実現する。   FIG. 17 is a block diagram illustrating a functional configuration realized by the CPU 101 of the product reading device 1 when the recognition dictionary creation mode is selected in the product reading device 1 in the third embodiment. As is apparent from comparison with FIG. 4 which is the same block diagram of the first embodiment, in the third embodiment, the CPU 101 has the angle receiving means 41, the storage means 42, the processing means 43, the extracting means 44, and the In addition to the data registration unit 45, a determination unit 47 is realized.

判定手段47は、抽出手段44で抽出された特徴量データが、他の特徴量データと類似しているか否かを判定する機能である。この機能は、認識辞書作成モードが選択されたときにCPU101が実行する情報処理手順(図7を参照)のなかのステップST108である加工画像処理において作用する。   The determination unit 47 has a function of determining whether or not the feature amount data extracted by the extraction unit 44 is similar to other feature amount data. This function operates in the processed image processing which is step ST108 in the information processing procedure (see FIG. 7) executed by the CPU 101 when the recognition dictionary creation mode is selected.

第3の実施形態における加工画像処理の手順を、図18の流れ図で示す。図18において、ステップST301からステップST306までの手順は第1の実施形態と同一である。すなわちCPU101は、基準画像メモリ321内の画像を右方向に角度jθだけ回転させた画像を加工し(ST305:加工手段43)、この加工された画像から当該画像に含まれる商品の特徴量データを抽出する(ST306:抽出手段44)。   The process image processing procedure in the third embodiment is shown in the flowchart of FIG. In FIG. 18, the procedure from step ST301 to step ST306 is the same as that of the first embodiment. That is, the CPU 101 processes an image obtained by rotating the image in the reference image memory 321 rightward by an angle jθ (ST305: processing means 43), and uses the processed image to obtain feature data of products included in the image. Extract (ST306: extraction means 44).

しかる後、CPU101は、抽出された特徴量データを、バッファメモリ323に既に格納されている特徴量データと個々に比較することで、特徴量データの類似度Sを算出する(ST401)。例えばCPU101は、特徴量データを構成するパラメータどうしを照合し、一致しているか若しくは近似しているパラメータの数の多少から類似度Sを算出する。そしてCPU101は、類似度が70%を超える特徴量データがバッファメモリ323に既に格納されている否かを判定する(ST402:判定手段47)。   Thereafter, the CPU 101 calculates the similarity S of the feature amount data by individually comparing the extracted feature amount data with the feature amount data already stored in the buffer memory 323 (ST401). For example, the CPU 101 collates the parameters constituting the feature amount data, and calculates the similarity S from the number of parameters that match or approximate. Then, the CPU 101 determines whether or not feature amount data having a similarity degree exceeding 70% is already stored in the buffer memory 323 (ST402: determination unit 47).

類似度が70%を超える特徴量データがバッファメモリ323に1つも格納されていない場合(ST402にてNO)、CPU101は、抽出した特徴量データをバッファメモリ323の特徴量データi(iは第1カウンタiの値)に対応するエリアに格納する(ST307)。   When no feature quantity data with a similarity degree exceeding 70% is stored in buffer memory 323 (NO in ST402), CPU 101 uses the extracted feature quantity data as feature quantity data i (i is the first number) in buffer memory 323. 1 (the value of 1 counter i) is stored in the area (ST307).

これに対し、類似度が70%を超える特徴量データがバッファメモリ323に1つでも格納されていた場合には(ST402にてYES)、CPU101は、抽出した特徴量データをバッファメモリ323に格納せずに破棄する。   On the other hand, when at least one feature amount data having a similarity degree exceeding 70% is stored in buffer memory 323 (YES in ST402), CPU 101 stores the extracted feature amount data in buffer memory 323. Discard without.

このように、判定手段47を備えた第3の実施形態によれば、同一商品の特徴量データとして、類似度が70%を超える2以上の特徴量データが認識辞書ファイル8に登録されることはない。したがって、認識辞書ファイル8に類似した特徴量データが複数存在することでデータ量の肥大化を招くのを未然に防ぐことができる。また、認識率のばらつきを低減できる効果も奏する。   As described above, according to the third embodiment including the determination unit 47, two or more feature amount data having a similarity degree exceeding 70% are registered in the recognition dictionary file 8 as the feature amount data of the same product. There is no. Therefore, it is possible to prevent an increase in the amount of data due to the presence of a plurality of feature amount data similar to the recognition dictionary file 8. In addition, there is an effect that variation in recognition rate can be reduced.

なお、この第3の実施形態において、特徴量データを保存するか破棄するかのしきい値となる認識度を70%としたが、この値は特に限定されるものではない。おおよそ60%〜80%の範囲内であれば、上述したような効果は得られる。   In the third embodiment, the recognition level which is a threshold value for storing or discarding the feature data is 70%, but this value is not particularly limited. If it is in the range of approximately 60% to 80%, the above-described effects can be obtained.

また、第2の実施形態に判定手段47を設けることによって、同様な作用効果を奏することは言うまでもないことである。   In addition, it goes without saying that the same effect can be obtained by providing the determination means 47 in the second embodiment.

(第4の実施形態)
前記第2の実施形態では、基準画像51をその画像中心を通る垂線52を回転軸として右方向r1と左方向r2とに所定角度で回転させた画像をそれぞれ加工し、さらに基準画像51をその画像中心を通る水平線53を回転軸として前方向r3と後方向r4とに所定角度で回転させた画像を加工して、加工された画像毎に、当該画像に含まれる商品の特徴量データを抽出している。しかし、例えば既に認識辞書ファイル8に特徴量データが登録されている商品の場合には、全ての回転方向のデータが必要であるとは限らない。また、商品によっては、正面を基準画像とし、この基準画像から加工される画像から得られる特徴量データは必要だが、裏面を基準画像とし、この基準画像から加工される画像から得られる特徴量データは必要ない場合も考えられる。
(Fourth embodiment)
In the second embodiment, the reference image 51 is processed by rotating the reference image 51 at a predetermined angle in the right direction r1 and the left direction r2 with the vertical line 52 passing through the center of the image as the rotation axis. An image rotated at a predetermined angle in the forward direction r3 and the backward direction r4 with the horizontal line 53 passing through the center of the image as a rotation axis is processed, and feature value data of a product included in the image is extracted for each processed image doing. However, for example, in the case of a product for which feature amount data has already been registered in the recognition dictionary file 8, not all rotation direction data is required. Depending on the product, feature value data obtained from an image processed from this reference image is required, while the front image is a reference image. However, feature value data obtained from an image processed from this reference image is the reference image. May not be necessary.

そこで第4の実施形態として、認識辞書の作成に要する手間と時間を削減できるだけでなく上記課題をも解決できる認識辞書作成装置を、図19乃至図22を用いて説明する。   Therefore, as a fourth embodiment, a recognition dictionary creation device that can not only reduce the time and effort required to create a recognition dictionary but also solve the above problems will be described with reference to FIGS. 19 to 22.

なお、第2の実施形態と共通する部分には同一符号を付して、詳しい説明を省略する。 In addition, the same code | symbol is attached | subjected to the part which is common in 2nd Embodiment, and detailed description is abbreviate | omitted.

図19は、第4の実施形態において、商品読取装置1で認識辞書作成モードが選択された際に、同商品読取装置1のCPU101が実現する機能構成を示すブロック図である。第4の実施形態では、CPU101は、前記角度受付手段41、記憶手段42、加工手段43、抽出手段44及びデータ登録手段45に加えて、方向受付手段48を実現する。   FIG. 19 is a block diagram illustrating a functional configuration realized by the CPU 101 of the product reading device 1 when the recognition dictionary creation mode is selected in the product reading device 1 in the fourth embodiment. In the fourth embodiment, the CPU 101 implements a direction receiving unit 48 in addition to the angle receiving unit 41, the storage unit 42, the processing unit 43, the extracting unit 44, and the data registration unit 45.

また、第4の実施形態では、図20に示すデータ構造のフラグテーブル70を記憶部32に形成する。フラグテーブル70は、右方向r1、左方向r2、前方向r3及び後方向r4の回転方向別に、実行フラグf1〜f4を記憶する。実行フラグf1〜f4は、対応する回転方向の処理を実行するか否かを識別するもので、本実施形態では、“1”のとき実行、“0”のとき非実行とする。   In the fourth embodiment, the flag table 70 having the data structure shown in FIG. The flag table 70 stores execution flags f1 to f4 for each rotation direction of the right direction r1, the left direction r2, the front direction r3, and the rear direction r4. The execution flags f1 to f4 identify whether or not the processing in the corresponding rotation direction is to be executed. In this embodiment, the execution flags f1 to f4 are executed when “1” and not executed when “0”.

方向受付手段48は、回転方向の選択を受け付ける機能である。この機能は、認識辞書作成プログラムの起動時に作用する。すなわち、認識辞書作成プログラムが起動すると、CPU101は、図21に示すように、方向受付画面をタッチパネル12に表示させる(ST71)。   The direction receiving means 48 is a function that receives selection of the rotation direction. This function works when the recognition dictionary creation program is started. That is, when the recognition dictionary creation program is activated, the CPU 101 displays a direction acceptance screen on the touch panel 12 as shown in FIG. 21 (ST71).

方向受付画面には、右方向r1、左方向r2、前方向r3及び後方向r4のそれぞれに対してチェックボックスが表示されており、デフォルトとして実行状態を表わすチェックマークが入っている。オペレータは、全ての方向の特徴量データが必要な場合には、チェックボックスからチェックマークを外すことなく、実行キーを入力する。特徴量データが不要な方向が存在する場合には、その方向に対応したチェックボックスからチェックマークを外した後、実行キーを入力する。実行キーは、キーボード11またはタッチパネル12に設けられている。   On the direction acceptance screen, check boxes are displayed for each of the right direction r1, the left direction r2, the front direction r3, and the rear direction r4, and a check mark indicating an execution state is entered as a default. When the feature amount data in all directions is necessary, the operator inputs an execution key without removing the check mark from the check box. If there is a direction that does not require feature data, the execution key is input after removing the check mark from the check box corresponding to the direction. The execution key is provided on the keyboard 11 or the touch panel 12.

CPU101は、実行キーの入力を待機する(ST72)。実行キーが入力されたならば、CPU101は、方向受付画面のチェックボックスを調べる。そしてCPU101は、チェックマークが入っている方向に対応した実行フラグf1〜f4を“1”とし、チェックマークが入っていない方向に対応した実行フラグf1〜f4を“0”とする。しかる後、CPU101は、図12のステップST1の処理に進む。   CPU 101 waits for input of an execution key (ST72). If the execution key is input, the CPU 101 checks the check box on the direction reception screen. The CPU 101 sets the execution flags f1 to f4 corresponding to the direction in which the check mark is set to “1”, and sets the execution flags f1 to f4 corresponding to the direction in which the check mark is not set to “0”. Thereafter, the CPU 101 proceeds to the process of step ST1 in FIG.

実行フラグf1〜f4は、加工画像処理において参照される。図22に示すように、加工画像処理に入ると、CPU101は先ず、実行フラグfr(rは第4カウンタrの値)をチェックする。そして、実行フラグfrが“1”にセットされていた場合には、CPU101は、図15のステップST41の処理に進む。   The execution flags f1 to f4 are referred to in the processed image processing. As shown in FIG. 22, when processing image processing is started, the CPU 101 first checks the execution flag fr (r is the value of the fourth counter r). When the execution flag fr is set to “1”, the CPU 101 proceeds to the process of step ST41 in FIG.

しかし、実行フラグfrが“0”にリセットされていた場合には、加工画像処理が終了する。すなわち、実行フラグfrが“0”にリセットされている方向については、加工画像処理が実行されない。   However, if the execution flag fr has been reset to “0”, the processed image processing ends. That is, the processed image processing is not executed in the direction in which the execution flag fr is reset to “0”.

このように、方向受付手段48を備えた第4の実施形態によれば、認識辞書作成モードが選択されたときのCPU101の情報処理手順において、オペレータが不要と判断した方向の加工画像処理については省略することができる。したがって、情報処理時間の短縮を図ることができる。また、不要な特徴量データが認識辞書ファイル8に登録されることもないので、データ量の肥大化を防ぐ効果も奏し得る。   As described above, according to the fourth embodiment including the direction receiving unit 48, the processed image processing in the direction that the operator has determined to be unnecessary in the information processing procedure of the CPU 101 when the recognition dictionary creation mode is selected. Can be omitted. Therefore, the information processing time can be shortened. Further, since unnecessary feature amount data is not registered in the recognition dictionary file 8, an effect of preventing an increase in the amount of data can be achieved.

なお、この第4の実施形態において、方向受付画面は、上記の構成に限定されるものではない。要は、オペレータが所望の方向を選択できる画面構成であればよい。   In the fourth embodiment, the direction reception screen is not limited to the above configuration. In short, any screen configuration that allows the operator to select a desired direction may be used.

また、第4の実施形態では、第2の実施形態の商品読取装置1に方向受付手段48を追加したが、第1または第3の実施形態の商品読取装置1に方向受付手段48を追加しても同様の効果を奏するのは言うまでもないことである。   In the fourth embodiment, the direction receiving unit 48 is added to the product reading apparatus 1 of the second embodiment. However, the direction receiving unit 48 is added to the product reading apparatus 1 of the first or third embodiment. However, it goes without saying that the same effect can be achieved.

なお、本発明は、前述した各実施形態に限定されるものではない。
例えば前記各実施形態は、POS端末2とは別体の商品読取装置1に認識辞書作成装置の機能を持たせたが、商品読取装置1がPOS端末2に組み込まれて一体となった装置に、認識辞書作成装置の機能を持たせてもよい。あるいは、デジタルカメラ等の撮像手段を接続してなるコンピュータ機器に、前記認識辞書作成プログラムをインストールすることによって、認識辞書作成装置の機能を持たせることも可能である。この場合、認識辞書ファイル8は、当該コンピュータ機器の内部記憶装置に保存されていてもよいし、当該コンピュータ機器にオンライン接続された外部機器の記憶装置に保存されていてもよい。
In addition, this invention is not limited to each embodiment mentioned above.
For example, in each of the above embodiments, the product reading device 1 separate from the POS terminal 2 is provided with the function of the recognition dictionary creation device. However, the product reading device 1 is incorporated into the POS terminal 2 and integrated with the device. The function of a recognition dictionary creation device may be provided. Alternatively, the function of the recognition dictionary creation device can be provided by installing the recognition dictionary creation program in a computer device to which an imaging means such as a digital camera is connected. In this case, the recognition dictionary file 8 may be stored in an internal storage device of the computer device, or may be stored in a storage device of an external device connected online to the computer device.

また前記各実施形態は、加工手段43において、画像を左、右、前、後の各方向に回転させたが、回転方向はこれに限定されるものではない。例えば斜め方向に回転した画像を加工してもよい。また、単に回転する画像を加工するだけでなく、色の補正を行うようにしてもよい。   In the above embodiments, the processing unit 43 rotates the image in the left, right, front, and rear directions, but the rotation direction is not limited to this. For example, an image rotated in an oblique direction may be processed. In addition to processing a rotating image, color correction may be performed.

また前記各実施形態は、装置内部のプログラム記憶部であるROM103に発明の機能を実現させる認識辞書作成プログラムが予め記録されているものとした。しかしこれに限らず、同様のプログラムがネットワークから装置にダウンロードされてもよい。あるいは、記録媒体に記録された同様のプログラムが、装置にインストールされてもよい。記録媒体は、CD−ROM,メモリカード等のようにプログラムを記憶でき、かつ装置が読み取り可能であれば、その形態は問わない。また、プログラムのインストールやダウンロードにより得る機能は、装置内部のOS(オペレーティング・システム)等と協働してその機能を実現させるものであってもよい。   In each of the above embodiments, a recognition dictionary creating program for realizing the functions of the invention is recorded in advance in the ROM 103 which is a program storage unit in the apparatus. However, the present invention is not limited to this, and a similar program may be downloaded from the network to the apparatus. Alternatively, a similar program recorded on the recording medium may be installed in the apparatus. The recording medium may be in any form as long as it can store a program such as a CD-ROM or a memory card and can be read by the apparatus. Further, the function obtained by installing or downloading the program may be realized in cooperation with an OS (operating system) in the apparatus.

この他、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…商品読取装置、2…POS端末、8…認識辞書ファイル、14…撮像部、32…記憶部、41…角度受付手段、42…記憶手段、43…加工手段、44…抽出手段、45…データ登録手段、46…ファイルアクセス手段、47…判定手段、48…方向受付手段。   DESCRIPTION OF SYMBOLS 1 ... Merchandise reading apparatus, 2 ... POS terminal, 8 ... Recognition dictionary file, 14 ... Imaging part, 32 ... Memory | storage part, 41 ... Angle reception means, 42 ... Storage means, 43 ... Processing means, 44 ... Extraction means, 45 ... Data registration means, 46 ... file access means, 47 ... determination means, 48 ... direction reception means.

Claims (6)

認識対象である物品毎にその物品の表面情報を表わす特徴量データが保存される認識辞書ファイルにアクセスするファイルアクセス手段と、
撮像手段で撮像された物品の画像を記憶する記憶手段と、
この記憶手段で記憶された前記画像を、当該画像に含まれる物品を前記撮像手段で異なる方向から撮像した画像に加工する加工手段と、
この加工手段で加工された画像から、当該画像に含まれる物品の前記特徴量データを抽出する抽出手段と、
この抽出手段で抽出された特徴量データを、前記ファイルアクセス手段を介して前記認識辞書ファイルに登録するデータ登録手段と、
を具備したことを特徴とする認識辞書作成装置。
File access means for accessing a recognition dictionary file in which feature quantity data representing surface information of the article is stored for each article to be recognized;
Storage means for storing an image of the article imaged by the imaging means;
Processing means for processing the image stored in the storage means into an image obtained by imaging an article included in the image from a different direction by the imaging means;
Extraction means for extracting the feature amount data of the article included in the image from the image processed by the processing means;
Data registration means for registering the feature data extracted by the extraction means in the recognition dictionary file via the file access means;
A recognition dictionary creation device characterized by comprising:
前記抽出手段で抽出された特徴量データが、他の特徴量データと類似しているか否かを判定する判定手段、をさらに具備し、
前記データ登録手段は、前記抽出手段で抽出された特徴量データのうち前記判定手段で類似していないと判定された特徴量データを前記認識辞書ファイルに登録することを特徴とする請求項1記載の認識辞書作成装置。
Determination means for determining whether or not the feature quantity data extracted by the extraction means is similar to other feature quantity data;
2. The data registration unit registers, in the recognition dictionary file, feature amount data determined not to be similar by the determination unit among the feature amount data extracted by the extraction unit. Recognition dictionary creation device.
回転角度の入力を受け付ける角度受付手段、をさらに具備し、
前記加工手段は、前記記憶手段で記憶された前記画像から、この画像に含まれる物品を所定の方向に前記角度受付手段で受け付けた入力角度ずつ回転させた画像に加工することを特徴とする請求項1または2記載の認識辞書作成装置。
Angle receiving means for receiving an input of the rotation angle,
The processing unit processes the image stored in the storage unit into an image obtained by rotating an article included in the image in a predetermined direction by an input angle received by the angle receiving unit. Item 3. The recognition dictionary creation device according to item 1 or 2.
回転方向の選択を受け付ける方向受付手段、をさらに具備し、
前記加工手段は、前記記憶手段で記憶された前記画像から、この画像に含まれる物品を前記回転受付手段で受け付けた選択方向に前記角度受付手段で受け付けた入力角度だけ回転させた画像に加工することを特徴とする請求項3記載の認識辞書作成装置。
Direction receiving means for receiving a selection of the rotation direction,
The processing means processes the article contained in the image from the image stored in the storage means into an image rotated by the input angle received by the angle receiving means in the selection direction received by the rotation receiving means. The recognition dictionary creation device according to claim 3.
認識対象である物品毎にその物品の表面情報を表わす特徴量データが保存される認識辞書ファイルにアクセス可能なコンピュータを、
撮像手段で撮像された物品の画像を記憶部に記憶させる記憶手段、
前記記憶部で記憶された前記画像を、当該画像に含まれる物品を前記撮像手段で異なる方向から撮像した画像に加工する加工手段、
前記加工された画像から、当該画像に含まれる物品の前記特徴量データを抽出する抽出手段、及び
前記抽出された特徴量データを前記認識辞書ファイルに登録するデータ登録手段、
として機能させるための認識辞書作成プログラム。
A computer capable of accessing a recognition dictionary file in which feature amount data representing surface information of an article is stored for each article to be recognized.
Storage means for storing an image of the article imaged by the imaging means in a storage unit;
Processing means for processing the image stored in the storage unit into an image obtained by imaging an article included in the image from different directions by the imaging means;
Extraction means for extracting the feature quantity data of the article included in the processed image from the processed image; and data registration means for registering the extracted feature quantity data in the recognition dictionary file;
Recognition dictionary creation program to function as.
前記コンピュータを、
前記抽出された特徴量データが、前記認識辞書ファイルに既に保存されているいずれかの特徴量データと類似しているか否かを判定する判定手段、としてさらに機能させ、
前記データ登録手段は、前記抽出された特徴量データのうち前記類似していないと判定された特徴量データを前記ファイルアクセス機能を介して前記認識辞書ファイルに登録する手段である請求項5記載の認識辞書作成プログラム。
The computer,
A function for determining whether the extracted feature data is similar to any feature data already stored in the recognition dictionary file;
The said data registration means is a means to register the feature-value data determined not to be similar in the said extracted feature-value data to the said recognition dictionary file via the said file access function. Recognition dictionary creation program.
JP2012122243A 2012-05-29 2012-05-29 Recognition dictionary creation device and program Pending JP2013246790A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012122243A JP2013246790A (en) 2012-05-29 2012-05-29 Recognition dictionary creation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012122243A JP2013246790A (en) 2012-05-29 2012-05-29 Recognition dictionary creation device and program

Publications (1)

Publication Number Publication Date
JP2013246790A true JP2013246790A (en) 2013-12-09

Family

ID=49846468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012122243A Pending JP2013246790A (en) 2012-05-29 2012-05-29 Recognition dictionary creation device and program

Country Status (1)

Country Link
JP (1) JP2013246790A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110457A (en) * 2014-12-08 2016-06-20 東芝テック株式会社 Information processing device and program
JP2018101292A (en) * 2016-12-20 2018-06-28 東芝テック株式会社 Information processing apparatus and program
US11450119B2 (en) 2018-09-20 2022-09-20 Nec Corporation Information acquisition system, control apparatus, information acquisition method, and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307101A (en) * 2000-04-26 2001-11-02 Ricoh Co Ltd Specific image detection method
JP2002074511A (en) * 2001-06-21 2002-03-15 Toshiba Tec Corp Product sales registration data processing device
JP2004206357A (en) * 2002-12-25 2004-07-22 Nec Infrontia Corp Output device of sale commodity data and output method of sale commodity data
JP2007304899A (en) * 2006-05-12 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> Identification dictionary generation apparatus and identification dictionary generation method
JP2008205650A (en) * 2007-02-16 2008-09-04 Sony Corp Image processing apparatus, image processing method, imaging apparatus, and computer program
WO2011096010A1 (en) * 2010-02-02 2011-08-11 株式会社 東芝 Pattern recognition device
JP2011198269A (en) * 2010-03-23 2011-10-06 Seibu Electric & Mach Co Ltd Method and device for detecting position of package product
JP2011242873A (en) * 2010-05-14 2011-12-01 Honda Motor Co Ltd Registration device, registration method and computer program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307101A (en) * 2000-04-26 2001-11-02 Ricoh Co Ltd Specific image detection method
JP2002074511A (en) * 2001-06-21 2002-03-15 Toshiba Tec Corp Product sales registration data processing device
JP2004206357A (en) * 2002-12-25 2004-07-22 Nec Infrontia Corp Output device of sale commodity data and output method of sale commodity data
JP2007304899A (en) * 2006-05-12 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> Identification dictionary generation apparatus and identification dictionary generation method
JP2008205650A (en) * 2007-02-16 2008-09-04 Sony Corp Image processing apparatus, image processing method, imaging apparatus, and computer program
WO2011096010A1 (en) * 2010-02-02 2011-08-11 株式会社 東芝 Pattern recognition device
JP2011198269A (en) * 2010-03-23 2011-10-06 Seibu Electric & Mach Co Ltd Method and device for detecting position of package product
JP2011242873A (en) * 2010-05-14 2011-12-01 Honda Motor Co Ltd Registration device, registration method and computer program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110457A (en) * 2014-12-08 2016-06-20 東芝テック株式会社 Information processing device and program
JP2018101292A (en) * 2016-12-20 2018-06-28 東芝テック株式会社 Information processing apparatus and program
US11450119B2 (en) 2018-09-20 2022-09-20 Nec Corporation Information acquisition system, control apparatus, information acquisition method, and storage medium

Similar Documents

Publication Publication Date Title
JP5619095B2 (en) Product recognition apparatus and product recognition program
JP5744824B2 (en) Product recognition apparatus and product recognition program
JP5553866B2 (en) Product recognition device and recognition dictionary addition program
US9292748B2 (en) Information processing apparatus and information processing method
JP5936993B2 (en) Product recognition apparatus and product recognition program
JP5707375B2 (en) Product recognition apparatus and product recognition program
JP5826152B2 (en) Product recognition apparatus and product recognition program
JP5502821B2 (en) Code reading device, sales data processing device, and program
US9679282B2 (en) Reading apparatus
JP5747014B2 (en) Product recognition apparatus and product recognition program
JP6745646B2 (en) Recognition system, information processing device, and program
JP2013250768A (en) Article recognition device, and article recognition program
JP6258761B2 (en) Information processing apparatus and program
JP5511864B2 (en) Store accounting system and store accounting program
JP5622756B2 (en) Product reading apparatus and product reading program
JP2018055716A (en) Information processing apparatus and program
US20170344851A1 (en) Information processing apparatus and method for ensuring selection operation
JP2013246790A (en) Recognition dictionary creation device and program
JP6392406B2 (en) Product recognition apparatus and product recognition program
JP5903516B2 (en) Product recognition apparatus and product recognition program
JP2015099550A (en) Product recognition apparatus and product recognition program
JP5753929B2 (en) Product recognition apparatus, method, and recognition dictionary addition program
JP2015125479A (en) Product sales data processing device and program
JP2013045361A (en) Data processor and program
JP2025009498A (en) Product registration device and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131219

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20131226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141014

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150120