[go: up one dir, main page]

JP7167437B2 - Article identification device - Google Patents

Article identification device Download PDF

Info

Publication number
JP7167437B2
JP7167437B2 JP2017249720A JP2017249720A JP7167437B2 JP 7167437 B2 JP7167437 B2 JP 7167437B2 JP 2017249720 A JP2017249720 A JP 2017249720A JP 2017249720 A JP2017249720 A JP 2017249720A JP 7167437 B2 JP7167437 B2 JP 7167437B2
Authority
JP
Japan
Prior art keywords
article
information
image
candidate
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017249720A
Other languages
Japanese (ja)
Other versions
JP2019117437A (en
Inventor
昌希 内田
靖寿 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017249720A priority Critical patent/JP7167437B2/en
Publication of JP2019117437A publication Critical patent/JP2019117437A/en
Application granted granted Critical
Publication of JP7167437B2 publication Critical patent/JP7167437B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、物品特定装置に関する。 The present invention relates to an article identification device .

商品を撮像した撮像画像に対して画像認識を行い、撮像された商品を特定する技術がある。例えば特許文献1では、ディープラーニングによる認識モデルを用いて、事前に登録された商品から、撮像画像中の商品を認識するシステムが開示されている。特許文献1に開示されたシステムでは、所定の商品認識エリアに置かれた商品が例えば上から又は横から撮像され、得られた撮像画像に基づいて被写体の商品が特定される。 2. Description of the Related Art There is a technique of performing image recognition on a captured image of a product and specifying the captured product. For example, Patent Literature 1 discloses a system that uses a recognition model based on deep learning to recognize a product in a captured image from pre-registered products. In the system disclosed in Patent Literature 1, an image of a product placed in a predetermined product recognition area is captured, for example, from above or from the side, and the product as a subject is specified based on the obtained captured image.

特許第6209717号公報Japanese Patent No. 6209717

特許文献1のように認識モデルを用いて被写体の商品を認識する構成では、商品を撮像する際の撮像環境によっては高い精度で商品を認識することができない虞がある。例えば被写体の背景、被写体に対する撮像方向、周囲の明るさ等の撮像環境が異なる状況で商品が撮像された場合に、被写体の商品を正確に特定することは難しい。これは、認識モデルを構築する際に、あらゆる撮像環境で撮像した画像を用いることが難しいからである。 In a configuration for recognizing a product as a subject using a recognition model as in Patent Literature 1, there is a possibility that the product cannot be recognized with high accuracy depending on the imaging environment in which the product is imaged. For example, it is difficult to accurately identify the product as the object when the product is imaged under different imaging environments such as the background of the object, the imaging direction with respect to the object, and the brightness of the surroundings. This is because it is difficult to use images captured in all imaging environments when constructing a recognition model.

本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、撮像画像に基づく被写体の認識精度を向上させることが可能な物品特定装置を提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object of the present invention is to provide an article identifying apparatus capable of improving the recognition accuracy of a subject based on a captured image.

本発明の一態様に係る物品特定装置は、画像を取得する画像取得部と、取得した前記画像から識別器を用いて前記画像中に存在する物品候補を特定する候補特定部と、特定した前記物品候補に係る情報を出力する出力部と、出力した前記物品候補が正解であるか否かを示す正解情報を取得する情報取得部と、取得した前記正解情報及び前記画像取得部が取得した画像を用いて、前記識別器の再学習を行う学習部とを備え、前記候補特定部は、複数の前記物品候補のそれぞれに対して前記画像中の物品である可能性を示す確信度を算出し、算出した確信度が高い複数の物品候補を特定し、前記出力部は、特定された前記物品候補を、それぞれの前記確信度に応じて強調表示する指示を出力し、前記情報取得部は、前記複数の物品候補のうちの正解である物品を示す正解情報を取得することを特徴とする。 An article identification apparatus according to an aspect of the present invention includes an image acquisition unit that acquires an image, a candidate identification unit that identifies an article candidate existing in the image using a classifier from the acquired image, and the identified An output unit that outputs information related to an article candidate, an information acquisition unit that acquires correct information indicating whether or not the outputted article candidate is correct, and an image that is acquired by the acquired correct information and the image acquisition unit. a learning unit that re- learns the classifier using , specifying a plurality of product candidates having high calculated degrees of certainty, the output unit outputting an instruction to highlight and display the specified product candidates according to the respective degrees of certainty, and the information acquiring unit, It is characterized by acquiring correct answer information indicating an article that is the correct answer among the plurality of article candidates .

本発明の一態様にあっては、撮像画像に基づいて被写体の物品を認識する精度を向上させることができる。 According to one aspect of the present invention, it is possible to improve the accuracy of recognizing the article of the subject based on the captured image.

物品特定システムの構成例を示す模式図である。1 is a schematic diagram showing a configuration example of an article identification system; FIG. サーバ装置及びユーザ端末の構成例を示すブロック図である。It is a block diagram which shows the structural example of a server apparatus and a user terminal. サーバ装置の制御部によって実現される機能を示すブロック図である。3 is a block diagram showing functions implemented by a control unit of the server device; FIG. 物品特定システムが行う処理の説明図である。FIG. 4 is an explanatory diagram of processing performed by an article identification system; ユーザ端末及びサーバ装置が行う処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of processing performed by a user terminal and a server device; ユーザ端末及びサーバ装置が行う処理の手順の一部を示すフローチャートである。4 is a flowchart showing part of the procedure of processing performed by a user terminal and a server device; ユーザ端末の画面例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a screen of a user terminal; ユーザ端末及びサーバ装置が行う処理の手順の一部を示すフローチャートである。4 is a flowchart showing part of the procedure of processing performed by a user terminal and a server device; ユーザ端末の画面例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a screen of a user terminal; ユーザ情報DBの構成例を示す模式図である。It is a schematic diagram which shows the structural example of user information DB. ユーザ端末及びサーバ装置が行う処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of processing performed by a user terminal and a server device; ユーザ端末及びサーバ装置が行う処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of processing performed by a user terminal and a server device; ユーザ端末の画面例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a screen of a user terminal; ユーザ端末の画面例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a screen of a user terminal; ユーザ端末及びサーバ装置が行う処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of processing performed by a user terminal and a server device; ユーザ端末及びサーバ装置が行う処理の手順を示すフローチャートである。4 is a flow chart showing a procedure of processing performed by a user terminal and a server device; ユーザ端末の画面例を示す模式図である。FIG. 4 is a schematic diagram showing an example of a screen of a user terminal; 受信履歴DBの構成例を示す模式図である。4 is a schematic diagram showing a configuration example of a reception history DB; FIG. サーバ装置が行う判断処理の手順を示すフローチャートである。4 is a flowchart showing the procedure of determination processing performed by the server device; ユーザ端末及びサーバ装置が行う処理の手順の一部を示すフローチャートである。4 is a flowchart showing part of the procedure of processing performed by a user terminal and a server device;

(実施形態1)
図1は、物品特定システムの構成例を示す模式図である。本実施形態では、商品等の物品を撮像して得られた撮像画像に基づいて、撮像画像中の被写体の物品を特定する物品特定システムについて説明する。物品特定システム100は、サーバ装置(情報処理装置)10及び複数のユーザ端末20を含み、サーバ装置10及び各ユーザ端末20は、インターネット等のネットワークNを介して通信接続されている。ユーザ端末20は、ユーザによる操作に従って商品等の物品を撮像し、得られた撮像画像をサーバ装置10へ送信する。サーバ装置10は、ユーザ端末20から取得した撮像画像に対して予め学習済みの学習モデルを参照し、撮像画像に含まれる物品(商品)を特定する。サーバ装置10は、複数台設けられてもよいし、1台の装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of an article identification system. In this embodiment, an article identification system that identifies an article as a subject in a captured image based on a captured image obtained by capturing an article such as a product will be described. The article identification system 100 includes a server device (information processing device) 10 and a plurality of user terminals 20. The server device 10 and each user terminal 20 are connected for communication via a network N such as the Internet. The user terminal 20 captures an image of an article such as a product according to an operation by the user, and transmits the obtained captured image to the server device 10 . The server device 10 refers to a learning model that has been learned in advance for the captured image acquired from the user terminal 20, and identifies an article (product) included in the captured image. A plurality of server devices 10 may be provided, may be realized by a plurality of virtual machines provided in one device, or may be realized using a cloud server.

図2は、サーバ装置10及びユーザ端末20の構成例を示すブロック図である。サーバ装置10は、サーバコンピュータ、パーソナルコンピュータ等である。サーバ装置10は、制御部11、記憶部12、通信部13等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラムを適宜実行することにより、本開示の物品特定装置が行うべき種々の情報処理、制御処理等をサーバ装置10に行わせる。 FIG. 2 is a block diagram showing a configuration example of the server device 10 and the user terminal 20. As shown in FIG. The server device 10 is a server computer, a personal computer, or the like. The server device 10 includes a control section 11, a storage section 12, a communication section 13, etc., and these sections are interconnected via a bus. The control unit 11 includes one or more processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), or a GPU (Graphics Processing Unit). The control unit 11 appropriately executes a control program stored in the storage unit 12 to cause the server device 10 to perform various information processing, control processing, and the like that should be performed by the article identification device of the present disclosure.

記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム及び制御プログラムの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラムを実行する際に発生するデータ等を一時的に記憶する。記憶部12に記憶される制御プログラムには、本開示のプログラムである物品特定プログラム12aが含まれる。また記憶部12は、例えば機械学習処理によって構築されたCNN(Convolution Neural Network)モデルの物品識別器12bを記憶している。物品識別器12bは、物品の撮像画像に基づいて、撮像画像中の被写体における外観の形状、色等の複数の特徴量から、被写体の物品が、予め学習された複数の物品のいずれであるかを特定するためのニューラルネットワークである。サーバ装置10は、物品識別器12bを用いて、撮像画像中の被写体の物品を特定する。 The storage unit 12 includes a RAM (Random Access Memory), flash memory, hard disk, SSD (Solid State Drive), and the like. The storage unit 12 stores in advance control programs executed by the control unit 11 and various data necessary for executing the control programs. The storage unit 12 also temporarily stores data and the like generated when the control unit 11 executes the control program. The control programs stored in the storage unit 12 include an article identification program 12a, which is a program of the present disclosure. The storage unit 12 also stores an article classifier 12b of a CNN (Convolution Neural Network) model constructed by machine learning processing, for example. Based on the photographed image of the article, the article identifier 12b determines which of a plurality of pre-learned articles the article of the subject is from a plurality of feature amounts such as the shape and color of the appearance of the subject in the photographed image. is a neural network for identifying The server device 10 uses the article identifier 12b to identify the article of the subject in the captured image.

通信部13は、ネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。
本実施形態のサーバ装置10は、上述した構成のほかに表示部及び入力部等を備えていてもよい。なお、表示部は制御部11からの指示に従って各種の情報を表示し、入力部はユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。サーバ装置10は、通信部13を介して外部装置から物品特定プログラム12a及び物品識別器12bを取得して記憶部12に記憶してもよい。また、サーバ装置10が可搬型記憶媒体に記憶された情報を読み取る読取部等を備える場合、可搬型記憶媒体から物品特定プログラム12a及び物品識別器12bを読み出して記憶部12に記憶してもよい。
The communication unit 13 is an interface for connecting to the network N, and transmits and receives information to and from an external device via the network N.
The server apparatus 10 of this embodiment may include a display section, an input section, and the like in addition to the above-described configuration. The display unit displays various information according to instructions from the control unit 11 , and the input unit accepts operation inputs from the user and sends control signals corresponding to the operation contents to the control unit 11 . The server device 10 may acquire the article identification program 12 a and the article identifier 12 b from an external device via the communication section 13 and store them in the storage section 12 . Further, if the server device 10 includes a reading unit or the like for reading information stored in a portable storage medium, the article identification program 12a and the article identifier 12b may be read from the portable storage medium and stored in the storage section 12. .

ユーザ端末20は、例えばスマートフォン、タブレット端末、パーソナルコンピュータ等である。ユーザ端末20は、制御部21、記憶部22、通信部23、表示部24、入力部25、カメラ26等を含み、これらの各部はバスを介して相互に接続されている。制御部21は、CPU、MPU又はGPU等の1又は複数のプロセッサを含む。制御部21は、記憶部22に記憶してある制御プログラムを適宜実行することにより、ユーザ端末20が行うべき種々の情報処理、制御処理等を行う。 The user terminal 20 is, for example, a smart phone, a tablet terminal, a personal computer, or the like. The user terminal 20 includes a control section 21, a storage section 22, a communication section 23, a display section 24, an input section 25, a camera 26, etc. These sections are interconnected via a bus. The control unit 21 includes one or more processors such as CPU, MPU or GPU. The control unit 21 appropriately executes control programs stored in the storage unit 22 to perform various information processing, control processing, and the like that should be performed by the user terminal 20 .

記憶部22は、RAM、フラッシュメモリ、ハードディスク、SSD等を含む。記憶部22は、制御部21が実行する制御プログラム及び制御プログラムの実行に必要な各種のデータ等を予め記憶している。また記憶部22は、制御部21が制御プログラムを実行する際に発生するデータ等を一時的に記憶する。記憶部22に記憶される制御プログラムには、物品照会アプリケーションプログラム(以下、物品照会アプリという)22aが含まれる。物品照会アプリ22aは、例えば通信部23を介して外部装置から取得されて記憶部22に記憶される。なお、ユーザ端末20が可搬型記憶媒体に記憶された情報を読み取る読取部等を備える場合、物品照会アプリ22aは可搬型記憶媒体から読み出されて記憶部22に記憶されてもよい。 The storage unit 22 includes RAM, flash memory, hard disk, SSD, and the like. The storage unit 22 stores in advance control programs executed by the control unit 21 and various data necessary for executing the control programs. The storage unit 22 also temporarily stores data and the like generated when the control unit 21 executes the control program. The control programs stored in the storage unit 22 include an article inquiry application program (hereinafter referred to as an article inquiry application) 22a. The article inquiry application 22 a is acquired from an external device via the communication section 23 and stored in the storage section 22 , for example. Note that if the user terminal 20 has a reading unit or the like that reads information stored in a portable storage medium, the article inquiry application 22 a may be read from the portable storage medium and stored in the storage unit 22 .

通信部23は、ネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。表示部24は、例えば液晶ディスプレイ、有機ELディスプレイ等であり、制御部21からの指示に従って各種の情報を表示する。入力部25は、表示部24の表面に配置されたタッチセンサ又は押下式のボタンであり、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部21へ送出する。なお、タッチセンサである入力部25は、表示部24と一体としてタッチパネルを構成する。 The communication unit 23 is an interface for connecting to the network N, and transmits and receives information to and from an external device via the network N. The display unit 24 is, for example, a liquid crystal display or an organic EL display, and displays various information according to instructions from the control unit 21 . The input unit 25 is a touch sensor or push button arranged on the surface of the display unit 24 , receives operation input by the user, and sends a control signal corresponding to the operation content to the control unit 21 . The input unit 25, which is a touch sensor, constitutes a touch panel integrally with the display unit 24. FIG.

カメラ26は、レンズ及び撮像素子等を有し、レンズを介して入射した光を撮像素子にて光電変換して画像データを取得する。カメラ26は、制御部21からの指示に従って撮影を行い、取得した画像データ(撮影画像)を逐次制御部21へ送出する。なお、ユーザ端末20は、カメラ26が内蔵された構成のほかに、外部カメラの接続が可能な接続部を備える構成でもよい。この場合、接続部は、外部カメラにて取得された画像データの入力を受け付け、入力された画像データを逐次制御部21へ送出する。
ユーザ端末20は、カメラ26、表示部24、通信部23を有する情報機器であれば、どのような機器でもよい。
The camera 26 has a lens, an imaging element, etc., and acquires image data by photoelectrically converting light incident through the lens with the imaging element. The camera 26 takes an image according to an instruction from the control unit 21 and sequentially sends acquired image data (captured image) to the control unit 21 . It should be noted that the user terminal 20 may have a configuration in which the camera 26 is built in, or a configuration in which an external camera can be connected. In this case, the connection unit accepts input of image data acquired by the external camera and sequentially sends the input image data to the control unit 21 .
The user terminal 20 may be any information device that has a camera 26 , a display section 24 and a communication section 23 .

次に、サーバ装置10において制御部11が物品特定プログラム12aを実行することによって実現される機能について説明する。図3は、サーバ装置10の制御部11によって実現される機能を示すブロック図、図4は、物品特定システム100が行う処理の説明図である。サーバ装置10の制御部11は、記憶部12に記憶してある物品特定プログラム12aを実行した場合、候補特定部10a、表示情報生成部10b、学習部10cの各機能を実現する。なお、本実施形態では、これらの各機能を制御部11が物品特定プログラム12aを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。 Next, the functions realized by the controller 11 executing the article identification program 12a in the server device 10 will be described. FIG. 3 is a block diagram showing functions realized by the control unit 11 of the server device 10, and FIG. When executing the item identification program 12a stored in the storage unit 12, the control unit 11 of the server device 10 implements the functions of the candidate identification unit 10a, the display information generation unit 10b, and the learning unit 10c. In this embodiment, each of these functions is implemented by the control unit 11 executing the article identification program 12a, but some of these functions may be implemented by dedicated hardware circuits.

本実施形態の物品特定システム100では、ユーザはユーザ端末20を用いて商品等の物品を撮像し、得られた撮像画像をサーバ装置10へ送信する。サーバ装置10の制御部(画像取得部)11は、通信部13を介してユーザ端末20(外部装置)から撮像画像を取得する。図4Aは、ユーザ端末20を用いて撮像した画像の例を示す。ユーザ端末20は、図4Aに示すように物品(商品)の外観(パッケージ)を撮像する。図4Aに示す画像は、ペットボトルに入ったオレンジジュースの撮像画像であり、例えばペットボトルを持つユーザ(撮像者)の手及び背景等も撮像画像に含まれるが、図4Aでは省略している。 In the article identification system 100 of the present embodiment, a user takes an image of an article such as a product using the user terminal 20 and transmits the obtained picked-up image to the server device 10 . A control unit (image acquisition unit) 11 of the server device 10 acquires a captured image from the user terminal 20 (external device) via the communication unit 13 . FIG. 4A shows an example of an image captured using the user terminal 20. FIG. The user terminal 20 captures an image of the appearance (package) of the article (product) as shown in FIG. 4A. The image shown in FIG. 4A is a captured image of orange juice in a PET bottle. For example, the captured image includes the hand of the user (photographer) holding the PET bottle and the background, but is omitted in FIG. 4A. .

候補特定部10aは、ユーザ端末20から取得した撮像画像に対して物品識別器12bを用いて、撮像画像中の被写体の物品が、物品識別器12bで識別可能な商品(物品)のいずれであるかを特定する。なお、本実施形態の物品識別器12bは、例えばペットボトルに入った飲料及び調味料を含む所定の商品についての画像特徴量を学習済みであるとする。例えばサーバ装置10は、事前登録されている商品(例えば企業の自社商品)を撮像した教師用画像に、各商品を示す情報がラベル付けされた教師データを取得し、教師用画像から商品容器の色、形状等の特徴量を学習する機械学習処理を行い、各商品を識別する物品識別器12b(学習モデル)を構築しておく。なお、教師用画像は、商品を正面から撮像した画像、背面から撮像した画像等、複数の方向から撮像した画像を用いることが望ましい。 The candidate identification unit 10a uses the article identifier 12b on the captured image acquired from the user terminal 20 to determine whether the article of the subject in the captured image is any product (article) that can be identified by the article identifier 12b. to identify It is assumed that the product classifier 12b of the present embodiment has already learned the image feature amount of a predetermined product including beverages and seasonings in PET bottles, for example. For example, the server device 10 acquires teacher data in which information indicating each product is labeled from a teacher image obtained by photographing pre-registered products (for example, a company's own product), and uses the teacher image to determine the product container. Machine learning processing is performed to learn feature amounts such as color and shape, and an article identifier 12b (learning model) for identifying each article is constructed. It is desirable to use images captured from a plurality of directions, such as an image captured from the front of the product and an image captured from the back, as the teacher image.

物品識別器12bは、予め登録された識別可能な商品のそれぞれについて、撮像画像中の被写体である可能性を示す確信度を算出する。物品識別器12bは、例えばsoftmax関数を用いて確信度を算出し、確信度は0から1までの数値で示される。候補特定部10aは、物品識別器12bで算出された各商品の確信度に基づいて、撮像画像中の被写体である可能性が高い商品(以下では商品候補という)を特定する。例えば候補特定部10aは、確信度が高い順に所定数(例えば3つ)の商品を抽出し、被写体の商品候補(物品候補)に特定してもよい。また候補特定部10aは、確信度が最も高い商品を被写体の商品候補に特定してもよい。更に候補特定部10aは、物品識別器12bで算出された各商品の確信度が所定値以上である商品を被写体の商品候補に特定してもよく、所定値以上の確信度である商品がない場合には被写体の商品候補はないと特定してもよい。 The article identifier 12b calculates a degree of certainty indicating the possibility that each pre-registered identifiable article is the subject in the captured image. The article identifier 12b calculates the degree of certainty using, for example, the softmax function, and the degree of certainty is indicated by a numerical value from 0 to 1. The candidate specifying unit 10a specifies products (hereinafter referred to as product candidates) that are highly likely to be the subject in the captured image based on the degree of certainty of each product calculated by the product identifier 12b. For example, the candidate identification unit 10a may extract a predetermined number (for example, three) of products in descending order of certainty and identify them as product candidates (article candidates) of the subject. Further, the candidate identification unit 10a may identify the product with the highest degree of certainty as the product candidate of the subject. Further, the candidate specifying unit 10a may specify products for which the certainty factor of each product calculated by the product identifier 12b is equal to or higher than a predetermined value as product candidates for the subject, and there is no product having a certainty factor equal to or higher than the predetermined value. In this case, it may be specified that there is no product candidate for the subject.

表示情報生成部10bは、候補特定部10aによる特定結果を示す表示情報を生成する。具体的には、表示情報生成部10bは、例えば図4Bに示すように、候補特定部10aによって特定された撮像画像中の被写体の各商品候補のサンプル画像を表示するための表示情報を生成する。図4Bに示す画面は、ユーザ端末20を用いて撮像された撮像画像24aと、候補特定部10aが被写体の商品候補に特定した各商品のサンプル画像24bとを表示する。サーバ装置10は、表示情報生成部10bが生成した表示情報を、候補特定部10aによる特定結果として通信部(出力部)13からユーザ端末20へ送信する。ユーザ端末20の制御部21は、通信部23を介してサーバ装置10から表示情報を受信し、受信した表示情報に基づいて図4Bに示すような画面を表示する。 The display information generation unit 10b generates display information indicating the result of identification by the candidate identification unit 10a. Specifically, the display information generating unit 10b generates display information for displaying a sample image of each product candidate of the subject in the captured image specified by the candidate specifying unit 10a, as shown in FIG. 4B, for example. . The screen shown in FIG. 4B displays a captured image 24a captured using the user terminal 20, and a sample image 24b of each product specified as a subject product candidate by the candidate specifying unit 10a. The server device 10 transmits the display information generated by the display information generation unit 10b to the user terminal 20 from the communication unit (output unit) 13 as the result of identification by the candidate identification unit 10a. The control unit 21 of the user terminal 20 receives display information from the server device 10 via the communication unit 23, and displays a screen as shown in FIG. 4B based on the received display information.

ここで、本実施形態の物品特定システム100では、ユーザ端末20に表示された画面は、表示された商品候補のサンプル画像24bに対して入力部25を介して選択操作が可能に構成されている。ユーザ端末20のユーザは、表示されたサンプル画像24bを確認し、自身が撮像した商品(物品)のサンプル画像24bがあれば、このサンプル画像24bに対して選択操作を行う。表示中のサンプル画像24bに対して選択操作された場合、ユーザ端末20の制御部21は、選択操作された商品候補が被写体の商品(正解の商品)であることを受け付ける。図4Bに示す画面例では、ユーザは、例えば左側に表示されたオレンジジュースのサンプル画像24bをタップして選択する。そして制御部21は、入力部25を介してユーザが選択した商品候補を示す情報と、この商品候補が正解の商品であることを示す情報とを含む正解情報を受け付ける。ユーザ端末20は、受け付けた正解情報をサーバ装置10へ送信する。 Here, in the product identification system 100 of the present embodiment, the screen displayed on the user terminal 20 is configured so that a selection operation can be performed via the input unit 25 on the sample image 24b of the displayed product candidate. . The user of the user terminal 20 confirms the displayed sample image 24b, and if there is a sample image 24b of the product (item) captured by the user, performs a selection operation on this sample image 24b. When a selection operation is performed on the sample image 24b being displayed, the control unit 21 of the user terminal 20 accepts that the selected product candidate is the subject product (correct product). In the screen example shown in FIG. 4B, the user taps and selects the orange juice sample image 24b displayed on the left side, for example. Then, the control unit 21 receives correct information including information indicating the product candidate selected by the user via the input unit 25 and information indicating that the product candidate is the correct product. The user terminal 20 transmits the accepted correct answer information to the server device 10 .

サーバ装置10の制御部(情報取得部)11は、ユーザ端末20が送信した正解情報を取得する。学習部10cは、ユーザ端末20から受信した正解情報と、既にユーザ端末20から受信した撮像画像とに基づいて、物品識別器12bの再学習を行う。例えば学習部10cは、ユーザ端末20から受信した撮像画像を教師用画像とし、この教師用画像に、ユーザ端末20から受信した正解情報が示す正解の商品の情報をラベル付けした教師データを生成する。そして学習部10cは、生成した教師データを物品識別器12bに入力する。これにより、物品識別器12bは、教師用画像から商品容器の色、形状等の特徴量を学習して再構築を行う。 The control unit (information acquisition unit) 11 of the server device 10 acquires the correct answer information transmitted by the user terminal 20 . The learning unit 10 c re-learns the article identifier 12 b based on the correct answer information received from the user terminal 20 and the captured image already received from the user terminal 20 . For example, the learning unit 10c uses the captured image received from the user terminal 20 as a teacher image, and generates teacher data by labeling the teacher image with the correct product information indicated by the correct answer information received from the user terminal 20. . Then, the learning unit 10c inputs the generated teacher data to the article identifier 12b. As a result, the product classifier 12b learns the feature quantities such as the color and shape of the product container from the teacher image and reconstructs the product container.

次に、物品特定システム100において各装置による物品特定処理について説明する。図5は、ユーザ端末20及びサーバ装置10が行う処理の手順を示すフローチャートである。以下の処理は、ユーザ端末20の記憶部22に記憶してある制御プログラムに従って制御部21によって実行され、サーバ装置10の記憶部12に記憶してある制御プログラムに従って制御部11によって実行される。 Next, article identification processing by each device in the article identification system 100 will be described. FIG. 5 is a flow chart showing a procedure of processing performed by the user terminal 20 and the server device 10. As shown in FIG. The following processing is executed by the control unit 21 according to the control program stored in the storage unit 22 of the user terminal 20 and executed by the control unit 11 according to the control program stored in the storage unit 12 of the server device 10 .

ユーザ端末20のユーザは、入力部25を介して物品照会アプリ22aの起動を指示する。ユーザ端末20の制御部21は、入力部25を介して物品照会アプリ22aの起動指示を受け付けた場合、記憶部22に記憶してある物品照会アプリ22aを起動する(S1)。物品照会アプリ22aを起動した場合、制御部21は、カメラ26を起動し(S2)、カメラ26にて撮像画像を取得する(S3)。制御部21は、例えば図4Aに示すように物品(商品)の外観(パッケージ)を撮像した画像を取得する。制御部21は、入力部25を介してユーザからの撮像指示を受け付けた場合に、撮像画像をカメラ26にて取得してもよい。起動中のカメラ26は所定のタイミングで画像を取得し、取得された画像は表示部24に送出されて表示される。よってユーザは、表示部24に表示された画像を見ながら、所望のタイミングで撮像指示を行うことができる。 The user of the user terminal 20 instructs the activation of the article inquiry application 22a via the input unit 25. FIG. When the controller 21 of the user terminal 20 receives an activation instruction for the product inquiry application 22a via the input unit 25, it activates the product inquiry application 22a stored in the storage unit 22 (S1). When the product inquiry application 22a is activated, the control unit 21 activates the camera 26 (S2) and acquires a captured image with the camera 26 (S3). The control unit 21 acquires an image of the appearance (package) of the article (product) as shown in FIG. 4A, for example. The control unit 21 may acquire the captured image with the camera 26 when receiving an imaging instruction from the user via the input unit 25 . The activated camera 26 acquires an image at a predetermined timing, and the acquired image is sent to the display unit 24 and displayed. Therefore, the user can issue an imaging instruction at a desired timing while viewing the image displayed on the display unit 24 .

制御部21は、取得した撮像画像をサーバ装置10へ送信する(S4)。なお、制御部21は、自端末20の識別情報と共に撮像画像を送信する。サーバ装置10の宛先は、例えば物品照会アプリ22aに組み込まれている。制御部21は、取得した撮像画像をサーバ装置10へ送信する際に、一旦撮像画像を表示部24に表示し、ユーザからの送信指示を受け付けた後にサーバ装置10へ送信してもよい。サーバ装置10の制御部11は、ユーザ端末20が送信した撮像画像を、ユーザ端末20の識別情報と共に取得する(S5)。 The control unit 21 transmits the acquired captured image to the server device 10 (S4). Note that the control unit 21 transmits the captured image together with the identification information of its own terminal 20 . The destination of the server device 10 is incorporated in, for example, the article inquiry application 22a. When transmitting the acquired captured image to the server device 10 , the control unit 21 may temporarily display the captured image on the display unit 24 and transmit it to the server device 10 after receiving a transmission instruction from the user. The control unit 11 of the server device 10 acquires the captured image transmitted by the user terminal 20 together with the identification information of the user terminal 20 (S5).

制御部11は、撮像画像に対して物品識別器12bを用いて、撮像画像中の被写体の物品が、物品識別器12bで識別可能な商品のいずれであるかを特定する(S6)。制御部11は、撮像画像中の被写体である可能性が高い商品候補を特定し、特定結果をユーザ端末20へ送信する(S7)。制御部11は、例えば図4Bに示すような、被写体の商品候補に特定した各商品のサンプル画像を表示するための表示情報を生成し、特定結果としてユーザ端末20へ送信する。ユーザ端末20の制御部21は、サーバ装置10から特定結果を取得し、例えば図4Bに示すような表示画面を表示部24に表示する(S8)。 The control unit 11 uses the article identifier 12b for the captured image to identify which of the articles that can be identified by the article identifier 12b is the subject article in the captured image (S6). The control unit 11 identifies product candidates that are likely to be the subject in the captured image, and transmits the identification result to the user terminal 20 (S7). The control unit 11 generates display information for displaying a sample image of each product identified as a subject product candidate, for example, as shown in FIG. 4B, and transmits the display information to the user terminal 20 as a result of identification. The control unit 21 of the user terminal 20 acquires the identification result from the server device 10, and displays, for example, a display screen as shown in FIG. 4B on the display unit 24 (S8).

制御部21は、表示画面において入力部25を介してユーザから商品候補に対する選択を受け付け、これにより、選択された商品候補を示す情報と、この商品候補が正解の商品であることを示す情報とを含む正解情報を受け付ける(S9)。そして制御部21は、受け付けた正解情報をサーバ装置10へ送信する(S10)。ここでも制御部21は、自端末20の識別情報と共に正解情報を送信する。 The control unit 21 receives a selection of a product candidate from the user via the input unit 25 on the display screen, and receives information indicating the selected product candidate and information indicating that the product candidate is the correct product. correct information including is received (S9). Then, the control unit 21 transmits the accepted correct answer information to the server device 10 (S10). The control unit 21 also transmits the correct answer information together with the identification information of the own terminal 20 here.

サーバ装置10の制御部(情報取得部)11は、ユーザ端末20が送信した正解情報をユーザ端末20の識別情報と共に取得する(S11)。そして制御部11は、ステップS5で取得した撮像画像と、ステップS11で取得した正解情報とに基づいて物品識別器12bの再学習を行う(S12)。なお、制御部11は、ステップS5で取得した撮像画像(教師用画像)に、ステップS11で取得した正解情報が示す正解の商品の情報をラベル付けして教師データを生成して記憶部12に記憶しておき、ある程度の量の教師データが蓄積された後に、物品識別器12bの再学習を行う構成でもよい。 The control unit (information acquisition unit) 11 of the server device 10 acquires the correct answer information transmitted by the user terminal 20 together with the identification information of the user terminal 20 (S11). Then, the control unit 11 re-learns the article discriminator 12b based on the captured image acquired in step S5 and the correct answer information acquired in step S11 (S12). Note that the control unit 11 generates teacher data by labeling the captured image (teacher image) acquired in step S5 with the correct product information indicated by the correct answer information acquired in step S11, and stores it in the storage unit 12. A configuration may be employed in which the training data is stored, and after a certain amount of teacher data is accumulated, the article classifier 12b is re-learned.

本実施形態では、ユーザがユーザ端末20を用いて撮像した画像に基づいて、サーバ装置10が被写体の物品(商品)を特定し、特定された商品が正解であるか否かをユーザが入力する。これにより、サーバ装置10による商品の特定結果に対してユーザが評価を行うことができる。また、ユーザによる評価結果を用いて物品識別器12bが逐次学習を行うことができる。更に、ユーザがユーザ端末20を用いて撮像した画像を教師データに用いるので、被写体の背景、被写体に対する撮像方向、周囲の明るさ等の撮像環境が異なる状況で物品を撮像した撮像画像を教師データに用いることが可能となる。このような教師データを用いて物品識別器12bの再学習を行うので、物品識別器12bによる物品の識別精度を向上させることができる。 In the present embodiment, the server device 10 identifies the subject article (product) based on the image captured by the user using the user terminal 20, and the user inputs whether or not the identified product is correct. . Thereby, the user can evaluate the product identification result by the server device 10 . In addition, the product classifier 12b can sequentially learn using the user's evaluation results. Furthermore, since images captured by the user using the user terminal 20 are used as training data, captured images of articles captured in different imaging environments such as the background of the subject, the imaging direction with respect to the subject, and the brightness of the surroundings are used as training data. can be used for Since the article discriminator 12b is re-learned using such teacher data, the accuracy of article identification by the article discriminator 12b can be improved.

(実施形態2)
実施形態2の物品特定システムについて説明する。本実施形態では、商品等の物品の撮像画像に基づいて被写体の物品を特定した後に、特定した物品に関する情報を提供する物品特定システムについて説明する。本実施形態の物品特定システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。
(Embodiment 2)
An article identification system according to the second embodiment will be described. In this embodiment, an article identification system that provides information about the identified article after identifying an article as a subject based on a captured image of an article such as a product will be described. Each device of the article identification system of the present embodiment has the same configuration as each device of the first embodiment, so the description of the configuration is omitted.

本実施形態の物品特定システム100における物品特定処理について説明する。図6は、ユーザ端末20及びサーバ装置10が行う処理の手順の一部を示すフローチャート、図7は、ユーザ端末20の画面例を示す模式図である。図6に示す処理は、図5に示した実施形態1の処理において、ステップS12の処理の後にステップS21及びS22の処理を追加したものである。図6では、図5中のステップS1~S10の図示を省略する。 An article identification process in the article identification system 100 of this embodiment will be described. FIG. 6 is a flow chart showing a part of the procedure of processing performed by the user terminal 20 and the server device 10, and FIG. The process shown in FIG. 6 is obtained by adding the processes of steps S21 and S22 after the process of step S12 in the process of the first embodiment shown in FIG. In FIG. 6, illustration of steps S1 to S10 in FIG. 5 is omitted.

本実施形態の物品特定システム100において、ユーザ端末20及びサーバ装置10は、図5中のステップS1~S12の処理を行う。その後、サーバ装置10の制御部(物品情報出力部)11は、ステップS11で取得した正解情報が示す商品に応じた商品情報(物品情報)をユーザ端末20へ出力する(S21)。なお、物品識別器12bで識別可能な各商品に応じた商品情報は予め記憶部12に記憶されており、制御部11は、正解情報が示す商品に応じた商品情報を記憶部12から読み出してユーザ端末20へ出力する。制御部11は、例えば図7に示すように、ユーザが正解であると選択した商品のサンプル画像24cが表示され、この商品に関する商品情報を提供するウェブサイトへのリンクL1、及びこの商品を販売する販売サイトへのリンクL2が設定された表示画面を生成し、商品情報として出力する。 In the article identification system 100 of this embodiment, the user terminal 20 and the server device 10 perform the processes of steps S1 to S12 in FIG. Thereafter, the control unit (article information output unit) 11 of the server device 10 outputs to the user terminal 20 product information (article information) corresponding to the product indicated by the correct answer information acquired in step S11 (S21). The product information corresponding to each product that can be identified by the product identifier 12b is stored in the storage unit 12 in advance, and the control unit 11 reads the product information corresponding to the product indicated by the correct answer information from the storage unit 12. Output to the user terminal 20 . For example, as shown in FIG. 7, the control unit 11 displays a sample image 24c of the product selected by the user as the correct answer, displays a link L1 to a website that provides product information on this product, and displays a link L1 to a website that sells this product. A display screen on which a link L2 to a sales site that sells products is set is generated and output as product information.

ユーザ端末20の制御部21は、サーバ装置10から商品情報を取得し、例えば図7に示すような表示画面を表示部24に表示し(S22)、処理を終了する。図7に示す画面において、入力部25を介していずれかのリンクL1,L2が選択操作された場合、ユーザ端末20の制御部21は、操作されたリンク先のサイトにアクセスし、所定の商品情報又は販売サイトのウェブページを取得する。なお、図7に示す画面において、商品情報を取得するためのリンクL1の代わりに商品情報自体が表示されてもよく、商品の販売サイトへのリンクL2の代わりに販売サイトのウェブページが表示されてもよい。 The control unit 21 of the user terminal 20 acquires the product information from the server device 10, displays, for example, a display screen as shown in FIG. 7 on the display unit 24 (S22), and ends the process. When one of the links L1 and L2 is selected via the input unit 25 on the screen shown in FIG. Get information or the web page of the sales site. In the screen shown in FIG. 7, the product information itself may be displayed instead of the link L1 for acquiring the product information, and the web page of the sales site may be displayed instead of the link L2 to the product sales site. may

本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、ユーザがユーザ端末20を用いて撮像した商品に応じた情報をユーザ端末20で確認することができる。 In this embodiment, the same effects as those of the first embodiment described above can be obtained. In addition, in the present embodiment, the user can confirm information corresponding to the product imaged using the user terminal 20 on the user terminal 20 .

(実施形態3)
実施形態3の物品特定システムについて説明する。本実施形態では、喘息等の呼吸器系疾患に対する薬剤を家庭で吸入するための吸入器を撮像して得られた撮像画像に基づいて、被写体の呼吸器を特定する物品特定システムについて説明する。本実施形態の物品特定システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。なお、本実施形態のサーバ装置10において、物品識別器12bは、呼吸器系疾患に対する薬剤を吸入するための吸入器についての画像特徴量を学習済みであるとする。例えばサーバ装置10は、事前登録されている吸入器を撮像した教師用画像に、各吸入器を示す情報がラベル付けされた教師データを取得し、教師用画像から吸入器の外観の色、形状等の特徴量を学習する機械学習処理を行い、各吸入器を識別する物品識別器12bを構築しておく。
(Embodiment 3)
An article identification system according to Embodiment 3 will be described. In this embodiment, an article identification system that identifies the respiratory system of a subject based on an image obtained by imaging an inhaler for inhaling a drug for respiratory diseases such as asthma at home will be described. Each device of the article identification system of the present embodiment has the same configuration as each device of the first embodiment, so the description of the configuration is omitted. In the server device 10 of the present embodiment, it is assumed that the article identifier 12b has already learned the image feature amount of an inhaler for inhaling medicine for respiratory diseases. For example, the server device 10 acquires teacher data in which information indicating each inhaler is labeled from a pre-registered teacher image obtained by imaging an inhaler, and acquires the color and shape of the appearance of the inhaler from the teacher image. Machine learning processing is performed to learn feature amounts such as , etc., and an article identifier 12b that identifies each inhaler is constructed.

本実施形態の物品特定システム100における物品特定処理について説明する。図8は、ユーザ端末20及びサーバ装置10が行う処理の手順の一部を示すフローチャート、図9は、ユーザ端末20の画面例を示す模式図である。図8に示す処理は、図5に示した実施形態1の処理において、ステップS7~S8の処理の代わりにステップS31~S34の処理を行うものである。図8では、図5中のステップS1~S4の図示を省略する。 An article identification process in the article identification system 100 of this embodiment will be described. FIG. 8 is a flowchart showing a part of the procedure of processing performed by the user terminal 20 and the server device 10, and FIG. In the process shown in FIG. 8, in the process of the first embodiment shown in FIG. 5, the processes of steps S31 to S34 are performed instead of the processes of steps S7 to S8. In FIG. 8, illustration of steps S1 to S4 in FIG. 5 is omitted.

本実施形態の物品特定システム100において、ユーザ端末20及びサーバ装置10は、図5中のステップS1~S6の処理を行う。そして、サーバ装置10の制御部11は、物品識別器12bによる特定結果に基づいて、撮像画像中の被写体である可能性が高い吸入器(以下では吸入器候補という)を複数特定する(S31)。ここでは、例えば、物品識別器12bが識別可能な吸入器のそれぞれについて算出した確信度が所定値以上であり、確信度が高い順に所定数(例えば2つ)の吸入器を吸入器候補に特定する。 In the article identification system 100 of this embodiment, the user terminal 20 and the server device 10 perform the processes of steps S1 to S6 in FIG. Then, the control unit 11 of the server device 10 identifies a plurality of inhalers (hereinafter referred to as inhaler candidates) that are highly likely to be the subject in the captured image based on the identification result by the article identifier 12b (S31). . Here, for example, the confidence calculated for each inhaler that can be identified by the article identifier 12b is equal to or greater than a predetermined value, and a predetermined number (for example, two) of inhalers are identified as inhaler candidates in descending order of confidence. do.

本実施形態のサーバ装置10の制御部11は、被写体の吸入器候補に特定した各吸入器のサンプル画像を表示するための表示情報を生成する(S32)。制御部11は、例えば図9Aに示すように、ユーザ端末20(カメラ26)にて取得された撮像画像24aと、サーバ装置10で吸入器候補に特定された各吸入器のサンプル画像24bとを表示する表示画面を生成する。ここで本実施形態では、制御部11は、各吸入器候補のサンプル画像24bを、物品識別器12bが算出した確信度に応じた態様で表示する表示画面を生成する。図9Aには、物品識別器12bが算出した確信度が高いほど、各吸入器候補のサンプル画像24bを大きく表示する例を示す。図9Aに示す例では、右側のサンプル画像24bの吸入器候補よりも左側のサンプル画像24bの吸入器候補の方が確信度が高いので、左側のサンプル画像24bが右側のサンプル画像24bよりも大きく表示されている。なお、制御部11は、図9Bに示すように、各吸入器候補のサンプル画像24bに、物品識別器12bがそれぞれ算出した確信度を付加して表示する表示画面を生成してもよい。図9Bでは各吸入器候補に対応付けて0.6,0.3の確信度が表示されている。 The control unit 11 of the server device 10 of the present embodiment generates display information for displaying a sample image of each inhaler identified as a subject inhaler candidate (S32). For example, as shown in FIG. 9A, the control unit 11 captures an image 24a acquired by the user terminal 20 (camera 26) and a sample image 24b of each inhaler identified as an inhaler candidate by the server device 10. Generate a display screen to display. Here, in the present embodiment, the control unit 11 generates a display screen that displays the sample image 24b of each inhaler candidate in a manner corresponding to the degree of certainty calculated by the article identifier 12b. FIG. 9A shows an example in which the sample image 24b of each inhaler candidate is displayed larger as the confidence calculated by the article identifier 12b increases. In the example shown in FIG. 9A, the left sample image 24b has a higher confidence than the right sample image 24b, so the left sample image 24b is larger than the right sample image 24b. is displayed. Note that, as shown in FIG. 9B, the control unit 11 may generate a display screen in which the sample image 24b of each inhaler candidate is added with the degree of certainty calculated by the article identifier 12b. In FIG. 9B, confidence factors of 0.6 and 0.3 are displayed in association with each inhaler candidate.

制御部11は、生成した表示情報をユーザ端末20へ送信する(S33)。ユーザ端末20の制御部21は、サーバ装置10から表示情報を取得し、図9A,Bに示すような表示画面を表示部24に表示する(S34)。図9A,Bに示す画面においても、表示されたサンプル画像24bに対して入力部25を介して選択操作されることにより、選択操作された吸入器候補が被写体の吸入器(正解の吸入器)であることを受け付けるように構成されている。よって、ユーザ端末20の制御部21及びサーバ装置10の制御部11は、ステップS9以降の処理を行う。なお、ステップS9では、ユーザ端末20の制御部21は、図9A,Bに示す画面において、入力部25を介してユーザから吸入器候補に対する選択を受け付けた場合、選択された吸入器候補を示す情報と、この吸入器候補が正解の吸入器であることを示す情報とを含む正解情報を受け付ける。 The control unit 11 transmits the generated display information to the user terminal 20 (S33). The control unit 21 of the user terminal 20 acquires the display information from the server device 10 and displays the display screens shown in FIGS. 9A and 9B on the display unit 24 (S34). In the screens shown in FIGS. 9A and 9B as well, by performing a selection operation on the displayed sample image 24b via the input unit 25, the selected inhaler candidate is the subject's inhaler (the correct inhaler). It is configured to accept that Therefore, the control unit 21 of the user terminal 20 and the control unit 11 of the server device 10 perform the processes after step S9. It should be noted that in step S9, the control unit 21 of the user terminal 20 displays the selected inhaler candidate in the screens shown in FIGS. Correct information including information and information indicating that this inhaler candidate is the correct inhaler is accepted.

本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、物品識別器12bで算出された確信度に応じた態様で、各吸入器候補のサンプル画像24bを表示できるので、確信度の高い吸入器候補を目立つように表示することができる。これにより、ユーザが表示中の吸入器候補から正解の吸入器を選択する際に、より容易に適切な吸入器の選択が可能となる。 In this embodiment, the same effects as those of the first embodiment described above can be obtained. In addition, in this embodiment, the sample image 24b of each inhaler candidate can be displayed in a manner corresponding to the degree of certainty calculated by the article identifier 12b. can. As a result, when the user selects the correct inhaler from the displayed inhaler candidates, it is possible to more easily select an appropriate inhaler.

本実施形態の構成は実施形態2にも適用可能であり、実施形態2に適用した場合であっても実施形態2と同様の効果が得られる。実施形態2に適用した場合、例えばサーバ装置10の記憶部12に、各吸入器の使用方法、取り扱い方法等の吸入器情報を記憶しておく。そして、サーバ装置10は、ユーザ端末20から取得した正解情報が示す吸入器に応じて、吸入器の使用方法、取り扱い方法等の吸入器情報をユーザ端末20へ出力する。これにより、ユーザがユーザ端末20を用いて撮像した被写体の吸入器に関する情報をユーザ端末20で確認することができる。よって、ユーザは、吸入器の使用方法、取り扱い方法等を自宅等で再確認することができ、誤った方法での使用を回避できる。なお、吸入器に関する情報は、図7に示すように、所定のウェブサイトへのリンクが設定された画面情報であってもよい。 The configuration of the present embodiment can also be applied to the second embodiment, and even if it is applied to the second embodiment, the same effects as those of the second embodiment can be obtained. When applied to the second embodiment, for example, the storage unit 12 of the server device 10 stores inhaler information such as usage and handling methods of each inhaler. Then, the server device 10 outputs inhaler information such as how to use and handle the inhaler to the user terminal 20 according to the inhaler indicated by the correct answer information acquired from the user terminal 20 . Thereby, the user can check the information about the subject's inhaler imaged using the user terminal 20 on the user terminal 20 . Therefore, the user can reconfirm how to use and handle the inhaler at home, etc., and can avoid using it in the wrong way. The information about the inhaler may be screen information with a link to a predetermined website, as shown in FIG.

(実施形態4)
実施形態4の物品特定システムについて説明する。本実施形態では、吸入器を撮像して得られた撮像画像に基づいて被写体の呼吸器を特定するシステムであって、予めユーザ登録しているユーザによって利用される物品特定システムについて説明する。本実施形態の物品特定システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。なお、本実施形態のサーバ装置10は、物品特定システム100を利用するためにユーザ登録したユーザのユーザ情報が登録してあるユーザ情報データベース(以下では、ユーザ情報DBという)を記憶部12に記憶している。
(Embodiment 4)
An article identification system according to Embodiment 4 will be described. In the present embodiment, a system for identifying a subject's respiratory system based on an image obtained by imaging an inhaler, which is an article identifying system used by users who have registered in advance, will be described. Each device of the article identification system of the present embodiment has the same configuration as each device of the first embodiment, so the description of the configuration is omitted. Note that the server device 10 of this embodiment stores in the storage unit 12 a user information database (hereinafter referred to as a user information DB) in which user information of users registered as users for using the article identification system 100 is registered. is doing.

図10は、ユーザ情報DBの構成例を示す模式図である。ユーザ情報DBには、ユーザ登録したユーザのユーザID、ユーザ認証用のパスワード、薬品情報が対応付けて登録されている。サーバ装置10において、制御部11は、通信部13を介して例えばユーザ端末20からユーザ情報の変更又は追加を受け付けた場合、ユーザ情報DBの登録内容を更新する。なお、薬品情報は、例えば各ユーザに処方されている薬剤に関する情報及び服用タイミングを含み、薬剤を処方した主治医等によってサーバ装置10のユーザ情報DBに登録されてもよい。また、薬品情報は、薬剤の服用に使用する吸入器の使用方法、取り扱い方法等の吸入器情報を含んでも良い。ユーザ情報DBは、サーバ装置10に接続された外部の記憶装置等に記憶されてもよく、ネットワークNを介してサーバ装置10に接続された別の記憶装置に記憶されてもよい。 FIG. 10 is a schematic diagram showing a configuration example of a user information DB. User IDs of registered users, passwords for user authentication, and drug information are associated and registered in the user information DB. In the server device 10, the control unit 11 updates the registration contents of the user information DB when receiving a change or addition of user information from the user terminal 20 via the communication unit 13, for example. Note that the drug information includes, for example, information on drugs prescribed to each user and the timing of taking the drug, and may be registered in the user information DB of the server device 10 by the attending physician who prescribed the drug. The drug information may also include inhaler information such as how to use and handle the inhaler used to take the drug. The user information DB may be stored in an external storage device or the like connected to the server device 10, or may be stored in another storage device connected to the server device 10 via the network N. FIG.

本実施形態の物品特定システム100における物品特定処理について説明する。図11及び図12は、ユーザ端末20及びサーバ装置10が行う処理の手順を示すフローチャート、図13は、ユーザ端末20の画面例を示す模式図である。
ユーザ端末20の制御部21は、入力部25を介して物品照会アプリ22aの起動指示を受け付けた場合、記憶部22に記憶してある物品照会アプリ22aを起動する(S41)。物品照会アプリ22aを起動した場合、制御部21は、カメラ26を起動し(S42)、撮像画像を取得する(S43)。制御部21は、ユーザ情報を入力するための入力画面を表示部24に表示する(S44)。制御部21は、例えば図13Aに示すように、ステップS43でカメラ26にて取得した撮像画像24dを表示し、ユーザID及びパスワードの入力欄を有する入力画面を表示する。
An article identification process in the article identification system 100 of this embodiment will be described. 11 and 12 are flowcharts showing procedures of processing performed by the user terminal 20 and the server apparatus 10, and FIG. 13 is a schematic diagram showing an example of a screen of the user terminal 20. FIG.
When the controller 21 of the user terminal 20 receives an activation instruction for the product inquiry application 22a via the input unit 25, it activates the product inquiry application 22a stored in the storage unit 22 (S41). When the article inquiry application 22a is activated, the control unit 21 activates the camera 26 (S42) and acquires a captured image (S43). The control unit 21 displays an input screen for inputting user information on the display unit 24 (S44). For example, as shown in FIG. 13A, the control unit 21 displays the captured image 24d acquired by the camera 26 in step S43, and displays an input screen having input fields for user ID and password.

ユーザは、入力画面において入力部25を介してユーザID及びパスワードを入力する。これにより、制御部21は、入力部25を介してユーザID及びパスワードのユーザ情報を受け付ける(S45)。図13Aに示す入力画面には送信ボタンが表示されており、ユーザ端末20の制御部21は、ユーザが入力部25を介して送信ボタンを操作することにより、送信指示を受け付ける。制御部21は、送信指示を受け付けた場合、ステップS43で取得した撮像画像と、ステップS45で受け付けたユーザ情報とをサーバ装置10へ送信する(S46)。なお、制御部21は、撮像画像とユーザ情報とを各別にサーバ装置10へ送信してもよい。例えば、制御部21はユーザ情報を先にサーバ装置10へ送信し、サーバ装置10にてユーザ認証された場合に、制御部21が撮像画像をサーバ装置10へ送信する構成でもよい。また、サーバ装置10にて一旦ユーザ認証された後は、制御部21は撮像画像のみをサーバ装置10へ送信すればよい。 The user inputs a user ID and password via the input unit 25 on the input screen. Thereby, the control unit 21 receives the user information such as the user ID and the password via the input unit 25 (S45). A send button is displayed on the input screen shown in FIG. 13A , and the control unit 21 of the user terminal 20 accepts a send instruction when the user operates the send button via the input unit 25 . When receiving the transmission instruction, the control unit 21 transmits the captured image acquired in step S43 and the user information received in step S45 to the server device 10 (S46). Note that the control unit 21 may transmit the captured image and the user information separately to the server device 10 . For example, the control unit 21 may first transmit the user information to the server device 10 , and when the user is authenticated by the server device 10 , the control unit 21 may transmit the captured image to the server device 10 . Further, once the user is authenticated by the server device 10 , the control section 21 may transmit only the captured image to the server device 10 .

サーバ装置10の制御部11は、ユーザ端末20が送信した撮像画像及びユーザ情報を取得する(S47)。制御部11は、取得した撮像画像に対して物品識別器12bを用いて、撮像画像中の被写体(物品)が、物品識別器12bで識別可能な吸入器のいずれであるかを特定する(S48)。なお、制御部11は、ユーザ端末20から取得したユーザ情報に基づいてユーザ認証を行い、認証できた場合に、ステップS48以降の処理を行うようにしてもよい。具体的には、制御部11は、ユーザ端末20から取得したユーザID及びパスワードをユーザ情報DBの登録情報と比較照合し、ユーザ情報DBに登録されていた場合、認証できたと判断してもよい。 The control unit 11 of the server device 10 acquires the captured image and user information transmitted by the user terminal 20 (S47). The control unit 11 uses the article identifier 12b for the captured image to identify which of the inhalers identifiable by the article identifier 12b is the subject (article) in the captured image (S48). ). Note that the control unit 11 may perform user authentication based on the user information acquired from the user terminal 20, and if the user has been authenticated, the process from step S48 onward may be performed. Specifically, the control unit 11 compares and collates the user ID and password acquired from the user terminal 20 with the registration information of the user information DB, and if they are registered in the user information DB, it may be determined that the authentication has been successful. .

制御部11は、ユーザ認証を行った場合、ユーザ情報DBに記憶してあるユーザ情報に含まれる薬品情報を考慮して、撮像画像中の被写体が、物品識別器12bで識別可能な吸入器のいずれであるかを特定してもよい。撮像画像中の被写体は、この画像を撮像したユーザに処方された薬剤を服用するための吸入器である可能性が高い。よって、物品識別器12bにて特定した吸入器候補の中に、ユーザ情報に含まれる薬品情報のいずれかがある場合、被写体は薬品情報が示す吸入器である可能性が高い。従って、制御部11は、物品識別器12bにて特定した吸入器候補から、ユーザ情報の薬品情報に含まれる吸入器を抽出し、抽出した吸入器を被写体の吸入器候補に特定する。 When the user is authenticated, the control unit 11 considers the drug information included in the user information stored in the user information DB, and determines whether the subject in the captured image is an inhaler that can be identified by the article identifier 12b. You may specify which one. The subject in the captured image is likely to be an inhaler for taking medicine prescribed by the user who captured this image. Therefore, if there is any drug information included in the user information among the inhaler candidates identified by the article identifier 12b, there is a high possibility that the subject is the inhaler indicated by the drug information. Therefore, the control unit 11 extracts the inhaler included in the drug information of the user information from the inhaler candidates identified by the article identifier 12b, and identifies the extracted inhaler as the subject's inhaler candidate.

制御部11は、特定結果をユーザ端末20へ送信する(S49)。ここでは、制御部11は、図4Bに示すような画面を表示するための表示情報を生成して送信する。なお、ここでは、図4Bに示す画面において、商品候補のサンプル画像24bは、吸入器のサンプル画像である。ユーザ端末20の制御部21は、サーバ装置10から特定結果を取得し、図4Bに示すような表示画面を表示部24に表示する(S50)。そして制御部21は、表示画面において入力部25を介してユーザから吸入器候補に対する選択を受け付けた場合、選択された吸入器候補を示す情報と、この吸入器候補が正解であることを示す情報とを含む正解情報を受け付ける(S51)。そして制御部21は、受け付けた正解情報をサーバ装置10へ送信する(S52)。 The control unit 11 transmits the identification result to the user terminal 20 (S49). Here, the control unit 11 generates and transmits display information for displaying a screen as shown in FIG. 4B. Here, in the screen shown in FIG. 4B, the product candidate sample image 24b is a sample image of an inhaler. The control unit 21 of the user terminal 20 acquires the identification result from the server device 10 and displays a display screen as shown in FIG. 4B on the display unit 24 (S50). When the control unit 21 receives a selection of an inhaler candidate from the user via the input unit 25 on the display screen, the control unit 21 receives information indicating the selected inhaler candidate and information indicating that the inhaler candidate is correct. The correct answer information including and is received (S51). Then, the control unit 21 transmits the accepted correct answer information to the server device 10 (S52).

サーバ装置10の制御部11は、ユーザ端末20が送信した正解情報を取得し(S53)、ステップS47で取得した撮像画像と、ステップS53で取得した正解情報とに基づいて物品識別器12bの再学習を行う(S54)。その後、サーバ装置10の制御部11は、ステップS53で取得した正解情報が示す吸入器について、ユーザ情報DBに登録してある薬品情報を読み出し、ユーザ端末20へ出力する(S55)。制御部11は、例えば図13Bに示すような画面を表示するための表示情報を生成してユーザ端末20へ出力する。図13Bに示す画面では、ユーザが正解であると選択した吸入器のサンプル画像24e、及びこの吸入器を用いた薬剤の服用タイミングに関する情報が表示され、この吸入器の使用方法を案内するウェブサイトへのリンクL3、及びこの吸入器を用いて服用する薬剤に関する薬品情報を提供するウェブサイトへのリンクL4が設定されている。 The control unit 11 of the server device 10 acquires the correct information transmitted by the user terminal 20 (S53), and reproduces the article identifier 12b based on the captured image acquired in step S47 and the correct information acquired in step S53. Learning is performed (S54). After that, the control unit 11 of the server device 10 reads drug information registered in the user information DB for the inhaler indicated by the correct answer information acquired in step S53, and outputs it to the user terminal 20 (S55). The control unit 11 generates display information for displaying a screen such as that shown in FIG. 13B and outputs the display information to the user terminal 20 . On the screen shown in FIG. 13B, a sample image 24e of the inhaler selected by the user as the correct answer and information on the timing of taking the medicine using this inhaler are displayed. and a link L4 to a website providing drug information on drugs to be taken with this inhaler.

ユーザ端末20の制御部21は、サーバ装置10から薬品情報を取得し、例えば図13Bに示すような表示画面を表示部24に表示し(S56)、処理を終了する。なお、図13Bに示す画面において、リンクL3の代わりに吸入器の使用方法自体が表示されてもよく、リンクL4の代わりに薬剤に関する薬品情報自体が表示されてもよい。 The control unit 21 of the user terminal 20 acquires the drug information from the server device 10, displays a display screen as shown in FIG. 13B on the display unit 24 (S56), and ends the process. Note that, on the screen shown in FIG. 13B, the method of using the inhaler itself may be displayed instead of the link L3, and the drug information itself regarding the drug may be displayed instead of the link L4.

本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、予めユーザ登録しておくことにより、ユーザがユーザ端末20を用いて撮像した被写体(吸入器)に関する情報だけでなく、ユーザに応じた情報をユーザ端末20のユーザに提供することができる。また本実施形態において、サーバ装置10が、ユーザ端末20からの撮像画像に基づいて特定した被写体の物品(商品、薬品)の受信履歴(特定履歴)を蓄積し、蓄積した受信履歴を、各ユーザの物品の使用履歴又は購入履歴として扱ってもよい。この場合、例えばサーバ装置10は、蓄積した受信履歴から、各ユーザの物品の使用頻度又は購入頻度を算出し、算出した使用頻度又は購入頻度に基づいて物品の宣伝メッセージ等をユーザ毎に送信することができる。よって、ユーザ毎に宣伝を行うことができ、また、使用経験又は購入経験のあるユーザに効率良く宣伝することができる。本実施形態の構成は実施形態2,3にも適用可能であり、実施形態2,3に適用した場合であっても実施形態2,3と同様の効果が得られる。 In this embodiment, the same effects as those of the first embodiment described above can be obtained. Further, in the present embodiment, by performing user registration in advance, the user of the user terminal 20 is provided with not only information related to the subject (inhaler) imaged by the user using the user terminal 20 but also information corresponding to the user. be able to. Further, in this embodiment, the server device 10 accumulates the reception history (specification history) of the object (product, medicine) identified based on the captured image from the user terminal 20, and stores the accumulated reception history for each user. may be treated as the usage history or purchase history of the goods. In this case, for example, the server device 10 calculates the use frequency or purchase frequency of each user's goods from the accumulated reception history, and transmits an article advertisement message or the like to each user based on the calculated use frequency or purchase frequency. be able to. Therefore, it is possible to advertise for each user, and to efficiently advertise to users who have used or purchased the product. The configuration of this embodiment can also be applied to the second and third embodiments, and even when applied to the second and third embodiments, the same effects as those of the second and third embodiments can be obtained.

(実施形態5)
実施形態5の物品特定システムについて説明する。本実施形態の物品特定システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。図14は、ユーザ端末20の画面例を示す模式図である。本実施形態では、サーバ装置10が物品識別器12bによる商品候補(吸入器候補)の特定結果をユーザ端末20へ送信する際に、制御部11は、図14に示すような画面を表示するための表示情報を生成して送信する。図14に示す画面では、吸入器候補に特定された各吸入器のサンプル画像24bが、撮像画像24a中の被写体の向き(被写体に対する撮像方向)と同じ向きになるように表示されている。なお、本実施形態のサーバ装置10では、サンプル画像24bとして、物品識別器12bにて識別可能な物品(吸入器)を複数の方向から撮像した画像を記憶部12に記憶している。
(Embodiment 5)
An article identification system according to Embodiment 5 will be described. Each device of the article identification system of the present embodiment has the same configuration as each device of the first embodiment, so the description of the configuration is omitted. FIG. 14 is a schematic diagram showing a screen example of the user terminal 20. As shown in FIG. In the present embodiment, when the server device 10 transmits to the user terminal 20 the identification result of the product candidate (inhaler candidate) by the product identifier 12b, the control unit 11 displays a screen as shown in FIG. generate and send display information for On the screen shown in FIG. 14, a sample image 24b of each inhaler candidate identified as an inhaler candidate is displayed in the same direction as the subject in the captured image 24a (imaging direction with respect to the subject). In the server device 10 of the present embodiment, the storage unit 12 stores, as the sample images 24b, images of articles (inhalers) identifiable by the article identifier 12b, which are captured from a plurality of directions.

本実施形態の物品特定システムにおいて、ユーザ端末20及びサーバ装置10は、実施形態1で説明した図5に示す処理と同様の処理を行う。なお、図5中のステップS7において、本実施形態のサーバ装置10の制御部11は、図14に示すように、物品識別器12bによって吸入器候補に特定された吸入器のサンプル画像24bを、撮像画像24a中の被写体と同じ向きに表示するための表示情報を生成する。例えば制御部11は、吸入器候補の複数のサンプル画像24bから、撮像画像24a中の被写体と同じ向きで撮像されたサンプル画像24bを記憶部12から読み出し、読み出したサンプル画像24bを用いて表示情報を生成する。また制御部11は、吸入器候補のサンプル画像24bに対して、撮像画像24a中の被写体と同じ向きとなるように画像処理を行い、処理後のサンプル画像24bを用いて表示情報を生成してもよい。また、サンプル画像24bとして、それぞれの吸入器の全周面を撮像した画像を合成した3Dモデル画像を用いてもよい。この場合、制御部11は、3Dモデル画像のサンプル画像24bから、撮像画像24a中の被写体と同じ向きから吸入器を見た状態の2D画像を生成し、生成した2D画像を用いて表示情報を生成してもよい。 In the article identification system of this embodiment, the user terminal 20 and the server device 10 perform the same processing as the processing shown in FIG. 5 described in the first embodiment. Note that in step S7 in FIG. 5, the control unit 11 of the server device 10 of the present embodiment, as shown in FIG. Display information for displaying in the same orientation as the subject in the captured image 24a is generated. For example, the control unit 11 reads from the storage unit 12 sample images 24b captured in the same orientation as the subject in the captured image 24a from among the plurality of sample images 24b of the inhaler candidates, and uses the read sample images 24b to display information. to generate In addition, the control unit 11 performs image processing on the sample image 24b of the inhaler candidate so that it faces in the same direction as the subject in the captured image 24a, and generates display information using the processed sample image 24b. good too. Also, as the sample image 24b, a 3D model image obtained by synthesizing images obtained by capturing the entire circumferential surface of each inhaler may be used. In this case, the control unit 11 generates a 2D image of the inhaler viewed from the same direction as the subject in the captured image 24a from the sample image 24b of the 3D model image, and uses the generated 2D image to display the display information. may be generated.

本実施形態では、サーバ装置10で吸入器候補に特定された各吸入器のサンプル画像24bが、ユーザ端末20で撮像された被写体の撮像状態に応じた状態で表示される。具体的には、サンプル画像24bが、ユーザ端末20で撮像された被写体と同じ向きで表示されるので、各吸入器候補をより見易く表示できる。これにより、ユーザが表示中の吸入器候補から正解の吸入器を選択する際に、より容易に適切な吸入器の選択が可能となる。 In the present embodiment, the sample image 24b of each inhaler identified as an inhaler candidate by the server device 10 is displayed in a state corresponding to the imaging state of the subject imaged by the user terminal 20 . Specifically, since the sample image 24b is displayed in the same orientation as the subject imaged by the user terminal 20, each inhaler candidate can be displayed more easily. As a result, when the user selects the correct inhaler from the displayed inhaler candidates, it is possible to more easily select an appropriate inhaler.

本実施形態において、各商品(吸入器)のサンプル画像に、各商品(吸入器)の3Dモデル画像を用いた場合、例えばユーザが表示画面中のサンプル画像24bに対してスライド操作等の操作を行うことにより、表示中のサンプル画像24bの向きを変更することができる。例えば、ユーザが表示画面中のサンプル画像24bに対して操作を行った場合、ユーザ端末20は、ユーザの操作に係る操作情報をサーバ装置10へ送信する。そして、サーバ装置10の制御部11は、受信した操作情報に応じた向きにサンプル画像24bを回転させてユーザ端末20へ送信する。これにより、3次元においてユーザが所望する方向から商品(吸入器)を見た状態のサンプル画像24bをユーザ端末20に表示させることができる。よって、ユーザが表示中の商品候補(吸入器候補)から正解を選択する際に、各商品候補を見分けやすく、選択間違いを抑制できる。なお、ユーザ端末20の制御部21が、ユーザの操作に応じて、表示中のサンプル画像24bを回転させる処理を行ってもよい。 In this embodiment, when a 3D model image of each product (inhaler) is used as the sample image of each product (inhaler), for example, the user performs an operation such as a slide operation on the sample image 24b on the display screen. By doing so, the orientation of the sample image 24b being displayed can be changed. For example, when the user operates the sample image 24b on the display screen, the user terminal 20 transmits operation information related to the user's operation to the server device 10 . Then, the control unit 11 of the server device 10 rotates the sample image 24 b in the orientation corresponding to the received operation information and transmits the rotated sample image 24 b to the user terminal 20 . This allows the user terminal 20 to display the sample image 24b in which the product (inhaler) is viewed in a three-dimensional direction desired by the user. Therefore, when the user selects the correct answer from the displayed product candidates (inhaler candidates), it is easy to distinguish between the product candidates, and selection errors can be suppressed. Note that the control unit 21 of the user terminal 20 may perform processing to rotate the sample image 24b being displayed according to the user's operation.

(実施形態6)
実施形態6の物品特定システムについて説明する。本実施形態では、商品等の物品の撮像画像に基づいて被写体の物品を特定した後に、特定した物品に関して物品情報、販売サイト、問い合わせ先を案内する物品特定システムについて説明する。本実施形態の物品特定システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。
(Embodiment 6)
An article identification system according to Embodiment 6 will be described. In the present embodiment, an article identification system will be described that, after identifying an article as a subject based on a captured image of an article such as a product, provides information on the article, a sales site, and an inquiry address for the identified article. Each device of the article identification system of the present embodiment has the same configuration as each device of the first embodiment, so the description of the configuration is omitted.

本実施形態の物品特定システム100における物品特定処理について説明する。図15及び図16は、ユーザ端末20及びサーバ装置10が行う処理の手順を示すフローチャート、図17は、ユーザ端末20の画面例を示す模式図である。本実施形態の物品特定システム100において、ユーザ端末20の制御部21は、入力部25を介して物品照会アプリ22aの起動指示を受け付けた場合、記憶部22に記憶してある物品照会アプリ22aを起動する(S61)。物品照会アプリ22aを起動した場合、制御部21は、図17に示すような選択画面を表示部24に表示する(S62)。図17に示す選択画面は、物品特定システム100にて特定された物品に関して行うべき処理を選択するための画面であり、物品の使い方を調べる処理、同じ物品を買う処理、物品に関する問い合わせを行う処理の選択が可能に構成されている。 An article identification process in the article identification system 100 of this embodiment will be described. 15 and 16 are flowcharts showing the procedures of processing performed by the user terminal 20 and the server apparatus 10, and FIG. 17 is a schematic diagram showing an example of the screen of the user terminal 20. FIG. In the article identification system 100 of the present embodiment, when the controller 21 of the user terminal 20 receives an instruction to activate the article inquiry application 22a via the input section 25, the article inquiry application 22a stored in the storage section 22 is activated. Start up (S61). When the article inquiry application 22a is started, the control section 21 displays a selection screen as shown in FIG. 17 on the display section 24 (S62). The selection screen shown in FIG. 17 is a screen for selecting a process to be performed regarding an item specified by the item identification system 100, such as a process of checking how to use the item, a process of buying the same item, and a process of making an inquiry about the item. can be selected.

制御部21は、選択画面において入力部25を介してユーザが選択した処理を受け付ける(S63)。そして制御部21は、カメラ26を起動し(S64)、カメラ26にて撮像画像を取得する(S65)。制御部21は、取得した撮像画像と、ステップS63で受け付けた処理を示す処理情報とをサーバ装置10へ送信する(S66)。サーバ装置10の制御部11は、ユーザ端末20が送信した撮像画像及び処理情報を取得する(S67)。制御部11は、取得した撮像画像に対して物品識別器12bを用いた物品特定を行い(S68)、撮像画像中の被写体である可能性が高い商品を特定する。制御部11は、特定結果をユーザ端末20へ送信する(S69)。 The control unit 21 receives the process selected by the user via the input unit 25 on the selection screen (S63). Then, the control unit 21 activates the camera 26 (S64), and acquires a captured image with the camera 26 (S65). The control unit 21 transmits the acquired captured image and processing information indicating the processing accepted in step S63 to the server device 10 (S66). The control unit 11 of the server device 10 acquires the captured image and the processing information transmitted by the user terminal 20 (S67). The control unit 11 performs article identification using the article identifier 12b on the acquired captured image (S68), and identifies an article that is highly likely to be the subject in the captured image. The control unit 11 transmits the identification result to the user terminal 20 (S69).

ユーザ端末20の制御部21は、サーバ装置10から特定結果を取得し、例えば図4に示すような表示画面を表示部24に表示する(S70)。制御部21は、表示画面において入力部25を介してユーザによって選択された商品候補を示す情報と、この商品候補が正解の商品であることを示す情報とを含む正解情報を受け付け(S71)、受け付けた正解情報をサーバ装置10へ送信する(S72)。サーバ装置10の制御部11は、ユーザ端末20が送信した正解情報を取得し(S73)、ステップS67でユーザ端末20から取得した撮像画像と、ステップS73で取得した正解情報とに基づいて物品識別器12bの再学習を行う(S74)。 The control unit 21 of the user terminal 20 acquires the identification result from the server device 10, and displays, for example, a display screen as shown in FIG. 4 on the display unit 24 (S70). The control unit 21 receives correct information including information indicating the product candidate selected by the user via the input unit 25 on the display screen and information indicating that the product candidate is the correct product (S71), The received correct answer information is transmitted to the server device 10 (S72). The control unit 11 of the server device 10 acquires the correct information transmitted by the user terminal 20 (S73), and identifies the article based on the captured image acquired from the user terminal 20 in step S67 and the correct information acquired in step S73. Re-learning of the device 12b is performed (S74).

また制御部11は、ステップS73で取得した正解情報が示す商品について、ステップS67でユーザ端末20から取得した処理情報が示す処理に応じた商品情報を取得する(S75)。なお、各商品の各処理に応じた商品情報は、例えば記憶部12に記憶されており、制御部11は商品情報を記憶部12から読み出す。各商品の各処理に応じた商品情報は、サーバ装置10に接続された外部の記憶装置、又はネットワークNを介してサーバ装置10と通信可能な外部の記憶装置等に記憶されてもよい。この場合、制御部11は、商品情報を外部の記憶装置から取得する。制御部11は、取得した商品情報をユーザ端末20へ出力する(S76)。 Further, the control unit 11 acquires product information corresponding to the process indicated by the processing information obtained from the user terminal 20 in step S67 for the product indicated by the correct answer information obtained in step S73 (S75). Product information corresponding to each process for each product is stored, for example, in the storage unit 12 , and the control unit 11 reads the product information from the storage unit 12 . The product information corresponding to each process of each product may be stored in an external storage device connected to the server device 10 or an external storage device capable of communicating with the server device 10 via the network N, or the like. In this case, the control unit 11 acquires product information from an external storage device. The control unit 11 outputs the acquired product information to the user terminal 20 (S76).

ユーザ端末20の制御部21は、サーバ装置10から商品情報を取得し、表示画面を表示部24に表示する(S77)。ここでの表示画面は、図17に示す選択画面を介してユーザが選択した処理に応じた情報を表示する。例えば図17に示す選択画面を介して物品の使い方を調べる処理が選択されていた場合、ユーザ端末20は、図7中のリンクL1が設定された表示画面をサーバ装置10から取得して表示する。また、図17に示す選択画面を介して同じ物品を買う処理が選択されていた場合、ユーザ端末20は、図7中のリンクL2が設定された表示画面をサーバ装置10から取得して表示する。なお、それぞれの表示画面において、リンクL1の代わりに商品の使い方を含む商品情報自体が表示されてもよく、リンクL2の代わりに販売サイトのウェブページが表示されてもよい。また、図17に示す選択画面を介して物品に関する問い合わせを行う処理が選択されていた場合、ユーザ端末20は、問い合わせ先の電話番号が表示された表示画面、又はネットワークNを介して問い合わせを行うウェブサイトへのリンクが設定された表示画面等をサーバ装置10から取得して表示する。なお、ユーザ端末20は、所定のコールセンターに電話の発信を行ってもよい。 The control unit 21 of the user terminal 20 acquires the product information from the server device 10 and displays the display screen on the display unit 24 (S77). The display screen here displays information according to the process selected by the user via the selection screen shown in FIG. For example, when the process of checking how to use an article is selected via the selection screen shown in FIG. 17, the user terminal 20 obtains from the server device 10 and displays the display screen on which the link L1 in FIG. 7 is set. . 17, the user terminal 20 obtains from the server device 10 and displays the display screen on which the link L2 in FIG. 7 is set. . In addition, in each display screen, the product information itself including how to use the product may be displayed instead of the link L1, and the web page of the sales site may be displayed instead of the link L2. 17, the user terminal 20 makes an inquiry via the display screen displaying the telephone number of the inquiry destination or via the network N. A display screen or the like on which a link to a website is set is obtained from the server device 10 and displayed. Note that the user terminal 20 may make a call to a predetermined call center.

本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、ユーザ端末20が物品照会アプリ22aを起動した時点で、ユーザが撮像した物品(商品)に対して行いたい処理を選択するので、ユーザは選択した処理に応じた情報をユーザ端末20で確認することができる。本実施形態の構成は実施形態2~5にも適用可能であり、実施形態2~5に適用した場合であっても実施形態2~5と同様の効果が得られる。なお、実施形態2~5に適用した場合、ユーザ端末20は、物品照会アプリ22aを起動した後に、図17に示すような選択画面を表示し、サーバ装置10で商品を特定した後に行うべき処理の選択を受け付ける構成とすればよい。 In this embodiment, the same effects as those of the first embodiment described above can be obtained. Further, in the present embodiment, when the user terminal 20 activates the item inquiry application 22a, the user selects the desired process for the imaged item (merchandise). It can be confirmed on the terminal 20 . The configuration of the present embodiment can also be applied to Embodiments 2 to 5, and even when applied to Embodiments 2 to 5, the same effects as those of Embodiments 2 to 5 can be obtained. In addition, when applied to the second to fifth embodiments, the user terminal 20 displays a selection screen as shown in FIG. may be configured to accept the selection of .

(実施形態7)
実施形態7の物品特定システムについて説明する。本実施形態では、サーバ装置10がユーザ端末20から受信した撮像画像(教師用画像)に正解情報に基づくラベル付けを行った教師データを物品識別器12bの再学習に利用するか否かを、正解情報に応じて切り替える物品特定システムについて説明する。本実施形態の物品特定システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。
(Embodiment 7)
An article identification system according to Embodiment 7 will be described. In the present embodiment, whether or not to use teacher data obtained by labeling captured images (teacher images) received by the server device 10 from the user terminal 20 based on correct information for re-learning the article classifier 12b is determined by: An article identification system that switches according to correct information will be described. Each device of the article identification system of the present embodiment has the same configuration as each device of the first embodiment, so the description of the configuration is omitted.

本実施形態のユーザ端末20及びサーバ装置10は、図5に示した実施形態1の処理と同様の処理を行う。なお、本実施形態のサーバ装置10は、図5中のステップS11の処理の後、ステップS5でユーザ端末20から取得した撮像画像と、ステップS11でユーザ端末20から取得した正解情報とを、記憶部12に記憶してある受信履歴データベース(以下、受信履歴DBという)に蓄積する。図18は、受信履歴DBの構成例を示す模式図である。受信履歴DBには、撮像画像及び正解情報の送信元のユーザ端末20又はユーザを識別するためのユーザ識別情報、受信した撮像画像及び正解情報が対応付けて登録されている。正解情報は、ユーザ端末20においてユーザによって正解の商品であると選択された商品候補を示す商品IDと、この商品候補に対してサーバ装置10の物品識別器12bが算出された確信度とを含む。なお、サーバ装置10からユーザ端末20へ送信される特定結果に、各商品候補の確信度が含まれる場合、ユーザ端末20からサーバ装置10へ送信される正解情報に、正解の商品(選択された商品候補)に対する確信度を含めてもよい。 The user terminal 20 and the server device 10 of this embodiment perform the same processing as that of the first embodiment shown in FIG. Note that after the process of step S11 in FIG. 5, the server device 10 of the present embodiment stores the captured image obtained from the user terminal 20 in step S5 and the correct answer information obtained from the user terminal 20 in step S11. The data is stored in a reception history database (hereinafter referred to as reception history DB) stored in the unit 12 . FIG. 18 is a schematic diagram showing a configuration example of a reception history DB. In the reception history DB, user identification information for identifying the user terminal 20 or the user who sent the captured image and the correct answer information, the received captured image and the correct answer information are registered in association with each other. The correct answer information includes a product ID indicating a product candidate selected as the correct product by the user on the user terminal 20, and the degree of certainty calculated by the product identifier 12b of the server device 10 for this product candidate. . Note that when the identification result transmitted from the server device 10 to the user terminal 20 includes the degree of certainty of each product candidate, the correct information transmitted from the user terminal 20 to the server device 10 includes the correct product (the selected product candidate) may be included.

本実施形態のサーバ装置10は、図18に示すように受信履歴を蓄積しており、所定のタイミングで、受信履歴に基づいて、撮像画像を送信するユーザ端末20又はユーザ端末20のユーザが、物品識別器12bの学習対象とすべきであるか否かの判断処理を行う。この判断処理は、例えば1日毎、1週間毎のように定期的に行ってもよく、所定量の受信履歴が蓄積される都度行ってもよい。 The server device 10 of the present embodiment accumulates reception histories as shown in FIG. A determination process is performed to determine whether or not the item should be learned by the item classifier 12b. This determination process may be performed periodically, for example, every day or every week, or every time a predetermined amount of reception history is accumulated.

図19は、サーバ装置10が行う判断処理の手順を示すフローチャートである。サーバ装置10の制御部11は、判断処理を行うタイミングが到来した場合、図18に示す受信履歴DBから、1つのユーザ識別情報に対応する正解情報を読み出す(S81)。制御部11は、読み出した正解情報において、確信度が所定値未満(例えば0.5未満)の正解情報の数と、確信度が所定値以上の正解情報の数とを計数し、確信度が所定値未満の正解情報の割合を算出する(S82)。制御部11は、算出した割合が所定割合以上(例えば60%以上)であるか否かを判断し(S83)、所定割合以上であると判断した場合(S83:YES)、このユーザ識別情報を、物品識別器12bの学習対象としないユーザ又はユーザ端末20の情報として記憶部12に記憶する(S84)。確信度が所定値未満の正解情報の割合が所定割合以上である場合、このユーザは、複数の商品候補に対して悪意を持って、正解ではない商品候補を正解であると選択している可能性が高い。よって、確信度が低い商品候補を正解の商品であると選択する割合が高いユーザからの情報(撮像画像及び正解情報)を、物品識別器12bの学習対象から除外する。 FIG. 19 is a flow chart showing the procedure of determination processing performed by the server device 10 . When the timing for performing the judgment process arrives, the control unit 11 of the server device 10 reads correct information corresponding to one piece of user identification information from the reception history DB shown in FIG. 18 (S81). In the read correct information, the control unit 11 counts the number of correct information whose certainty is less than a predetermined value (for example, less than 0.5) and the number of correct information whose certainty is equal to or higher than a predetermined value. A ratio of correct information less than a predetermined value is calculated (S82). The control unit 11 determines whether the calculated ratio is a predetermined ratio or more (for example, 60% or more) (S83). , is stored in the storage unit 12 as information of users or user terminals 20 not to be learned by the article identifier 12b (S84). If the percentage of correct information with a degree of certainty less than a predetermined value is greater than or equal to a predetermined percentage, it is possible that the user has maliciously selected a product candidate that is not the correct answer as being the correct product candidate. highly sexual. Therefore, information (captured images and correct information) from users who have a high rate of selecting product candidates with a low degree of certainty as being correct products is excluded from learning objects of the product classifier 12b.

ステップS82で算出した割合が所定割合未満であると判断した場合(S83:NO)、制御部11は、ステップS84の処理をスキップする。制御部11は、受信履歴DBに記憶してある全ての受信履歴に対して処理を終了したか否かを判断しており(S85)、終了していないと判断した場合(S85:NO)、ステップS81の処理に戻る。そして、制御部11は、未処理のユーザ識別情報について、ステップS81~S84の処理を行う。全ての受信履歴に対して処理を終了したと判断した場合(S85:YES)、制御部11は処理を終了する。このような処理により、サーバ装置10は、物品識別器12bの学習対象とすべきでないユーザ又はユーザ端末20の識別情報を記憶部12に記憶することができる。 When determining that the ratio calculated in step S82 is less than the predetermined ratio (S83: NO), the control unit 11 skips the process of step S84. The control unit 11 determines whether or not processing has been completed for all reception histories stored in the reception history DB (S85). The process returns to step S81. Then, the control unit 11 performs the processing of steps S81 to S84 for unprocessed user identification information. If it is determined that the process has been completed for all reception histories (S85: YES), the control unit 11 ends the process. Through such processing, the server device 10 can store in the storage unit 12 identification information of users or user terminals 20 that should not be learned by the article identifier 12b.

上述したように、本実施形態では、サーバ装置10が、物品識別器12bの学習対象とすべきでないユーザ又はユーザ端末20のユーザ識別情報を記憶部12に記憶している。このような構成の物品特定システム100における物品特定処理について説明する。図20は、ユーザ端末20及びサーバ装置10が行う処理の手順の一部を示すフローチャートである。図20に示す処理は、図5に示した実施形態1の処理において、ステップS11の処理とステップS12の処理との間にステップS91の処理を追加したものである。図20では、図5中のステップS1~S10の図示を省略する。 As described above, in the present embodiment, the server device 10 stores in the storage unit 12 user identification information of users or user terminals 20 that should not be learned by the article identifier 12b. Article identification processing in the article identification system 100 having such a configuration will be described. FIG. 20 is a flow chart showing part of the procedure of processing performed by the user terminal 20 and the server device 10 . The process shown in FIG. 20 is obtained by adding the process of step S91 between the process of step S11 and the process of step S12 in the process of the first embodiment shown in FIG. In FIG. 20, illustration of steps S1 to S10 in FIG. 5 is omitted.

本実施形態の物品特定システム100において、ユーザ端末20及びサーバ装置10は、図5中のステップS1~S11の処理を行う。そして、サーバ装置10の制御部11は、ステップS5で取得した撮像画像及びステップS11で取得した正解情報の送信元が、物品識別器12bの学習対象とすべきユーザ又はユーザ端末20であるか否かを判断する(S91)。具体的には、制御部11は、送信元のユーザ端末20又はユーザ端末20のユーザの識別情報を特定し、特定した識別情報が、物品識別器12bの学習対象とすべきでないユーザ又はユーザ端末20の識別情報として記憶部12に記憶してあるか否かを判断する。特定した識別情報が、学習対象とすべきでないユーザ又はユーザ端末20の識別情報として記憶部12に記憶されていない場合、ここでの送信元は学習対象とすべきユーザ又はユーザ端末20であると判断する。 In the article identification system 100 of this embodiment, the user terminal 20 and the server device 10 perform the processes of steps S1 to S11 in FIG. Then, the control unit 11 of the server device 10 determines whether the transmission source of the captured image acquired in step S5 and the correct information acquired in step S11 is the user or the user terminal 20 to be learned by the article identifier 12b. (S91). Specifically, the control unit 11 identifies the identification information of the user terminal 20 of the transmission source or the user of the user terminal 20, and identifies the user or user terminal whose identified identification information should not be learned by the article identifier 12b. 20 is stored in the storage unit 12 or not. If the specified identification information is not stored in the storage unit 12 as the identification information of the user or user terminal 20 that should not be the learning target, the transmission source here is the user or the user terminal 20 that should be the learning target. to decide.

制御部11は、送信元が学習対象とすべきユーザ又はユーザ端末20であると判断した場合(S91:YES)、ステップS12の処理に移行し、ユーザ端末20から取得した撮像画像及び正解情報に基づいて物品識別器12bの再学習を行う(S12)。送信元が学習対象とすべきユーザ又はユーザ端末20でないと判断した場合(S91:NO)、制御部11はステップS12の処理をスキップして処理を終了する。 When the control unit 11 determines that the transmission source is the user or the user terminal 20 to be studied (S91: YES), the process proceeds to step S12, and the captured image and the correct answer information acquired from the user terminal 20 Based on this, the article classifier 12b is re-learned (S12). If it is determined that the transmission source is not the user or the user terminal 20 that should be the learning target (S91: NO), the control unit 11 skips the processing of step S12 and ends the processing.

本実施形態では、ユーザ端末20で撮像した画像に基づいてサーバ装置10の物品識別器12bが特定した被写体の商品候補に対して、正解ではない商品候補を正解であると故意に選択した可能性の高いユーザを特定できる。また、このようなユーザによって得られた教師データを物品識別器12bの学習対象から除外することができ、物品識別器12bによる物品識別精度の低下を回避できる。本実施形態の構成は実施形態2~5にも適用可能であり、実施形態2~5に適用した場合であっても実施形態2~5と同様の効果が得られる。 In this embodiment, there is a possibility that an incorrect product candidate was intentionally selected as the correct product candidate for the subject identified by the product identifier 12b of the server device 10 based on the image captured by the user terminal 20. can identify users with high In addition, such teacher data obtained by the user can be excluded from the learning target of the article identifier 12b, thereby avoiding deterioration in article identification accuracy by the article identifier 12b. The configuration of the present embodiment can also be applied to Embodiments 2 to 5, and even when applied to Embodiments 2 to 5, the same effects as those of Embodiments 2 to 5 can be obtained.

上述した各実施形態では、飲料商品を撮像した画像に基づいてサーバ装置10がいずれの商品であるかを特定する構成や、吸入器を撮像した画像に基づいてサーバ装置10がいずれの吸入器であるかを特定する構成について説明した。本実施形態の物品特定システム100は、種々の物品の特定処理に適用可能である。例えば、物品識別器12bで識別可能な対象物の種類、分類を決定し、種類、分類毎に対象物を撮像した教師用画像に、各対象物を示す情報がラベル付けされた教師データを用いて機械学習処理を行うことにより、種類、分類毎に物品識別器12bを構築しておく。また、ユーザ端末20に、それぞれの物品識別器12bに応じた物品照会アプリ22aを適宜インストールすることにより、それぞれの物品照会アプリ22aを介して、対応する物品識別器12bを有するサーバ装置10と通信して物品特定処理を行うことが可能となる。対象物の種類は例えば飲料、調味料、お菓子、洗剤、化粧品、吸入器、薬品等、様々なものとすることができる。 In each of the above-described embodiments, the server device 10 identifies which product is based on an image of a beverage product, and the server device 10 identifies which inhaler is based on an image of an inhaler. We have described the configuration that identifies the presence. The article identification system 100 of this embodiment can be applied to various article identification processes. For example, the types and classifications of objects identifiable by the article identifier 12b are determined, and training data labeled with information indicating each object is used for training images in which the objects are imaged for each type and classification. By performing machine learning processing in advance, an article discriminator 12b is constructed for each type and classification. Also, by appropriately installing an article inquiry application 22a corresponding to each article identifier 12b in the user terminal 20, communication is made with the server device 10 having the corresponding article identifier 12b via each article inquiry application 22a. Then, it becomes possible to perform the article specifying process. The types of objects can be various, such as beverages, seasonings, sweets, detergents, cosmetics, inhalers, medicines, and the like.

上述した各実施形態において、サーバ装置10の物品識別器12bの再学習を行う際に、ユーザによって正解であると選択された物品について既に物品識別器12bが0.8以上の確信度を算出している場合、このときの撮像画像及び正解情報による教師データを、物品識別器12bの学習対象から除外してもよい。このように、ユーザ端末20で撮像された画像において、物品識別器12bの再学習の際に教師データに用いるか否かを適宜切り替えるように構成してもよい。 In each of the above-described embodiments, when re-learning the article identifier 12b of the server device 10, the article identifier 12b has already calculated a certainty factor of 0.8 or more for the article selected by the user as being correct. If so, the captured image and the teacher data based on the correct answer information at this time may be excluded from learning objects of the article classifier 12b. In this way, it may be configured such that whether or not to use an image captured by the user terminal 20 as teacher data is appropriately switched when the article classifier 12b is re-learned.

上述した各実施形態では、サーバ装置10が、ユーザ端末20から取得した撮像画像中の被写体の物品候補を特定し、特定結果をユーザ端末20へ送信し、正解である物品を示す正解情報をユーザ端末20から取得する構成について説明した。このほかに、例えばサーバ装置10が、通信ケーブルを介して接続されたカメラ等の撮像装置から取得した撮像画像、又は内蔵されたカメラにて撮像した撮像画像に対して、物品識別器12bを用いて被写体の物品候補を特定する構成としてもよい。また、サーバ装置10は、特定結果を、自装置10に設けられた表示部に表示してもよく、表示した物品候補中の正解の物品に対する選択を、自装置10に設けられた入力部を介して受け付けてもよい。このような構成とした場合であっても、サーバ装置10は、物品識別器12bを用いた物品の特定結果に対するユーザの評価を取得することができる。また、種々の撮像環境で得られた撮像画像を教師データに用いて物品識別器12bの再学習を行うことができるので、物品識別器12bによる物品の識別精度を向上させることができる。 In each of the above-described embodiments, the server device 10 identifies the article candidate of the subject in the captured image acquired from the user terminal 20, transmits the identification result to the user terminal 20, and sends correct information indicating the correct article to the user. The configuration for acquiring from the terminal 20 has been described. In addition, for example, the server device 10 uses the article identifier 12b to capture images acquired from an imaging device such as a camera connected via a communication cable, or captured images captured by a built-in camera. It is also possible to use a configuration in which the article candidate of the subject is identified by Further, the server device 10 may display the identification result on the display unit provided in the device 10, and select the correct item from the displayed item candidates by using the input unit provided in the device 10. may be accepted through Even with such a configuration, the server device 10 can acquire the user's evaluation of the result of specifying the article using the article identifier 12b. In addition, since the article classifier 12b can be re-learned by using captured images obtained in various imaging environments as training data, it is possible to improve the accuracy of product identification by the article classifier 12b.

今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the meaning described above, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

100 物品特定システム
10 サーバ装置(物品特定装置、情報処理装置)
11 制御部
12 記憶部
20 ユーザ端末(外部装置)
21 制御部
22 記憶部
10a 候補特定部
10c 学習部
12a 物品特定プログラム
12b 物品識別器
100 article identification system 10 server device (article identification device, information processing device)
11 control unit 12 storage unit 20 user terminal (external device)
21 control unit 22 storage unit 10a candidate identification unit 10c learning unit 12a article identification program 12b article identifier

Claims (7)

画像を取得する画像取得部と、
取得した前記画像から識別器を用いて前記画像中に存在する物品候補を特定する候補特定部と、
特定した前記物品候補に係る情報を出力する出力部と、
出力した前記物品候補が正解であるか否かを示す正解情報を取得する情報取得部と、
取得した前記正解情報及び前記画像取得部が取得した画像を用いて、前記識別器の再学習を行う学習部と
を備え、
前記候補特定部は、複数の前記物品候補のそれぞれに対して前記画像中の物品である可能性を示す確信度を算出し、算出した確信度が高い複数の物品候補を特定し、
前記出力部は、特定された前記物品候補を、それぞれの前記確信度に応じて強調表示する指示を出力し、
前記情報取得部は、前記複数の物品候補のうちの正解である物品を示す正解情報を取得する
ことを特徴とする物品特定装置。
an image acquisition unit that acquires an image;
a candidate identification unit that identifies an article candidate present in the acquired image using a classifier;
an output unit that outputs information related to the identified article candidate;
an information acquisition unit that acquires correct information indicating whether or not the output product candidate is correct;
a learning unit that re-learns the classifier using the acquired correct information and the image acquired by the image acquisition unit,
The candidate specifying unit calculates a certainty factor indicating a possibility that each of the plurality of article candidates is the article in the image, and specifies a plurality of article candidates with a high calculated certainty factor,
The output unit outputs an instruction to highlight and display the identified item candidates according to the degrees of certainty,
The article identification device, wherein the information acquisition unit acquires correct information indicating an article that is a correct answer among the plurality of article candidates.
前記情報取得部が取得した前記正解情報に基づいて正解である物品に応じた物品情報を出力する物品情報出力部
を備えることを特徴とする請求項1に記載の物品特定装置。
The article identification device according to claim 1, further comprising an article information output section that outputs article information corresponding to a correct article based on the correct information acquired by the information acquisition section.
前記画像取得部は、前記画像及びユーザ情報を取得し、
前記物品情報出力部は、取得した前記ユーザ情報に応じた前記物品情報を出力する
ことを特徴とする請求項2に記載の物品特定装置。
The image acquisition unit acquires the image and user information,
3. The article identification device according to claim 2, wherein the article information output unit outputs the article information according to the acquired user information.
前記画像取得部は、前記画像及びユーザ情報を取得し、
前記出力部は、前記候補特定部が特定した前記物品候補から前記ユーザ情報に応じた物品候補を抽出し、抽出した前記物品候補に係る情報を出力する
ことを特徴とする請求項1から3までのいずれかひとつに記載の物品特定装置。
The image acquisition unit acquires the image and user information,
4. The output unit extracts product candidates corresponding to the user information from the product candidates specified by the candidate specifying unit, and outputs information related to the extracted product candidates. The article identification device according to any one of .
前記出力部は、前記画像中の物品の撮像方向に応じた、前記候補特定部が特定した前記物品候補の画像を出力する
ことを特徴とする請求項1から4までのいずれかひとつに記載の物品特定装置。
5. The item according to any one of claims 1 to 4, wherein the output unit outputs an image of the item candidate identified by the candidate identification unit according to an imaging direction of the item in the image. Article identification device.
前記識別器は、複数の物品画像から複数の物品のそれぞれにおける特徴量を学習させた識別器であり、
前記候補特定部は、前記複数の物品から前記画像中の物品候補を特定する
ことを特徴とする請求項1から5までのいずれかひとつに記載の物品特定装置。
The classifier is a classifier that has learned the feature amount of each of a plurality of articles from a plurality of article images,
The article identification device according to any one of claims 1 to 5, wherein the candidate identification unit identifies an article candidate in the image from the plurality of articles.
前記画像取得部は、外部装置で撮像された撮像画像を取得し、
前記候補特定部は、取得した前記撮像画像中の被写体に対応する物品候補を特定する
ことを特徴とする請求項1から6までのいずれかひとつに記載の物品特定装置。
The image acquisition unit acquires a captured image captured by an external device,
The article identification device according to any one of claims 1 to 6, wherein the candidate identification unit identifies an article candidate corresponding to the subject in the acquired captured image.
JP2017249720A 2017-12-26 2017-12-26 Article identification device Active JP7167437B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017249720A JP7167437B2 (en) 2017-12-26 2017-12-26 Article identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017249720A JP7167437B2 (en) 2017-12-26 2017-12-26 Article identification device

Publications (2)

Publication Number Publication Date
JP2019117437A JP2019117437A (en) 2019-07-18
JP7167437B2 true JP7167437B2 (en) 2022-11-09

Family

ID=67304439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017249720A Active JP7167437B2 (en) 2017-12-26 2017-12-26 Article identification device

Country Status (1)

Country Link
JP (1) JP7167437B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7357551B2 (en) * 2020-01-17 2023-10-06 株式会社日立ソリューションズ・クリエイト Image judgment system
JP2021114082A (en) * 2020-01-17 2021-08-05 ソニーグループ株式会社 Information processing device and information processing method
JP7424066B2 (en) * 2020-01-20 2024-01-30 株式会社大林組 Geological evaluation system, geological evaluation method and geological evaluation program
JP2021163256A (en) * 2020-03-31 2021-10-11 株式会社デンソーテン Information processing method and information processing program
CN111541907B (en) * 2020-04-23 2023-09-22 腾讯科技(深圳)有限公司 Article display method, apparatus, device and storage medium
JP7147087B1 (en) 2022-02-09 2022-10-04 日本発條株式会社 Information processing system, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040208372A1 (en) 2001-11-05 2004-10-21 Boncyk Wayne C. Image capture and identification system and process
JP2010218372A (en) 2009-03-18 2010-09-30 Olympus Corp Server system, terminal device, program, information storage medium, and image retrieval method
JP2017111731A (en) 2015-12-18 2017-06-22 キヤノンマーケティングジャパン株式会社 Information processing system, information processing method, and program
JP2017130216A (en) 2008-08-08 2017-07-27 株式会社ニコン Retrieval support system, retrieval support method, and retrieval support program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040208372A1 (en) 2001-11-05 2004-10-21 Boncyk Wayne C. Image capture and identification system and process
JP2017130216A (en) 2008-08-08 2017-07-27 株式会社ニコン Retrieval support system, retrieval support method, and retrieval support program
JP2010218372A (en) 2009-03-18 2010-09-30 Olympus Corp Server system, terminal device, program, information storage medium, and image retrieval method
JP2017111731A (en) 2015-12-18 2017-06-22 キヤノンマーケティングジャパン株式会社 Information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP2019117437A (en) 2019-07-18

Similar Documents

Publication Publication Date Title
JP7167437B2 (en) Article identification device
US10470510B1 (en) Systems and methods for full body measurements extraction using multiple deep learning networks for body feature measurements
US11935167B2 (en) Method and apparatus for virtual fitting
US10346893B1 (en) Virtual dressing room
CN106462979B (en) Fashion Preference Analysis
CN110716645A (en) Augmented reality data presentation method and device, electronic equipment and storage medium
US9400805B2 (en) Image-related social network methods and arrangements
US20180338068A1 (en) Methods for encoding, decoding and interpreting auxiliary data in media signals
EP3732588A1 (en) Computer vision and image characteristic search
KR102719970B1 (en) Garnering interest on potential listing in a photo or video
JP7036401B2 (en) Learning server, image collection support system for insufficient learning, and image estimation program for insufficient learning
US20190325497A1 (en) Server apparatus, terminal apparatus, and information processing method
KR101756840B1 (en) Method and apparatus for transmitting intention using photographing image
US20170053312A1 (en) Information processing apparatus, information presentation method, program, and system
CN113509136B (en) Detection method, vision detection method, device, electronic device and storage medium
JP2014041502A (en) Video distribution device, video distribution method, and video distribution program
WO2018066102A1 (en) Information providing system, information providing device, information providing method, and program
US20250166309A1 (en) Information interaction method, computer-readable storage medium and communication terminal
KR20230015272A (en) Unmanned information terminal using artificial intelligence, order management server, and method for providing order information
TWI682288B (en) System and method for establishing relational data
US20190188436A1 (en) Generating method and decoding method for a verification code presented in a form of dynamic recognizable two-dimensional code
CN115147193A (en) Commodity purchasing recommendation method and device, electronic purchasing terminal and medium
JP2019057259A (en) PROVIDING PROGRAM, PROVIDING DEVICE, PROVIDING METHOD, TERMINAL DEVICE, AND INFORMATION PROVIDING DEVICE
CN108416261B (en) Task processing method and system
US20200372274A1 (en) Information processing apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221010

R150 Certificate of patent or registration of utility model

Ref document number: 7167437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150