[go: up one dir, main page]

JP2023035594A - Collation apparatus and collation method - Google Patents

Collation apparatus and collation method Download PDF

Info

Publication number
JP2023035594A
JP2023035594A JP2021142581A JP2021142581A JP2023035594A JP 2023035594 A JP2023035594 A JP 2023035594A JP 2021142581 A JP2021142581 A JP 2021142581A JP 2021142581 A JP2021142581 A JP 2021142581A JP 2023035594 A JP2023035594 A JP 2023035594A
Authority
JP
Japan
Prior art keywords
image
unit
information
captured image
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021142581A
Other languages
Japanese (ja)
Other versions
JP7407777B2 (en
Inventor
裕喜 竹内
Hiroyoshi Takeuchi
剛 宇田
Takeshi Uda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2021142581A priority Critical patent/JP7407777B2/en
Publication of JP2023035594A publication Critical patent/JP2023035594A/en
Application granted granted Critical
Publication of JP7407777B2 publication Critical patent/JP7407777B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a collation apparatus configured to check, in real time, whether a component indicated by indication information is moving on a conveyance line while suppressing processing load, and a collation method.SOLUTION: A collation apparatus includes: a receiving unit which receives a signal indicating that a component has been conveyed to a predetermined position; a first acquisition unit which starts, on receipt of the signal, acquiring a first captured image captured by a first imaging apparatus, for an indication medium of indication information that identifies the component; a second acquisition unit which starts, on receipt of the signal, acquiring a second captured image captured by a second imaging apparatus, for a predetermined target in the component; an identifying unit which acquires first information, as output, corresponding to the indication information through identification processing using a learning model to which an image of the indication information included in the first captured image is input, and second information, as output, identifying the target through identification processing using a learning model to which an image of the target included in the second captured image is input; and a collation unit which collates the first information with the second information.SELECTED DRAWING: Figure 3

Description

特許法第30条第2項適用申請有り 掲載年月日 令和3年8月20日 掲載アドレス http://gijutsu12/Giken/index.htmlApplied for application of Article 30, Paragraph 2 of the Patent Act Date of publication August 20, 2021 Address of publication http://gijutsu12/Giken/index. html

本発明は、照合装置および照合方法に関する。 The present invention relates to a collation device and a collation method.

従来の製造ラインにおいて、作業指示板等が示す識別情報の通りに車体等の部品が流れているかについては作業者の目視点検によって誤欠品の発生を抑制している。このような、製造ラインにおける技術として、所定の繰り返しピッチで連続して生産される部品の画像検査において,その画像検査の実施状態を認識するために、マッチング処理部は、入力された検査画像のフレームから部品を検出し、検出された部品の位置と相関値とを取得し、フレーム間部品対応検出部は、連続する2つのフレーム間で類似する部品の対応を検出し、対応部品位置差分算出部は、対応部品間の検出位置の差分である対応部品位置差分を算出する。対応部品位置差分統計部は、対応部品位置差分を統計した移動量ヒストグラムを作成し、部品移動量推定部は、移動量ヒストグラムから連続するフレーム間での部品の移動量を推定し、画像検査実施状態判定部は、部品の移動量の推定結果から、画像検査が適切に実施されているか否かを判定する技術が開示されている(例えば特許文献1参照)。 In the conventional manufacturing line, the occurrence of erroneous shortages is suppressed by visual inspection by workers to check whether parts such as vehicle bodies are flowing according to the identification information indicated by work instruction boards and the like. In image inspection of parts that are continuously produced at a predetermined repetition pitch, as a technology in such a manufacturing line, the matching processing unit recognizes the execution state of the image inspection. A part is detected from a frame, the position of the detected part and a correlation value are obtained, and the inter-frame part correspondence detection unit detects the correspondence of similar parts between two consecutive frames, and calculates the corresponding part position difference. The unit calculates a corresponding component position difference, which is a difference in detected positions between corresponding components. The corresponding part positional difference statistic part creates a movement amount histogram statistically representing the corresponding part positional difference, and the part movement amount estimating part estimates the movement amount of the part between consecutive frames from the movement amount histogram, and performs the image inspection. A technology is disclosed in which the state determination unit determines whether or not the image inspection is being performed appropriately based on the estimated movement amount of the component (see, for example, Patent Document 1).

特許第5464092号公報Japanese Patent No. 5464092

しかしながら、従来の製造ラインにおける技術では、所定の繰り返しピッチで連続して画像検査をするには、画像処理および判定処理等についての負荷が高く、高度なシステム環境を備えて当該負荷に耐え得る設備が必要となるという課題がある。 However, with conventional manufacturing line technology, in order to continuously perform image inspection at a predetermined repetition pitch, the load for image processing and judgment processing, etc. is high. is required.

本発明は、上述の課題に鑑みてなされたものであって、指示情報が示す部品が搬送ラインに流れているか否かを、処理負荷を抑制しつつ、リアルタイムで照合することができる照合装置および照合方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems. The purpose is to provide a matching method.

上述した課題を解決し、目的を達成するために、本発明に係る照合装置は、部品が搬送経路上の所定位置に搬送されたことを示す信号を受信する受信部と、前記受信部により前記信号が受信された場合に、第1撮像装置により撮像された、前記部品を識別する指示情報の表示媒体に対する第1撮像画像の取得を開始する第1取得部と、前記受信部により前記信号が受信された場合に、第2撮像装置により撮像された、前記部品における所定の対象物に対する第2撮像画像の取得を開始する第2取得部と、前記第1撮像画像に含まれる前記指示情報の画像を入力として、所定の学習モデルを用いた識別処理により該指示情報に対応する第1情報を出力として得、前記第2撮像画像に含まれる前記対象物の画像を入力として、前記学習モデルを用いた識別処理により該対象物を識別する第2情報を出力として得る識別部と、前記第1情報と、前記第2情報とを照合する照合部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, a collating device according to the present invention includes a receiving section for receiving a signal indicating that a part has been conveyed to a predetermined position on a conveying route; a first acquisition unit that, when a signal is received, starts acquisition of a first captured image on a display medium of instruction information for identifying the component, captured by a first imaging device; a second acquiring unit that, when received, starts acquiring a second captured image of a predetermined target object in the component, captured by a second imaging device; and the instruction information included in the first captured image. An image is used as an input, first information corresponding to the instruction information is obtained as an output by a discrimination process using a predetermined learning model, and an image of the object included in the second captured image is used as an input, and the learning model is obtained. It is characterized by comprising an identification unit that obtains as an output second information identifying the object by the identification processing used, and a collation unit that collates the first information and the second information.

本発明によれば、指示情報が示す部品が搬送ラインに流れているか否かを、処理負荷を抑制しつつ、リアルタイムで照合することができる。 ADVANTAGE OF THE INVENTION According to this invention, it can collate in real time whether the components which instruction|indication information shows flow to a conveyance line, suppressing a processing load.

図1は、実施形態に係る照合システムの全体構成の一例を示す図である。FIG. 1 is a diagram showing an example of the overall configuration of a collation system according to an embodiment. 図2は、実施形態に係る照合装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a matching device according to the embodiment; 図3は、実施形態に係る照合装置の機能的なブロック構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a functional block configuration of the matching device according to the embodiment; 図4は、指示情報を示す撮像画像の一例を示す図である。FIG. 4 is a diagram showing an example of a captured image showing instruction information. 図5は、エンブレムの撮像画像の一例を示す図である。FIG. 5 is a diagram showing an example of a captured image of an emblem. 図6は、実施形態に係る照合システムにおいて識別結果を重畳表示させた撮像画像の表示例を示す図である。FIG. 6 is a diagram showing a display example of a captured image on which identification results are superimposed and displayed in the matching system according to the embodiment. 図7は、実施形態に係る照合システムにおける識別照合処理の流れの一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the flow of identification matching processing in the matching system according to the embodiment. 図8は、変形例に係る照合装置においてガーニッシュを識別する動作を説明する図である。FIG. 8 is a diagram for explaining the operation of identifying a garnish in a matching device according to a modification.

以下に、図1~図8を参照しながら、本発明に係る照合装置および照合方法の実施形態を詳細に説明する。また、以下の実施形態によって本発明が限定されるものではなく、以下の実施形態における構成要素には、当業者が容易に想到できるもの、実質的に同一のもの、およびいわゆる均等の範囲のものが含まれる。さらに、以下の実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換、変更および組み合わせを行うことができる。 Embodiments of a collation device and a collation method according to the present invention will be described in detail below with reference to FIGS. 1 to 8. FIG. In addition, the present invention is not limited by the following embodiments, and the constituent elements in the following embodiments can be easily conceived by those skilled in the art, substantially the same, and so-called equivalent ranges. is included. Furthermore, various omissions, replacements, changes and combinations of components can be made without departing from the gist of the following embodiments.

(照合システムの全体構成)
図1は、実施形態に係る照合システムの全体構成の一例を示す図である。図1を参照しながら、本実施形態に係る照合システム1の全体構成について説明する。
(Overall configuration of matching system)
FIG. 1 is a diagram showing an example of the overall configuration of a collation system according to an embodiment. The overall configuration of a collation system 1 according to this embodiment will be described with reference to FIG.

図1に示す照合システム1は、搬送ライン3(搬送経路)において、撮像装置により撮像された画像が示す指示情報および部品における所定の対象物から、当該指示情報が示す部品が搬送されているか否かを照合するためのシステムである。図1に示すように、照合システム1は、リミッタスイッチ11と、第1撮像装置12aと、第2撮像装置12bと、照合装置10と、表示装置13と、サーバ装置20と、を含む。 The verification system 1 shown in FIG. 1 determines whether or not the part indicated by the instruction information is being conveyed from the instruction information indicated by the image captured by the imaging device and the predetermined object of the part on the conveying line 3 (conveyance route). It is a system for collating whether As shown in FIG. 1, the verification system 1 includes a limiter switch 11, a first imaging device 12a, a second imaging device 12b, a verification device 10, a display device 13, and a server device 20.

リミッタスイッチ11は、搬送ライン3上で図1に示す矢印の方向に流れる車体等の部品30が所定の位置まで到達したことを検知するためのスイッチである。リミッタスイッチ11は、部品30が所定の位置まで到達したことを検知した場合、部品30についての検知信号を、照合装置10へ送信する。なお、部品30が搬送ライン3上の所定の位置に到達したことを検知するためのセンサまたはスイッチとしてはリミッタスイッチ11に限定されるものではなく、例えば、リミッタスイッチ11の代わりに近接センサまたは光電センサ等を用いて検知するものとしてもよい。 The limiter switch 11 is a switch for detecting that a part 30 such as a vehicle body flowing in the direction of the arrow shown in FIG. 1 on the transport line 3 has reached a predetermined position. When the limiter switch 11 detects that the part 30 has reached a predetermined position, the limiter switch 11 transmits a detection signal for the part 30 to the matching device 10 . The sensor or switch for detecting that the component 30 has reached a predetermined position on the transport line 3 is not limited to the limiter switch 11. For example, the limiter switch 11 can be replaced by a proximity sensor or a photoelectric A sensor or the like may be used for detection.

第1撮像装置12aは、搬送ライン3に流れる車体等の部品30を識別する指示情報の表示媒体を撮像する撮像装置である。第1撮像装置12aは、撮像した撮像画像を照合装置10へ送信する。本実施形態では、部品30は、自動車の車体であるものとし、所定の対象物は、自動車メーカ、または当該自動車メーカおよび車種を特定するエンブレムであるものとし、指示情報の表示媒体は、図1に示すように、数字、アルファベット等で表される指示情報を表示する電光掲示板31(指示盤の一例)であるものとして説明する。なお、部品30、所定の対象物、および指示情報の表示媒体は、これらに限定されるものではない。 The first imaging device 12 a is an imaging device that captures an image of a display medium of instruction information for identifying a component 30 such as a vehicle body flowing on the transport line 3 . The first imaging device 12 a transmits the captured image to the verification device 10 . In this embodiment, the part 30 is the vehicle body of an automobile, the predetermined object is an automobile manufacturer, or an emblem specifying the automobile manufacturer and the vehicle type, and the display medium of the instruction information is shown in FIG. 1, an electric bulletin board 31 (an example of an indication panel) that displays indication information represented by numbers, alphabets, or the like will be described. Note that the component 30, the predetermined target object, and the display medium for the instruction information are not limited to these.

第2撮像装置12bは、部品30における所定の対象物であるエンブレムを含む領域を撮像する撮像装置である。第2撮像装置12bは、撮像した撮像画像を照合装置10へ送信する。 The second image capturing device 12b is an image capturing device that captures an image of a region of the component 30 that includes an emblem, which is a predetermined target object. The second imaging device 12 b transmits the captured image to the matching device 10 .

なお、第1撮像装置12aおよび第2撮像装置12bによる撮像画像は、静止画データであってもよく、動画データであってもよい。 The images captured by the first imaging device 12a and the second imaging device 12b may be still image data or moving image data.

照合装置10は、第1撮像装置12aで撮像された撮像画像に含まれる指示情報、および第2撮像装置12bで撮像された撮像画像に含まれるエンブレムから、それぞれ文字情報に変換し、当該文字情報を照合する装置である。照合装置10は、例えば、シングルボードコンピュータによって実現される。なお、照合装置10はシングルボードコンピュータであることに限定されず、通常のPC(Personal Computer)またはワークステーション等の情報処理装置であってもよい。照合装置10は、画像処理プログラム101と、学習モデル102と、照合プログラム103と、を含む。 The verification device 10 converts the instruction information included in the captured image captured by the first imaging device 12a and the emblem included in the captured image captured by the second imaging device 12b into character information. It is a device that verifies The collation device 10 is realized by, for example, a single board computer. The matching device 10 is not limited to being a single board computer, and may be an information processing device such as a normal PC (Personal Computer) or workstation. The matching device 10 includes an image processing program 101 , a learning model 102 and a matching program 103 .

画像処理プログラム101は、第1撮像装置12aおよび第2撮像装置12bにより撮像された撮像画像から、指示情報およびエンブレムの画像を抽出する等の画像処理を行うためのプログラムである。 The image processing program 101 is a program for performing image processing such as extracting instruction information and an emblem image from images captured by the first imaging device 12a and the second imaging device 12b.

学習モデル102は、指示情報の画像に、ラベルとしての所定の文字情報を組み合わせた教師データ(第1教師データ)、およびエンブレムの画像に、ラベルとしての所定の文字情報を組み合わせた教師データ(第2教師データ)を用いて、機械学習の一例である教師あり学習により生成された学習モデルである。当該学習モデルは、例えば、YOLO(You Only Look Once)等の既存の物体認識アルゴリズムに基づいて生成されるものとすればよい。ここで、所定の文字情報とは、例えば、エンブレムに対応するメーカ名または車種名等の文字情報であるものとする。本実施形態では、指示情報の画像、およびエンブレムの画像から、学習モデル102を用いた識別処理の結果として、メーカ名を示す文字情報、および当該結果の信頼性の程度を示す信頼度が得られるものとして説明する。 The learning model 102 includes teacher data (first teacher data) in which predetermined character information as a label is combined with an image of instruction information, and teacher data (first teacher data) in which an image of an emblem is combined with predetermined character information as a label. 2 teacher data) is used to generate a learning model by supervised learning, which is an example of machine learning. The learning model may be generated based on an existing object recognition algorithm such as YOLO (You Only Look Once). Here, the predetermined character information is assumed to be character information such as the name of the manufacturer or the name of the vehicle type corresponding to the emblem, for example. In this embodiment, as a result of identification processing using the learning model 102, character information indicating the name of the manufacturer and reliability indicating the degree of reliability of the result are obtained from the image of the instruction information and the image of the emblem. described as a thing.

照合プログラム103は、学習モデル102を用いた識別処理の結果により得られた、指示情報の画像に対する文字情報と、エンブレムの画像に対する文字情報とを照合するためのプログラムである。 The collation program 103 is a program for collating the character information for the instruction information image and the character information for the emblem image obtained as a result of the identification processing using the learning model 102 .

表示装置13は、照合プログラム103による照合結果等を表示する、LCD(Liquid Crystal Display:液晶ディスプレイ)またはOELD(Organic Electro-Luminescent Display:有機ELディスプレイ)等の表示装置である。 The display device 13 is a display device such as an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescent Display) that displays the collation results of the collation program 103 .

サーバ装置20は、照合プログラム103による照合結果等を蓄積するサーバ装置である。 The server device 20 is a server device that accumulates matching results and the like by the matching program 103 .

(照合装置のハードウェア構成)
図2は、実施形態に係る照合装置のハードウェア構成の一例を示す図である。図2を参照しながら、本実施形態に係る照合装置10のハードウェア構成について説明する。
(Hardware configuration of verification device)
FIG. 2 is a diagram illustrating an example of a hardware configuration of a matching device according to the embodiment; The hardware configuration of the matching device 10 according to this embodiment will be described with reference to FIG.

図2に示すように、照合装置10は、CPU(Central Processing Unit)201と、RAM(Random Access Memory)202と、ROM(Read Only Memory)203と、補助記憶装置204と、ネットワークI/F205と、入力I/F206と、出力I/F207と、撮像I/F208と、を備えている。これらの各部は、バスライン210を介して互いにデータ通信が可能となるように接続されている。 As shown in FIG. 2, the verification device 10 includes a CPU (Central Processing Unit) 201, a RAM (Random Access Memory) 202, a ROM (Read Only Memory) 203, an auxiliary storage device 204, and a network I/F 205. , an input I/F 206 , an output I/F 207 , and an imaging I/F 208 . These units are connected via a bus line 210 so as to enable data communication with each other.

CPU201は、照合装置10全体の動作を制御する演算装置である。RAM202は、CPU201のワークエリアとして使用される揮発性記憶装置である。ROM203は、IPL(Initial Program Loader)のようなCPU201が最初に実行するプログラム等を記憶する不揮発性記憶装置である。なお、CPU201、RAM202およびROM203は、例えば1つの基板に実装されたSoC(System on a Chip)として構成されていてもよい。 The CPU 201 is an arithmetic device that controls the operation of the collation device 10 as a whole. A RAM 202 is a volatile storage device used as a work area for the CPU 201 . The ROM 203 is a non-volatile storage device that stores programs such as an IPL (Initial Program Loader) that the CPU 201 executes first. Note that the CPU 201, the RAM 202, and the ROM 203 may be configured as an SoC (System on a Chip) mounted on one substrate, for example.

補助記憶装置204は、上述した画像処理プログラム101、学習モデル102および照合プログラム103、ならびにこれらのプログラムで用いられる各種データ等を記憶するHDD(Hard Disk Drive)、SSD(Solid State Drive)、eMMC(embedded Multi Media Card)またはmicroSDカード等の補助記憶装置である。 Auxiliary storage device 204 includes HDD (Hard Disk Drive), SSD (Solid State Drive), eMMC ( embedded Multi Media Card) or an auxiliary storage device such as a microSD card.

ネットワークI/F205は、ネットワーク等に接続してデータ通信するためのインターフェースである。図2に示す例では、ネットワークI/F205は、サーバ装置20に接続されており、照合装置10における上述の照合結果等をサーバ装置20へ送信する。また、ネットワークI/F205は、例えば、TCP(Transmission Control Protocol)/IP(Internet Protocol)のプロトコルで通信可能にするEthernet(登録商標)規格のインターフェースである。なお、ネットワークI/F205は、有線通信に限定されるものではなく、Wi-Fi(登録商標)等に基づく無線通信のインターフェースであってもよい。 A network I/F 205 is an interface for connecting to a network or the like for data communication. In the example shown in FIG. 2 , the network I/F 205 is connected to the server device 20 and transmits the above-mentioned matching result and the like in the matching device 10 to the server device 20 . Also, the network I/F 205 is an Ethernet (registered trademark) standard interface that enables communication using TCP (Transmission Control Protocol)/IP (Internet Protocol) protocols, for example. Note that the network I/F 205 is not limited to wired communication, and may be a wireless communication interface based on Wi-Fi (registered trademark) or the like.

入力I/F206は、リミッタスイッチ11から検知信号を入力するためのGPIO(General Purpose Input/Output)等のインターフェースである。 The input I/F 206 is an interface such as a GPIO (General Purpose Input/Output) for inputting a detection signal from the limiter switch 11 .

出力I/F207は、照合結果等の表示データを表示装置13へ送信するためのHDMI(登録商標)(High-Definition Multimedia Interface)等のインターフェースである。 The output I/F 207 is an interface such as HDMI (registered trademark) (High-Definition Multimedia Interface) for transmitting display data such as matching results to the display device 13 .

撮像I/F208は、第1撮像装置12aおよび第2撮像装置12bから撮像画像を受信するためのUSB(Universal Serial Bus)等のインターフェースである。 The imaging I/F 208 is an interface such as a USB (Universal Serial Bus) for receiving captured images from the first imaging device 12a and the second imaging device 12b.

なお、図1に示す照合装置10のハードウェア構成は一例を示すものであり、当該構成に限定されるものではない。例えば、グラフィック処理に特化したGPU(Graphics Processing Unit)等を備えているものとしてもよい。 Note that the hardware configuration of the matching device 10 shown in FIG. 1 is an example, and is not limited to this configuration. For example, it may include a GPU (Graphics Processing Unit) that specializes in graphic processing.

(照合装置の機能的なブロック構成)
図3は、実施形態に係る照合装置の機能的なブロック構成の一例を示す図である。図4は、指示情報を示す撮像画像の一例を示す図である。図5は、エンブレムの撮像画像の一例を示す図である。図6は、実施形態に係る照合システムにおいて識別結果を重畳表示させた撮像画像の表示例を示す図である。図3~図6を参照しながら、本実施形態に係る照合装置10の機能的なブロック構成および動作について説明する。
(Functional block configuration of collation device)
FIG. 3 is a diagram illustrating an example of a functional block configuration of the matching device according to the embodiment; FIG. 4 is a diagram showing an example of a captured image showing instruction information. FIG. 5 is a diagram showing an example of a captured image of an emblem. FIG. 6 is a diagram showing a display example of a captured image on which identification results are superimposed and displayed in the matching system according to the embodiment. The functional block configuration and operation of the matching device 10 according to the present embodiment will be described with reference to FIGS. 3 to 6. FIG.

図3に示すように、照合装置10は、第1取得部301と、第2取得部302と、検知部303(受信部)と、抽出部304と、識別部305と、照合部306と、表示制御部307と、生成部308と、記憶部309と、を有する。 As shown in FIG. 3, the verification device 10 includes a first acquisition unit 301, a second acquisition unit 302, a detection unit 303 (reception unit), an extraction unit 304, an identification unit 305, a verification unit 306, It has a display control unit 307 , a generation unit 308 , and a storage unit 309 .

第1取得部301は、第1撮像装置12aにより撮像された、電光掲示板31の撮像画像(以下、第1撮像画像と称する場合がある)を取得する機能部である。ここで、図4(b)に、第1撮像画像の一例として、第1撮像装置12aにより撮像された電光掲示板31の撮像画像IMG2を示している。なお、上述したように、第1撮像装置12aが撮像する対象は、指示情報を表示する電光掲示板31に限定されるものではなく、例えば、図4(a)に示すように、部品30である車体に貼付された、指示情報が印字された指示紙を含む撮像画像IMG1(第1撮像画像の一例)であってもよい。また、第1取得部301は、後述する検知部303から部品30についての検知信号を受信した旨を受け取った場合、第1撮像装置12aにより撮像された第1撮像画像の取得を開始する。なお、検知部303により検知信号を受信したタイミングで、第1撮像装置12aによる撮像動作の開始、かつ第1取得部301による第1撮像画像の取得動作の開始が行われるものとしてもよい。第1取得部301は、取得した第1撮像画像を、抽出部304へ出力する。第1取得部301は、例えば、図2に示すCPU201により画像処理プログラム101が実行されることによって実現される。 The first acquisition unit 301 is a functional unit that acquires a captured image of the electronic bulletin board 31 captured by the first imaging device 12a (hereinafter sometimes referred to as a first captured image). Here, FIG. 4B shows a captured image IMG2 of the electronic bulletin board 31 captured by the first imaging device 12a as an example of the first captured image. As described above, the target imaged by the first imaging device 12a is not limited to the electronic bulletin board 31 that displays the instruction information, and is, for example, the component 30 as shown in FIG. It may be a captured image IMG1 (an example of a first captured image) including an instruction sheet on which instruction information is printed and attached to the vehicle body. Further, when the first acquisition unit 301 receives from the detection unit 303, which will be described later, a detection signal regarding the component 30, it starts acquiring the first captured image captured by the first imaging device 12a. At the timing when the detection signal is received by the detection unit 303, the imaging operation by the first imaging device 12a and the acquisition operation of the first captured image by the first acquisition unit 301 may be started. The first acquisition unit 301 outputs the acquired first captured image to the extraction unit 304 . The first acquisition unit 301 is implemented by executing the image processing program 101 by the CPU 201 shown in FIG. 2, for example.

第2取得部302は、第2撮像装置12bにより撮像された、部品30である車体のエンブレムを含む撮像画像(以下、第2撮像画像と称する場合がある)を取得する機能部である。ここで、図5に、第2撮像画像の一例として、第2撮像装置12bにより撮像された車体のエンブレムを含む撮像画像IMG3を示している。また、第2取得部302は、後述する検知部303から部品30についての検知信号を受信した旨を受け取った場合、第2撮像装置12bにより撮像された第2撮像画像の取得を開始する。なお、検知部303により検知信号を受信したタイミングで、第2撮像装置12bによる撮像動作の開始、かつ第2取得部302による第2撮像画像の取得動作の開始が行われるものとしてもよい。第2取得部302は、取得した第2撮像画像を、抽出部304へ出力する。第2取得部302は、例えば、図2に示すCPU201により画像処理プログラム101が実行されることによって実現される。 The second acquisition unit 302 is a functional unit that acquires a captured image (hereinafter sometimes referred to as a second captured image) including the emblem of the vehicle body that is the part 30 captured by the second imaging device 12b. Here, FIG. 5 shows, as an example of the second captured image, a captured image IMG3 including the emblem of the vehicle body captured by the second imaging device 12b. Further, when the second acquisition unit 302 receives a detection signal regarding the component 30 from the detection unit 303 (to be described later), it starts acquisition of the second captured image captured by the second imaging device 12b. At the timing when the detection signal is received by the detection unit 303, the imaging operation by the second imaging device 12b and the acquisition operation of the second captured image by the second acquisition unit 302 may be started. The second acquisition unit 302 outputs the acquired second captured image to the extraction unit 304 . The second acquisition unit 302 is implemented by executing the image processing program 101 by the CPU 201 shown in FIG. 2, for example.

検知部303は、リミッタスイッチ11により搬送ライン3上で部品30が所定の位置まで到達したことが検知された場合、リミッタスイッチ11から当該検知信号を受信する機能部である。検知部303は、検知信号を受信した場合、当該検知信号を受信した旨を第1取得部301および第2取得部302へ出力する。検知部303は、例えば、図2に示すCPU201により画像処理プログラム101等のプログラムが実行されることによって実現される。 The detection unit 303 is a functional unit that receives a detection signal from the limiter switch 11 when the limiter switch 11 detects that the component 30 has reached a predetermined position on the conveying line 3 . Upon receiving the detection signal, the detection unit 303 outputs to the first acquisition unit 301 and the second acquisition unit 302 that the detection signal has been received. The detection unit 303 is realized by executing a program such as the image processing program 101 by the CPU 201 shown in FIG. 2, for example.

抽出部304は、第1取得部301および第2取得部302によりそれぞれ取得された撮像画像から、所定の画像部分を抽出する機能部である。 The extraction unit 304 is a functional unit that extracts a predetermined image portion from the captured images respectively acquired by the first acquisition unit 301 and the second acquisition unit 302 .

具体的には、抽出部304は、第1取得部301により取得された第1撮像画像から、エンブレムを識別する指示情報を含む画像を抽出する。例えば、図4(b)に示す例では、抽出部304は、第1取得部301から受け取った第1撮像画像である撮像画像IMG2から、指示情報を含む画像として抽出画像EIMG2を抽出する。なお、図4(a)に示すように、第1撮像画像が、指示情報が印字された指示紙を含む撮像画像IMG1である場合、抽出部304は、当該撮像画像IMG1から、指示情報を含む画像として抽出画像EIMG1を抽出すればよい。 Specifically, the extraction unit 304 extracts an image including instruction information for identifying the emblem from the first captured image acquired by the first acquisition unit 301 . For example, in the example shown in FIG. 4B, the extraction unit 304 extracts an extracted image EIMG2 as an image including instruction information from the captured image IMG2, which is the first captured image received from the first acquisition unit 301. FIG. Note that, as shown in FIG. 4A, when the first captured image is a captured image IMG1 including an instruction sheet on which instruction information is printed, the extraction unit 304 extracts the instruction information from the captured image IMG1. Extraction image EIMG1 may be extracted as an image.

また、抽出部304は、第2取得部302により取得された第2撮像画像から、エンブレムを含む画像を抽出する。例えば、図5に示す例では、抽出部304は、第2取得部302から受け取った第2撮像画像である撮像画像IMG3から、エンブレムを含む画像として抽出画像EIMG3を抽出する。 Also, the extraction unit 304 extracts an image including the emblem from the second captured image acquired by the second acquisition unit 302 . For example, in the example shown in FIG. 5, the extracting unit 304 extracts an extracted image EIMG3 as an image including the emblem from the captured image IMG3, which is the second captured image received from the second acquiring unit 302. FIG.

抽出部304が各撮像画像から所定の画像部分(指示情報およびエンブレム)を抽出する方法としては、例えば、抽出する画像領域が予め設定されているものとしてもよく、または、テンプレートマッチング等の所定のアルゴリズムにより所定の画像部分が抽出されるものとしてもよい。抽出部304は、抽出した指示情報の画像、およびエンブレムの画像を、識別部305へ出力する。抽出部304は、例えば、図2に示すCPU201により画像処理プログラム101が実行されることによって実現される。 As a method for the extraction unit 304 to extract a predetermined image portion (instruction information and emblem) from each captured image, for example, the image area to be extracted may be set in advance, or a predetermined method such as template matching may be used. The algorithm may extract predetermined image portions. The extraction unit 304 outputs the extracted instruction information image and the emblem image to the identification unit 305 . The extracting unit 304 is implemented by executing the image processing program 101 by the CPU 201 shown in FIG. 2, for example.

識別部305は、抽出部304から受け取った抽出画像を入力として、記憶部309に記憶された学習モデル102を用いた識別処理により、抽出画像に対応するメーカ名を示す文字情報を出力する機能部である。具体的には、識別部305は、抽出部304から受け取った指示情報の画像に基づいて、学習モデル102を用いた識別処理により、当該指示情報の画像に対応するメーカ名を示す文字情報(以下、第1文字情報と称する場合がある)、および当該識別処理の信頼性の程度を示す信頼度を出力する。また、識別部305は、抽出部304から受け取ったエンブレムの画像に基づいて、学習モデル102を用いた識別処理により、当該エンブレムの画像に対応するメーカ名を示す文字情報(以下、第2文字情報と称する場合がある)、および当該識別処理の信頼性の程度を示す信頼度を出力する。識別部305は、第1文字情報および第2文字情報、ならびにそれぞれの信頼度を、照合部306へ出力する。識別部305は、例えば、図2に示すCPU201により、学習モデル102を用いた識別処理を行うためのプログラムが実行されることによって実現される。 The identifying unit 305 receives the extracted image received from the extracting unit 304 as an input, performs identification processing using the learning model 102 stored in the storage unit 309, and outputs character information indicating the manufacturer name corresponding to the extracted image. is. Specifically, the identification unit 305 performs identification processing using the learning model 102 based on the image of the instruction information received from the extraction unit 304, and character information (hereinafter referred to as character information) indicating the manufacturer name corresponding to the image of the instruction information. , may be referred to as first character information), and a reliability indicating the degree of reliability of the identification process. Based on the image of the emblem received from the extraction unit 304, the identification unit 305 performs identification processing using the learning model 102 to perform character information (hereinafter referred to as second character information) indicating the manufacturer name corresponding to the image of the emblem. ), and a reliability indicating the degree of reliability of the identification process. Identification unit 305 outputs the first character information, the second character information, and their degrees of reliability to collation unit 306 . The identification unit 305 is implemented by, for example, executing a program for performing identification processing using the learning model 102 by the CPU 201 shown in FIG.

なお、第1文字情報は、メーカ名として説明したが、これに限定されるものではなく、指示情報に対応する文字情報であればよい。また、第2文字情報は、メーカ名として説明したが、これに限定されるものではなく、エンブレム等の所定の対象物を識別する文字情報であればよい。また、第1文字情報および第2文字情報は、文字情報に限定されるものではなく、例えばバイナリデータ等であってもよい。 Although the first character information has been described as the manufacturer's name, it is not limited to this, and any character information corresponding to the instruction information may be used. Also, although the second character information has been described as the manufacturer's name, the second character information is not limited to this, and may be any character information that identifies a predetermined object such as an emblem. Also, the first character information and the second character information are not limited to character information, and may be, for example, binary data.

照合部306は、識別部305から受け取った第1文字情報(第1情報の一例)と、第2文字情報(第2情報の一例)とが一致するか否かを照合する機能部である。照合部306は、照合結果を、表示制御部307およびサーバ装置20へ出力する。また、照合部306は、第1文字情報および第2文字情報それぞれに対応する信頼度を、表示制御部307およびサーバ装置20へ出力する。照合部306は、例えば、図2に示すCPU201により照合プログラム103が実行されることによって実現される。 The collation unit 306 is a functional unit that collates whether or not the first character information (an example of the first information) received from the identification unit 305 matches the second character information (an example of the second information). Collation unit 306 outputs the collation result to display control unit 307 and server device 20 . Collation unit 306 also outputs reliability levels corresponding to the first character information and the second character information to display control unit 307 and server device 20 . The collation unit 306 is implemented by executing the collation program 103 by the CPU 201 shown in FIG. 2, for example.

なお、照合部306は、照合結果を、搬送ライン3を制御する上位コンピュータに送信するものとしてもよい。これによって、当該上位コンピュータは、照合結果が不一致である場合に、搬送ライン3を停止させる等、適切な処理を実行することができる。 Note that the collation unit 306 may transmit the collation result to a host computer that controls the transport line 3 . As a result, the high-level computer can execute appropriate processing such as stopping the transport line 3 when the collation result is inconsistent.

表示制御部307は、照合部306から受け取った照合結果等を表示装置13に表示させる機能部である。表示制御部307は、例えば、第2取得部302により取得された第2撮像画像に対して、照合結果、およびエンブレムの画像に対応する第2文字情報を重畳させて表示装置13に表示させる。なお、第2撮像画像に対して、第2文字情報に対応する信頼度を、当該第2文字情報の代わりに、または当該第2文字情報に加えて、重畳させるものとしてもよい。 The display control unit 307 is a functional unit that causes the display device 13 to display the matching results received from the matching unit 306 . For example, the display control unit 307 superimposes the matching result and the second character information corresponding to the image of the emblem on the second captured image acquired by the second acquisition unit 302 and causes the display device 13 to display the superimposed image. The reliability corresponding to the second character information may be superimposed on the second captured image instead of or in addition to the second character information.

図6(a)に示す例では、表示制御部307は、第2取得部302により取得された第2撮像画像である撮像画像IMG4に対して、照合結果である結果表示部RSTを重畳させ、エンブレムの画像部分に、第2文字情報「メーカA」および信頼度「0.82」の表示を含み、当該エンブレムの画像部分を囲う部分を含む重畳表示部SPN1を重畳させて表示装置13に表示させている。図6(b)では、エンブレムの画像部分に、第2文字情報「メーカB」および信頼度「0.80」を含み、当該エンブレムの画像部分を囲う部分を含む重畳表示部SPN2を重畳表示させた例を示している。図6(c)では、エンブレムの画像部分に、第2文字情報「メーカC」および信頼度「0.96」を含み、当該エンブレムの画像部分を囲う部分を含む重畳表示部SPN3を重畳表示させた例を示している。この場合、表示制御部307は、照合結果が一致を示す場合(「OK」の場合)にのみ、重畳表示部SPN1~SPN3を表示させるものとしてもよい。また、表示制御部307は、図6に示すように、例えば、第2文字情報が示すメーカ名に応じて、重畳表示部SPN1~SPN3の表示色等の態様を異なるように表示させてもよい。 In the example shown in FIG. 6A, the display control unit 307 superimposes the result display unit RST, which is the matching result, on the captured image IMG4, which is the second captured image acquired by the second acquisition unit 302. The superimposed display part SPN1 including the second character information "Manufacturer A" and the reliability "0.82" is displayed on the image part of the emblem, and the part surrounding the image part of the emblem is superimposed and displayed on the display device 13. I am letting In FIG. 6(b), a superimposed display portion SPN2 including a portion surrounding the image portion of the emblem, including the second character information "Manufacturer B" and the reliability "0.80", is superimposed on the image portion of the emblem. example. In FIG. 6(c), a superimposed display portion SPN3 including the second character information "Manufacturer C" and the reliability "0.96" and surrounding the image portion of the emblem is superimposed on the image portion of the emblem. example. In this case, the display control section 307 may display the superimposed display sections SPN1 to SPN3 only when the matching result indicates a match (when "OK"). In addition, as shown in FIG. 6, the display control unit 307 may display the superimposed display units SPN1 to SPN3 in different modes such as display colors in accordance with, for example, the manufacturer name indicated by the second character information. .

このように、照合結果を表示装置13に表示させることによって、搬送ライン3の作業者は、照合結果を視覚的に認識することができる。また、第2撮像画像のエンブレムの画像部分に、第2文字情報を重畳して表示させることによって、作業者は、学習モデル102により識別された、エンブレムに対応するメーカ名を視覚的に確認することができる。また、第2撮像画像のエンブレムの画像部分に、学習モデル102を用いた識別処理の信頼度を重畳して表示させることによって、学習モデル102による識別処理の信頼性を確認することができる。また、第2撮像画像のエンブレムの画像部分を囲う表示部を重畳して表示させることによって、学習モデル102による識別処理の対象となったエンブレムについて画像上の認識を容易にすることができる。 By displaying the collation result on the display device 13 in this way, the operator of the transfer line 3 can visually recognize the collation result. Also, by displaying the second character information superimposed on the emblem image portion of the second captured image, the worker can visually confirm the manufacturer name corresponding to the emblem identified by the learning model 102. be able to. Also, by superimposing the reliability of the identification processing using the learning model 102 on the emblem image portion of the second captured image, the reliability of the identification processing using the learning model 102 can be confirmed. Also, by superimposing and displaying the display portion surrounding the image portion of the emblem in the second captured image, it is possible to easily recognize the emblem, which is the object of identification processing by the learning model 102, on the image.

表示制御部307は、例えば、図2に示すCPU201により照合プログラム103等のプログラムが実行されることによって実現される。 The display control unit 307 is implemented, for example, by executing a program such as the matching program 103 by the CPU 201 shown in FIG.

生成部308は、指示情報の画像に、ラベルとして、当該指示情報に対応するメーカ名を組み合わせた教師データ、およびエンブレムの画像に、ラベルとして、当該エンブレムに対応するメーカ名を組み合わせた教師データを用いて、機械学習の一例である教師あり学習により学習モデル102を予め生成する機能部である。生成部308は、生成した学習モデル102を記憶部309に記憶させる。生成部308は、例えば、図2に示すCPU201により、教師あり学習を実現する学習プログラムが実行されることによって実現される。 The generation unit 308 generates training data in which the image of the instruction information is combined with the manufacturer name corresponding to the instruction information as a label, and training data in which the manufacturer name corresponding to the emblem is combined with the image of the emblem as the label. It is a functional unit that generates a learning model 102 in advance by using supervised learning, which is an example of machine learning. The generation unit 308 causes the storage unit 309 to store the generated learning model 102 . The generation unit 308 is realized, for example, by the CPU 201 shown in FIG. 2 executing a learning program that realizes supervised learning.

記憶部309は、画像処理プログラム101、学習モデル102および照合プログラム103、ならびにこれらのプログラムで用いられる各種データ等を記憶する機能部である。なお、上述の図1で示したように、画像処理プログラム101、学習モデル102を用いたプログラム、および照合プログラム103は、別々のプログラムとしているが、これに限定されるものではなく、例えば、1つのプログラムとして構成されているものとしてもよい。記憶部309は、図2に示す補助記憶装置204によって実現される。 The storage unit 309 is a functional unit that stores the image processing program 101, the learning model 102, the matching program 103, and various data used in these programs. As shown in FIG. 1 above, the image processing program 101, the program using the learning model 102, and the matching program 103 are separate programs. It may be configured as one program. The storage unit 309 is implemented by the auxiliary storage device 204 shown in FIG.

なお、図3に示した照合装置10の各機能部は、機能を概念的に示したものであって、このような構成に限定されるものではない。例えば、図3で独立した機能部として図示した複数の機能部を、1つの機能部として構成してもよい。一方、図3の1つの機能部が有する機能を複数に分割し、複数の機能部として構成するものとしてもよい。 Note that each functional unit of the collation device 10 shown in FIG. 3 conceptually shows the function, and is not limited to such a configuration. For example, a plurality of functional units illustrated as independent functional units in FIG. 3 may be configured as one functional unit. On the other hand, the function of one functional unit in FIG. 3 may be divided into a plurality of functions to form a plurality of functional units.

(照合システムの識別照合処理の流れ)
図7は、実施形態に係る照合システムにおける識別照合処理の流れの一例を示す図である。図7を参照しながら、本実施形態に係る照合システム1の識別照合処理の流れについて説明する。
(Flow of identification matching process of matching system)
FIG. 7 is a diagram showing an example of the flow of identification matching processing in the matching system according to the embodiment. The flow of identification matching processing of the matching system 1 according to this embodiment will be described with reference to FIG.

<ステップS11>
まず、搬送ライン3を流れる車体である部品30がリミッタスイッチ11により検知され、検知部303によりリミッタスイッチ11から検知信号が受信された場合(ステップS11:Yes)、照合装置10は待機モードから通常の動作モードに復帰し、検知部303は、当該検知信号を受信した旨を第1取得部301および第2取得部302へ出力し、ステップS12へ移行する。部品30がリミッタスイッチ11により検知されない場合(ステップS11:No)、検知されるまで待機する。ここで、待機モードとは、例えば省電力状態の動作モードである。
<Step S11>
First, when the limiter switch 11 detects the part 30, which is a vehicle body, flowing on the conveying line 3, and the detection unit 303 receives a detection signal from the limiter switch 11 (step S11: Yes), the verification device 10 shifts from the standby mode to the normal state. , the detection unit 303 outputs the reception of the detection signal to the first acquisition unit 301 and the second acquisition unit 302, and proceeds to step S12. If the component 30 is not detected by the limiter switch 11 (step S11: No), it waits until it is detected. Here, the standby mode is, for example, an operation mode in a power saving state.

<ステップS12>
第1取得部301は、検知部303から検知信号を受信した旨を受け取った場合、第1撮像装置12aにより撮像された第1撮像画像の取得を開始し、取得した第1撮像画像を、抽出部304へ出力する。また、第2取得部302は、検知部303から検知信号を受信した旨を受け取った場合、第2撮像装置12bにより撮像された第2撮像画像の取得を開始し、取得した第2撮像画像を、抽出部304へ出力する。そして、ステップS13へ移行する。
<Step S12>
When receiving the detection signal from the detection unit 303, the first acquisition unit 301 starts acquiring the first captured image captured by the first imaging device 12a, and extracts the acquired first captured image. Output to unit 304 . Further, when the second acquisition unit 302 receives the reception of the detection signal from the detection unit 303, the second acquisition unit 302 starts acquisition of the second captured image captured by the second imaging device 12b, and acquires the acquired second captured image. , to the extraction unit 304 . Then, the process proceeds to step S13.

<ステップS13>
抽出部304は、第1取得部301により取得された第1撮像画像から、エンブレムを識別する指示情報を含む画像を抽出して、当該画像を識別部305へ出力する。また、抽出部304は、第2取得部302により取得された第2撮像画像から、エンブレムを含む画像を抽出して、当該画像を識別部305へ出力する。そして、ステップS14へ移行する。
<Step S13>
The extraction unit 304 extracts an image including instruction information for identifying the emblem from the first captured image acquired by the first acquisition unit 301 and outputs the image to the identification unit 305 . The extraction unit 304 also extracts an image including the emblem from the second captured image acquired by the second acquisition unit 302 and outputs the image to the identification unit 305 . Then, the process proceeds to step S14.

<ステップS14>
識別部305は、抽出部304から受け取った指示情報の画像に基づいて、学習モデル102を用いた識別処理により、当該指示情報の画像に対応するメーカ名を示す第1文字情報および当該識別処理の信頼性の程度を示す信頼度を出力する。また、識別部305は、抽出部304から受け取ったエンブレムの画像に基づいて、学習モデル102を用いた識別処理により、当該エンブレムの画像に対応するメーカ名を示す第2文字情報および当該識別処理の信頼性の程度を示す信頼度を出力する。そして、識別部305は、第1文字情報および第2文字情報、ならびにそれぞれの信頼度を、照合部306へ出力する。そして、ステップS15へ移行する。
<Step S14>
Based on the image of the instruction information received from the extraction unit 304, the identification unit 305 performs identification processing using the learning model 102, and performs first character information indicating the manufacturer name corresponding to the image of the instruction information and the identification processing information. Output a confidence level that indicates the degree of confidence. Based on the image of the emblem received from the extraction unit 304, the identification unit 305 performs identification processing using the learning model 102, and performs second character information indicating the name of the manufacturer corresponding to the image of the emblem and identification processing information. Output a confidence level that indicates the degree of confidence. Identification unit 305 then outputs the first character information, the second character information, and the reliability of each to collation unit 306 . Then, the process proceeds to step S15.

<ステップS15>
照合部306は、識別部305から受け取った第1文字情報と第2文字情報とが一致するか否かを照合する。照合部306は、照合結果を、表示制御部307およびサーバ装置20へ出力する。また、照合部306は、第1文字情報および第2文字情報それぞれに対応する信頼度を、表示制御部307およびサーバ装置20へ出力する。そして、ステップS16へ移行する。
<Step S15>
The collation unit 306 collates whether or not the first character information and the second character information received from the identification unit 305 match. Collation unit 306 outputs the collation result to display control unit 307 and server device 20 . Collation unit 306 also outputs reliability levels corresponding to the first character information and the second character information to display control unit 307 and server device 20 . Then, the process proceeds to step S16.

<ステップS16>
表示制御部307は、第2取得部302により取得された第2撮像画像に対して、照合結果である結果表示部RSTを重畳させ、エンブレムの画像部分に、第2文字情報およびその信頼度の表示を含み、当該エンブレムの画像部分を囲う部分を含む重畳表示部を重畳させて表示装置13に表示させる。そして、照合部306による照合処理、および表示制御部307による表示処理が終了すると、照合装置10は待機モードへ移行する。そして、識別照合処理を終了する。
<Step S16>
The display control unit 307 superimposes the result display portion RST, which is the matching result, on the second captured image acquired by the second acquisition unit 302, and displays the second character information and its reliability on the image portion of the emblem. A superimposed display portion including a display and surrounding the image portion of the emblem is superimposed and displayed on the display device 13 . When the matching process by the matching unit 306 and the display process by the display control unit 307 are finished, the matching device 10 shifts to the standby mode. Then, the identification matching process ends.

以上のように、本実施形態に係る照合装置10では、検知部303が、部品30が搬送ライン3上の所定位置に搬送されたことを示す検知信号を受信し、第1取得部301が、検知部303により検知信号が受信された場合に、第1撮像装置12aにより撮像された、部品30を識別する指示情報の表示媒体に対する第1撮像画像の取得を開始し、第2取得部302が、検知部303により検知信号が受信された場合に、第2撮像装置12bにより撮像された、部品30におけるエンブレムに対する第2撮像画像の取得を開始し、識別部305が、第1撮像画像に含まれる指示情報の画像から、学習モデル102を用いた識別処理により第1文字情報を得、第2撮像画像に含まれるエンブレムの画像から、学習モデル102を用いた識別処理により第2文字情報を得、照合部306が、第1文字情報と、第2文字情報とを照合する。これによって、検知信号が受信された時点から、撮像画像の取得処理が開始されて、照合処理までの一連の処理が実行されるので、指示情報が示す部品30が搬送ライン3に流れているか否かを、処理負荷を抑制しつつ、リアルタイムで照合することができる。 As described above, in the matching device 10 according to the present embodiment, the detection unit 303 receives a detection signal indicating that the component 30 has been transported to a predetermined position on the transport line 3, and the first acquisition unit 301 When the detection signal is received by the detection unit 303, acquisition of the first captured image for the display medium of the instruction information for identifying the component 30, which is captured by the first imaging device 12a, is started, and the second acquisition unit 302 , when the detection signal is received by the detection unit 303, acquisition of a second captured image of the emblem on the part 30 captured by the second imaging device 12b is started, and the identification unit 305 detects the image included in the first captured image. The first character information is obtained from the image of the instruction information by performing identification processing using the learning model 102, and the second character information is obtained from the image of the emblem included in the second captured image by identification processing using the learning model 102. , a collating unit 306 collates the first character information and the second character information. As a result, a series of processes from the time when the detection signal is received to the start of the captured image acquisition process to the collation process are executed. can be collated in real time while suppressing the processing load.

また、照合装置10では、抽出部304が、第1撮像画像から指示情報の画像を抽出し、第2撮像画像からエンブレムの画像を抽出する。これによって、学習モデル102による識別処理の精度を向上させることができる。 In the matching device 10, the extraction unit 304 extracts the image of the instruction information from the first captured image, and extracts the image of the emblem from the second captured image. As a result, the accuracy of identification processing by the learning model 102 can be improved.

また、照合装置10では、表示媒体は、搬送ライン3において設置された指示情報を表示する電光掲示板31等の指示盤である。これによって、第1撮像画像から指示情報の画像部分を抽出しやすくなり、より確実に指示情報を認識することができる。 Further, in the collation device 10, the display medium is an indication board such as an electronic bulletin board 31 installed on the transport line 3 to display indication information. This makes it easier to extract the image portion of the instruction information from the first captured image, so that the instruction information can be recognized more reliably.

また、照合装置10では、検知部303により検知信号が受信された場合、待機モードから復帰させ、照合部306による照合処理が終了すると、待機モードへ移行させる。これによって、照合装置10としてシングルボードコンピュータ等を採用することができ、処理負荷を低減することができる。 When the detection signal is received by the detection unit 303 , the verification device 10 returns from the standby mode, and when the verification processing by the verification unit 306 ends, the verification device 10 shifts to the standby mode. Thereby, a single board computer or the like can be adopted as the matching device 10, and the processing load can be reduced.

(変形例)
変形例に係る照合システム1について、上述の実施形態に係る照合システム1とは相違する点を中心に説明する。上述の実施形態では、撮像対象となる部品30の所定の対象物がエンブレムであるものとして説明したが、本変形例では、当該対象物が部品30のバックドアに備え付けられたガーニッシュであるものとして説明する。
(Modification)
The verification system 1 according to the modified example will be described with a focus on the differences from the verification system 1 according to the above-described embodiment. In the above-described embodiment, the predetermined target object of the part 30 to be imaged is explained as being the emblem. explain.

図8は、変形例に係る照合装置においてガーニッシュを識別する動作を説明する図である。図8を参照しながら、本変形例に係る照合装置10について説明する。 FIG. 8 is a diagram for explaining the operation of identifying a garnish in a matching device according to a modification. A verification device 10 according to this modification will be described with reference to FIG. 8 .

本変形例において、第2撮像装置12bは、図8に示すように、車体である部品30における所定の対象物としてのガーニッシュを含む領域を撮像する。この場合、部品30に取り付けられたガーニッシュについては、正しい色のガーニッシュが取り付けられているのかを判定することが重要であるものとし、第1撮像装置12aにより撮像される第1画像情報に含まれる指示情報は、所定の対象物としてガーニッシュの色を識別する情報であるものとする。 In this modified example, as shown in FIG. 8, the second image capturing device 12b captures an image of a region including a garnish as a predetermined target in a component 30 that is a vehicle body. In this case, regarding the garnish attached to the component 30, it is important to determine whether the garnish of the correct color is attached. The instruction information is assumed to be information for identifying the color of the garnish as the predetermined object.

本変形例において、学習モデル102は、指示情報の画像に、ラベルとしての所定の文字情報を組み合わせた教師データ、およびガーニッシュの画像に、ラベルとしての所定の文字情報を組み合わせた教師データを用いて、機械学習の一例である教師あり学習により、生成部308により予め生成される。ここで、所定の文字情報とは、例えば、色を示す文字情報であるものとする。 In this modification, the learning model 102 uses teacher data in which predetermined text information as a label is combined with an image of instruction information, and teacher data in which a garnish image is combined with predetermined text information as a label. , is generated in advance by the generation unit 308 by supervised learning, which is an example of machine learning. Here, the predetermined character information is assumed to be character information indicating a color, for example.

抽出部304は、第1取得部301により取得された第1撮像画像から、ガーニッシュの色を識別する指示情報を含む画像を抽出する。また、抽出部304は、第2取得部302により取得された第2撮像画像から、ガーニッシュを含む画像を抽出する。例えば、図8(a)に示す例では、抽出部304は、第2撮像画像である撮像画像IMG11から、黒色のガーニッシュを含む画像として抽出画像EIMG11を抽出している。また、図8(b)に示す例では、抽出部304は、第2撮像画像である撮像画像IMG12から、白色のガーニッシュを含む画像として抽出画像EIMG12を抽出している。抽出部304は、抽出した指示情報の画像、およびガーニッシュの画像を、識別部305へ出力する。 The extraction unit 304 extracts an image including instruction information for identifying the color of the garnish from the first captured image acquired by the first acquisition unit 301 . Also, the extraction unit 304 extracts an image including the garnish from the second captured image acquired by the second acquisition unit 302 . For example, in the example shown in FIG. 8A, the extraction unit 304 extracts an extracted image EIMG11 as an image including black garnish from the captured image IMG11, which is the second captured image. In the example shown in FIG. 8B, the extraction unit 304 extracts an extracted image EIMG12 as an image including white garnish from the captured image IMG12, which is the second captured image. The extraction unit 304 outputs the extracted instruction information image and the garnish image to the identification unit 305 .

識別部305は、抽出部304から受け取った抽出画像に基づいて、記憶部309に記憶された学習モデル102を用いた識別処理により、抽出画像に対応する色を示す文字情報を出力する。具体的には、識別部305は、抽出部304から受け取った指示情報の画像に基づいて、学習モデル102を用いた識別処理により、当該指示情報の画像に対応する色を示す第1文字情報、および当該識別処理の信頼性の程度を示す信頼度を出力する。また、識別部305は、抽出部304から受け取ったガーニッシュの画像に基づいて、学習モデル102を用いた識別処理により、当該ガーニッシュの画像に対応する色を示す第2文字情報、および当該識別処理の信頼性の程度を示す信頼度を出力する。識別部305は、第1文字情報および第2文字情報、ならびにそれぞれの信頼度を、照合部306へ出力する。 Based on the extraction image received from the extraction unit 304, the identification unit 305 performs identification processing using the learning model 102 stored in the storage unit 309, and outputs character information indicating the color corresponding to the extraction image. Specifically, based on the image of the instruction information received from the extraction unit 304, the identification unit 305 performs identification processing using the learning model 102 to perform first character information indicating a color corresponding to the image of the instruction information, and a reliability indicating the degree of reliability of the identification process. Based on the image of the garnish received from the extraction unit 304, the identification unit 305 performs identification processing using the learning model 102, and performs second character information indicating the color corresponding to the image of the garnish and Output a confidence level that indicates the degree of confidence. Identification unit 305 outputs the first character information, the second character information, and their degrees of reliability to collation unit 306 .

照合部306は、識別部305から受け取った第1文字情報と第2文字情報とが一致するか否かを照合する機能部である。照合部306は、照合結果を、表示制御部307およびサーバ装置20へ出力する。また、照合部306は、第1文字情報および第2文字情報それぞれに対応する信頼度を、表示制御部307およびサーバ装置20へ出力する。 The collation unit 306 is a functional unit that collates whether or not the first character information and the second character information received from the identification unit 305 match. Collation unit 306 outputs the collation result to display control unit 307 and server device 20 . Collation unit 306 also outputs reliability levels corresponding to the first character information and the second character information to display control unit 307 and server device 20 .

なお、本変形例に係る照合システム1のその他の構成は、上述の実施形態に係る照合システム1の構成と同様である。 Other configurations of the verification system 1 according to this modification are the same as those of the verification system 1 according to the above-described embodiment.

このように、本変形例に係る照合装置10では、部品30における対象物としてエンブレムではなく、ガーニッシュ等の他の部材を対象物とすることが可能となり、これらの対象物を用いることによっても、指示情報が示す部品30が搬送ライン3に流れているか否かを、処理負荷を抑制しつつ、リアルタイムで照合することができる。 As described above, in the collating device 10 according to the present modification, it is possible to use other members such as garnishes instead of emblems as objects of the part 30. By using these objects, Whether or not the component 30 indicated by the instruction information is flowing on the transfer line 3 can be verified in real time while suppressing the processing load.

1 照合システム
3 搬送ライン
10 照合装置
11 リミッタスイッチ
12a 第1撮像装置
12b 第2撮像装置
13 表示装置
20 サーバ装置
30 部品
31 電光掲示板
101 画像処理プログラム
102 学習モデル
103 照合プログラム
301 第1取得部
302 第2取得部
303 検知部
304 抽出部
305 識別部
306 照合部
307 表示制御部
308 生成部
309 記憶部
1 Verification System 3 Conveyance Line 10 Verification Device 11 Limiter Switch 12a First Imaging Device 12b Second Imaging Device 13 Display Device 20 Server Device 30 Part 31 Electronic Bulletin Board 101 Image Processing Program 102 Learning Model 103 Verification Program 301 First Acquisition Section 302 Second 2 acquisition unit 303 detection unit 304 extraction unit 305 identification unit 306 matching unit 307 display control unit 308 generation unit 309 storage unit

Claims (6)

部品が搬送経路上の所定位置に搬送されたことを示す信号を受信する受信部と、
前記受信部により前記信号が受信された場合に、第1撮像装置により撮像された、前記部品を識別する指示情報の表示媒体に対する第1撮像画像の取得を開始する第1取得部と、
前記受信部により前記信号が受信された場合に、第2撮像装置により撮像された、前記部品における所定の対象物に対する第2撮像画像の取得を開始する第2取得部と、
前記第1撮像画像に含まれる前記指示情報の画像を入力として、所定の学習モデルを用いた識別処理により該指示情報に対応する第1情報を出力として得、前記第2撮像画像に含まれる前記対象物の画像を入力として、前記学習モデルを用いた識別処理により該対象物を識別する第2情報を出力として得る識別部と、
前記第1情報と、前記第2情報とを照合する照合部と、
を備えた照合装置。
a receiving unit that receives a signal indicating that the part has been transported to a predetermined position on the transport route;
a first acquisition unit that, when the signal is received by the reception unit, starts acquisition of a first captured image for a display medium of the instruction information for identifying the component, which is captured by the first imaging device;
a second acquisition unit that starts acquisition of a second captured image of a predetermined target object in the component captured by a second imaging device when the signal is received by the reception unit;
The image of the instruction information included in the first captured image is input, the first information corresponding to the instruction information is obtained as an output by identification processing using a predetermined learning model, and the first information included in the second captured image is obtained. an identification unit that receives an image of an object as an input and obtains as an output second information for identifying the object through identification processing using the learning model;
a matching unit for matching the first information and the second information;
Verification device with
前記第1撮像画像から前記指示情報の画像を抽出し、前記第2撮像画像から前記対象物の画像を抽出する抽出部を、さらに備えた請求項1に記載の照合装置。 2. The matching device according to claim 1, further comprising an extraction unit that extracts the image of the instruction information from the first captured image and extracts the image of the target from the second captured image. 前記表示媒体は、前記搬送経路において設置された前記指示情報を表示する指示盤である請求項2に記載の照合装置。 3. The collation device according to claim 2, wherein the display medium is an indication panel installed on the conveying path and displaying the indication information. 前記部品を識別する指示情報の画像とラベルとを組み合わせた第1教師データ、および、前記部品における所定の対象物の画像とラベルとを組み合わせた第2教師データを用いて、教師あり学習により前記学習モデルを生成する生成部を、さらに備えた請求項1~3のいずれか一項に記載の照合装置。 supervised learning using first training data combining an image and a label of instruction information for identifying the component and second training data combining an image and a label of a predetermined object in the component; 4. The matching device according to any one of claims 1 to 3, further comprising a generator that generates a learning model. 前記受信部により前記信号が受信された場合、待機モードから復帰させ、前記照合部による照合処理が終了すると、前記待機モードへ移行させる請求項1~4のいずれか一項に記載の照合装置。 The collation device according to any one of claims 1 to 4, wherein when the signal is received by the reception unit, the standby mode is returned, and when the collation processing by the collation unit is completed, the standby mode is entered. 部品が搬送経路上の所定位置に搬送されたことを示す信号を受信する受信ステップと、
前記信号を受信した場合に、第1撮像装置により撮像された、前記部品を識別する指示情報の表示媒体に対する第1撮像画像の取得を開始する第1取得ステップと、
前記信号を受信した場合に、第2撮像装置により撮像された、前記部品における所定の対象物に対する第2撮像画像の取得を開始する第2取得ステップと、
前記第1撮像画像に含まれる前記指示情報の画像を入力として、所定の学習モデルを用いた識別処理により該指示情報に対応する第1情報を出力として得、前記第2撮像画像に含まれる前記対象物の画像を入力として、前記学習モデルを用いた識別処理により該対象物を識別する第2情報を出力として得る識別ステップと、
前記第1情報と、前記第2情報とを照合する照合ステップと、
を有する照合方法。
a receiving step of receiving a signal indicating that the part has been transported to a predetermined position on the transport path;
a first acquisition step of starting acquisition of a first captured image on a display medium of instruction information for identifying the component, which is captured by a first imaging device when the signal is received;
a second acquisition step of starting acquisition of a second captured image of a predetermined object in the component captured by a second imaging device when the signal is received;
The image of the instruction information included in the first captured image is input, the first information corresponding to the instruction information is obtained as an output by identification processing using a predetermined learning model, and the first information included in the second captured image is obtained. an identification step of obtaining, as an output, an image of an object as an input and second information for identifying the object through an identification process using the learning model;
a matching step of matching the first information and the second information;
A matching method that has
JP2021142581A 2021-09-01 2021-09-01 Verification device and method Active JP7407777B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021142581A JP7407777B2 (en) 2021-09-01 2021-09-01 Verification device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021142581A JP7407777B2 (en) 2021-09-01 2021-09-01 Verification device and method

Publications (2)

Publication Number Publication Date
JP2023035594A true JP2023035594A (en) 2023-03-13
JP7407777B2 JP7407777B2 (en) 2024-01-04

Family

ID=85503833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021142581A Active JP7407777B2 (en) 2021-09-01 2021-09-01 Verification device and method

Country Status (1)

Country Link
JP (1) JP7407777B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019033174A (en) * 2017-08-08 2019-02-28 日本電気株式会社 Identification system, identification method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019033174A (en) * 2017-08-08 2019-02-28 日本電気株式会社 Identification system, identification method, and program

Also Published As

Publication number Publication date
JP7407777B2 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
CN112669515B (en) Bill image recognition method and device, electronic equipment and storage medium
KR101783337B1 (en) Methods and apparatus to extract text from imaged documents
JP6569532B2 (en) Management system, list creation device, list creation method, management method, and management program
CN110428028B (en) Identification and verification method, device, equipment and medium based on quasi-dynamic laser label
CN111143925B (en) Drawing labeling method and related products
US9679218B2 (en) Method and apparatus for image matching
US9826158B2 (en) Translation display device, translation display method, and control program
CN111626244B (en) Image recognition method, device, electronic equipment and medium
JP6123265B2 (en) Information processing apparatus, vehicle identification method, and vehicle identification program
JP6674515B2 (en) Judgment device and judgment method
JP2016130979A (en) Detection device, detection processing program, and detection system
JP7407778B2 (en) Verification device and display method
JP7407777B2 (en) Verification device and method
CN114120109B (en) Belt longitudinal tear detection method based on neural network
CN107273887A (en) For recognizing the method for handwriting, system and its equipment in image
JP2017058950A (en) Recognition device, image pickup system, and image pickup device, and recognition method and program for recognition
CN116002480A (en) Automatic detection method and system for accidental falling of passengers in elevator car
CN112560551B (en) System, method and device for license plate recognition
CN115880678A (en) Information processing device, information processing system, computer readable medium, and information processing method
JP2023035620A (en) Anomaly detection device and display method
JP5169648B2 (en) Original image search device and original image search program
CN112668647A (en) Image detection method and device and computer readable storage medium
JP7535484B2 (en) Anomaly detection device and anomaly detection method
JP7481173B2 (en) Information processing device, information processing method, and program
CN106599742A (en) Car insurance sign identification apparatus

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231219

R150 Certificate of patent or registration of utility model

Ref document number: 7407777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150