[go: up one dir, main page]

JP2023008662A - Tire inspection device and inspection method, identification model generation method, and generation device as well as program - Google Patents

Tire inspection device and inspection method, identification model generation method, and generation device as well as program Download PDF

Info

Publication number
JP2023008662A
JP2023008662A JP2021112390A JP2021112390A JP2023008662A JP 2023008662 A JP2023008662 A JP 2023008662A JP 2021112390 A JP2021112390 A JP 2021112390A JP 2021112390 A JP2021112390 A JP 2021112390A JP 2023008662 A JP2023008662 A JP 2023008662A
Authority
JP
Japan
Prior art keywords
image data
tire
defect
carcass
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021112390A
Other languages
Japanese (ja)
Other versions
JP7795070B2 (en
Inventor
拡太郎 多田
Kakutaro Tada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokohama Rubber Co Ltd
Original Assignee
Yokohama Rubber Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokohama Rubber Co Ltd filed Critical Yokohama Rubber Co Ltd
Priority to JP2021112390A priority Critical patent/JP7795070B2/en
Publication of JP2023008662A publication Critical patent/JP2023008662A/en
Application granted granted Critical
Publication of JP7795070B2 publication Critical patent/JP7795070B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Tires In General (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

【課題】タイヤの内部構造に生じる欠陥の検出精度を向上する。【解決手段】画像データ取得部11aは、検査対象タイヤのX線画像の画像データを取得する。欠陥検出部11vは、タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データと欠陥領域とは異なる領域である正常領域の画像データとを教師データとする機械学習により生成された識別モデルM1・M2に、検査対象タイヤの画像データの一部を入力し、検査対象タイヤの内部構造の欠陥を検出する。【選択図】図5An object of the present invention is to improve the detection accuracy of defects occurring in the internal structure of a tire. An image data acquiring unit (11a) acquires image data of an X-ray image of a tire to be inspected. The defect detection unit 11v is a discrimination model generated by machine learning using image data of a defective region, which is a region containing a defect in the internal structure of the tire, and image data of a normal region, which is a region different from the defective region, as teacher data. Part of the image data of the tire to be inspected is input to M1 and M2 to detect defects in the internal structure of the tire to be inspected. [Selection drawing] Fig. 5

Description

本開示は、タイヤの検査装置及び検査方法、識別モデルの生成方法及び生成装置、並びにプログラムに関する。 The present disclosure relates to a tire inspection device and inspection method, a discriminative model generation method and generation device, and a program.

下記特許文献1には、タイヤの内部構造を検査するための検査方法が開示されている。タイヤにはスチール製のカーカスコードを有するものがある。この種のタイヤでは、隣り合うカーカスコードが交差するアクロスコードと称される欠陥が生じることがある。特許文献1は、このアクロスコードを検出するための検査方法を開示している。特許文献1で開示される検査では、タイヤを周方向に回転させながら、タイヤの内側からタイヤ内面にX線を照射し、タイヤの外側に配置された撮像装置によってX線画像を取得している。そして、カーカスコード像の面積や、カーカスコード像の分岐の有無に基づいて、上述したアクロスコードと称される欠陥が生じているか否かが判定される。 Patent Literature 1 listed below discloses an inspection method for inspecting the internal structure of a tire. Some tires have steel carcass cords. In tires of this type, defects called cross cords, where adjacent carcass cords intersect, may occur. Patent Document 1 discloses an inspection method for detecting this across code. In the inspection disclosed in Patent Document 1, the inner surface of the tire is irradiated with X-rays from the inside of the tire while the tire is rotated in the circumferential direction, and an X-ray image is acquired by an imaging device arranged outside the tire. . Based on the area of the carcass code image and the presence or absence of branching of the carcass code image, it is determined whether or not a defect called the above-described cross code has occurred.

特開2008-309644号公報JP 2008-309644 A

特許文献1に開示される検査方法では、正常なカーカスコードを欠陥と判定してしまう過検出が生じる場合があり、検出精度の向上が望まれていた。 In the inspection method disclosed in Patent Document 1, over-detection may occur in which a normal carcass cord is determined to be defective, and improvement in detection accuracy has been desired.

(1)本開示で提案するタイヤ検査装置は、検査対象タイヤのX線画像の画像データを取得する画像データ取得手段と、タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データと前記欠陥領域とは異なる領域である正常領域の画像データとを教師データとする機械学習により生成された識別モデルに、前記検査対象タイヤの前記画像データの一部又は全部を入力し、前記検査対象タイヤの内部構造の欠陥を検出する欠陥検出手段とを有している。この検査装置によると、タイヤの検査精度を向上できる。 (1) A tire inspection apparatus proposed in the present disclosure includes image data acquisition means for acquiring image data of an X-ray image of a tire to be inspected; A part or all of the image data of the tire to be inspected is input to a discrimination model generated by machine learning using image data of a normal region, which is a region different from the defective region, as teacher data, and the tire to be inspected and defect detection means for detecting defects in the internal structure of the. According to this inspection device, it is possible to improve the accuracy of tire inspection.

(2)(1)に記載されるタイヤ検査装置は、前記検査対象タイヤの前記画像データから、前記内部構造の欠陥を含む領域の候補である欠陥領域候補の画像データを抽出する欠陥領域候補抽出手段をさらに含んでよい。前記欠陥検出手段は、前記検査対象タイヤの前記画像データの一部として前記欠陥領域候補の画像データを前記識別モデルに入力し、前記欠陥領域候補に欠陥が含まれるか否かを判定してよい。この検査装置によると、タイヤの検査精度をさらに向上できる。 (2) The tire inspection apparatus described in (1) performs defect area candidate extraction for extracting, from the image data of the tire to be inspected, image data of defect area candidates, which are candidates for areas containing defects in the internal structure. It may further include a means. The defect detection means may input the image data of the defect area candidate to the identification model as part of the image data of the tire to be inspected, and determine whether or not the defect area candidate includes a defect. . According to this inspection device, the tire inspection accuracy can be further improved.

(3)前記タイヤの内部構造は、一方向で並んでいる複数の線状部材を有し、前記タイヤの内部構造の欠陥は、前記線状部材の交差を含んでよい。(2)に記載されるタイヤ検査装置において、前記欠陥領域候補抽出手段は、前記検査対象タイヤの前記画像に表れる各線状部材の面積及び形状の少なくとも1つに基づいて前記欠陥領域候補の画像データを抽出してよい。 (3) The internal structure of the tire may have a plurality of linear members arranged in one direction, and the defect of the internal structure of the tire may include intersection of the linear members. In the tire inspection apparatus described in (2), the defect area candidate extraction means extracts image data of the defect area candidates based on at least one of an area and a shape of each linear member appearing in the image of the tire to be inspected. can be extracted.

(4)タイヤの内部構造の欠陥は第1の種類と第2の種類とを含んでよい。(1)に記載されるタイヤ検査装置において、前記識別モデルは、前記第1の種類の欠陥を含む前記欠陥領域の画像データと、前記第2の種類の欠陥を含む前記欠陥領域の画像データと、前記正常領域の画像データとを前記教師データとして用いて生成されていてよい。前記欠陥検出手段は、前記検査対象タイヤの前記画像データの前記一部又は全部を前記識別モデルに入力し、前記検査対象タイヤの内部構造の欠陥の種類を特定してよい。 (4) The tire internal structural defect may include a first type and a second type. In the tire inspection apparatus described in (1), the identification model includes image data of the defect area including the first type defect and image data of the defect area including the second type defect. , and the image data of the normal region as the teacher data. The defect detection means may input the part or all of the image data of the tire to be inspected into the identification model to specify the type of defect in the internal structure of the tire to be inspected.

(5)前記検査対象タイヤはベルトとカーカスとを含み、前記カーカスは前記ベルトによって覆われている部分であるカーカス中央部と、前記ベルトによって覆われていない部分であるカーカス側部とを有していてよい。(1)に記載されるタイヤ検査装置は、前記タイヤの画像データから、前記カーカス中央部の画像データを抽出するカーカス中央部画像抽出手段と、前記タイヤの画像データから、前記カーカス側部の画像データを抽出するカーカス側部画像抽出手段とをさらに有してよい。前記識別モデルは、前記カーカス中央部の欠陥を検出するための第1の識別モデルと、前記カーカス側部の欠陥を検出するための第2の識別モデルとを含んでよい。前記欠陥検出手段は、前記第1の識別モデルに前記カーカス中央部の画像データの一部又は全部を入力し、前記第2の識別モデルに前記カーカス側部の画像データの一部又は全部を入力してよい。 (5) The tire to be inspected includes a belt and a carcass, and the carcass has a carcass central portion that is a portion covered by the belt and carcass side portions that are not covered by the belt. It's okay. The tire inspection apparatus described in (1) includes carcass center image extracting means for extracting image data of the carcass center from the tire image data, and carcass side image extracting means from the tire image data. carcass side image extraction means for extracting data; The discriminative models may comprise a first discriminative model for detecting defects in the carcass center and a second discriminative model for detecting defects in the carcass sides. The defect detection means inputs part or all of the image data of the carcass central portion into the first identification model, and inputs part or all of the image data of the carcass side portion into the second identification model. You can

(6)前記検査対象タイヤは、前記内部構造として、カーカス層と、ベルト層と、フィニッシング層とを有してよい。(1)に記載されるタイヤ検査装置において、前記欠陥検出手段は、前記カーカス層、前記ベルト層、又は前記フィニッシング層の欠陥を検出してよい。 (6) The tire to be inspected may have a carcass layer, a belt layer, and a finishing layer as the internal structure. In the tire inspection device described in (1), the defect detection means may detect defects in the carcass layer, the belt layer, or the finishing layer.

(7)本開示で提案するタイヤ検査方法は、検査対象タイヤのX線画像の画像データを取得する画像データ取得ステップと、タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データと前記欠陥領域とは異なる領域である正常領域の画像データとを教師データとする機械学習により生成された識別モデルに、前記検査対象タイヤの前記画像データの一部又は全部を入力し、前記検査対象タイヤの内部構造の欠陥を検出する欠陥検出ステップとを有する。この検査方法によると、タイヤの検査精度を向上できる。 (7) A tire inspection method proposed in the present disclosure includes an image data acquisition step of acquiring image data of an X-ray image of a tire to be inspected; A part or all of the image data of the tire to be inspected is input to a discrimination model generated by machine learning using image data of a normal region, which is a region different from the defective region, as teacher data, and the tire to be inspected and a defect detection step of detecting defects in the internal structure of the. According to this inspection method, the tire inspection accuracy can be improved.

(8)本開示で提案するプログラムは、検査対象タイヤのX線画像の画像データを取得する画像データ取得手段、及びタイヤの内部構造の欠陥を含む領域である欠陥領域の画像データと前記欠陥領域とは異なる領域である正常領域の画像データとを教師データとする機械学習により生成された識別モデルに、前記検査対象タイヤの前記画像データの一部又は全部を入力し、前記検査対象タイヤの内部構造の欠陥を検出する欠陥検出手段としてコンピュータを機能させる。このプログラムによると、タイヤの検査精度を向上できる。 (8) The program proposed in the present disclosure includes image data acquisition means for acquiring image data of an X-ray image of a tire to be inspected, and image data of a defect area that is an area containing a defect in the internal structure of the tire and the defect area. A part or all of the image data of the tire to be inspected is input to a discrimination model generated by machine learning using image data of a normal region, which is a different region, as teacher data, and the inside of the tire to be inspected The computer functions as defect detection means for detecting structural defects. According to this program, the tire inspection accuracy can be improved.

(9)本開示で提案する識別モデルの生成方法は、タイヤのX線画像の画像データを取得する画像データ取得ステップと、前記タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データを、前記画像データから抽出する欠陥領域抽出ステップと、前記欠陥領域とは異なる領域である正常領域の画像データを、前記画像データから抽出する正常領域抽出ステップと、前記欠陥領域の画像データと前記正常領域の画像データとを教師データとして用いて、検査対象タイヤの内部構造の欠陥を検出するための識別モデルを生成するモデル生成ステップとを含む。この方法で生成される識別モデルを利用すると、タイヤの検査精度を向上できる。 (9) The identification model generation method proposed in the present disclosure includes an image data acquisition step of acquiring image data of an X-ray image of a tire, and image data of a defect region that is a region containing a defect of the internal structure of the tire. a defective region extracting step of extracting from the image data; a normal region extracting step of extracting image data of a normal region, which is a region different from the defective region, from the image data; and a model generation step of generating a discriminative model for detecting defects in the internal structure of the tire to be inspected, using the image data of the region as teacher data. Using the discriminative model generated by this method can improve the accuracy of tire inspection.

(10)(9)に記載される生成方法において、前記欠陥領域抽出ステップは、前記タイヤの内部構造の欠陥を含んでいる可能性のある領域である欠陥領域候補の画像データを、前記タイヤの画像データから抽出する候補抽出ステップと、前記欠陥領域候補に欠陥が描かれているか否かについて作業者の判定を受け付ける判定結果受付ステップとを含んでよい。前記モデル生成ステップでは、欠陥が描かれていると前記作業者によって判定された前記欠陥領域候補の画像データが、前記欠陥領域の画像データとして用いられてよい。この方法で生成される識別モデルを利用すると、タイヤの検査精度を更に向上できる。 (10) In the generation method described in (9), the defect area extracting step extracts image data of defect area candidates, which are areas that may contain defects in the internal structure of the tire. The method may include a candidate extracting step of extracting from the image data and a determination result receiving step of receiving a worker's determination as to whether or not a defect is drawn in the defect area candidate. In the model generation step, the image data of the defect area candidate determined by the operator to depict a defect may be used as the image data of the defect area. Using the discriminative model generated by this method can further improve the tire inspection accuracy.

(11)前記タイヤはベルトとカーカスとを含み、前記カーカスは前記ベルトによって覆われている部分であるカーカス中央部と、前記ベルトによって覆われていない部分であるカーカス側部とを有している。(9)に記載される生成方法において、前記欠陥領域抽出ステップでは、前記カーカス中央部の画像データから前記欠陥領域の画像データが抽出され、前記カーカス側部の画像データから前記欠陥領域の画像データが抽出され、前記モデル生成ステップでは、前記カーカス中央部の画像データから抽出した前記欠陥領域の画像データを利用して第1の識別モデルが生成され、前記カーカス側部の画像データから抽出した前記欠陥領域の画像データを利用して第2の識別モデルが生成されてよい。 (11) The tire includes a belt and a carcass, and the carcass has a central portion of the carcass that is covered by the belt and side portions of the carcass that are not covered by the belt. . In the generating method described in (9), in the defective area extracting step, image data of the defective area is extracted from the image data of the carcass central portion, and image data of the defective area is extracted from the image data of the carcass side portion. is extracted, and in the model generation step, a first identification model is generated using the image data of the defect region extracted from the image data of the carcass central portion, and the first identification model extracted from the image data of the carcass side portion A second discriminant model may be generated using the image data of the defect region.

(12)本開示で提案する識別モデルの生成装置は、タイヤにX線を照射し、前記タイヤの画像データを取得する画像データ取得手段と、前記タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データを、前記画像データから抽出する欠陥領域抽出手段と、前記欠陥領域とは異なる領域である正常領域の画像データを、前記画像データから抽出する正常領域抽出手段と、前記欠陥領域の画像データと前記正常領域の画像データとを教師データとして用いて、検査対象タイヤの内部構造の欠陥を検出するための識別モデルを生成するモデル生成手段とを含む。この装置で生成される識別モデルを利用すると、タイヤの検査精度を向上できる。 (12) The identification model generation device proposed in the present disclosure includes image data acquisition means for irradiating a tire with X-rays and acquiring image data of the tire, and defect, which is an area including a defect of the internal structure of the tire. defective area extracting means for extracting image data of an area from the image data; normal area extracting means for extracting image data of a normal area, which is an area different from the defective area, from the image data; and and a model generating means for generating a discriminative model for detecting defects in the internal structure of the tire to be inspected, using the image data and the image data of the normal region as teacher data. By using the discriminative model generated by this device, the accuracy of tire inspection can be improved.

(13)本開示で提案するプログラムは、タイヤのX線画像の画像データを取得する画像データ取得手段、前記タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データを、前記画像データから抽出する欠陥領域抽出手段、前記欠陥領域とは異なる領域である正常領域の画像データを、前記画像データから抽出する正常領域抽出手段、及び前記欠陥領域の画像データと前記正常領域の画像データとを教師データとして用いて、検査対象タイヤの内部構造の欠陥を検出するための識別モデルを生成するモデル生成手段としてコンピュータを機能させる。このプログラムによって識別モデルを利用すると、タイヤの検査精度を向上できる。 (13) The program proposed in the present disclosure includes image data acquisition means for acquiring image data of an X-ray image of a tire, and image data of a defect area, which is an area containing a defect in the internal structure of the tire, from the image data. defective area extracting means for extracting; normal area extracting means for extracting image data of a normal area, which is an area different from the defective area, from the image data; and image data of the defective area and image data of the normal area. The computer is made to function as model generating means for generating a discriminative model for detecting defects in the internal structure of the tire to be inspected using the training data. Using discriminative models with this program can improve the accuracy of tire inspection.

本開示で提案するタイヤ検査装置のハードウェアを示すブロック図である。1 is a block diagram showing hardware of a tire inspection device proposed in the present disclosure; FIG. X線照射部及び撮像部の配置、並びにタイヤの内部構造を説明するための図である。It is a figure for explaining arrangement of an X-ray irradiation part and an image pick-up part, and an internal structure of a tire. X線画像の例を示す図である。It is a figure which shows the example of an X-ray image. 欠陥を含むカーカスコードの例を示す図である。FIG. 4 is a diagram showing an example of a carcass cord containing defects; 欠陥を含むカーカスコードの例を示す図である。FIG. 4 is a diagram showing an example of a carcass cord containing defects; 欠陥を含むカーカスコードの例を示す図である。FIG. 4 is a diagram showing an example of a carcass cord containing defects; 第1の実施形態による制御部が有する機能を示すブロック図である。3 is a block diagram showing functions of a control unit according to the first embodiment; FIG. カーカス中央部画像抽出部の処理を説明するための図である。It is a figure for demonstrating the process of a carcass center part image extraction part. カーカス中央部画像抽出部の処理を説明するための図である。It is a figure for demonstrating the process of a carcass center part image extraction part. カーカス中央部画像抽出部の処理を説明するための図である。It is a figure for demonstrating the process of a carcass center part image extraction part. カーカス側部画像抽出部の処理を説明するための図である。It is a figure for demonstrating the process of a carcass side part image extraction part. 候補抽出部の処理を説明するための図である。It is a figure for demonstrating the process of a candidate extraction part. 候補抽出部の処理を説明するための図である。It is a figure for demonstrating the process of a candidate extraction part. 候補抽出部の処理を説明するための図である。It is a figure for demonstrating the process of a candidate extraction part. 識別モデルの生成において実行される処理の例を示すフローチャートである。4 is a flow chart showing an example of processing executed in generating a discriminative model; 識別モデルの生成において実行される処理の例を示すフローチャートである。4 is a flow chart showing an example of processing executed in generating a discriminative model; タイヤの検査において実行される処理の例を示すフローチャートである。4 is a flow chart showing an example of processing executed in tire inspection. 第2の実施形態による制御部が有する機能を示すブロック図である。FIG. 9 is a block diagram showing functions of a control unit according to the second embodiment; FIG. 図10で示されるベルト画像抽出部によって抽出される画像の例を示す図である。11 is a diagram showing an example of an image extracted by the belt image extraction unit shown in FIG. 10; FIG.

以下、本開示で提案するタイヤの検査装置及び検査方法、並びに、識別モデルの生成方法及び生成装置について説明する。 Hereinafter, a tire inspection apparatus and inspection method proposed in the present disclosure, and a discriminative model generation method and generation apparatus will be described.

図1は本開示で提案するタイヤ検査装置10のハードウェアを示すブロック図である。図1で示すように、タイヤ検査装置10は、制御部11、表示部13、操作部14、撮像部15、X線照射部16、及び支持部17を有している。タイヤ検査装置10が有している制御部11等の要素は、タイヤ検査装置10が利用する識別モデルの生成装置として機能する。 FIG. 1 is a block diagram showing hardware of a tire inspection device 10 proposed in the present disclosure. As shown in FIG. 1 , the tire inspection device 10 has a control section 11 , a display section 13 , an operation section 14 , an imaging section 15 , an X-ray irradiation section 16 and a support section 17 . Elements of the tire inspection device 10 , such as the control unit 11 , function as an identification model generator used by the tire inspection device 10 .

図2は、図1で示されるX線照射部16及び撮像部15の配置、並びにタイヤの内部構造を説明するための図である。図2で示す符号90は、検査対象であるタイヤと、識別モデルの生成に利用するタイヤの双方を示す。 FIG. 2 is a diagram for explaining the arrangement of the X-ray irradiation unit 16 and imaging unit 15 shown in FIG. 1 and the internal structure of the tire. Reference numeral 90 shown in FIG. 2 indicates both the tire to be inspected and the tire used to generate the discriminative model.

[タイヤの内部構造]
図2で示すように、タイヤ90は、カーカス層91、ベルト層92、及びフィニッシング層93を有する。これら3つの層91・92・93のそれぞれは一方向で並んでいる複数の線状部材(コード)によって構成される。
[Tire internal structure]
As shown in FIG. 2 , tire 90 has carcass layer 91 , belt layer 92 and finishing layer 93 . Each of these three layers 91, 92, 93 is composed of a plurality of linear members (cords) arranged in one direction.

図2で示すように、カーカス層91は、タイヤ90の周方向で並んでいる複数のカーカスコード91aを有する。各カーカスコード91aは、タイヤ90の一方のサイドウォール部90Rから他方のサイドウォール部90Lまで延びている。 As shown in FIG. 2 , the carcass layer 91 has a plurality of carcass cords 91 a arranged in the circumferential direction of the tire 90 . Each carcass cord 91a extends from one sidewall portion 90R of the tire 90 to the other sidewall portion 90L.

図2で示すように、ベルト層92はトレッド部90Tの内側に配置され、カーカス層91の中央部91Aを覆っている。タイヤ90は複数のベルト層92を有してよい。各ベルト層92は、タイヤ90の周方向で並んでいる複数のベルトコード92aを有している。各ベルトコード92aはタイヤ90の周方向に対して斜めに配置される。 As shown in FIG. 2, the belt layer 92 is arranged inside the tread portion 90T and covers the central portion 91A of the carcass layer 91. As shown in FIG. The tire 90 may have multiple belt layers 92 . Each belt layer 92 has a plurality of belt cords 92 a arranged in the circumferential direction of the tire 90 . Each belt cord 92 a is arranged obliquely with respect to the circumferential direction of the tire 90 .

図2で示すように、フィニッシング層93は、サイドウォール部90R・90Lの縁部に配置され、ビード94を覆っている。フィニッシング層93は、タイヤ90の周方向で並んでいる複数のフィニッシングコード93aによって構成される。 As shown in FIG. 2, the finishing layer 93 is disposed on the edges of the sidewall portions 90R and 90L and covers the bead 94. As shown in FIG. The finishing layer 93 is composed of a plurality of finishing cords 93 a arranged in the circumferential direction of the tire 90 .

3つの層91・92・93を構成する線状部材(カーカスコード91a、ベルトコード92a、フィニッシングコード93a)は、金属(具体的には、スチール)で形成されている。 The linear members (carcass cords 91a, belt cords 92a, and finishing cords 93a) forming the three layers 91, 92, and 93 are made of metal (specifically, steel).

[検査装置のハードウェア]
X線照射部16は放射状にX線を照射するX線管である。図2で示すように、X線照射部16は、例えばタイヤ90の内側に配置され、X線をタイヤ90に照射する。撮像部15はタイヤ90の外側に配置され、タイヤ90を透過したX線の画像データを出力する。X線はタイヤ90のゴム部を透過するため、タイヤ90の内部構造が表れたX線画像が得られる。
[Hardware of inspection equipment]
The X-ray irradiation unit 16 is an X-ray tube that radially emits X-rays. As shown in FIG. 2, the X-ray irradiation unit 16 is arranged, for example, inside the tire 90 and irradiates the tire 90 with X-rays. The imaging unit 15 is arranged outside the tire 90 and outputs image data of X-rays that have passed through the tire 90 . Since X-rays pass through the rubber portion of the tire 90, an X-ray image showing the internal structure of the tire 90 is obtained.

図2で示すように、撮像部15は、例えば、タイヤ90の上側(半径方向の外側)に配置される。タイヤ検査装置10は、撮像部15に加えて又は撮像部15に代えて、タイヤ検査装置10は、撮像部15に加えて又は撮像部15に代えて、タイヤ90に対して斜め右上方向と斜め左上方向とに配置される撮像部を有してよい。また、タイヤ検査装置10は、タイヤ90のサイドウォール部90R・90Lの右側及び左側にそれぞれ配置される撮像部を有してもよい。 As shown in FIG. 2 , the imaging unit 15 is arranged, for example, above the tire 90 (outside in the radial direction). In addition to or in place of the imaging unit 15, the tire inspection apparatus 10 is provided with the image pickup unit 15 or in place of the image pickup unit 15. It may have an imaging unit arranged in the upper left direction. Further, the tire inspection device 10 may have imaging units arranged on the right and left sides of the sidewall portions 90R and 90L of the tire 90, respectively.

タイヤ90は、支持部17(図1)によって回転可能となるように支持される。支持部17は、タイヤ検査時、及び機械学習用の画像データ(教師データ)の生成時に、タイヤ90を所定速度で回転させる。撮像部15は、タイヤ90の回転速度に応じた頻度で連続的にタイヤ90を撮像し、タイヤ90の一周分の画像データを出力する。撮像部15は、例えばラインセンサカメラであるが、エリアカメラであってもよい。 The tire 90 is rotatably supported by the support portion 17 (FIG. 1). The support unit 17 rotates the tire 90 at a predetermined speed during tire inspection and generation of image data (teacher data) for machine learning. The imaging unit 15 continuously images the tire 90 at a frequency corresponding to the rotation speed of the tire 90 and outputs image data for one round of the tire 90 . The imaging unit 15 is, for example, a line sensor camera, but may be an area camera.

制御部11は、CPU(Central Processing Unit)や、GPU(Graphics Processing Unit)などの演算装置を有している。また、制御部11は記憶部12を有している。記憶部12は、RAM(Random access memory)で構成される主記憶装置や、ROM(Read only memory)、SSD(Solid State Drive)、HDD(hard disk drive)などで構成される補助記憶装置を含む。記憶部12には、CPUなどの演算装置において実行されるプログラムや、撮像部15が出力した画像データ、生成された識別モデルなどが格納される。 The control unit 11 has arithmetic units such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit). Also, the control unit 11 has a storage unit 12 . The storage unit 12 includes a main storage device composed of RAM (random access memory) and an auxiliary storage device composed of ROM (read only memory), SSD (solid state drive), HDD (hard disk drive), and the like. . The storage unit 12 stores programs executed by an arithmetic device such as a CPU, image data output by the imaging unit 15, generated identification models, and the like.

表示部13は、液晶ディスプレイ等の表示装置であって、制御部11の指示に従って各種の画像を表示する。 The display unit 13 is a display device such as a liquid crystal display, and displays various images according to instructions from the control unit 11 .

操作部14は、キーボードやマウスなどといったユーザインタフェースであって、ユーザの操作入力を受け付けて、その内容を示す信号を制御部11に出力する。 The operation unit 14 is a user interface such as a keyboard and a mouse, and receives user operation input and outputs a signal indicating the content of the input to the control unit 11 .

図3は、撮像部15によって取得されるX線画像の例を示す図である。図3において、画像の縦方向(Y方向)はタイヤ90の周方向に対応している。画像の中央部(同図において符号91Aで示す領域)に、カーカス層91とベルト層92とが表れる。ベルト層92は、上述したように、タイヤ90の周方向で並んでいる複数のベルトコード92aを有している。各ベルトコード92aはタイヤ90の周方向に対して斜めに配置されている。また、複数のカーカスコード91aがタイヤ90の周方向に並んでいる。各カーカスコード91aは、この画像において横方向に延びている。カーカス層91はベルト層92によって覆われていない側部91Bを有する。本明細書では、カーカス層91においてベルト層92によって覆われているカーカス層91の中央部91Aを「カーカス中央部」と称し、ベルト層92によって覆われていないカーカス層91の側部91Bを「カーカス側部」と称する。 FIG. 3 is a diagram showing an example of an X-ray image acquired by the imaging unit 15. As shown in FIG. In FIG. 3 , the vertical direction (Y direction) of the image corresponds to the circumferential direction of the tire 90 . The carcass layer 91 and the belt layer 92 appear in the central portion of the image (the area indicated by reference numeral 91A in the drawing). The belt layer 92 has a plurality of belt cords 92a arranged in the circumferential direction of the tire 90, as described above. Each belt cord 92 a is arranged obliquely with respect to the circumferential direction of the tire 90 . A plurality of carcass cords 91 a are arranged in the circumferential direction of the tire 90 . Each carcass cord 91a extends laterally in this image. Carcass layer 91 has sides 91B that are not covered by belt layer 92 . In this specification, the central portion 91A of the carcass layer 91 that is covered by the belt layer 92 in the carcass layer 91 is referred to as the "carcass central portion", and the side portion 91B of the carcass layer 91 that is not covered by the belt layer 92 is referred to as the " "Carcass side".

[タイヤ内部構造の欠陥]
タイヤ検査装置10は、例えばカーカスコード91aを検査する装置である。複数のカーカスコード91aはタイヤ90の周方向に等間隔で配置されている。しかしながら、一部のカーカスコード91aが斜めに配置され、隣のカーカスコード91aに交差する欠陥が生じることがある。このような欠陥はアクロスコードと称されている。
[Defects in tire internal structure]
The tire inspection device 10 is, for example, a device that inspects the carcass cords 91a. The plurality of carcass cords 91a are arranged at equal intervals in the circumferential direction of the tire 90. As shown in FIG. However, some of the carcass cords 91a are arranged obliquely, and a defect that intersects the adjacent carcass cords 91a may occur. Such defects are called across codes.

例えば、図4Aで示すように、2本のカーカスコード91aが線接触しながら、交差する欠陥が生じることがある。また、図4Bで示すように、2本のカーカスコード91aがX字状に交差することもある。また、図4Cで示すように、一方のカーカスコード91aがU字状に湾曲し、2つの位置で隣のカーカスコード91aに交差する欠陥が生じることもある。タイヤ検査装置10は、後述する処理によって、このような欠陥を検出する。以下では、このような欠陥を「コード欠陥」と称する。 For example, as shown in FIG. 4A, two carcass cords 91a may be in line contact while intersecting defects. Also, as shown in FIG. 4B, two carcass cords 91a may intersect in an X shape. Also, as shown in FIG. 4C, one carcass cord 91a may be bent in a U-shape and cross the adjacent carcass cord 91a at two positions. The tire inspection device 10 detects such defects by the processing described later. Such defects are hereinafter referred to as "code defects".

[第1実施形態における制御部の処理]
以下において、制御部11の機能について説明する。図5は、制御部11が有している機能を示すブロック図である。制御部11は、その機能として、画像データ取得部11a、前処理部11b、教師データ生成部11e、モデル生成部11j、欠陥領域候補抽出部11u、及び欠陥検出部11vを有している。これらの機能は、記憶部12に格納されているプログラムを制御部11が実行することによって実現される。また、制御部11は、識別モデルM1・M2を有している。識別モデルM1・M2は記憶部12に格納される。
[Processing of the control unit in the first embodiment]
The functions of the control unit 11 will be described below. FIG. 5 is a block diagram showing the functions of the control section 11. As shown in FIG. The control unit 11 has, as its functions, an image data acquisition unit 11a, a preprocessing unit 11b, a teacher data generation unit 11e, a model generation unit 11j, a defect area candidate extraction unit 11u, and a defect detection unit 11v. These functions are implemented by the control unit 11 executing programs stored in the storage unit 12 . The control unit 11 also has identification models M1 and M2. The identification models M1 and M2 are stored in the storage unit 12. FIG.

画像データ取得部11a、前処理部11b、教師データ生成部11e、及びモデル生成部11jによって、識別モデルM1・M2が生成(学習)される。画像データ取得部11a、前処理部11b、欠陥領域候補抽出部11u、及び欠陥検出部11vによって、識別モデルM1・M2を利用した、タイヤ90の内部構造についての検査が実行される。 The image data acquisition unit 11a, the preprocessing unit 11b, the teacher data generation unit 11e, and the model generation unit 11j generate (learn) the discrimination models M1 and M2. The internal structure of the tire 90 is inspected using the identification models M1 and M2 by the image data acquisition section 11a, the preprocessing section 11b, the defect area candidate extraction section 11u, and the defect detection section 11v.

制御部11は、複数のパーソナルコンピュータで構成されてよい。これとは異なり、制御部11は、1又は複数のパーソナルコンピュータ、及び1又は複数のサーバーコンピュータで構成されてよい。この場合、制御部11が有している一部の機能(例えば、欠陥領域候補抽出部11uや欠陥検出部11v)は、パーソナルコンピュータで実行され、制御部11が有している別の機能(例えば、モデル生成部11j)は、他のパーソナルコンピュータ又はサーバーコンピュータで実行されてよい。 The control unit 11 may be composed of a plurality of personal computers. Alternatively, the control unit 11 may consist of one or more personal computers and one or more server computers. In this case, some functions of the control unit 11 (for example, the defect area candidate extraction unit 11u and the defect detection unit 11v) are executed by the personal computer, and other functions of the control unit 11 ( For example, the model generator 11j) may be executed on another personal computer or server computer.

カーカス中央部91Aとカーカス側部91Bとでは、コード欠陥と判定されるべきカーカスコード91aの交差の形態が同じではない。例えば、カーカス中央部91Aで生じている場合にはコード欠陥とされるべきであるのに対して、カーカス側部91Bで生じている場合には正常と判断されるべき形態の交差がある。また、カーカス中央部91Aでは生じ易いのに対して、カーカス側部91Bでは生じ難い種類の交差もある。そこで、タイヤ検査装置10は、カーカス中央部91Aの検査に用いる第1識別モデルM1と、カーカス側部91Bの検査に用いる第2識別モデルM2とを別個に有している。 The carcass central portion 91A and the carcass side portion 91B do not have the same form of crossing of the carcass cords 91a to be determined as cord defects. For example, there is a form of intersection that should be considered normal if it occurs in the carcass side 91B, whereas it should be considered a code defect if it occurs in the carcass center 91A. There are also types of intersections that are likely to occur in the carcass central portion 91A but are less likely to occur in the carcass side portions 91B. Therefore, the tire inspection apparatus 10 separately has a first identification model M1 used for inspection of the carcass center portion 91A and a second identification model M2 used for inspection of the carcass side portion 91B.

[画像データ取得部]
画像データ取得部11aは、撮像部15からタイヤ90のX線画像の画像データを取得する。これとは異なり、画像データ取得部11aは、記憶部12に格納されているタイヤ90のX線画像の画像データを取得してもよい。検査時において、画像データ取得部11aは、検査対象であるタイヤ90の画像データを取得する。識別モデルM1・M2の学習時(生成時)において、画像データ取得部11aは、学習用の画像データ(教師データを生成するための画像データ)を取得する。画像データ取得部11aは、学習時、複数のタイヤの画像データを取得してよい。各画像データがタイヤ1周分の画像データであってよい。
[Image data acquisition unit]
The image data acquisition unit 11 a acquires image data of an X-ray image of the tire 90 from the imaging unit 15 . Alternatively, the image data acquisition unit 11 a may acquire image data of the X-ray image of the tire 90 stored in the storage unit 12 . During inspection, the image data acquisition unit 11a acquires image data of the tire 90 to be inspected. At the time of learning (during generation) of the discrimination models M1 and M2, the image data acquisition unit 11a acquires image data for learning (image data for generating teacher data). The image data acquisition unit 11a may acquire image data of a plurality of tires during learning. Each image data may be image data for one round of the tire.

[前処理部]
図5で示すように、前処理部11bは、カーカス中央部画像抽出部11cと、カーカス側部画像抽出部11dとを有している。
[Pretreatment part]
As shown in FIG. 5, the preprocessing section 11b has a carcass center image extraction section 11c and a carcass side image extraction section 11d.

[カーカス中央部画像抽出部]
カーカス中央部91Aはベルト層92によって覆われており、カーカス中央部91Aの領域には、図3で示すようにカーカスコード91aとベルトコード92aとが表れる。カーカス中央部画像抽出部11cは、画像データ取得部11aによって取得したタイヤ90の画像データから、カーカス中央部91Aのカーカスコード91aの画像を抽出する。この抽出は、例えば、以下の処理により行うことができる。
[Carcass Central Image Extraction Unit]
The carcass central portion 91A is covered with a belt layer 92, and carcass cords 91a and belt cords 92a appear in the area of the carcass central portion 91A as shown in FIG. The carcass central portion image extracting section 11c extracts an image of the carcass cords 91a of the carcass central portion 91A from the image data of the tire 90 acquired by the image data acquiring section 11a. This extraction can be performed, for example, by the following processing.

カーカス中央部91Aの領域での濃度値の平均は、カーカス側部91Bの領域での濃度値の平均よりも濃くなる。そこで、カーカス中央部画像抽出部11cは、例えば、図6Aで示されるように、画像の縦方向(タイヤ90の周方向)で並んでいる複数の画素の濃度値を平滑化した画像を生成する。この画像では、縦方向で並んでいる複数の画素について、それら画素の濃度値の平均が付与される。この画像では、カーカス中央部91Aの領域と、カーカス側部91Bの領域との境界(図6Aの例において、エッジE1、E2)が表れる。そして、カーカス中央部画像抽出部11cは、この画像に対してエッジ検出を実行し、右側のエッジE1と左側のエッジE2との間の領域を、画像データ取得部11aによって取得したタイヤの画像データから抽出する。これにより、図6Bで示されるように、カーカス中央部91Aの領域の画像データが抽出される。 The average density value in the region of the carcass central portion 91A is darker than the average density value in the region of the carcass side portion 91B. Therefore, the carcass central portion image extraction unit 11c generates an image by smoothing the density values of a plurality of pixels arranged in the vertical direction (the circumferential direction of the tire 90) of the image, as shown in FIG. 6A, for example. . In this image, an average density value of a plurality of pixels arranged in the vertical direction is given. In this image, the boundary (edges E1 and E2 in the example of FIG. 6A) between the area of the carcass central portion 91A and the area of the carcass side portion 91B appears. Then, the carcass central portion image extracting unit 11c performs edge detection on this image, and the area between the right edge E1 and the left edge E2 is extracted from the image data of the tire acquired by the image data acquiring unit 11a. Extract from Thereby, as shown in FIG. 6B, the image data of the area of the carcass central portion 91A is extracted.

カーカス中央部91Aの領域の画像では、図6Bで示されるように、カーカスコード91aとベルトコード92aの双方が表れる。カーカス中央部画像抽出部11cは、カーカス中央部91Aにあるカーカスコード91aを鮮明化するための処理を実行する。 In the image of the area of the carcass central portion 91A, both the carcass cords 91a and the belt cords 92a appear, as shown in FIG. 6B. The carcass central portion image extracting section 11c executes processing for sharpening the carcass cords 91a in the carcass central portion 91A.

各ベルトコード92aはタイヤ90の周方向に対して斜めに配置され、複数のベルトコード92aはタイヤ90の周方向に等間隔で並んでいる。そのため、タイヤ90の画像において、ベルトコード92aは斜めの線として周期的に表れる。そこで、カーカス中央部画像抽出部11cは、例えば、抽出されたカーカス中央部91Aの画像データ(カーカス層91とベルト層92とを含む画像)に対して二次元フーリエ変換処理を実行する。そして、カーカス中央部画像抽出部11cは、ベルトコード92aに応じた周波数成分の画像データを除去する。こうすることによって、図6Cで示されるように、カーカス中央部91Aにあるカーカスコード91aが鮮明に表れた画像が得られる。カーカス中央部画像抽出部11cは、このようにして得られた画像について、二値化処理を実行してもよい。この二値化処理は動的二値化処理であってもよい。以下では、カーカス中央部画像抽出部11cによって抽出される画像(図6C)を「カーカス中央部画像」と称する。 Each belt cord 92a is obliquely arranged with respect to the circumferential direction of the tire 90, and the plurality of belt cords 92a are arranged in the circumferential direction of the tire 90 at regular intervals. Therefore, in the image of the tire 90, the belt cords 92a periodically appear as oblique lines. Therefore, the carcass central portion image extracting section 11c performs, for example, a two-dimensional Fourier transform process on the extracted image data of the carcass central portion 91A (image including the carcass layer 91 and the belt layer 92). Then, the carcass central portion image extracting section 11c removes the image data of the frequency component corresponding to the belt cord 92a. By doing so, as shown in FIG. 6C, an image is obtained in which the carcass cords 91a in the carcass central portion 91A appear clearly. The carcass central portion image extracting section 11c may perform a binarization process on the image thus obtained. This binarization processing may be dynamic binarization processing. Hereinafter, the image (FIG. 6C) extracted by the carcass center image extraction unit 11c is referred to as "carcass center image".

[カーカス側部画像抽出部]
カーカス側部画像抽出部11dは、画像データ取得部11aによって取得したタイヤの画像データから、カーカス側部91Bのカーカスコード91aの画像データを抽出する。この抽出は、カーカス中央部画像抽出部11cの処理の一部を利用することができる。すなわち、カーカス側部画像抽出部11dは、画像の縦方向(タイヤ90の周方向)で並んでいる複数の画素の濃度値を平滑化した画像(図6A参照)を生成し、生成された画像に対してエッジ検出を実行する。そして、カーカス側部画像抽出部11dは、右側のエッジE1(図6A参照)のさらに右側の領域と、左側のエッジE2(図6A参照)のさらに左側の領域のそれぞれを抽出する。これにより、図6Dで示されるように、左右のカーカス側部91Bの画像データが得られる。カーカス側部画像抽出部11dは、これらの画像データに対して二値化処理を実行してよい。この二値化処理も動的二値化処理であってよい。以下では、カーカス側部画像抽出部11dによって抽出される画像(図6D)を「カーカス側部画像」と称する。
[Carcass Side Image Extraction Unit]
The carcass side image extraction unit 11d extracts image data of the carcass cord 91a of the carcass side portion 91B from the tire image data acquired by the image data acquisition unit 11a. This extraction can utilize part of the processing of the carcass central portion image extraction section 11c. That is, the carcass side image extraction unit 11d generates an image (see FIG. 6A) in which the density values of a plurality of pixels arranged in the longitudinal direction of the image (the circumferential direction of the tire 90) are smoothed, and the generated image Perform edge detection on . Then, the carcass side image extracting unit 11d extracts a further right region of the right edge E1 (see FIG. 6A) and a further left region of the left edge E2 (see FIG. 6A). As a result, image data of the left and right carcass side portions 91B are obtained as shown in FIG. 6D. The carcass side image extraction unit 11d may perform binarization processing on these image data. This binarization processing may also be dynamic binarization processing. Hereinafter, the image (FIG. 6D) extracted by the carcass side image extraction unit 11d is referred to as "carcass side image".

[識別モデルの生成]
前処理部11bの処理によって抽出した学習用の画像データ(カーカス中央部画像とカーカス側部画像)を利用して、識別モデルM1・M2を生成するための処理について説明する。図5で示す教師データ生成部11eとモデル生成部11jが、識別モデルM1・M2を生成するための処理を実行する。
[Generation of discriminative model]
Processing for generating the identification models M1 and M2 using the learning image data (carcass center image and carcass side image) extracted by the processing of the preprocessing unit 11b will be described. The teacher data generating unit 11e and the model generating unit 11j shown in FIG. 5 execute processing for generating the discriminative models M1 and M2.

[教師データ生成部]
図5で示すように、教師データ生成部11eは欠陥領域抽出部11fと正常領域抽出部11iとを有している。欠陥領域抽出部11fは候補抽出部11gと判定結果受付部11hとを有している。
[Training data generator]
As shown in FIG. 5, the teacher data generator 11e has a defective area extractor 11f and a normal area extractor 11i. The defect area extractor 11f has a candidate extractor 11g and a determination result receiver 11h.

[候補抽出部]
候補抽出部11gは、コード欠陥(例えば、図4A~図4Cで示した欠陥)が生じている可能性のある領域を、学習用のカーカス中央部画像と学習用のカーカス側部画像のそれぞれから抽出する。以下では、コード欠陥が生じている可能性のある領域を「欠陥領域候補」と称する。候補抽出部11gは、カーカス中央部画像とカーカス側部画像とに表れるカーカスコード91aの面積及び形状の少なくとも1つに基づいて、欠陥領域候補の画像データを抽出する。この処理は、例えば次のように実行される。
[Candidate extraction unit]
The candidate extracting unit 11g extracts a region in which a cord defect (for example, defects shown in FIGS. 4A to 4C) may occur from each of the learning carcass center image and the learning carcass side image. Extract. Hereinafter, a region where a code defect may occur is referred to as a "defective region candidate". The candidate extraction unit 11g extracts image data of defect area candidates based on at least one of the area and shape of the carcass cords 91a appearing in the carcass center image and the carcass side image. This processing is executed, for example, as follows.

図7Aは、カーカス中央部画像を拡大した例である。この図では、10本のカーカスコード91aが示されているが、一部のカーカスコード91a(二点鎖線Lで示される領域内のカーカスコード)が重なっている。複数のカーカスコード91aが正常に並んでいる場合、複数のカーカスコード91aのそれぞれが、濃度値が1の画素が連結している連結領域として二値化画像において表れる。ところが、複数のカーカスコード91aが交差している場合、複数のカーカスコード91aの全体が1つの連結領域として表れる。例えば、図7Aの例において、二点鎖線Lで示される領域内の3本のカーカスコード91aが1つの連結領域となる。そのため、交差しているカーカスコード91aの面積(連結領域の画素数)は他のカーカスコード91aの面積よりも大きくなる。 FIG. 7A is an example of an enlarged carcass center image. Although ten carcass cords 91a are shown in this figure, some of the carcass cords 91a (the carcass cords within the area indicated by the two-dot chain line L) are overlapped. When a plurality of carcass cords 91a are arranged normally, each of the plurality of carcass cords 91a appears in the binarized image as a connected region in which pixels having a density value of 1 are connected. However, when a plurality of carcass cords 91a intersect, the entirety of the plurality of carcass cords 91a appears as one connected region. For example, in the example of FIG. 7A, three carcass cords 91a within the area indicated by the two-dot chain line L form one connecting area. Therefore, the area of the intersecting carcass cords 91a (the number of pixels in the connecting region) is larger than the area of the other carcass cords 91a.

そこで、候補抽出部11gは、二値化されているカーカス中央部画像に表れているカーカスコード91aの面積に基づいて、欠陥領域候補を抽出する。例えば、候補抽出部11gは、各カーカスコード91aの面積の平均値を算出し、平均値に対して所定倍率(例えば1.5倍)以上の面積を有するカーカスコード91aの像を検出する。候補抽出部11gは、この検出されたカーカスコード91aの像を含む領域を欠陥領域候補として抽出する。例えば、図7A及び図7Bにおいて二点鎖線Lで示すように、平均値に対して所定倍率以上の面積を有するカーカスコード91aの外接矩形を、欠陥領域候補として抽出する。 Therefore, the candidate extraction unit 11g extracts a defect region candidate based on the area of the carcass code 91a appearing in the binarized carcass center image. For example, the candidate extraction unit 11g calculates the average value of the areas of the carcass cords 91a, and detects images of the carcass cords 91a having areas equal to or larger than the average value by a predetermined magnification (for example, 1.5 times). The candidate extraction unit 11g extracts the area including the detected image of the carcass cord 91a as a defect area candidate. For example, as indicated by a two-dot chain line L in FIGS. 7A and 7B, a circumscribing rectangle of the carcass cord 91a having an area equal to or larger than a predetermined magnification with respect to the average value is extracted as a defect region candidate.

候補抽出部11gは、カーカス中央部画像に表れるカーカスコード91aの形状に基づいて欠陥領域候補を抽出してよい。候補抽出部11gは、例えば、カーカスコード91aの分岐形状をカーカス中央部画像において探索してよい。そして、分岐形状が見つかった場合、その分岐形状を含む領域が欠陥領域候補として抽出されてよい。 The candidate extracting section 11g may extract the defect area candidate based on the shape of the carcass cord 91a appearing in the carcass center image. For example, the candidate extraction unit 11g may search the carcass center image for the branch shape of the carcass code 91a. Then, when a branch shape is found, a region including the branch shape may be extracted as a defect region candidate.

例えば、候補抽出部11gは、面積に基づいて抽出された領域(図7Bで例示される画像)に対して、細線化処理を実行してもよい。この細線化処理によって、各カーカスコード91aの像の線幅は徐々に小さくなり、各カーカスコード91aは、例えば1画素の幅を有する線として表される(図7C参照)。そして、候補抽出部11gは、細線化されたカーカスコード91aの像において分岐形状を探索してよい。分岐形状の探索は、例えば、細線化されたカーカスコード91aの像を画像の横方向に走査することにより行うことができる。そして、分岐形状が存在している場合に、候補抽出部11gは、その分岐形状を含む連結領域(図7Bで示す領域)の外接矩形を、欠陥領域候補として抽出してよい。このような処理を行うことによって、例えば、隣り合う2本のカーカスコード91aの距離が近いものの、それらが交差していない場合に、面積に基づいて抽出された画像が直ちに欠陥領域候補として抽出されることを防ぐことができる。 For example, the candidate extraction unit 11g may perform the thinning process on the area extracted based on the area (the image illustrated in FIG. 7B). By this thinning process, the line width of the image of each carcass cord 91a is gradually reduced, and each carcass cord 91a is represented as a line having a width of, for example, one pixel (see FIG. 7C). Then, the candidate extraction unit 11g may search for branch shapes in the thinned image of the carcass cord 91a. The search for the branch shape can be performed, for example, by scanning the thinned carcass cord 91a image in the lateral direction of the image. Then, when a branch shape exists, the candidate extraction unit 11g may extract a circumscribed rectangle of a connected region (the region shown in FIG. 7B) including the branch shape as a defect region candidate. By performing such processing, for example, when two adjacent carcass cords 91a are close to each other but do not intersect, the image extracted based on the area is immediately extracted as a defect region candidate. can be prevented.

なお、ここで説明したように、候補抽出部11gは、例えば、カーカス中央部画像に表れるカーカスコード91aの面積と形状(分岐形状の有無)とに基づいて、欠陥領域候補の画像データを抽出する。これとは異なり、候補抽出部11gは、カーカス中央部画像に表れるカーカスコード91aの面積だけに基づいて欠陥領域候補の画像データを抽出してもよい。さらに他の例として、候補抽出部11gは、カーカス中央部画像に表れるカーカスコード91aの形状(分岐形状の有無)だけに基づいて欠陥領域候補の画像データを抽出してもよい。 As described above, the candidate extraction unit 11g extracts image data of defect area candidates based on the area and shape (whether or not there is a branch shape) of the carcass cord 91a appearing in the carcass center image, for example. . Alternatively, the candidate extracting section 11g may extract the image data of the defect region candidate based only on the area of the carcass cord 91a appearing in the carcass center image. As still another example, the candidate extracting section 11g may extract the image data of the defect area candidate based only on the shape (whether or not there is a branch shape) of the carcass code 91a appearing in the carcass central portion image.

候補抽出部11gは、カーカス側部画像に対しても、カーカス中央部画像と同様の処理を行う。すなわち、候補抽出部11gは、二値化されているカーカス側部画像に表れているカーカスコード91aの面積に基づいて、カーカス側部画像から欠陥領域候補を抽出してよい。また、候補抽出部11gは、カーカス側部画像に表れるカーカスコード91aの形状に基づいて、カーカス側部画像から欠陥領域候補を抽出してよい。 The candidate extraction unit 11g performs the same processing as that for the carcass center image on the carcass side image. That is, the candidate extraction unit 11g may extract the defect area candidate from the carcass side image based on the area of the carcass code 91a appearing in the binarized carcass side image. Further, the candidate extracting section 11g may extract defect area candidates from the carcass side image based on the shape of the carcass cord 91a appearing in the carcass side image.

[判定結果受付部]
判定結果受付部11hは、候補抽出部11gによって抽出された欠陥領域候補の画像を表示部13に表示する。そして、判定結果受付部11hは、表示されている画像が実際にコード欠陥を含んでいるか否かについて、作業者の判定結果を受け付ける。作業者は、操作部14を通して、判定結果を入力することができる。記憶部12に複数の欠陥領域候補が格納されている場合、判定結果受付部11hは、複数の欠陥領域候補を表示部13に順番に表示し、各欠陥領域候補について作業者の判定結果を受け付ける。
[Judgment result reception part]
The determination result reception unit 11h displays on the display unit 13 images of the defect area candidates extracted by the candidate extraction unit 11g. Then, the judgment result reception unit 11h receives the operator's judgment result as to whether or not the displayed image actually includes a code defect. The operator can input the determination result through the operation unit 14 . When a plurality of defect area candidates are stored in the storage unit 12, the determination result receiving unit 11h sequentially displays the plurality of defect area candidates on the display unit 13, and receives the worker's determination result for each defect area candidate. .

判定結果受付部11hは、入力される判定結果に基づいて、各欠陥領域候補に識別ラベルを付与し、記憶部12に格納する。具体的には、コード欠陥が欠陥領域候補に表れている旨の判定結果が入力された場合、判定結果受付部11hは、欠陥領域候補に識別ラベル「欠陥」を付与する。そして、判定結果受付部11hは、欠陥領域候補の画像データを欠陥領域として記憶部12に格納する。一方、コード欠陥が欠陥領域候補に表れていない旨の判定結果が入力された場合、判定結果受付部11hは欠陥領域候補に識別ラベル「正常」を付与し、欠陥領域候補の画像データを正常領域として記憶部12に格納する。欠陥領域と正常領域は、それらが存在していた部位(カーカス中央部91A又はカーカス側部91B)の情報とともに、記憶部12に格納される。 The determination result reception unit 11h assigns an identification label to each defect area candidate based on the input determination result, and stores the identification label in the storage unit 12 . Specifically, when a determination result indicating that a code defect appears in a defect area candidate is input, the determination result reception unit 11h assigns the identification label "defect" to the defect area candidate. Then, the determination result reception unit 11h stores the image data of the defect area candidate in the storage unit 12 as the defect area. On the other hand, when the determination result indicating that the code defect does not appear in the defect area candidate is input, the determination result reception unit 11h assigns the identification label "normal" to the defect area candidate, and returns the image data of the defect area candidate to the normal area. , and stored in the storage unit 12 . The defective area and the normal area are stored in the storage unit 12 together with information on the part (the carcass central part 91A or the carcass side part 91B) where they existed.

コード欠陥が欠陥領域候補に表れている場合、作業者はコード欠陥の種類を入力してもよい。コード欠陥の種類としては、例えば図4A~図4Cで示される種類がある。例えば、図4Aで示されるコード欠陥に近しい形状が欠陥領域候補に表れている場合、判定結果受付部11hは、この欠陥領域候補に識別ラベル「第1種欠陥」を付与する。そして、判定結果受付部11hは、この欠陥領域候補の画像データを「第1種欠陥」の欠陥領域として記憶部12に格納する。同様に、図4Bで示されるコード欠陥に近しい形状のコード欠陥が欠陥領域候補に表れている場合、判定結果受付部11hは、この欠陥領域候補に識別ラベル「第2種欠陥」を付与し、この欠陥領域候補の画像データを「第2種欠陥」の欠陥領域として記憶部12に格納する。図4Cで示されるコード欠陥に近しい形状のコード欠陥が欠陥領域候補に表れている場合も同様である。欠陥の種類の数はこれに限られない。欠陥の種類の数は、2つでもよいし、3つより多くてもよい。 If a code defect appears in the defect area candidates, the operator may enter the type of code defect. Types of code defects include, for example, the types shown in FIGS. 4A to 4C. For example, when a shape similar to the code defect shown in FIG. 4A appears in the defect area candidate, the determination result reception unit 11h assigns the identification label "first type defect" to this defect area candidate. Then, the determination result receiving unit 11h stores the image data of the defect area candidate in the storage unit 12 as the defect area of the "first type defect". Similarly, when a code defect having a shape similar to the code defect shown in FIG. The image data of this defect area candidate is stored in the storage unit 12 as the defect area of the "second type defect". The same is true when a code defect having a shape similar to the code defect shown in FIG. 4C appears in the defect area candidates. The number of defect types is not limited to this. The number of defect types may be two or more than three.

[正常領域抽出部]
正常領域抽出部11iは、候補抽出部11gの処理において欠陥領域候補として抽出されなかった領域の一部を、正常領域として抽出する。正常領域抽出部11iは、正常領域として抽出した画像に識別ラベル「正常」を付与し、この正常領域の画像データを記憶部12に格納する。正常領域抽出部11iは、カーカス中央部画像とカーカス側部画像のそれぞれから、正常領域を抽出する。このように抽出された正常領域の画像データは、それらが存在していた部位(カーカス中央部91A又はカーカス側部91B)の情報とともに、記憶部12に格納される。
[Normal region extraction unit]
The normal area extractor 11i extracts a part of the area that was not extracted as a defect area candidate in the process of the candidate extractor 11g as a normal area. The normal region extracting unit 11 i assigns an identification label “normal” to the image extracted as the normal region, and stores the image data of this normal region in the storage unit 12 . The normal region extraction unit 11i extracts normal regions from each of the carcass center image and the carcass side image. The image data of the normal region thus extracted are stored in the storage unit 12 together with the information of the portion (the carcass central portion 91A or the carcass side portion 91B) where they existed.

正常領域の抽出処理は、例えば次のように行うことができる。正常領域抽出部11iは、所定の画素数及び所定のアスペクト比を有する画像を、カーカス中央部画像からランダムに抽出する。そして、ランダムに抽出された画像が、欠陥領域候補として抽出された画像と重複する部分を有していない場合に、正常領域抽出部11iは、この抽出された画像を正常領域としてよい。ここで、所定の画素数と所定のアスペクト比は、例えば、欠陥領域候補の画素数の平均とアスペクト比の平均であってよい。 The normal region extraction process can be performed, for example, as follows. The normal region extraction unit 11i randomly extracts an image having a predetermined number of pixels and a predetermined aspect ratio from the carcass center image. Then, if the randomly extracted image does not have a portion that overlaps with the image extracted as the defect area candidate, the normal area extractor 11i may set this extracted image as the normal area. Here, the predetermined number of pixels and the predetermined aspect ratio may be, for example, the average number of pixels and the average aspect ratio of the defect area candidate.

教師データ生成部11eは、上述した処理によって得られた複数の欠陥領域の画像データのそれぞれを、所定の画素数と所定のアスペクト比とを有する画像データに変換する。(以下では、この画素数を「モデル入力画素数」と称し、このアスペクト比を「モデル入力アスペクト比」と称する。)また、教師データ生成部11eは、上述した処理によって得られた複数の正常領域の画像データを、モデル入力画素数とモデル入力アスペクト比とに変換する。つまり、教師データ生成部11eは、教師データの次元を統一する。 The teacher data generation unit 11e converts each of the image data of the plurality of defect areas obtained by the above-described processing into image data having a predetermined number of pixels and a predetermined aspect ratio. (Hereinafter, this number of pixels will be referred to as the "model input pixel number", and this aspect ratio will be referred to as the "model input aspect ratio".) The image data of the area is converted into the model input pixel number and the model input aspect ratio. In other words, the teacher data generator 11e unifies the dimensions of the teacher data.

[モデル生成部]
モデル生成部11jは、欠陥領域の画像データ及び識別ラベル(すなわち正解ラベル)を、教師データとして学習前の識別モデルに入力する。また、モデル生成部11jは、正常領域の画像データ及び識別ラベル(すなわち正解ラベル)を、教師データとして同識別モデルに入力する。こうすることで、モデル生成部11jは、タイヤ90の内部構造の欠陥を検出するための識別モデルM1・M2を生成する。
[Model generator]
The model generation unit 11j inputs the image data of the defect region and the identification label (that is, the correct label) to the pre-learning identification model as teacher data. Also, the model generation unit 11j inputs the image data of the normal region and the identification label (that is, the correct label) to the same identification model as teacher data. By doing so, the model generator 11j generates the identification models M1 and M2 for detecting defects in the internal structure of the tire 90. FIG.

識別モデルM1・M2としては、例えば、ニューラルネットワークが利用されてよい。識別モデルM1・M2として、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が利用されてもよい。これとは異なり、サポートベクタマシン(SVM)や、ランダムフォレストなどが、識別モデルM1・M2として利用されてよい。 A neural network, for example, may be used as the discrimination models M1 and M2. A convolutional neural network (CNN) may be used as the discriminative models M1 and M2. Alternatively, support vector machines (SVM), random forests, etc. may be used as discriminative models M1 and M2.

上述したように、教師データ生成部11eは、カーカス中央部画像とカーカス側部画像のそれぞれから、欠陥領域と正常領域とを抽出する。モデル生成部11jは、カーカス中央部画像から抽出された欠陥領域と正常領域とを用いて、カーカス中央部91Aにおけるコード欠陥を検出するための第1識別モデルM1を生成する。また、モデル生成部11jは、カーカス側部画像から抽出された欠陥領域と正常領域とを用いて、カーカス側部91Bにおけるコード欠陥を検出するための第2識別モデルM2を生成する。 As described above, the teacher data generator 11e extracts the defective region and the normal region from the carcass center image and the carcass side image, respectively. The model generator 11j uses the defective region and the normal region extracted from the carcass center image to generate a first identification model M1 for detecting cord defects in the carcass center 91A. The model generator 11j also uses the defective region and the normal region extracted from the carcass side image to generate a second identification model M2 for detecting cord defects in the carcass side 91B.

上述したように、カーカス中央部91Aとカーカス側部91Bとでは、コード欠陥と判定されるべきカーカスコード91aの交差の形態が同じではない。例えば、カーカス中央部91Aで生じている場合にはコード欠陥とされるべきであるのに対して、カーカス側部91Bで生じている場合には正常と判断されるべき形態の交差がある。また、カーカス中央部91Aでは生じ易いのに対して、カーカス側部91Bでは生じ難い種類の交差もある。本実施形態では、相互に異なる2つの識別モデルM1・M2がカーカス層91の2つの部分(カーカス中央部91A、カーカス側部91B)についてそれぞれ生成される。そのため、識別モデルM1・M2を利用したコード欠陥の検出精度を向上できる。 As described above, the carcass central portion 91A and the carcass side portion 91B do not have the same form of crossing of the carcass cords 91a that should be determined to be defective. For example, there is a form of intersection that should be considered normal if it occurs in the carcass side 91B, whereas it should be considered a code defect if it occurs in the carcass center 91A. There are also types of intersections that are likely to occur in the carcass central portion 91A but are less likely to occur in the carcass side portions 91B. In this embodiment, two identification models M1 and M2 different from each other are generated for two portions of the carcass layer 91 (the carcass central portion 91A and the carcass side portions 91B). Therefore, it is possible to improve the code defect detection accuracy using the discrimination models M1 and M2.

[タイヤの検査]
検査対象タイヤのカーカス中央部画像とカーカス側部画像とを利用して、タイヤの検査を実行するための処理について説明する。欠陥領域候補抽出部11uと欠陥検出部11vが、検査のための処理を実行する。
[Tire inspection]
Processing for inspecting a tire using the carcass center image and the carcass side image of the tire to be inspected will be described. The defect area candidate extraction unit 11u and the defect detection unit 11v execute processing for inspection.

[欠陥領域候補抽出部]
欠陥領域候補抽出部11uは、前処理部11bによって抽出された、検査対象であるタイヤ90の画像データ、すなわちカーカス中央部画像とカーカス側部画像のそれぞれから、欠陥領域候補(図7B参照)を抽出する。
[Defective Area Candidate Extraction Unit]
The defect area candidate extraction unit 11u extracts defect area candidates (see FIG. 7B) from the image data of the tire 90 to be inspected extracted by the preprocessing unit 11b, that is, from the carcass center image and the carcass side image. Extract.

欠陥領域候補抽出部11uの処理は、例えば、上述した教師データ生成部11eの候補抽出部11gの処理と同じであってよい。すなわち、欠陥領域候補抽出部11uは、例えば、カーカス中央部画像とカーカス側部画像のそれぞれに表れるカーカスコード91aの面積に基づいて、欠陥領域候補の画像データを抽出する。カーカスコード91aの面積に代えて又は面積に加えて、欠陥領域候補抽出部11uは、カーカス中央部画像とカーカス側部画像とに表れるカーカスコード91aの形状に基づいて、欠陥領域候補の画像データを抽出してもよい。例えば、欠陥領域候補抽出部11uは、カーカス中央部画像とカーカス側部画像とにおけるカーカスコード91aの分岐形状を探索し、その分岐形状を含む領域を欠陥領域候補として抽出してもよい。 The processing of the defect area candidate extraction unit 11u may be the same as the processing of the candidate extraction unit 11g of the teacher data generation unit 11e described above, for example. That is, the defect area candidate extraction unit 11u extracts the image data of the defect area candidate based on the areas of the carcass cords 91a appearing in the carcass center image and the carcass side image, for example. Instead of or in addition to the area of the carcass cord 91a, the defect area candidate extraction unit 11u extracts image data of the defect area candidate based on the shape of the carcass cord 91a appearing in the carcass center image and the carcass side image. may be extracted. For example, the defect area candidate extracting unit 11u may search for branch shapes of the carcass code 91a in the carcass center image and the carcass side image, and extract an area including the branch shape as a defect area candidate.

[欠陥検出部]
欠陥検出部11vは、欠陥領域候補抽出部11uによって抽出された欠陥領域候補の画像データを識別モデルM1・M2に入力する。欠陥検出部11vは、カーカス中央部画像から抽出された欠陥領域候補を第1識別モデルM1に入力し、この欠陥領域候補を複数のクラスのいずれかに分類する。また、欠陥検出部11vは、カーカス側部画像から抽出された欠陥領域候補を第2識別モデルM2に入力し、欠陥領域候補を複数のクラスのいずれかに分類する。
[Defect detector]
The defect detection unit 11v inputs the image data of the defect area candidates extracted by the defect area candidate extraction unit 11u to the identification models M1 and M2. The defect detection unit 11v inputs the defect area candidate extracted from the carcass center image to the first discrimination model M1, and classifies the defect area candidate into one of a plurality of classes. Further, the defect detection unit 11v inputs the defect area candidate extracted from the carcass side image to the second discrimination model M2, and classifies the defect area candidate into one of a plurality of classes.

ここで、複数のクラスは、例えば、欠陥領域候補にコード欠陥が表れているクラス(識別ラベル「欠陥」が付与されたクラス)、又は欠陥領域候補にコード欠陥が表れていないクラス(識別ラベル「正常」が付与されたクラス)である。欠陥検出部11vのこのような処理により、検査対象であるタイヤ90の内部構造の欠陥を検出できる。欠陥検出部11vの出力は、例えば、欠陥領域候補が各クラスに該当する確率である。これとは異なり、欠陥検出部11vの出力は、欠陥領域候補が該当する確率が最も高いクラスの識別ラベルであってもよい。 Here, the plurality of classes are, for example, a class in which a code defect appears in a defect area candidate (a class given the identification label "defect"), or a class in which a code defect does not appear in a defect area candidate (identification label " normal” is given). Such processing by the defect detection unit 11v can detect defects in the internal structure of the tire 90 to be inspected. The output of the defect detector 11v is, for example, the probability that the defect area candidate corresponds to each class. Alternatively, the output of the defect detector 11v may be the identification label of the class to which the defect area candidate has the highest probability.

上述したように、識別モデルM1・M2の生成時に、欠陥の種類を表す識別ラベル(例えば「第1種欠陥」や「第2種欠陥」など)が付与された欠陥領域の画像データが、教師データとして利用されてもよい。この場合、欠陥検出部11vによって分類される複数のクラスは、欠陥領域候補に表れているコード欠陥の種類にそれぞれ対応する複数のクラスを含んでもよい。例えば、複数のクラスは、第1種のコード欠陥(図4A参照)に対応するクラス(識別ラベル「第1種欠陥」が付与されたクラス)や、第2種のコード欠陥(図4B参照)に対応するクラス(識別ラベル「第2種欠陥」が付与されたクラス)を含んでよい。欠陥検出部11vのこの処理によって、欠陥の有無だけでなく、欠陥の種類も検出できる。 As described above, when the identification models M1 and M2 are generated, the image data of the defect area to which the identification label representing the type of defect (for example, "type 1 defect" or "type 2 defect") is assigned is used as a teacher. It may be used as data. In this case, the plurality of classes classified by the defect detector 11v may include a plurality of classes respectively corresponding to the types of code defects appearing in the defect area candidates. For example, the plurality of classes may be a class corresponding to the first type code defect (see FIG. 4A) (class assigned with the identification label "first type defect") or a second type code defect (see FIG. 4B). (a class to which the identification label "Type 2 defect" is assigned) corresponding to . This processing by the defect detector 11v can detect not only the presence or absence of defects but also the types of defects.

欠陥検出部11vは、その出力を、例えば欠陥領域候補の画像とともに、表示部13に表示したり、記憶部12に格納する。1つのタイヤ90について複数の欠陥領域候補が記憶部12に格納されている場合、欠陥検出部11vは、複数の欠陥領域候補の全てを識別モデルM1・M2に順番に入力し、その出力のそれぞれを表示部13に表示したり、記憶部12に格納してよい。 The defect detection unit 11v displays the output on the display unit 13 or stores it in the storage unit 12 together with the image of the defect area candidate, for example. When a plurality of defect area candidates are stored in the storage unit 12 for one tire 90, the defect detection unit 11v sequentially inputs all of the plurality of defect area candidates to the identification models M1 and M2, and outputs each may be displayed on the display unit 13 or stored in the storage unit 12 .

[学習フロー]
図8A及び図8Bは、識別モデルM1・M2を生成するために制御部11が実行する処理の例を示す図である。
[Learning flow]
8A and 8B are diagrams showing an example of processing executed by the control unit 11 to generate the discriminative models M1 and M2.

制御部11はX線照射部16を駆動し、学習用データを生成するためのタイヤ90にX線を照射する。画像データ取得部11aは、撮像部15からタイヤ90のX線画像を取得する(S101)。画像データ取得部11aは、記憶部12に格納されているX線画像を取得してもよい。カーカス中央部画像抽出部11cは、S101において取得された画像データから、カーカス中央部画像(図6C参照)を抽出する。また、カーカス側部画像抽出部11dが、S101において取得された画像データからカーカス側部画像(図6D参照)を抽出する(S102)。 The control unit 11 drives the X-ray irradiation unit 16 to irradiate the tires 90 for generating learning data with X-rays. The image data acquisition unit 11a acquires an X-ray image of the tire 90 from the imaging unit 15 (S101). The image data acquisition unit 11 a may acquire X-ray images stored in the storage unit 12 . The carcass center image extraction unit 11c extracts the carcass center image (see FIG. 6C) from the image data acquired in S101. Further, the carcass side image extracting unit 11d extracts the carcass side image (see FIG. 6D) from the image data acquired in S101 (S102).

次に、教師データ生成部11eが、教師データを生成する処理を実行する(S103)。具体的には、図8Bで示すように、欠陥領域抽出部11f(候補抽出部11g)が、コード欠陥を生じている可能性のある領域(欠陥領域候補、図7B)を、S102において抽出したカーカス中央部画像から抽出する(S201)。欠陥領域抽出部11f(判定結果受付部11h)は、抽出された欠陥領域候補を表示部13に表示する。そして、欠陥領域抽出部11f(判定結果受付部11h)は、表示されている欠陥領域候補がコード欠陥を含んでいるか否かについての作業者の判定結果を受け付け、判定結果に応じた識別ラベル(正解ラベル)を欠陥領域候補に付与する(S202)。識別ラベルは例えば「正常」や「欠陥」である。識別ラベル「欠陥」が付与された画像データは欠陥領域として記憶部12に格納され、識別ラベル「正常」が付与された画像データは正常領域として記憶部12に格納される。識別ラベルとして、コード欠陥の種類を示すラベル(例えば「第1種欠陥」や「第2種欠陥」など)が付与されてもよい。 Next, the teacher data generation unit 11e executes processing for generating teacher data (S103). Specifically, as shown in FIG. 8B, the defective area extracting unit 11f (candidate extracting unit 11g) extracted an area (defective area candidate, FIG. 7B) that may cause a code defect in S102. It is extracted from the carcass center image (S201). The defective area extraction unit 11f (determination result reception unit 11h) displays the extracted defect area candidates on the display unit 13. FIG. Then, the defect area extraction unit 11f (determination result reception unit 11h) receives the operator's determination result as to whether or not the displayed defect area candidate includes a code defect, and an identification label ( correct label) is given to the defect area candidate (S202). Identification labels are, for example, "normal" and "defective". Image data to which the identification label "defect" is assigned is stored in the storage unit 12 as a defective area, and image data to which the identification label "normal" is assigned is stored in the storage unit 12 as a normal area. As the identification label, a label indicating the type of code defect (for example, "type 1 defect" or "type 2 defect") may be added.

正常領域抽出部11iは、S201において欠陥領域候補として抽出(選択)されなかった領域の一部を、カーカス中央部画像から正常領域として抽出し、識別ラベル「正常」を正常領域の画像データに付与する(S203)。識別ラベル「正常」が付与されたこの画像データは正常領域として記憶部12に格納される。 The normal region extraction unit 11i extracts a part of the region that was not extracted (selected) as a defect region candidate in S201 as a normal region from the carcass center image, and assigns the identification label “normal” to the image data of the normal region. (S203). This image data with the identification label "normal" is stored in the storage unit 12 as a normal region.

次に、教師データ生成部11eは、カーカス側部91Bについて、S201~S203と同様の処理を実行する。具体的には、欠陥領域抽出部11f(候補抽出部11g)が、コード欠陥を生じている可能性のある領域(欠陥領域候補)を、S102において抽出したカーカス側部画像から抽出する(S204)。欠陥領域抽出部11f(判定結果受付部11h)は、欠陥領域候補を表示部13に表示する。そして、欠陥領域抽出部11f(判定結果受付部11h)は、表示されている欠陥領域候補がコード欠陥を含んでいるか否かについての作業者の判定結果を受け付け、判定結果に応じた識別ラベル(正解ラベル)を欠陥領域候補に付与する(S205)。識別ラベルは例えば「正常」や「欠陥」である。識別ラベル「欠陥」が付与された画像データは欠陥領域として記憶部12に格納され、識別ラベル「正常」が付与された画像データは正常領域として記憶部12に格納される。識別ラベルとして、「欠陥」に代えて、コード欠陥の種類を示すラベル(例えば「第1種欠陥」や「第2種欠陥」など)が付与されてもよい。 Next, the teacher data generator 11e executes the same processes as S201 to S203 for the carcass side portion 91B. Specifically, the defect area extraction unit 11f (candidate extraction unit 11g) extracts an area (defect area candidate) that may cause a code defect from the carcass side image extracted in S102 (S204). . The defective area extraction unit 11f (determination result receiving unit 11h) displays the defective area candidates on the display unit 13. FIG. Then, the defect area extraction unit 11f (determination result reception unit 11h) receives the operator's determination result as to whether or not the displayed defect area candidate includes a code defect, and an identification label ( correct label) is given to the defect area candidate (S205). Identification labels are, for example, "normal" and "defective". Image data to which the identification label "defect" is assigned is stored in the storage unit 12 as a defective area, and image data to which the identification label "normal" is assigned is stored in the storage unit 12 as a normal area. As the identification label, a label indicating the type of code defect (for example, "type 1 defect" or "type 2 defect") may be assigned instead of "defect".

正常領域抽出部11iは、S204において欠陥領域候補として抽出(選択)されなかった領域の一部を、カーカス側部画像から正常領域として抽出し、識別ラベル「正常」を正常領域の画像データに付与する(S206)。識別ラベル「正常」が付与されたこの画像データは正常領域として記憶部12に格納される。 The normal region extraction unit 11i extracts a part of the region that was not extracted (selected) as a defect region candidate in S204 as a normal region from the carcass side image, and assigns the identification label “normal” to the image data of the normal region. (S206). This image data with the identification label "normal" is stored in the storage unit 12 as a normal region.

教師データ生成部11eは、S201~S206の処理によって、複数のクラスのそれぞれについて、所定数の画像データのセット(所定数の教師データのセット)が準備されたか否かを判定する(S207)。ここで複数のクラスは、例えば、欠陥領域候補にコード欠陥があるクラス(識別ラベル「欠陥」が付与されたクラス)、欠陥領域候補にコード欠陥が無いクラス(識別ラベル「正常」が付与されたクラス)である。この場合、教師データ生成部11eは、カーカス中央画像から抽出した欠陥領域と、カーカス中央画像から抽出した正常領域と、カーカス側部画像から抽出した欠陥領域と、カーカス側部画像から抽出した正常領域のそれぞれの数が、所定数に達したか否かを判定する。ここで所定数とは、識別モデルM1・M2を生成するのに必要と認められる数である。各領域の画像データの数が所定数に達していない場合、教師データ生成部11eは、S201の処理に戻り、以降の処理を実行する。なお、欠陥領域候補が分類される複数のクラスは、「第1種欠陥」及び「第2種欠陥」など、コード欠陥の種類にそれぞれ対応した複数のクラスを含んでもよい。 The teacher data generation unit 11e determines whether or not a predetermined number of image data sets (a predetermined number of teacher data sets) have been prepared for each of the plurality of classes through the processing of S201 to S206 (S207). Here, the plurality of classes are, for example, a class in which a defect area candidate has a code defect (a class given the identification label "defect"), a class in which a defect area candidate does not have a code defect (a class given the identification label "normal"). class). In this case, the teacher data generation unit 11e generates a defective region extracted from the carcass central image, a normal region extracted from the carcass central image, a defective region extracted from the carcass side image, and a normal region extracted from the carcass side image. has reached a predetermined number. Here, the predetermined number is the number deemed necessary to generate the discriminative models M1 and M2. If the number of pieces of image data for each area has not reached the predetermined number, the teacher data generator 11e returns to the process of S201 and executes the subsequent processes. A plurality of classes into which defect area candidates are classified may include a plurality of classes corresponding to types of code defects, such as "type 1 defect" and "type 2 defect".

教師データ生成部11eは、記憶部12に格納されている各画像データ(欠陥領域及び正常領域)の画素数とアスペクト比を、所定画素数(上述した「モデル入力画素数」)と所定アスペクト比(上述した「モデル入力アスペクト比」)にそれぞれ変換する(S208)。 The teacher data generation unit 11e converts the number of pixels and the aspect ratio of each image data (defective region and normal region) stored in the storage unit 12 into a predetermined number of pixels (the "number of model input pixels" described above) and a predetermined aspect ratio. ("model input aspect ratio" described above) (S208).

なお、教師データ生成部11eが行う処理の順番は、図8Bで示す例に限られない。例えば、カーカス側部画像から欠陥領域及び正常領域を抽出する処理(S204~S206)が、カーカス側部画像から欠陥領域及び正常領域を抽出する処理(S201~S203)より前に行われてもよい。また、欠陥領域抽出部11fは複数の欠陥領域候補をカーカス中央部画像(又はカーカス側部画像)から抽出してもよい。そして、欠陥領域抽出部11fはそれら複数の欠陥領域候補を一度に表示部13に表示してもよい。 Note that the order of processing performed by the training data generation unit 11e is not limited to the example shown in FIG. 8B. For example, the process of extracting the defective area and the normal area from the carcass side image (S204 to S206) may be performed before the process of extracting the defective area and the normal area from the carcass side image (S201 to S203). . Further, the defect area extracting section 11f may extract a plurality of defect area candidates from the carcass center image (or carcass side image). Then, the defect area extraction unit 11f may display the plurality of defect area candidates on the display unit 13 at once.

図8Aに戻り、モデル生成部11jは、S201及びS202において抽出された画像データ(教師データ)を学習前の識別モデルM1に入力し、カーカス中央部91Aにおけるコード欠陥を検出するための識別モデルM1を生成(学習)する(S104)。また、モデル生成部11jは、S204及びS206において抽出された画像データ(教師データ)を学習前の識別モデルM2に入力し、カーカス側部91Bにおけるコード欠陥を検出するための識別モデルM2を生成(学習)する(S105)。以上が、識別モデルM1・M2を生成するために制御部11が実行する処理の例である。 Returning to FIG. 8A, the model generation unit 11j inputs the image data (teacher data) extracted in S201 and S202 to the pre-learning discrimination model M1, and extracts the discrimination model M1 for detecting cord defects in the carcass central portion 91A. is generated (learned) (S104). Further, the model generation unit 11j inputs the image data (teacher data) extracted in S204 and S206 to the discrimination model M2 before learning, and generates the discrimination model M2 for detecting the cord defect in the carcass side part 91B ( learning) (S105). The above is an example of the processing executed by the control unit 11 to generate the discriminative models M1 and M2.

[検査フロー]
次に、図9を参照しながら、タイヤの内部構造の欠陥を検出するために制御部11が実行する処理の例を説明する。
[Inspection flow]
Next, an example of processing executed by the control unit 11 to detect defects in the internal structure of the tire will be described with reference to FIG.

制御部11はX線照射部16を駆動し、検査対象であるタイヤ90にX線を照射する。画像データ取得部11aは、撮像部15からタイヤ90のX線画像の画像データを取得する(S301)。前処理部11b(カーカス中央部画像抽出部11c)は、S301において取得された画像データから、カーカス中央部画像(図6C参照)を抽出する(S302)。また、前処理部11b(カーカス側部画像抽出部11d)は、カーカス側部画像を抽出する(S302)。 The control unit 11 drives the X-ray irradiation unit 16 to irradiate the tire 90 to be inspected with X-rays. The image data acquisition unit 11a acquires the image data of the X-ray image of the tire 90 from the imaging unit 15 (S301). The preprocessing unit 11b (carcass center image extraction unit 11c) extracts a carcass center image (see FIG. 6C) from the image data acquired in S301 (S302). The preprocessing unit 11b (carcass side image extraction unit 11d) extracts a carcass side image (S302).

欠陥領域候補抽出部11uは、コード欠陥が生じている可能性のある領域(欠陥領域候補)を、S302において抽出したカーカス中央部画像と、S302において抽出したカーカス側部画像のそれぞれから抽出する(S303)。欠陥領域候補抽出部11uは、抽出した欠陥領域候補の画素数とアスペクト比とをモデル入力画素数及びモデル入力アスペクト比に変換する(S304)。 The defect area candidate extraction unit 11u extracts areas (defect area candidates) in which code defects may occur from the carcass center image extracted in S302 and the carcass side image extracted in S302 ( S303). The defect area candidate extraction unit 11u converts the number of pixels and the aspect ratio of the extracted defect area candidate into the number of model input pixels and the model input aspect ratio (S304).

欠陥検出部11vは、カーカス中央部画像から抽出した欠陥領域候補の画像データを第1識別モデルM1に入力する(S305)。そして、欠陥検出部11vは欠陥領域候補を複数のクラスに分類する(S306)。複数のクラスは、例えば、欠陥領域候補にコード欠陥が表れているクラス(識別ラベル「欠陥」が付与されたクラス)、又は欠陥領域候補にコード欠陥が表れていないクラス(識別ラベル「正常」が付与されたクラス)である。欠陥検出部11vによって分類される複数のクラスは、コード欠陥の種類にそれぞれ対応した複数のクラスを含んでいてもよい。欠陥検出部11vのこの処理により、検査対象であるタイヤ90の内部構造における欠陥の有無だけでなく、欠陥の種類も検出できる。欠陥検出部11vは、S303においてカーカス中央部画像から抽出された全ての欠陥領域候補を分類したか否かを判定する(S307)。未だ分類していない欠陥領域候補が残っている場合、欠陥検出部11vは、S305に戻り、未分類の欠陥領域候補について以降の処理を実行する。 The defect detection unit 11v inputs the image data of the defect area candidate extracted from the carcass center image to the first identification model M1 (S305). Then, the defect detector 11v classifies the defect area candidates into a plurality of classes (S306). The plurality of classes are, for example, a class in which a code defect appears in a defect area candidate (a class with an identification label "defect"), or a class in which a code defect does not appear in a defect area candidate (a class with an identification label "normal"). given class). A plurality of classes classified by the defect detection unit 11v may include a plurality of classes corresponding to types of code defects. This processing by the defect detection unit 11v makes it possible to detect not only the presence or absence of defects in the internal structure of the tire 90 to be inspected, but also the types of defects. The defect detection unit 11v determines whether or not all defect area candidates extracted from the carcass center image in S303 have been classified (S307). If unclassified defect area candidates remain, the defect detection unit 11v returns to S305 and performs subsequent processing for the unclassified defect area candidates.

次に、欠陥検出部11vは、カーカス側部画像から抽出した欠陥領域候補について、S305~S307と同様の処理を実行する。すなわち、欠陥検出部11vは、カーカス側部画像から抽出した欠陥領域候補の画像データを第2識別モデルM2に入力する(S308)。そして、欠陥検出部11vは欠陥領域候補を複数のクラスに分類する(S309)。欠陥検出部11vは、S303においてカーカス側部画像から抽出された全ての欠陥領域候補を分類したか否かを判定する(S310)。未だ分類していない欠陥領域候補が残っている場合、欠陥検出部11vは、S308に戻り、未分類の欠陥領域候補について以降の処理を実行する。 Next, the defect detection unit 11v performs the same processing as S305 to S307 on the defect area candidate extracted from the carcass side image. That is, the defect detection unit 11v inputs the image data of the defect area candidate extracted from the carcass side image to the second identification model M2 (S308). Then, the defect detector 11v classifies the defect area candidates into a plurality of classes (S309). The defect detection unit 11v determines whether or not all defect area candidates extracted from the carcass side image in S303 have been classified (S310). If unclassified defect area candidates remain, the defect detection unit 11v returns to S308 and performs subsequent processing for the unclassified defect area candidates.

S310において、カーカス側部画像から抽出された全ての欠陥領域候補の分類を終了したと判定された場合、制御部11はその処理を終了する。すなわち、制御部11はタイヤ90の内部構造の検査を終了する。 If it is determined in S310 that all defect area candidates extracted from the carcass side image have been classified, the control section 11 ends the process. That is, the control unit 11 ends the inspection of the internal structure of the tire 90 .

[第2実施形態における制御部の処理]
また、上述したタイヤ検査装置10では、カーカス層91に生じているコード欠陥が検出される。しかしながら、ベルト層92や、フィニッシング層93においても、コード欠陥が生じる場合がある。例えば、隣り合う2本のベルトコード92aが交差したり、隣り合う2本のフィニッシングコード93aが交差することがある。タイヤ検査装置は、ベルト層92や、フィニッシング層93に生じているコード欠陥を検出してもよい。フィニッシング層93のコード欠陥を検出する場合、タイヤ検査装置10は、タイヤ90に対して半径方向の外側に位置している撮像部15に加えて、タイヤ90のサイドウォール部90L・90Rに対向する撮像部を有してよい。
[Processing of the control unit in the second embodiment]
Further, in the tire inspection apparatus 10 described above, cord defects occurring in the carcass layer 91 are detected. However, code defects may also occur in the belt layer 92 and the finishing layer 93 . For example, two adjacent belt cords 92a may cross, or two adjacent finishing cords 93a may cross. The tire inspection device may detect cord defects occurring in the belt layer 92 and the finishing layer 93 . When detecting a cord defect in the finishing layer 93, the tire inspection device 10 faces the sidewall portions 90L and 90R of the tire 90 in addition to the imaging portion 15 positioned radially outwardly of the tire 90. It may have an imaging unit.

図10は、このような形態の検査装置が有している制御部111の機能を示すブロック図である。以下では、図10を参照しながら、ベルト層92に生じているコード欠陥と、カーカス層91に生じているコード欠陥とを検出する例について説明する。 FIG. 10 is a block diagram showing functions of the control section 111 included in such an inspection apparatus. An example of detecting a cord defect occurring in the belt layer 92 and a cord defect occurring in the carcass layer 91 will be described below with reference to FIG.

制御部111は、画像データ取得部11aと、前処理部111bと、教師データ生成部111eと、モデル生成部111jと、欠陥領域候補抽出部111uと、欠陥検出部111vとを有している。前処理部111bは、ベルト画像抽出部111pとカーカス画像抽出部111qを有している。 The control unit 111 has an image data acquisition unit 11a, a preprocessing unit 111b, a teacher data generation unit 111e, a model generation unit 111j, a defect area candidate extraction unit 111u, and a defect detection unit 111v. The preprocessing section 111b has a belt image extraction section 111p and a carcass image extraction section 111q.

画像データ取得部11aは、上述した制御部11の画像データ取得部11aと同様、撮像部15を通してタイヤのX線画像の画像データを取得する。検査時において、画像データ取得部11aは、検査対象であるタイヤ90の画像データを取得する。学習時においては、画像データ取得部11aは、学習用の画像データ(教師データ)を生成するためのタイヤ90の画像データを取得する。 The image data acquisition unit 11a acquires the image data of the X-ray image of the tire through the imaging unit 15, like the image data acquisition unit 11a of the control unit 11 described above. During inspection, the image data acquisition unit 11a acquires image data of the tire 90 to be inspected. During learning, the image data acquisition unit 11a acquires image data of the tire 90 for generating image data (teacher data) for learning.

ベルト画像抽出部111pは、画像データ取得部11aによって取得したタイヤの画像データから、ベルトコード92aの画像データを抽出する。この抽出は、例えば、以下の処理により行うことができる。 The belt image extraction unit 111p extracts image data of the belt cords 92a from the tire image data acquired by the image data acquisition unit 11a. This extraction can be performed, for example, by the following processing.

ベルト層92はカーカス中央部91Aを覆っており、ベルト層92が表れている領域の濃度値の平均は、カーカス層91だけが表れている領域(カーカス側部91Bの領域)の濃度値の平均よりも濃くなる。そこで、ベルト画像抽出部111pは、上述したカーカス中央部画像抽出部11cと同様、画像の縦方向(タイヤ90の周方向)で並んでいる複数の画素の濃度値を平滑化した画像(図6A参照)を生成する。この画像では、ベルト層92の領域(カーカス中央部91Aの領域)と、カーカス側部91Bの領域との境界(図6Aの例において、エッジE1、E2)が表れる。そして、ベルト画像抽出部111pは、この画像に対してエッジ検出を実行し、右側のエッジE1と左側のエッジE2との間の領域を、画像データ取得部11aによって取得した画像データから抽出する。これにより、ベルト層92とカーカス中央部91Aの画像データ(図6B参照)が抽出される。 The belt layer 92 covers the carcass central portion 91A, and the average of the density values in the region where the belt layer 92 appears is the average of the density values in the region where only the carcass layer 91 appears (region of the carcass side portion 91B). becomes darker than Therefore, the belt image extraction unit 111p, like the carcass center image extraction unit 11c described above, smoothes the density values of a plurality of pixels arranged in the vertical direction (circumferential direction of the tire 90) of the image (Fig. 6A ). In this image, the boundaries (edges E1 and E2 in the example of FIG. 6A) between the area of the belt layer 92 (the area of the carcass central portion 91A) and the area of the carcass side portions 91B appear. Then, the belt image extraction unit 111p performs edge detection on this image, and extracts an area between the right edge E1 and the left edge E2 from the image data acquired by the image data acquisition unit 11a. As a result, the image data (see FIG. 6B) of the belt layer 92 and the carcass central portion 91A are extracted.

ベルト画像抽出部111pは、ベルトコード92aを鮮明化するための処理を実行する。例えば、ベルト画像抽出部111pは、抽出した画像(カーカスコード91aとベルトコード92aとを含む画像)に対して二次元フーリエ変換処理を実行する。そして、ベルト画像抽出部111pは、カーカスコード91aに応じた周波数成分の画像データを除去する。こうすることによって、図11で示されるように、ベルトコード92aが鮮明に表れた画像が得られる。ベルト画像抽出部111pは、このようにして得られた画像について、二値化処理を実行してもよい。この処理は動的二値化処理であってもよい。以下では、ベルト画像抽出部111pのこれらの処理により得られた画像を「ベルト画像」と称する。 The belt image extraction unit 111p executes processing for sharpening the belt cord 92a. For example, the belt image extraction unit 111p executes a two-dimensional Fourier transform process on the extracted image (image including the carcass cords 91a and the belt cords 92a). Then, the belt image extraction unit 111p removes the image data of the frequency component corresponding to the carcass code 91a. By doing so, as shown in FIG. 11, an image in which the belt cord 92a clearly appears can be obtained. The belt image extraction unit 111p may perform binarization processing on the image thus obtained. This process may be a dynamic binarization process. An image obtained by these processes of the belt image extraction unit 111p is hereinafter referred to as a "belt image".

なお、タイヤ90は、ベルトコード92aの角度が異なる複数のベルト層92を有してもよい。例えば、タイヤ90は、第1の角度(タイヤ90の周方向に対して+45度)に配置されるベルトコード92aで構成される第1のベルト層92と、第2の角度(タイヤ90の周方向に対して-45度)に配置されるベルトコード92aで構成される第2のベルト層92とを有してよい。この場合、ベルト画像抽出部111pは、カーカスコード91aと第2のベルト層92のベルトコード92aとを二次元フーリエ変換により除去し、第1のベルト層92のベルトコード92aが鮮明に表れたベルト画像(図11参照)を生成する。また、ベルト画像抽出部111pは、カーカスコード91aと第1のベルト層92のベルトコード92aとを二次元フーリエ変換により除去し、第2のベルト層92のベルトコード92aが鮮明に表れたベルト画像をも生成する。 The tire 90 may have a plurality of belt layers 92 with belt cords 92a having different angles. For example, the tire 90 has a first belt layer 92 composed of belt cords 92a arranged at a first angle (+45 degrees with respect to the circumferential direction of the tire 90) and a second angle (circumferential direction of the tire 90). and a second belt layer 92 consisting of belt cords 92a arranged at -45 degrees to the direction. In this case, the belt image extraction unit 111p removes the carcass cords 91a and the belt cords 92a of the second belt layer 92 by two-dimensional Fourier transform, and extracts the belt image from which the belt cords 92a of the first belt layer 92 clearly appear. Generate an image (see FIG. 11). Further, the belt image extracting unit 111p removes the carcass cords 91a and the belt cords 92a of the first belt layer 92 by two-dimensional Fourier transform, and extracts a belt image in which the belt cords 92a of the second belt layer 92 clearly appear. also generates

カーカス画像抽出部111qは、画像データ取得部11aによって取得した画像に対して、二次元フーリエ変換処理を実行し、ベルトコード92aに応じた周波数成分を除去する。また、カーカス画像抽出部111qは二値化処理を実行し、カーカスコード91aが鮮明に表れた画像を生成する。以下では、カーカス画像抽出部111qのこの処理により得られた画像を「カーカス画像」と称する。ここで、カーカス画像は、例えば、上述したカーカス中央部91Aとカーカス側部91Bの双方を含む画像であってよい。 The carcass image extraction unit 111q performs two-dimensional Fourier transform processing on the image acquired by the image data acquisition unit 11a, and removes frequency components corresponding to the belt cords 92a. Also, the carcass image extraction unit 111q executes a binarization process to generate an image in which the carcass code 91a appears clearly. Below, the image obtained by this process of the carcass image extraction unit 111q is referred to as a "carcass image". Here, the carcass image may be, for example, an image including both the carcass center portion 91A and the carcass side portions 91B described above.

[識別モデルの生成]
学習用のベルト画像とカーカス画像とを利用して、識別モデルM3・M4を生成するための処理について説明する。教師データ生成部111eとモデル生成部111jとが、識別モデルM3・M4を生成するための処理を実行する。教師データ生成部111eは、候補抽出部111gと判定結果受付部111hとを有している。
[Generation of discriminative model]
Processing for generating the discriminative models M3 and M4 using the learning belt image and carcass image will be described. The teacher data generating unit 111e and the model generating unit 111j execute processing for generating the discriminative models M3 and M4. The teacher data generation unit 111e has a candidate extraction unit 111g and a determination result reception unit 111h.

[候補抽出部]
候補抽出部111gは、ベルト画像から、コード欠陥が生じている可能性のある領域(欠陥領域候補)を抽出する。複数のベルトコード92aが交差している場合、交差しているベルトコード92aの面積(連結領域の画素数)は他のベルトコード92aのそれぞれの面積よりも大きくなる。そこで、候補抽出部111gは、例えば、ベルト画像に表れるベルトコード92aの面積に基づいて、欠陥領域候補の画像データを抽出する。例えば、候補抽出部111gは、各ベルトコード92aの面積の平均値に対して所定倍率(例えば1.5倍)以上の面積を有するベルトコード92aの像を検出し、そのベルトコード92aの外接矩形を欠陥領域候補とする。
[Candidate extraction part]
The candidate extraction unit 111g extracts an area (defective area candidate) in which a code defect may occur from the belt image. When a plurality of belt cords 92a intersect, the area of the intersecting belt cords 92a (the number of pixels in the connecting area) is larger than the area of each of the other belt cords 92a. Therefore, the candidate extraction unit 111g extracts the image data of the defect area candidates, for example, based on the area of the belt cord 92a appearing in the belt image. For example, the candidate extracting unit 111g detects an image of the belt cord 92a having an area equal to or larger than a predetermined magnification (for example, 1.5 times) with respect to the average value of the areas of the belt cords 92a, and extracts the circumscribed rectangle of the belt cord 92a. is a defect region candidate.

候補抽出部111gは、ベルト画像に表れるベルトコード92aの形状に基づいて、欠陥領域候補の画像データを抽出してもよい。例えば、候補抽出部111gは、ベルト画像におけるベルトコード92aの分岐形状を探索し、その分岐形状を含む領域を欠陥領域候補として抽出してもよい。 The candidate extraction unit 111g may extract the image data of the defect area candidates based on the shape of the belt cord 92a appearing in the belt image. For example, the candidate extraction unit 111g may search for branch shapes of the belt cords 92a in the belt image, and extract regions including the branch shapes as defect region candidates.

また、候補抽出部111gは、カーカス画像からも欠陥領域候補を抽出する。この処理は、ベルト画像から欠陥領域候補を抽出する処理と同様であってよい。すなわち、候補抽出部111gは、例えば、各カーカスコード91aの面積の平均値に対して所定倍率(例えば1.5倍)以上の面積を有するカーカスコード91aの像を検出し、そのカーカスコード91aの外接矩形を欠陥領域候補とする。候補抽出部111gは、カーカス画像におけるカーカスコード91aの分岐形状を探索し、その分岐形状を含む領域を欠陥領域候補として抽出してもよい。 The candidate extraction unit 111g also extracts defect area candidates from the carcass image. This process may be similar to the process of extracting defect area candidates from the belt image. That is, the candidate extraction unit 111g detects, for example, an image of the carcass cord 91a having an area equal to or greater than a predetermined magnification (for example, 1.5 times) of the average value of the areas of the carcass cords 91a, and extracts the image of the carcass cord 91a. A circumscribing rectangle is set as a defect area candidate. The candidate extraction unit 111g may search for branch shapes of the carcass code 91a in the carcass image, and extract regions including the branch shapes as defect region candidates.

[判定結果受付部]
判定結果受付部111hは、カーカス画像から抽出された欠陥領域候補、及びベルト画像から抽出された欠陥領域候補を表示部13に表示する。また、判定結果受付部11hは、これら欠陥領域候補のそれぞれが欠陥を含んでいるか否かについて作業者の判定結果を受け付ける。そして、判定結果受付部11hは、判定結果に応じた識別ラベル(「欠陥」又は「正常」)を欠陥領域候補の画像データに付与する。識別ラベル「欠陥」が付与された画像データは欠陥領域として記憶部12に格納される。識別ラベル「正常」が付与された画像データは正常領域として記憶部12に格納される。
[Judgment result reception part]
The determination result reception unit 111h displays on the display unit 13 the defect area candidates extracted from the carcass image and the defect area candidates extracted from the belt image. Further, the judgment result reception unit 11h receives the operator's judgment result as to whether or not each of these defect area candidates includes a defect. Then, the determination result receiving unit 11h assigns an identification label (“defective” or “normal”) according to the determination result to the image data of the defect area candidate. The image data with the identification label "defect" is stored in the storage unit 12 as a defect area. Image data to which the identification label "normal" is assigned is stored in the storage unit 12 as a normal region.

コード欠陥が欠陥領域候補に表れている場合、作業者はコード欠陥の種類を識別ラベルとして操作部14によって入力してもよい。例えば、図4Aで示されるコード欠陥に近しい形状が欠陥領域候補に表れている場合、判定結果受付部11hは、この欠陥領域候補に識別ラベル「第1種欠陥」を付与する。他の種類のコード欠陥についても同様に、判定結果受付部11hは、各欠陥領域候補に識別ラベルとして「第2種欠陥」や「第3種欠陥」などを付与する。欠陥の種類の数はこれに限られない。欠陥の種類の数は、2つでもいし、3つより多くてもよい。コード欠陥の種類は、カーカスコード91aに生じる欠陥と、ベルトコード92aに生じる欠陥のそれぞれについて、規定されていてよい。 If a code defect appears in the defect area candidates, the operator may input the type of code defect as an identification label through the operation unit 14 . For example, when a shape similar to the code defect shown in FIG. 4A appears in the defect area candidate, the determination result reception unit 11h assigns the identification label "first type defect" to this defect area candidate. Similarly, for other types of code defects, the determination result reception unit 11h assigns identification labels such as "second type defect" and "third type defect" to each defect area candidate. The number of defect types is not limited to this. The number of defect types may be two or more than three. The types of cord defects may be specified for each of defects occurring in the carcass cord 91a and defects occurring in the belt cord 92a.

[正常領域抽出部]
正常領域抽出部111iは、カーカス画像及びベルト画像のそれぞれから、候補抽出部111gの処理において欠陥領域候補として選択されなかった領域の一部を、正常領域として抽出する。例えば、正常領域抽出部111iは、カーカス画像及びベルト画像のそれぞれから、所定の画素数及び所定のアスペクト比を有する画像をランダムに抽出する。そして、ランダムに抽出された画像が欠陥領域候補と重複する部分を有していない場合に、正常領域抽出部111iは、このランダムに抽出された画像を正常領域とする。正常領域抽出部111iは、抽出した画像に識別ラベル「正常」を付与し、記憶部12に格納する。
[Normal region extraction part]
The normal region extraction unit 111i extracts, as normal regions, portions of regions that were not selected as defective region candidates in the process of the candidate extraction unit 111g from the carcass image and the belt image. For example, the normal region extraction unit 111i randomly extracts an image having a predetermined number of pixels and a predetermined aspect ratio from each of the carcass image and the belt image. Then, when the randomly extracted image does not have a portion that overlaps with the defect area candidate, the normal area extraction unit 111i determines the randomly extracted image as a normal area. The normal region extraction unit 111 i assigns the identification label “normal” to the extracted image and stores it in the storage unit 12 .

[モデル生成部]
モデル生成部111jは、教師データ生成部111eによって生成された画像データ(欠陥領域の画像データ、及び正常領域の画像データ)を教師データとして利用して、タイヤの内部構造の欠陥を検出するための識別モデルM3・M4を生成する。
[Model generator]
The model generation unit 111j uses the image data (the image data of the defective region and the image data of the normal region) generated by the training data generation unit 111e as training data to detect defects in the internal structure of the tire. Generate discriminative models M3 and M4.

モデル生成部111jは、ベルト画像から得られた教師データを利用して、第1識別モデルM3を生成する。また、モデル生成部111jは、カーカス画像から得られた教師データを利用して、第2識別モデルM4を生成する。 The model generation unit 111j generates the first discriminant model M3 using teacher data obtained from the belt image. Also, the model generation unit 111j generates the second discriminant model M4 using teacher data obtained from the carcass image.

識別モデルM3・M4としては、例えば、ニューラルネットワークが利用されてよい。識別モデルM3・M4として、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が利用されてよい。これとは異なり、識別モデルM3・M4として、サポートベクタマシン(SVM)や、ランダムフォレストなどが利用されてよい。 A neural network, for example, may be used as the discrimination models M3 and M4. A convolutional neural network (CNN) may be used as the discrimination models M3 and M4. Alternatively, a support vector machine (SVM), a random forest, or the like may be used as the discriminative models M3 and M4.

[タイヤ検査]
検査対象タイヤのベルト画像とカーカス画像とを利用して、タイヤの検査を実行するための処理について説明する。欠陥領域候補抽出部111uと欠陥検出部111vとが検査のための処理を実行する。
[Tire inspection]
Processing for inspecting a tire using a belt image and a carcass image of the tire to be inspected will be described. The defect area candidate extraction unit 111u and the defect detection unit 111v execute processing for inspection.

[欠陥領域候補抽出部]
欠陥領域候補抽出部111uは、前処理部11bによって得られた、検査対象であるタイヤ90の画像データ(すなわち、カーカス画像及びベルト画像)から、陥領域候補を抽出する。
[Defective Area Candidate Extraction Unit]
The defect area candidate extraction unit 111u extracts defect area candidates from the image data of the tire 90 to be inspected (that is, the carcass image and the belt image) obtained by the preprocessing unit 11b.

欠陥領域候補抽出部111uは、候補抽出部111gと同様に、例えば、ベルト画像に表れるベルトコード92aの面積に基づいて、欠陥領域候補の画像データをベルト画像から抽出する。また、欠陥領域候補抽出部111uは、ベルト画像におけるベルトコード92aの分岐形状を探索し、その分岐形状を含む領域を欠陥領域候補として抽出してもよい。 Similar to the candidate extraction unit 111g, the defect area candidate extraction unit 111u extracts the image data of the defect area candidates from the belt image, for example, based on the area of the belt cord 92a appearing in the belt image. Further, the defect area candidate extracting section 111u may search for the branch shape of the belt cord 92a in the belt image and extract the area including the branch shape as the defect area candidate.

欠陥領域候補抽出部111uは、さらにカーカス画像からも欠陥領域候補を抽出する。例えば、欠陥領域候補抽出部111uは、カーカス画像に表れるカーカスコード91aの面積に基づいて、欠陥領域候補の画像データをカーカス画像から抽出する。また、欠陥領域候補抽出部111uは、カーカス画像におけるカーカスコード91aの分岐形状を探索し、その分岐形状を含む領域を欠陥領域候補として抽出してもよい。 The defect area candidate extraction unit 111u also extracts defect area candidates from the carcass image. For example, the defect area candidate extraction unit 111u extracts image data of defect area candidates from the carcass image based on the area of the carcass code 91a appearing in the carcass image. Further, the defect area candidate extraction unit 111u may search for a branch shape of the carcass code 91a in the carcass image and extract an area including the branch shape as a defect area candidate.

[欠陥検出部]
欠陥検出部111vは、ベルト画像から得られた欠陥領域候補を第1識別モデルM3に入力し、欠陥領域候補を複数のクラスに分類する。また、欠陥検出部111vは、カーカス画像から抽出された欠陥領域候補を第2識別モデルM4に入力し、欠陥領域候補を複数のクラスに分類する。
[Defect detector]
The defect detection unit 111v inputs the defect area candidates obtained from the belt image to the first discrimination model M3, and classifies the defect area candidates into a plurality of classes. Further, the defect detection unit 111v inputs the defect area candidates extracted from the carcass image to the second identification model M4, and classifies the defect area candidates into a plurality of classes.

ここで、複数のクラスは、例えば、欠陥領域候補にコード欠陥が表れているクラス(識別ラベル「欠陥」が付与されたクラス)、又は欠陥領域候補にコード欠陥が表れていないクラス(識別ラベル「正常」が付与されたクラス)である。欠陥検出部111vのこのような処理により、ベルト層92の欠陥とカーカス層91の欠陥とを検出できる。欠陥検出部111vの出力は、例えば、欠陥領域候補が各クラスに該当する確率である。これとは異なり、欠陥検出部111vの出力は、欠陥領域候補が該当する確率が最も高いクラスの識別ラベルであってもよい。 Here, the plurality of classes are, for example, a class in which a code defect appears in a defect area candidate (a class given the identification label "defect"), or a class in which a code defect does not appear in a defect area candidate (identification label " normal” is given). Through such processing by the defect detection section 111v, defects in the belt layer 92 and defects in the carcass layer 91 can be detected. The output of the defect detection unit 111v is, for example, the probability that the defect area candidate corresponds to each class. Alternatively, the output of the defect detector 111v may be the identification label of the class to which the defect area candidate has the highest probability.

上述したように、識別モデルM3・M4の生成時に、欠陥の種類を表す識別ラベル(例えば「第1種欠陥」や「第2種欠陥」など)が付与された画像データが、教師データとして利用されてもよい。この場合、欠陥検出部111vによって分類される複数のクラスは、欠陥領域候補に表れているコード欠陥の種類にそれぞれ対応する複数のクラスであってよい。 As described above, when the identification models M3 and M4 are generated, the image data to which identification labels indicating the types of defects (for example, "type 1 defect" or "type 2 defect") are added are used as training data. may be In this case, the plurality of classes classified by the defect detection section 111v may be a plurality of classes corresponding to the types of code defects appearing in the defect area candidates.

欠陥検出部11vは、識別モデルM3・M4からの出力を、例えば欠陥領域候補の画像とともに、表示部13に表示したり、記憶部12に格納する。1つのタイヤ90について複数の欠陥領域候補が記憶部12に格納されている場合、欠陥検出部111vは、複数の欠陥領域候補の全てを識別モデルM3・M4に順番に入力し、その出力のそれぞれを表示部13に表示したり、記憶部12に格納してよい。 The defect detection unit 11v displays the outputs from the identification models M3 and M4 on the display unit 13 or stores them in the storage unit 12 together with, for example, images of defect area candidates. When a plurality of defect area candidates are stored in the storage unit 12 for one tire 90, the defect detection unit 111v sequentially inputs all of the plurality of defect area candidates to the identification models M3 and M4, and outputs each of them. may be displayed on the display unit 13 or stored in the storage unit 12 .

[変形例]
本開示で提案するタイヤ検査装置は、上述した第1実施形態や第2実施形態に限られない。
[Modification]
The tire inspection device proposed in the present disclosure is not limited to the above-described first embodiment and second embodiment.

例えば、以上説明したタイヤ検査装置においては、検査対象であるタイヤ90の画像から欠陥領域候補が抽出され、その欠陥領域候補の画像データだけが識別モデルに入力されている。これとは異なり、例えば、検査対象であるタイヤ90の画像(カーカス中央部画像や、カーカス側部画像、カーカス画像、ベルト画像など)が複数の部分に分割され、それらの全てが識別モデルM1・M2・M3・M4に入力されてもよい。 For example, in the tire inspection apparatus described above, defect area candidates are extracted from the image of the tire 90 to be inspected, and only the image data of the defect area candidates are input to the identification model. Unlike this, for example, an image of the tire 90 to be inspected (carcass center image, carcass side image, carcass image, belt image, etc.) is divided into a plurality of parts, all of which are represented by the identification model M1. It may be input to M2, M3, and M4.

また、第1実施形態において、カーカス中央部画像から抽出した欠陥領域候補の画像データと、カーカス側部画像から抽出した欠陥領域候補の画像データは、2つの識別モデルM1・M2にそれぞれ入力されている。これとは異なり、これら2種類の画像データは共通の識別モデルに入力されてもよい。また、第2実施形態において、カーカス画像から抽出された欠陥領域候補の画像データと、ベルト画像から抽出された欠陥領域候補の画像データは、共通の識別モデルに入力されてもよい。 Further, in the first embodiment, the image data of the defect area candidate extracted from the carcass center image and the image data of the defect area candidate extracted from the carcass side image are input to the two identification models M1 and M2, respectively. there is Alternatively, these two types of image data may be input into a common discriminative model. Further, in the second embodiment, the image data of the defect area candidates extracted from the carcass image and the image data of the defect area candidates extracted from the belt image may be input to a common identification model.

10:タイヤ検査装置、11・111:制御部、11a・111a:画像データ取得部、11b・111b:前処理部、11c:カーカス中央部画像抽出部、11d:カーカス側部画像抽出部、11e・111e:教師データ生成部、11f・111f:欠陥領域抽出部、11g・111g:候補抽出部、11h・111h:判定結果受付部、11i・111i:正常領域抽出部、11j・111j:モデル生成部、11u・111u:欠陥領域候補抽出部、11v・111v:欠陥検出部、12:記憶部、13:表示部、14:操作部、15:撮像部、16:X線照射部、17:支持部、90:タイヤ、90L・00R:サイドウォール部、90T:トレッド部、91:カーカス層、91A:カーカス中央部、91B:カーカス側部、91a:カーカスコード、92:ベルト層、92a:ベルトコード、93:フィニッシング層、93a:フィニッシングコード、94:ビード、111p:ベルト画像抽出部、111q:カーカス画像抽出部。 10: tire inspection device, 11/111: control unit, 11a/111a: image data acquisition unit, 11b/111b: preprocessing unit, 11c: carcass center image extraction unit, 11d: carcass side image extraction unit, 11e. 111e: teacher data generating unit, 11f/111f: defective region extracting unit, 11g/111g: candidate extracting unit, 11h/111h: determination result receiving unit, 11i/111i: normal region extracting unit, 11j/111j: model generating unit, 11u and 111u: defect area candidate extraction unit, 11v and 111v: defect detection unit, 12: storage unit, 13: display unit, 14: operation unit, 15: imaging unit, 16: X-ray irradiation unit, 17: support unit, 90: tire, 90L/00R: sidewall portion, 90T: tread portion, 91: carcass layer, 91A: carcass center portion, 91B: carcass side portion, 91a: carcass cord, 92: belt layer, 92a: belt cord, 93 : finishing layer, 93a: finishing cord, 94: bead, 111p: belt image extractor, 111q: carcass image extractor.

Claims (13)

検査対象タイヤのX線画像の画像データを取得する画像データ取得手段と、
タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データと前記欠陥領域とは異なる領域である正常領域の画像データとを教師データとする機械学習により生成された識別モデルに、前記検査対象タイヤの前記画像データの一部又は全部を入力し、前記検査対象タイヤの内部構造の欠陥を検出する欠陥検出手段と
を有しているタイヤ検査装置。
image data acquisition means for acquiring image data of an X-ray image of a tire to be inspected;
A discrimination model generated by machine learning using image data of a defective region, which is a region containing a defect in the internal structure of the tire, and image data of a normal region, which is a region different from the defective region, as teacher data, is added to the inspection object. and defect detection means for inputting part or all of the image data of the tire and detecting defects in the internal structure of the tire to be inspected.
前記検査対象タイヤの前記画像データから、前記内部構造の欠陥を含む領域の候補である欠陥領域候補の画像データを抽出する欠陥領域候補抽出手段をさらに含み、
前記欠陥検出手段は、前記検査対象タイヤの前記画像データの一部として前記欠陥領域候補の画像データを前記識別モデルに入力し、前記欠陥領域候補に欠陥が含まれるか否かを判定する
請求項1に記載されるタイヤ検査装置。
further comprising defect area candidate extraction means for extracting image data of a defect area candidate, which is a candidate for an area containing a defect of the internal structure, from the image data of the tire to be inspected;
The defect detection means inputs the image data of the candidate defect area to the identification model as a part of the image data of the tire to be inspected, and determines whether or not the candidate defect area includes a defect. 1. The tire inspection device described in 1.
前記タイヤの内部構造は、一方向で並んでいる複数の線状部材を有し、
前記タイヤの内部構造の欠陥は、前記線状部材の交差を含み、
前記欠陥領域候補抽出手段は、前記検査対象タイヤの前記画像に表れる各線状部材の面積及び形状の少なくとも1つに基づいて前記欠陥領域候補の画像データを抽出する
請求項2に記載されるタイヤ検査装置。
The internal structure of the tire has a plurality of linear members arranged in one direction,
Defects in the internal structure of the tire include intersections of the linear members,
The tire inspection according to claim 2, wherein the defect area candidate extracting means extracts the image data of the defect area candidate based on at least one of the area and shape of each linear member appearing in the image of the tire to be inspected. Device.
タイヤの内部構造の欠陥は第1の種類と第2の種類とを含み、
前記識別モデルは、前記第1の種類の欠陥を含む前記欠陥領域の画像データと、前記第2の種類の欠陥を含む前記欠陥領域の画像データと、前記正常領域の画像データとを前記教師データとして用いて生成されており、
前記欠陥検出手段は、前記検査対象タイヤの前記画像データの前記一部又は全部を前記識別モデルに入力し、前記検査対象タイヤの内部構造の欠陥の種類を特定する
請求項1に記載されるタイヤ検査装置。
the tire internal structural defect includes a first type and a second type;
The identification model includes image data of the defect region including the first type of defect, image data of the defect region including the second type of defect, and image data of the normal region as the teacher data. is generated using as
The tire according to claim 1, wherein the defect detection means inputs the part or all of the image data of the tire to be inspected into the identification model to specify the type of defect in the internal structure of the tire to be inspected. inspection equipment.
前記検査対象タイヤはベルトとカーカスとを含み、前記カーカスは前記ベルトによって覆われている部分であるカーカス中央部と、前記ベルトによって覆われていない部分であるカーカス側部とを有し、
前記タイヤ検査装置は、前記タイヤの画像データから、前記カーカス中央部の画像データを抽出するカーカス中央部画像抽出手段と、前記タイヤの画像データから、前記カーカス側部の画像データを抽出するカーカス側部画像抽出手段とを、さらに有し、
前記識別モデルは、前記カーカス中央部の欠陥を検出するための第1の識別モデルと、前記カーカス側部の欠陥を検出するための第2の識別モデルとを含み、
前記欠陥検出手段は、前記第1の識別モデルに前記カーカス中央部の画像データの一部又は全部を入力し、前記第2の識別モデルに前記カーカス側部の画像データの一部又は全部を入力する
請求項1に記載されるタイヤ検査装置。
The tire to be inspected includes a belt and a carcass, and the carcass has a carcass center portion that is a portion covered by the belt and a carcass side portion that is a portion not covered by the belt,
The tire inspection device includes: a carcass central portion image extracting means for extracting image data of the carcass central portion from the tire image data; and a carcass side portion extracting image data of the carcass side portion from the tire image data. and partial image extraction means,
The discriminative models include a first discriminative model for detecting defects in the carcass center and a second discriminative model for detecting defects in the carcass sides;
The defect detection means inputs part or all of the image data of the carcass central portion into the first identification model, and inputs part or all of the image data of the carcass side portion into the second identification model. The tire inspection device according to claim 1.
前記検査対象タイヤは、前記内部構造として、カーカス層と、ベルト層と、フィニッシング層とを有し、
前記欠陥検出手段は、前記カーカス層、前記ベルト層、又は前記フィニッシング層の欠陥を検出する
請求項1に記載されるタイヤ検査装置。
The tire to be inspected has a carcass layer, a belt layer, and a finishing layer as the internal structure,
The tire inspection device according to claim 1, wherein the defect detection means detects defects in the carcass layer, the belt layer, or the finishing layer.
検査対象タイヤのX線画像の画像データを取得する画像データ取得ステップと、
タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データと前記欠陥領域とは異なる領域である正常領域の画像データとを教師データとする機械学習により生成された識別モデルに、前記検査対象タイヤの前記画像データの一部又は全部を入力し、前記検査対象タイヤの内部構造の欠陥を検出する欠陥検出ステップと
を含むタイヤ検査方法。
an image data acquisition step of acquiring image data of an X-ray image of a tire to be inspected;
A discrimination model generated by machine learning using image data of a defective region, which is a region containing a defect in the internal structure of the tire, and image data of a normal region, which is a region different from the defective region, as teacher data, is added to the inspection object. and a defect detection step of inputting part or all of the image data of the tire and detecting defects in the internal structure of the tire to be inspected.
検査対象タイヤのX線画像の画像データを取得する画像データ取得手段、及び
タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データと前記欠陥領域とは異なる領域である正常領域の画像データとを教師データとする機械学習により生成された識別モデルに、前記検査対象タイヤの前記画像データの一部又は全部を入力し、前記検査対象タイヤの内部構造の欠陥を検出する欠陥検出手段
としてコンピュータを機能させるプログラム。
Image data acquisition means for acquiring image data of an X-ray image of a tire to be inspected, and image data of a defective area that is an area containing defects in the internal structure of the tire and image data of a normal area that is an area different from the defective area. A computer as defect detection means for detecting defects in the internal structure of the tire to be inspected by inputting part or all of the image data of the tire to be inspected into a discrimination model generated by machine learning using as teaching data program that makes it work.
タイヤのX線画像の画像データを取得する画像データ取得ステップと、
前記タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データを、前記画像データから抽出する欠陥領域抽出ステップと、
前記欠陥領域とは異なる領域である正常領域の画像データを、前記画像データから抽出する正常領域抽出ステップと、
前記欠陥領域の画像データと前記正常領域の画像データとを教師データとして用いて、検査対象タイヤの内部構造の欠陥を検出するための識別モデルを生成するモデル生成ステップと
を含む識別モデルの生成方法。
an image data acquisition step of acquiring image data of an X-ray image of the tire;
a defect area extracting step of extracting image data of a defect area, which is an area containing a defect in the internal structure of the tire, from the image data;
A normal region extraction step of extracting image data of a normal region, which is a region different from the defective region, from the image data;
A method for generating a discriminative model, comprising: a model generating step of generating a discriminative model for detecting defects in the internal structure of a tire to be inspected, using the image data of the defective region and the image data of the normal region as teacher data. .
前記欠陥領域抽出ステップは、前記タイヤの内部構造の欠陥を含んでいる可能性のある領域である欠陥領域候補の画像データを、前記タイヤの画像データから抽出する候補抽出ステップと、前記欠陥領域候補に欠陥が描かれているか否かについて作業者の判定を受け付ける判定結果受付ステップと、を含み、
前記モデル生成ステップでは、欠陥が描かれていると前記作業者によって判定された前記欠陥領域候補の画像データが、前記欠陥領域の画像データとして用いられる
請求項9に記載される識別モデルの生成方法。
The defect area extraction step includes a candidate extraction step of extracting image data of a defect area candidate, which is an area that may contain a defect in the internal structure of the tire, from the image data of the tire; a decision result receiving step of receiving the worker's decision as to whether or not a defect is drawn in the
10. The identification model generation method according to claim 9, wherein in the model generating step, the image data of the defect area candidate determined by the operator to depict a defect is used as the image data of the defect area. .
前記タイヤはベルトとカーカスとを含み、前記カーカスは前記ベルトによって覆われている部分であるカーカス中央部と、前記ベルトによって覆われていない部分であるカーカス側部とを有し、
前記欠陥領域抽出ステップでは、前記カーカス中央部の画像データから前記欠陥領域の画像データが抽出され、前記カーカス側部の画像データから前記欠陥領域の画像データが抽出され、
前記モデル生成ステップでは、前記カーカス中央部の画像データから抽出した前記欠陥領域の画像データを利用して第1の識別モデルが生成され、前記カーカス側部の画像データから抽出した前記欠陥領域の画像データを利用して第2の識別モデルが生成される
請求項9に記載される識別モデルの生成方法。
The tire includes a belt and a carcass, the carcass having a central carcass portion that is covered by the belt and side carcass portions that are not covered by the belt;
In the defective area extracting step, image data of the defective area is extracted from the image data of the carcass central portion, image data of the defective area is extracted from the image data of the carcass side portion,
In the model generation step, a first identification model is generated using image data of the defect area extracted from the image data of the carcass central portion, and an image of the defect area extracted from the image data of the carcass side portion. 10. The method of generating a discriminative model according to claim 9, wherein the data is used to generate a second discriminative model.
タイヤにX線を照射し、前記タイヤの画像データを取得する画像データ取得手段と、
前記タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データを、前記画像データから抽出する欠陥領域抽出手段と、
前記欠陥領域とは異なる領域である正常領域の画像データを、前記画像データから抽出する正常領域抽出手段と、
前記欠陥領域の画像データと前記正常領域の画像データとを教師データとして用いて、検査対象タイヤの内部構造の欠陥を検出するための識別モデルを生成するモデル生成手段と
を含む識別モデルの生成装置。
image data acquisition means for irradiating a tire with X-rays and acquiring image data of the tire;
Defect area extracting means for extracting image data of a defect area, which is an area containing a defect in the internal structure of the tire, from the image data;
normal region extracting means for extracting image data of a normal region, which is a region different from the defective region, from the image data;
model generating means for generating a discriminative model for detecting defects in the internal structure of a tire to be inspected using the image data of the defective region and the image data of the normal region as teacher data; .
タイヤのX線画像の画像データを取得する画像データ取得手段、
前記タイヤの内部構造の欠陥を含む領域である欠陥領域の画像データを、前記画像データから抽出する欠陥領域抽出手段、
前記欠陥領域とは異なる領域である正常領域の画像データを、前記画像データから抽出する正常領域抽出手段、及び
前記欠陥領域の画像データと前記正常領域の画像データとを教師データとして用いて、検査対象タイヤの内部構造の欠陥を検出するための識別モデルを生成するモデル生成手段
としてコンピュータを機能させるプログラム。
image data acquisition means for acquiring image data of an X-ray image of a tire;
Defect area extracting means for extracting image data of a defect area, which is an area containing a defect in the internal structure of the tire, from the image data;
normal region extracting means for extracting image data of a normal region, which is a region different from the defective region, from the image data; and inspection using the image data of the defective region and the image data of the normal region as teacher data A program that causes a computer to function as model generation means for generating a discriminative model for detecting defects in the internal structure of a target tire.
JP2021112390A 2021-07-06 2021-07-06 Tire inspection device and inspection method, identification model generation method and generation device, and program Active JP7795070B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021112390A JP7795070B2 (en) 2021-07-06 2021-07-06 Tire inspection device and inspection method, identification model generation method and generation device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021112390A JP7795070B2 (en) 2021-07-06 2021-07-06 Tire inspection device and inspection method, identification model generation method and generation device, and program

Publications (2)

Publication Number Publication Date
JP2023008662A true JP2023008662A (en) 2023-01-19
JP7795070B2 JP7795070B2 (en) 2026-01-07

Family

ID=85112355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021112390A Active JP7795070B2 (en) 2021-07-06 2021-07-06 Tire inspection device and inspection method, identification model generation method and generation device, and program

Country Status (1)

Country Link
JP (1) JP7795070B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN120296606A (en) * 2025-06-06 2025-07-11 泉州天树建材有限公司 A method and system for identifying building material defects

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4260889A (en) * 1979-11-28 1981-04-07 The Firestone Tire & Rubber Company Defect marker method and apparatus for use with tire inspection machines
JP2004198265A (en) * 2002-12-18 2004-07-15 Dainippon Printing Co Ltd Processed product appearance inspection, sorting method and processed product appearance inspection, sorting system
JP2008309644A (en) * 2007-06-14 2008-12-25 Yokohama Rubber Co Ltd:The Method and device for inspecting tire
JP2018044807A (en) * 2016-09-13 2018-03-22 横浜ゴム株式会社 Position specification method, position specification device, tire inspection method, tire inspection device, and tire manufacturing method
CN110660049A (en) * 2019-09-16 2020-01-07 青岛科技大学 Tire defect detection method based on deep learning
CN111179239A (en) * 2019-12-24 2020-05-19 浙江大学 Tire X-ray flaw detection method for performing re-ranking by using background features
CN107316300B (en) * 2017-07-17 2020-12-15 杭州盈格信息技术有限公司 Tire X-ray defect detection method based on deep convolutional neural network
JP2021042988A (en) * 2019-09-06 2021-03-18 住友ゴム工業株式会社 Appearance inspection method and appearance inspection device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4260889A (en) * 1979-11-28 1981-04-07 The Firestone Tire & Rubber Company Defect marker method and apparatus for use with tire inspection machines
JP2004198265A (en) * 2002-12-18 2004-07-15 Dainippon Printing Co Ltd Processed product appearance inspection, sorting method and processed product appearance inspection, sorting system
JP2008309644A (en) * 2007-06-14 2008-12-25 Yokohama Rubber Co Ltd:The Method and device for inspecting tire
JP2018044807A (en) * 2016-09-13 2018-03-22 横浜ゴム株式会社 Position specification method, position specification device, tire inspection method, tire inspection device, and tire manufacturing method
CN107316300B (en) * 2017-07-17 2020-12-15 杭州盈格信息技术有限公司 Tire X-ray defect detection method based on deep convolutional neural network
JP2021042988A (en) * 2019-09-06 2021-03-18 住友ゴム工業株式会社 Appearance inspection method and appearance inspection device
CN110660049A (en) * 2019-09-16 2020-01-07 青岛科技大学 Tire defect detection method based on deep learning
CN111179239A (en) * 2019-12-24 2020-05-19 浙江大学 Tire X-ray flaw detection method for performing re-ranking by using background features

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN120296606A (en) * 2025-06-06 2025-07-11 泉州天树建材有限公司 A method and system for identifying building material defects

Also Published As

Publication number Publication date
JP7795070B2 (en) 2026-01-07

Similar Documents

Publication Publication Date Title
Liu et al. Robust pixel-wise concrete crack segmentation and properties retrieval using image patches
EP3040740B1 (en) Systems and methods for inspecting cargoes
Wakaf et al. Defect detection based on extreme edge of defective region histogram
Li et al. TireNet: A high recall rate method for practical application of tire defect type classification
JP2013257304A5 (en)
WO2020025392A1 (en) Convolutional neural network based inspection of blade-defects of a wind turbine
JP7356010B2 (en) Surface texture inspection device and surface texture inspection method
JP2020144688A (en) A learning method, a learning device, and a welding defect detection device provided with the learning device.
Mekhalfa et al. Multiclass classification of weld defects in radiographic images based on support vector machines
CN114882215B (en) A method for identifying the shape selection of coal gangue photoelectric sorting images and particle aggregate regions
KR20210150834A (en) Apparatus and method of defect inspection using structure prediction based on deep learning
EP4086812B1 (en) Object identification system and method
CN106296689B (en) Flaw detection method, system and device
CN112308069A (en) A click test method, device, device and storage medium for software interface
WO2025246969A1 (en) Method and system for identifying internal surface defects of nuclear reactor pressure vessel, computer device, and computer-readable storage medium
JP7795070B2 (en) Tire inspection device and inspection method, identification model generation method and generation device, and program
CN118657928A (en) Automatic identification method and system for dangerous goods in baggage security inspection based on artificial intelligence
Shen et al. A physics-guided memory-enhanced semi-supervised approach for detecting weld defects in radiographic images
JP2024160599A (en) COMPUTER PROGRAM, TASK GENERATION DEVICE, AND TASK GENERATION METHOD
Cozma et al. Defect detection in tire X-ray images: conventional methods meet deep structures
Oz et al. A nested autoencoder approach to automated defect inspection on textured surfaces
CN115428012A (en) Image inspection apparatus, image inspection method, and learned model generation apparatus
JP2011141202A (en) Component inspection device and program
Chu et al. Unsupervised anomaly detection in the textile texture database
García et al. A configuration approach for convolutional neural networks used for defect detection on surfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20251118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20251201

R150 Certificate of patent or registration of utility model

Ref document number: 7795070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150