[go: up one dir, main page]

WO2022202365A1 - 検査支援システム、検査支援方法、及びプログラム - Google Patents

検査支援システム、検査支援方法、及びプログラム Download PDF

Info

Publication number
WO2022202365A1
WO2022202365A1 PCT/JP2022/010612 JP2022010612W WO2022202365A1 WO 2022202365 A1 WO2022202365 A1 WO 2022202365A1 JP 2022010612 W JP2022010612 W JP 2022010612W WO 2022202365 A1 WO2022202365 A1 WO 2022202365A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
standard
inspection
unit
support system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2022/010612
Other languages
English (en)
French (fr)
Inventor
隆信 尾島
大介 梶田
武 新井
翔太 小坂
幸輔 村岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US18/551,117 priority Critical patent/US20240167965A1/en
Priority to JP2023508990A priority patent/JP7660324B2/ja
Priority to CN202280019532.2A priority patent/CN117043814A/zh
Publication of WO2022202365A1 publication Critical patent/WO2022202365A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/8893Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a video image and a processed signal for helping visual decision
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • the present disclosure generally relates to inspection assistance systems, inspection assistance methods, and programs. More specifically, the present disclosure relates to an inspection support system, inspection support method, and program relating to the state of the surface of an object.
  • Patent Document 1 discloses an inspection standard determination device. This inspection standard determination device determines whether the area is a defect based on the appearance feature amount of the defect candidate area of the sample, such as the size of a scratch or crack, the difference in color, etc. A test criterion for the feature quantity is determined based on the psychometric curve.
  • the image presenting means presents one of the standard sample and the target sample to the inspector, compares the appearance feature amounts of the defect candidate regions of the two samples, and makes the inspector answer the size. The inspector's answer is acquired by the input means.
  • the inspection standard determination device of Patent Document 1 requires prior design regarding the appearance feature amount.
  • the amount of appearance features can be enormous.
  • the feature quantity can be multi-dimensional when including color (brightness, saturation, hue), gradation, graininess, sparkle, gloss, matte, and the like. For this reason, it is difficult to express the texture that people perceive as a simple feature amount, and even if it can be expressed as a feature amount, the number of trials for subjective evaluation would be enormous.
  • the present disclosure is made in view of the above reasons, and aims to provide an inspection support system, inspection support method, and program that do not require complicated designs.
  • An examination support system includes an image acquisition unit and an image generation unit.
  • the image acquiring unit acquires a standard image of an object, in which a condition parameter in a process condition relating to the state of the surface of the object is set to a standard value.
  • the image generating unit generates a plurality of evaluation images regarding the target, with the standard value as a reference, and with the condition parameter changed based on a predetermined image generation model and the standard image.
  • An examination support method includes image acquisition processing and image generation processing.
  • image acquisition process a standard image of an object is acquired in which a condition parameter in a process condition relating to the state of the surface of the object is set to a standard value.
  • image generation process with the standard value as a reference, a plurality of evaluation images regarding the object are generated by changing the condition parameters based on a predetermined image generation model and the standard image.
  • a program according to one aspect of the present disclosure is a program for causing one or more processors to execute the examination support method described above.
  • FIG. 1 is a schematic block configuration diagram of an examination support system according to one embodiment.
  • FIG. 2 is a conceptual diagram of the entire system including the examination support system as described above.
  • FIG. 3A is a graph for explaining a standard image and an evaluation image in the examination support system;
  • FIG. 3B is a conceptual diagram regarding display and evaluation of the standard image and the evaluation image of the same.
  • FIG. 4 is a graph for explaining determination of inspection criteria in the same inspection support system.
  • FIG. 5 is a flowchart for explaining operation example 1 in the examination support system.
  • FIG. 6 is a flowchart for explaining operation example 2 in the examination support system.
  • FIG. 7 is a graph for explaining a first modification of the examination support system.
  • FIG. 8 is a conceptual diagram for explaining a second modification of the examination support system.
  • FIG. 1 is a schematic block configuration diagram of an examination support system according to one embodiment.
  • FIG. 2 is a conceptual diagram of the entire system including the examination support system as described above.
  • FIG. 9 is a graph for explaining a third modification of the examination support system.
  • FIG. 10A is a graph for explaining a standard image and an evaluation image in Modification 1 of the examination support system;
  • FIG. 10B is a conceptual diagram regarding display and evaluation of the standard image and the evaluation image in Modification 1 of the same.
  • FIG. 11 is a conceptual diagram for explaining another modified example 2 (variation of display mode) of the examination support system.
  • FIG. 12 is a conceptual diagram for explaining another modified example 3 (screen display of inspection standard process) of the above inspection support system.
  • the examination support system 1 includes an image acquisition unit 11 and an image generation unit 12, as shown in FIG.
  • the image acquisition unit 11 obtains a standard image A1 (see FIGS. 3A and 3B) relating to the target T1 (see FIG. 2), and the condition parameter P1 (see FIG. 3A) in the process conditions relating to the state of the surface of the target T1 is the standard value.
  • the standard image A1 set to .
  • the target T1 is an automobile part.
  • the target T1 is not limited to automobile parts, and may be any object having a surface.
  • the “surface state” of the object T1 referred to here is assumed to be a state related to coating of the surface. Therefore, the process conditions are the coating conditions.
  • the conditional parameter P1 relates to at least one of the paint discharge amount, the paint atomizing pressure, the paint distance to the surface of the object T1, the number of times of painting, and the paint drying speed.
  • the "state of the surface" may be, for example, a state related to plating or a state related to decorative molding other than coating.
  • the painting state of a portion of the outer surface of the automobile part (object T1) is only conceptually represented by a round picture with dot hatching, and the round picture indicates that the object T1 is spherical. Not the intended picture.
  • the image of the painting state of the target T1 is conceptually represented by a circular picture with dot hatching.
  • the standard image A1 is, for example, a captured image of the target T1 captured by the imaging unit 2 (see FIG. 2). That is, the standard image A1 is a captured image of the actual object (sample product) of the target T1 that has been actually painted by the painting system 300 (see FIG. 2) with the condition parameter P1 set to the standard value.
  • the standard image A1 is not limited to the captured image of the actual object, and may be a simulated image (CG image) with the condition parameter P1 set to a standard value.
  • the standard image A1 is, for example, one still image, but is not particularly limited, and may be a moving image.
  • the image generation unit 12 generates a plurality of evaluation images B1 (see FIG. 3) regarding the target T1, with the condition parameter P1 changed based on the predetermined image generation model M1 and the standard image A1 with reference to the standard value.
  • the image generation model M1 is, for example, a function model having the condition parameter P1 as a variable.
  • the evaluation image B1 is an image generated by adjusting the color densities (pixel values) of three colors in the color space RGB based on the standard image A1.
  • the color space is not limited to RGB, and may be, for example, XYZ or Lab (Lab color space).
  • the inspection support system 1 has the advantage of not requiring a complicated design.
  • the examination support method also includes image acquisition processing (image acquisition step) and image generation processing (image generation step).
  • image acquisition process image acquisition step
  • image generation processing image generation step
  • a standard image A1 relating to the target T1 in which the condition parameter P1 in the process conditions relating to the state of the surface of the target T1 is set to a standard value
  • image generation step a plurality of evaluation images B1 regarding the target T1 are generated by changing the condition parameter P1 based on the predetermined image generation model M1 and the standard image A1 with reference to the standard value.
  • This examination support method is used on a computer system (examination support system 1).
  • this inspection support method can also be embodied by a program.
  • a program according to the present embodiment is a program for causing one or more processors to execute the examination support method according to the present embodiment.
  • FIG. 1 Details The entire system (painting management system 100) including the inspection support system 1 and its peripheral configuration according to the present embodiment will be described in detail below with reference to FIGS. 1 and 2.
  • FIG. At least part of the peripheral configuration may be included in the configuration of the examination support system 1 .
  • the coating management system 100 includes an inspection support system 1, a coating system 300, and an imaging section 2 (imaging system).
  • the inspection support system 1 has a function of supporting the creation of a so-called "limit sample” as an inspection standard, which indicates the limit of whether a coated product is "good (OK)” or “defective (NG)” in terms of quality. .
  • a limit sample sample product
  • NG defective
  • Inspection support system 1 is configured to support the creation of limit samples.
  • sample creation work the work related to the creation of the limit sample
  • comparat work the person who carries out this work
  • inspection work the work of inspecting the painted products on the actual production line
  • inspector the person who carries out the work
  • the examination support system 1 includes a processing unit 10, an operation unit 3, a display unit 4, a first storage unit 5, a second storage unit 6, a learning unit 7, and a pass/fail determination unit. 8 (inference part).
  • the main functions of the inspection support system 1 (the functions of the processing unit 10, the first storage unit 5, the second storage unit 6, the learning unit 7, the pass/fail determination unit 8, etc.) are stored in the server 200 (see FIG. 2) as an example. shall be provided.
  • the "server” referred to here is composed of one server device. In other words, it is assumed that the main functions of the examination support system 1 are provided in one server device. However, the "server” may be composed of a plurality of server devices.
  • the functions of the processing unit 10, the first storage unit 5, the second storage unit 6, the learning unit 7, and the pass/fail determination unit 8 may be provided in separate server devices.
  • a server device may construct a cloud (cloud computing), for example.
  • some functions of the examination support system 1 may be distributed to a personal computer, a notebook computer, a tablet terminal, or the like, other than the server.
  • the server device may be installed in the factory where at least one of the coating process and the coating inspection is performed, or may be installed outside the factory (for example, the business headquarters). When a plurality of functions of the examination support system 1 are provided in separate server devices, it is desirable that each server device is communicably connected to another server device.
  • the imaging unit 2 is a system for generating an image (digital image) of the surface of the target T1.
  • the imaging unit 2 captures an image of the surface of the target T1 illuminated by, for example, a lighting device to generate an image of the surface of the target T1.
  • the imaging unit 2 includes, for example, one or more RGB cameras.
  • a camera comprises one or more image sensors. Note that the camera may include one or more line sensors.
  • the imaging unit 2 is connected to the network NT1 and can communicate with the server 200 via the network NT1.
  • the network NT1 is not particularly limited, and may be constructed by wired communication via a communication line, or may be constructed by wireless communication.
  • Wired communication is wire communication via, for example, a twisted pair cable, a dedicated communication line, or a LAN (Local Area Network) cable.
  • Wireless communication is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), wireless communication that conforms to standards such as low-power wireless (specified low-power wireless) that does not require a license, or infrared wireless communication such as telecommunications.
  • the same imaging unit 2 is used for both “sample creation work” and “inspection work”, but different imaging units may be used for each work.
  • the painting system 300 is a system for painting the surface of the target T1. That is, the painting system 300 executes the painting process for the target T1.
  • the painting system 300 includes one or more painting units (painting robots). Since the coating robot may have a conventionally well-known configuration, detailed description thereof will be omitted.
  • the painting system 300 is connected to the network NT1 and can communicate with the server 200 via the network NT1. Communication between the coating system 300 and the server 200 is not particularly limited, and may be performed by wired communication via a communication line, similarly to the communication between the imaging unit 2 and the server 200, or may be performed by wireless communication. may
  • the same painting system 300 is used for both the “sample creation work” and the “inspection work”, but different painting systems may be used for each work.
  • the processing unit 10 can be realized by a computer system including one or more processors (microprocessors) and one or more memories. That is, one or more processors function as the processing unit 10 by executing one or more programs (applications) stored in one or more memories.
  • the program is pre-recorded in the memory of the processing unit 10 here, it may be provided through an electric communication line such as the Internet or recorded in a non-temporary recording medium such as a memory card.
  • the processing unit 10 executes processing related to the imaging unit 2 and the painting system 300 . It is assumed that the functions of the processing unit 10 reside in the server 200 .
  • the processing unit 10 also includes an image acquisition unit 11, an image generation unit 12, an evaluation acquisition unit 13, a reference determination unit 14, an output unit 15, and a condition determination unit 16, as shown in FIG. That is, the processing unit 10 functions as the image acquisition unit 11, functions as the image generation unit 12, functions as the evaluation acquisition unit 13, functions as the reference determination unit 14, functions as the output unit 15, and a condition determination unit. 16 functions.
  • the image acquisition unit 11 is configured to acquire a standard image A1 regarding the target T1.
  • a standard image A1 is a captured image of the target T1 captured by the imaging unit 2 . That is, the standard image A1 is a captured image of the actual object T1 that has been actually painted by the painting system 300 in preparation for the sample creation work with the condition parameter P1 set to the standard value.
  • the inspection support system 1 receives information on the standard image A1 from the imaging unit 2.
  • condition parameter P1 relates to the coating condition of the target T1.
  • the conditional parameter P1 relates to at least one of the paint discharge amount, paint atomization pressure (atomization pressure), paint distance to the surface of the target T1, number of times of painting, and paint drying speed.
  • the painting system 300 adjusts the discharge amount, atomization pressure, painting distance, number of times of painting, etc. while changing at least one of the color and type of the paint for the target T1 (for example, the surface of the vehicle body). to recoat over multiple layers.
  • the discharge amount is, for example, the amount (L/min) discharged from the spray gun at the tip of the painting robot.
  • the atomization pressure is the pressure of the paint atomized (atomized) by air pressurized by the air compressor sent to the spray gun.
  • the coating distance is, for example, the distance between the spray gun and the target T1.
  • the plurality of layers are, in order from the surface side of the target T1, for example, an electrodeposition coating for rust prevention (first layer), a first base coating (second layer), a second base coating (third layer), and a clear coat (fourth layer).
  • the coating thickness is controlled by adjusting the discharge rate, the coating distance, and the number of coatings.
  • the thickness of the second layer or the third layer is thin, the underlying layer becomes easily visible, and when the thickness of the fourth layer is thin, the glossiness increases.
  • Atomization pressure affects the particleization (granularity) of paint.
  • Particulation (granularity) of paint influences unique surface finishes such as roughness.
  • the drying speed influences the uniformity of the direction of the aluminum flakes obtained by flaking the aluminum powder, for example, to express a more metallic feeling.
  • the condition parameter P1 (painting parameter) is a parameter related to the discharge amount.
  • the standard value is the value of the condition parameter P1 corresponding to, for example, the ejection amount of the middle standard level "5".
  • the value of the condition parameter P1 corresponding to the standard-level ejection amount is referred to as a first standard value P11 (see FIG. 3A).
  • FIG. 3A is a graph in which the horizontal axis is the condition parameter P1 (painting parameter p) and the vertical axis is the image data I (for example, color density (pixel value) relating to RGB).
  • the image generator 12 is configured to generate a plurality of (five in FIG. 3A) evaluation images B1.
  • the five evaluation images B1 are images obtained by changing the condition parameter P1 at regular intervals based on the image generation model M1 and the standard image A1, with the standard value as a reference.
  • the image acquisition unit 11 further acquires the standard image A1 in which the condition parameter P1 is set to a second standard value P12 different from the first standard value P11 as the standard value.
  • the image generator 12 generates a plurality of evaluation images B1 with the condition parameter P1 changed between the first standard value P11 and the second standard value P12.
  • the second standard value P12 is the value of the condition parameter P1 corresponding to the ejection amount of the highest level "10" among 10 levels of the ejection amount that can be set.
  • the degree is not particularly limited, but it is preferable that the second standard value P12 is extremely different from the first standard value P11.
  • this embodiment aims to set the limit of "good (OK)” or "bad (NG)" as an inspection criterion. Therefore, the first standard value P11 is a value that is sufficiently visually judged as “good (OK)”, and the second standard value P12 is a value that is sufficiently visually judged as "defective (NG)”. preferable.
  • the image data I1 located at the origin is a captured image of the actual object (sample product) of the target T1 that was actually painted by the painting system 300 with the first standard value P11 (discharge amount) of the first painting condition. data (hereinafter also referred to as first standard image A11).
  • the image data I2 is image data (hereinafter referred to as image data) of the actual object (sample product) of the target T1 actually painted by the painting system 300 according to the second standard value P12 (discharge amount) of the second painting condition. , also referred to as a second standard image A12).
  • the image generation model M1 is a function model with the condition parameter P1 as a variable.
  • the painting parameter which is the conditional parameter P1
  • the image data I color density of the evaluation image B1
  • the function f(p) image generation model M1
  • the function f(p) defines (approximately) the variation characteristics of the color density of RGB with respect to the discharge amount (condition parameter P1) of a certain layer (for example, the third layer), and the result of measurement verification or simulation and the like.
  • Information about the image generation model M1 is preliminarily stored (stored) in the first storage unit 5 .
  • the coating conditions focus on the discharge amount (condition parameter P1) for the third layer, and only change the discharge amount of the other layers, the number of times of coating, and the conditions such as the atomization pressure. It is assumed that the evaluation image B1 is generated with the parameter P1 fixed to a standard value. However, the evaluation image B1 may be generated by simultaneously changing two or more condition parameters P1. For example, when the discharge amount and the number of times of painting are changed simultaneously, the image data I (color density) of the evaluation image B1 may be prepared as a function f(p) that defines the change characteristics of the color density with respect to the discharge amount and the number of times of painting.
  • the first storage unit 5 and the second storage unit 6 include rewritable non-volatile memory such as EEPROM (Electrically Erasable Programmable Read-Only Memory).
  • EEPROM Electrically Erasable Programmable Read-Only Memory
  • the first storage unit 5 stores information on various painting conditions.
  • the first storage unit 5 also stores a plurality of types of image generation models M1.
  • the first storage unit 5 stores not only the ejection amount function f(p) for the third layer, but also the ejection amount function f(p) for the first, second, and fourth layers.
  • a large number of functions f(p) for atomization pressure, coating distance, coating times, and drying speed are stored.
  • the second storage unit 6 stores (stores) a learned model M2, which will be described later.
  • the first storage unit 5 and the second storage unit 6 are separate storage units, but they may be one common storage unit. At least one of the first storage unit 5 and the second storage unit 6 may be the memory of the processing unit 10 .
  • the image data I (color density) of the evaluation image B1 may be simply calculated by, for example, the following formula (1) (image generation model M1).
  • ⁇ I is the difference obtained by subtracting the image data I1 (color density) of the first standard image A11 from the image data I2 (color density) of the second standard image A12.
  • is a normalized value of the painting parameter p, and can range from 0 to 1. That is, since the unit amount of the coating parameter p, such as the discharge amount, the number of times of painting, and the atomization pressure, etc., is different from each other, .alpha. It is obtained by scaling the values that can be taken up to the image A12 from 0 to 1.
  • the image generation unit 12 specifies the color density (pixel value) regarding RGB of each of the first standard image A11 and the second standard image A12, and calculates the difference ⁇ I.
  • the image generation unit 12 varies ⁇ , multiplies ⁇ by the difference ⁇ I each time, and adds the result to the image data I1 (color density) of the first standard image A11, which is the base, to obtain a plurality of evaluation images related to the target T1.
  • FIG. 3A shows five evaluation images B1 simply generated by the above formula (1). Therefore, the color densities of the five evaluation images B1 gradually increase linearly (proportionally) as the painting parameter p increases.
  • the evaluation acquisition unit 13 is configured to acquire evaluation information regarding evaluation results of two or more stages for a plurality of (here, five) evaluation images B1.
  • the evaluation result has two stages of "good (OK)” and "bad (NG)”.
  • the evaluation result is the subjective evaluation of the creator H1. Specifically, as shown in FIG. 3B, the creator H1 visually evaluates each evaluation image B1 and uses the operation unit 3 to input the evaluation result (OK or NG) for each evaluation image B1. become.
  • the display unit 4 constitutes a liquid crystal display or an organic EL (Electro-Luminescence) display.
  • the display unit 4 may be a touch panel display.
  • the display unit 4 can be attached to, for example, an information terminal 9 (see FIG. 3B) such as a personal computer used by the user.
  • the information terminal 9 may be a notebook computer, a tablet terminal, or the like.
  • the display unit 4 displays a standard image A1 and a plurality of evaluation images B1.
  • the server 200 and the information terminal 9 can communicate with each other via the network NT1.
  • the information terminal 9 receives information on the standard image A1 and the evaluation image B1 from the server 200 and displays them on the screen of the display unit 4.
  • FIG. The creator H1 can visually recognize the standard image A1 and the evaluation image B1 through the display unit 4 .
  • the display unit 4 simultaneously displays the standard image A1 and each evaluation image B1 on one screen as shown in FIG. 3B so as to facilitate visual comparison.
  • the display unit 4 displays various information other than the standard image A1 and the evaluation image B1.
  • the operation unit 3 includes a mouse, keyboard, pointing device, and the like.
  • the operation unit 3 is provided, for example, in an information terminal 9 used by a user. If the display unit 4 is a touch panel display, it may also function as the operation unit 3 .
  • the creator H1 visually compares the standard image A1 and each evaluation image B1 displayed on the display unit 4, and evaluates each evaluation image B1 as "good (OK)” or "bad (NG)". The results are input to the examination support system 1 via the operation unit 3.
  • the processing unit 10 associates the input evaluation result with the evaluation image B1, and stores them in the storage unit (for example, the first storage unit 5).
  • the reference determining unit 14 is configured to determine an inspection standard for the state of the surface of the target T1 based on the evaluation information.
  • the creator H1 evaluated the evaluation images B11 to B13 as "OK” among the five evaluation images B1 (B11 to B15), and evaluated the evaluation images B14 and B15 as "NG”. It shows the evaluation results.
  • the evaluation images B11 to B13 corresponding to "OK” are marked with ⁇ marks
  • the evaluation images B14 and B15 corresponding to "NG” are marked with x marks.
  • the reference determination unit 14 identifies the boundary where the evaluation result changes from "OK” to "NG” among the plurality of linearly arranged evaluation images B1.
  • the reference determination unit 14 sets the inspection reference to the evaluation image B1 (evaluation image B13 in FIG. 4) corresponding to "OK", which is the closest evaluation result to "NG”.
  • the processing unit 10 stores information about the image data I3 (color density) and the inspection reference value P13 (third coating condition) in the evaluation image B13 serving as the inspection reference in the storage unit (eg, the first storage unit 5).
  • the output unit 15 is configured to output information about the condition parameter P1 (the inspection reference value P13 in FIG. 4) corresponding to the inspection standard. That is, the output unit 15 outputs information about the third coating condition to the outside (for example, the information terminal 9). In other words, the server 200 transmits information regarding the third coating condition to the information terminal 9 .
  • the information terminal 9 presents information on the third coating condition from the display unit 4 .
  • the information about the third coating condition includes not only the inspection reference value P13 related to the discharge amount of a certain layer that was subject to change, but also the discharge amount of other layers fixed to the standard value, the number of coating times, the atomization pressure, etc. also includes the conditional parameter P1 of
  • Creator H1 creates target T1 as a limit sample based on the presented third coating conditions.
  • creator H1 inputs information about the third coating condition presented to coating system 300 via the user interface.
  • the painting system 300 paints according to the third painting condition, and the object T1 (limit sample) is created.
  • the limit sample created in this manner has a painting state very close to the evaluation image B13 generated by the image generation unit 12.
  • the output destination of the information on the third coating condition by the output unit 15 may be directly the coating system 300 instead of the information terminal 9 .
  • the painting system 300 may paint according to the third painting conditions directly received from the server 200 to create the target T1 (limit sample).
  • the creator H1 can create and confirm the actual product (limit sample) corresponding to the inspection standard.
  • the first storage unit 5 stores a plurality of candidate models N1 (see FIG. 1) respectively corresponding to a plurality of standard values of the condition parameter P1.
  • the plurality of candidate models N1 referred to here may include, for example, a plurality of image generation models M1 that have been applied to determination of inspection criteria in the past.
  • the condition determination unit 16 determines the similarity between the standard value and each of the plurality of standard values, and if there is a value highly similar to the standard value among the plurality of standard values, the plurality of candidate models N1 A candidate model N1 corresponding to the value is selected as a predetermined image generation model M1. Specifically, the condition determination unit 16 determines a first standard value P11 (painting parameter p) for the discharge amount of interest and a plurality of first standard values P11 (painting parameter p') corresponding to the plurality of candidate models N1. is compared with the threshold. If a candidate model N1 whose absolute value (
  • condition determination processing by the condition determination unit 16 be executed as a preparation for the sample creation work. If there is no candidate model N1 whose absolute value (
  • the creator H ⁇ b>1 prepares a new image generation model M ⁇ b>1 and registers the information in the examination support system 1 via the operation unit 3 .
  • condition determination unit 16 determines the similarity and selects the image generation model M1 in this way, the creator H1 is saved from the trouble of newly creating and selecting the image generation model M1. As a result, inspection criteria can be determined more efficiently.
  • the learning unit 7 generates a learned model M2 (see FIG. 1) using image data labeled as good or bad regarding the state of the surface (here, the state of painting) as learning data.
  • This “pass/fail label” is a label based on the inspection standard determined by the standard determining unit 14 .
  • Training data is learning data used for machine learning of the model.
  • This "model” is a program that, when input data relating to an object to be identified (the surface state of the object T1) is input, estimates the state of the object to be identified and outputs an estimation result (identification result).
  • “Trained model” refers to a model that has completed machine learning using learning data.
  • the “learning data (set)” is a data set that combines input data (image data) input to the model and labels assigned to the input data, and is so-called teacher data. That is, in the present embodiment, the trained model M2 is a model for which machine learning by supervised learning has been completed.
  • the learning unit 7 has a function of generating a trained model M2 regarding the target T1.
  • the learning unit 7 generates a learned model M2 based on a plurality of labeled learning data (image data).
  • the trained model M2 is assumed to include, for example, a model using a neural network or a model generated by deep learning using a multilayer neural network.
  • the neural network may include, for example, a CNN (Convolutional Neural Network) or a BNN (Bayesian Neural Network).
  • the trained model M2 is implemented by implementing a trained neural network in an integrated circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array).
  • the trained model M2 is not limited to models generated by deep learning.
  • the trained model M2 may be a model generated by a support vector machine, a decision tree, or the like.
  • the plurality of learning data are labels of the evaluation results "OK” or "NG” based on the inspection criteria determined by the criteria determination unit 14 to the plurality of evaluation images B1 generated under various painting conditions. generated by In other words, in the example of FIG. 4, learning data is generated in which the image data of the evaluation images B11 to B13 are labeled "OK". Also, learning data is generated in which the image data of the evaluation images B14 and B15 are labeled with "NG”. Note that learning data may be generated in which the image data of the first standard image A11 is labeled "OK”. Alternatively, learning data may be generated by labeling the image data of the second standard image A12 as "NG”.
  • the learning unit 7 when adopting a plurality of evaluation images B1 as learning data, it can be said that the work related to labeling (labeling) is automatically completed at the time the inspection criteria are determined. Therefore, it is less troublesome for the user to newly prepare learning data for the examination support system 1 via the user interface such as the operation unit 3 and to label the data.
  • the learning unit 7 generates a learned model M2 by machine-learning whether the paint condition of the target T1 is good or bad using a plurality of labeled learning data.
  • the trained model M ⁇ b>2 generated by the learning unit 7 is stored (stored) in the second storage unit 6 .
  • the learning unit 7 can improve the performance of the trained model M2 by re-learning using the newly acquired labeled learning data (evaluation image B1). For example, if an evaluation image B1 is generated under new painting conditions, it is possible to cause the learning unit 7 to re-learn about the new evaluation image B1.
  • the pass/fail judgment unit 8 uses the learned model M2 to judge pass/fail of the inspection image C1 of the target T1. That is, the inspection support system 1 has, for example, a function of automatically identifying the quality of the coating state of the object T1 that has undergone the coating process in the actual production line.
  • the imaging unit 2 sequentially images the object T1 that has undergone the painting process, and transmits the captured image (inspection image C1) to the server 200 .
  • the processing unit 10 transmits the identification result of the target T1 to the terminal (for example, the information terminal 9) used by the inspector.
  • the server 200 notifies the information terminal 9 of a warning message when the identification result is "NG (defective)".
  • the server 200 operates the production line so as to discard the target T1 for which the identification result is "NG (defective)" (or to stop the operation of the conveying device such as the conveyor for visual confirmation by the inspector). Send a signal to the control facility to manage.
  • the server 200 at one site transmits information about the inspection criteria determined by the server 200 to the servers 200 at other sites via a wide area network such as the Internet to share the information. good too. In this case, it is possible to construct inspection standards that are unified at a plurality of bases.
  • ⁇ Operation example 1 sample creation> An operation example 1 related to sample creation will be described below with reference to FIG. 5 (flow chart).
  • creator H1 prepares standard image A1. That is, the coating system 300 performs coating on the object T1 based on the first coating condition (first standard value P11) to create an actual product (sample product) (step S1).
  • the imaging unit 2 images the actual object based on the first painting condition (step S2: generating the first standard image A11).
  • the imaging unit 2 transmits the first standard image A11 to the server 200 of the examination support system 1.
  • FIG. As a result, the image acquisition unit 11 of the processing unit 10 acquires the first standard image A11 regarding the target T1 set to the first standard value P11 (image acquisition processing).
  • the coating system 300 performs coating based on the second coating condition (second standard value P12) on the object T1 (the object T1 in step S1 is an object prepared separately) to create the actual object (step S3).
  • the imaging unit 2 images the actual object based on the second painting condition (step S4: generation of the second standard image A12).
  • the imaging unit 2 transmits the second standard image A12 to the server 200 of the examination support system 1.
  • FIG. the image acquisition unit 11 of the processing unit 10 acquires the second standard image A12 regarding the target T1 set to the second standard value P12 (image acquisition processing).
  • the inspection support system 1 calculates the absolute value (
  • the inspection support system 1 If there is no candidate model N1 whose absolute value (
  • the creator H1 prepares a new image generation model M1 and inputs the information to the examination support system 1.
  • the examination support system 1 generates a plurality of evaluation images B1 regarding the target T1 by changing the condition parameter P1 based on the image generation model M1 with the first and second standard values P11 and P12 as references (step S8: image generation process).
  • the examination support system 1 causes the display unit 4 to display the standard image A1 (for example, the first standard image A11) and a plurality of evaluation images B1 (step S9).
  • the creator compares the displayed standard image A1 with each of the plurality of evaluation images B1, evaluates each evaluation image B1 as "OK” or "NG", and inputs the evaluation result. That is, the inspection support system 1 acquires evaluation results for each evaluation image B1 (step S10).
  • the inspection support system 1 determines inspection criteria for the state of the surface of the target T1 based on the evaluation results (step S11).
  • the inspection support system 1 outputs information on the third coating condition (inspection reference value P13) to the information terminal 9 (step S12).
  • Creator H1 prepares a limit sample based on the information on the third coating condition. That is, the coating system 300 performs coating on the object T1 based on the third coating condition, and creates a limit sample (step S13).
  • an automobile parts maker can share the limit sample created in this way with a customer such as an automobile maker for a painted product of a certain part (target T1), thereby making it easier to obtain approval for manufacturing the painted product.
  • target T1 a painted product of a certain part
  • the inspector checks the limit sample, so that the inspection work can be performed stably and accurately.
  • the inspection support system 1 can efficiently create a limit sample.
  • the coating system 300 sequentially performs coating based on predetermined coating conditions (e.g., first coating conditions) on the target T1 in the coating process to produce a coated product (manufactured product or semi-finished product). to create
  • the imaging unit 2 sequentially images the painted products that have undergone the painting process (generates the inspection image C1).
  • the imaging unit 2 sequentially transmits the captured inspection images C ⁇ b>1 to the server 200 of the inspection support system 1 .
  • the inspection support system 1 sequentially acquires inspection images C1 (step S21). Then, the inspection support system 1 (pass/fail determination unit 8) uses the learned model M2 to discriminate pass/fail regarding the coating state of the object T1 that has undergone the coating process, based on the inspection images C1 that are sequentially acquired (step S22). . If the identification result is "OK" (S23: Yes), the examination support system 1 does not send a warning message or the like. Then, if the inspection process has not been completed (step S24: No), the inspection support system 1 acquires the next inspection image C1 and performs quality identification (returns to S21).
  • the examination support system 1 notifies the information terminal 9 of a warning message (step S25). Furthermore, the inspection support system 1 transmits a stop signal to the management facility so as to temporarily stop the operation of the transport device that transports the target T1 (step S26). The inspector goes to the site of the inspection process, visually confirms the actual product, and after completing the confirmation, performs an operation to restore the operation of the transport device (step S27). As a result, the inspection process is restarted.
  • a mechanism for removing the target T1 may be provided to exclude the target T1 without temporarily stopping equipment such as a transport device. If the inspection process ends (step S24: Yes), the process ends.
  • the data of the appearance feature amount can become enormous.
  • the feature quantity can be multi-dimensional when including color (brightness, saturation, hue), gradation, graininess, sparkle, gloss, matte, and the like. For this reason, it is difficult to express the texture that people perceive as a simple feature amount, and even if it can be expressed as a feature amount, the number of trials for subjective evaluation would be enormous.
  • the inspection support system 1 has the advantage of not requiring a complicated design.
  • the display unit 4 for displaying the standard image A1 and the evaluation image B1 since the display unit 4 for displaying the standard image A1 and the evaluation image B1 is provided, the user can visually confirm the standard image A1 and the evaluation image B1, thereby making it easier to determine the inspection criteria. can.
  • the standard image A1 is a captured image of the target T1 captured by the imaging unit 2, so the standard image A1 can be prepared more easily than when the standard image A1 is a CG image, for example. Also, a more accurate inspection standard is determined.
  • the image generator 12 generates the evaluation image B1 by changing the condition parameter P1 between the first standard value P11 and the second standard value P12. Therefore, it is possible to more clearly define the directionality regarding the change in the coating state of the target T1. That is, it becomes easy to quantify in which direction the color density of the paint changes, and linear approximation can be made of the change characteristics of the surface state (paint state) with respect to the condition parameter P1.
  • the examination support system 1 in the present disclosure includes a computer system.
  • a computer system is mainly composed of a processor and a memory as hardware.
  • the functions of the examination support system 1 in the present disclosure are realized by the processor executing a program recorded in the memory of the computer system.
  • the program may be recorded in advance in the memory of the computer system, may be provided through an electric communication line, or may be recorded in a non-temporary recording medium such as a computer system-readable memory card, optical disk, or hard disk drive. may be provided.
  • a processor in a computer system consists of one or more electronic circuits, including semiconductor integrated circuits (ICs) or large scale integrated circuits (LSIs).
  • Integrated circuits such as ICs or LSIs are called differently depending on the degree of integration, and include integrated circuits called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration).
  • FPGAs Field-Programmable Gate Arrays
  • a plurality of electronic circuits may be integrated into one chip, or may be distributed over a plurality of chips.
  • a plurality of chips may be integrated in one device, or may be distributed in a plurality of devices.
  • a computer system includes a microcontroller having one or more processors and one or more memories. Accordingly, the microcontroller also consists of one or more electronic circuits including semiconductor integrated circuits or large scale integrated circuits.
  • the constituent elements of the examination support system 1 may be distributed over a plurality of housings.
  • multiple functions in the examination support system 1 may be integrated into one housing.
  • at least part of the functions of the examination support system 1, for example, part of the functions of the examination support system 1, may be realized by a cloud (cloud computing) or the like.
  • the image generation unit 12 generates a plurality of evaluation images B1 with the condition parameter P1 changed on the premise that the color density change characteristic of RGB with respect to the condition parameter P1 is linear.
  • the change characteristic of color density may not increase linearly as the conditional parameter P1 increases, but may increase gradually in a curved line, for example.
  • the dashed line L1 shown in FIG. 7 is the same as the change characteristics of FIGS. 3 and 4 in the basic example.
  • the inspection support system 1 determines the image data I3 (color density) and the inspection reference value P13 (third coating condition) in the evaluation image B13 (see FIGS. 3 and 4) as the inspection reference. .
  • the coating system 300 paints according to the third coating condition and the target T1 (limit sample) is created
  • the captured image X1 (see FIG. 7) of the limit sample captured by the imaging unit 2 is A deviation may occur in the color density compared to the evaluation image B13 generated by .
  • the color density of the captured image X1 is lower than that of the evaluation image B13.
  • the "true change characteristic" with respect to changes in coating conditions can have an “error (deviation)” from the ideal straight line (broken line L1).
  • the solid-line curve Y1 of the "true change characteristic” is practically unknown and may not be easily obtained by calculation or the like.
  • the processing unit 10 determines the difference in color density (the difference between the image data I3 and the image data I3′) between the evaluation image B13 and the captured image X1 of the (temporary) limit sample in the first reference determination process. is compared with a predetermined value.
  • the processing unit 10 sets the inspection reference value P13 of the third coating condition as a new standard value in the second reference determination process. That is, the image generator 12 sets the captured image X1 to the origin, that is, the first standard image A11.
  • the condition determination unit 16 determines similarity regarding the new standard value (inspection reference value P13). If there is a candidate model N1 corresponding to a standard value highly similar to the new standard value among the plurality of candidate models N1, the condition determination unit 16 selects the image generation model to be applied in the second reference determination process. Select to M1. If there is no candidate model N1 with high similarity, the creator H1 prepares a new image generation model M1 and registers it in the inspection support system 1.
  • the image generation unit 12 generates a plurality of evaluation images B1 again using the image generation model M1 applied in the second reference determination process.
  • a dashed line L2 (straight line) in FIG. 7 indicates the change characteristic of the color density with respect to the conditional parameter P1 by the newly applied image generation model M1.
  • the inspection support system 1 causes the display unit 4 to display the plurality of generated evaluation images B1 again, and determines inspection criteria based on the evaluation results of the creator H1. Assume that the inspection support system 1 determines the inspection reference value P14 (fourth coating condition) of the evaluation image B16 (see FIG. 7) as the inspection reference. Then, the coating system 300 paints according to the fourth coating condition to create a target T1 (limit sample), and a captured image X2 (see FIG.
  • the processing unit 10 calculates the difference in color density (difference between the image data I4 and the image data I4') between the evaluation image B16 and the captured image X2 of the (temporary) limit sample in the second reference determination process. , is compared with a predetermined value.
  • the processing unit 10 sets the inspection reference value P14 of the fourth coating condition as a new standard value in the third reference determination process. That is, the image generator 12 sets the captured image X2 to the origin, that is, the first standard image A11.
  • the condition determination unit 16 determines similarity regarding the new standard value (inspection reference value P14). If there is a candidate model N1 corresponding to a standard value highly similar to the new standard value among the plurality of candidate models N1, the condition determination unit 16 selects the image generation model to be applied in the third reference determination process. Select to M1. If there is no candidate model N1 with high similarity, the creator H1 prepares a new image generation model M1 and registers it in the inspection support system 1.
  • the image generation unit 12 generates a plurality of evaluation images B1 again using the image generation model M1 applied in the third reference determination process.
  • a dashed line L3 (straight line) in FIG. 7 indicates the change characteristic of the color density with respect to the conditional parameter P1 by the newly applied image generation model M1.
  • the inspection support system 1 causes the display unit 4 to display the plurality of generated evaluation images B1 again, and determines inspection criteria based on the evaluation results of the creator H1. Assume that the inspection support system 1 determines the inspection standard value P15 (fifth coating condition) of the evaluation image B17 (see FIG. 7) as the inspection standard. Then, the coating system 300 paints according to the fifth coating condition to create a target T1 (limit sample), and a captured image X3 (see FIG.
  • the processing unit 10 determines the difference in color density (difference between the image data I5 and the image data I5') between the evaluation image B17 and the captured image X3 of the (temporary) limit sample in the third reference determination process. , is compared with a predetermined value.
  • the inspection support system 1 automatically determines whether or not the "error" has been eliminated by comparing it with a predetermined value, but it may be determined visually by the creator H1.
  • the image generation model M1 is a function model with the condition parameter P1 as a variable.
  • the image generation model M1 is different from the basic example in that it is a machine-learned model (learned model) for images generated by changing the condition parameter P1.
  • a neural network for predicting the surface state is constructed and used as an image generation model M1.
  • a neural network is learned and optimized so as to minimize the error between the image generated by the image generation model M1 and the sample image of the actually painted sample product.
  • the neural network may be configured as a GAN (Generative Adversarial Network) that uses two networks, a generator and a discriminator, to learn while competing with each other.
  • captured images X1, X2, X3, etc. may be used as teacher data.
  • the change characteristic (broken-line curve Y2) can be brought closer to the solid-line curve Y1, as shown in FIG.
  • image data I relates to changes in RGB color density.
  • This modified example differs from the basic example in that the image data I relates to a change in texture ratio.
  • FIG. 9 shows, as an example of the ratio of the texture, the grainy ratio of the surface coating, in which the paint containing the luster material such as metal pieces increases the graininess and presents a unique texture.
  • the first standard image A11 has a granularity ratio ⁇ of 0 (zero).
  • the second standard image A12 has a certain amount of graininess within a predetermined area.
  • the graininess ratio ⁇ is a value obtained by normalizing the coating parameter p, and can take a value of 0-1.
  • the granularity ratio ⁇ is obtained by scaling the values that can be taken from the first standard image A11 to the second standard image A12 by 0 to 1 for the coating parameters p such as the discharge amount, the number of times of coating, and the atomization pressure.
  • the processing unit 10 of the inspection support system 1 extracts only the grainy texture from the second standard image A12 by image processing (see texture A2 in FIG. 9).
  • the processing unit 10 defines the granularity ratio ⁇ of the texture A2 as "1".
  • the image generation unit 12 changes the granularity ratio ⁇ (condition parameter P1) between 0 and 1 based on the image generation model M1.
  • the image generation unit 12 generates an evaluation image B1 by adding (synthesizing) a grainy texture A3 corresponding to a graininess ratio ⁇ (for example, “0.5”) to the first standard image A11.
  • the image generation model M1 is a model for quantifying the deviation direction of the texture (granularity).
  • the evaluation results are in two stages of "good (OK)” and “bad (NG)".
  • the evaluation result may be three or more grades, for example, as shown in FIG. good.
  • the creator H1 visually evaluates each evaluation image B1, and uses the operation unit 3 to input the evaluation result (OK, NG, or gray) for each evaluation image B1.
  • the evaluation result of the evaluation images B13 and B14 is "gray", and a ⁇ mark is marked in the vicinity thereof.
  • the limit sample may be created using painting conditions corresponding to at least one of the evaluation images B12 to B14 (for example, the evaluation image B12 and the evaluation image B14).
  • the display unit 4 simultaneously displays the standard image A1 and each evaluation image B1 one-on-one on the screen, but the display mode is not limited to this.
  • the display unit 4 may display the standard image A1 and the evaluation image B1 at the same time in a display mode in which all the evaluation images B1 are arranged in one line, for example, as shown in a screen Z1 in FIG. display).
  • the display unit 4 displays the standard image A1 and the evaluation image B1 at the same time in a display mode in which all the evaluation images B1 surround the center of the standard image A1, as shown in a screen Z2 in FIG. 11, for example. good too.
  • the creator H1 can reduce the number of trials compared to the paired comparison in which the images are compared one by one as in the basic example.
  • the display unit 4 may also display the process and results until the inspection criteria are determined, as shown in the screen Z3 in FIG. 12, for example.
  • the screen Z3 displays a graph containing the results regarding the inspection criteria shown in FIG. 10A.
  • the creator H1 can easily grasp the process of determining the inspection criteria.
  • the inspection support system 1 generates the evaluation image B1 by increasing the condition parameter P1 from the origin (first standard value P11).
  • the examination support system 1 may generate the evaluation image B1 by changing the condition parameter P1 from, for example, the first standard value P11 or the second standard value P12 so as to reduce it.
  • the examination support system (1) includes the image acquisition section (11) and the image generation section (12).
  • An image acquisition unit (11) acquires a standard image (A1) relating to a target (T1) in which a condition parameter (P1) in process conditions relating to the state of the surface of the target (T1) is set to a standard value (A1 ).
  • An image generator (12) generates a plurality of evaluation images ( B1).
  • a plurality of evaluation images (B1) are generated using the condition parameters (P1) in the process conditions. Therefore, by using the evaluation image (B1), it is possible to determine the inspection criteria more easily than, for example, when the inspection criteria are determined by designing complicated appearance feature amounts. As a result, the inspection support system (1) has the advantage of not requiring a complicated design.
  • the examination support system (1) further includes a display section (4) that displays the standard image (A1) and the plurality of evaluation images (B1).
  • the inspection criteria can be determined more easily.
  • the examination support system (1) further comprises an evaluation acquisition section (13) and a reference determination section (14) in the first or second aspect.
  • An evaluation acquisition unit (13) acquires evaluation information regarding two or more levels of evaluation results for a plurality of evaluation images (B1).
  • a standard determination unit (14) determines an inspection standard for the state of the surface of the object (T1) based on the evaluation information.
  • the inspection support system (1) according to the fourth aspect further comprises an output unit (15) for outputting information on the condition parameter (P1) corresponding to the inspection standard.
  • the inspection support system (1) in the third or fourth aspect, further comprises a learning section (7) and a pass/fail determination section (8).
  • a learning unit (7) generates a trained model (M2 ).
  • a pass/fail judgment unit (8) judges pass/fail of the inspection image (C1) of the target (T1) using the learned model (M2).
  • the accuracy of determining the quality of the surface is improved.
  • the examination support system (1) further comprises a storage unit (first storage unit 5) and a condition determination unit (16) in any one of the first to fifth aspects.
  • the storage unit (first storage unit 5) stores a plurality of candidate models (N1) respectively corresponding to a plurality of standard values in the condition parameter (P1).
  • a condition determination unit (16) determines the similarity between the standard value and each of the plurality of standard values, and if there is a value highly similar to the standard value among the plurality of standard values, a plurality of candidates
  • a candidate model (N1) corresponding to the value is selected from the models (N1) as the image generation model (M1).
  • the trouble of creating and selecting a new image generation model (M1) can be saved.
  • the standard image (A1) is a captured image of the target (T1) captured by the imaging unit (2). is.
  • the standard image (A1) can be prepared more easily than, for example, when the standard image (A1) is a CG image. Also, a more accurate inspection standard is determined.
  • the image acquisition unit (11) is such that the condition parameter (P1) is a first standard as a standard value A standard image (A1) set to a second standard value (P12) different from the value (P11) is also obtained.
  • An image generator (12) generates a plurality of evaluation images (B1) with condition parameters (P1) changed between a first standard value (P11) and a second standard value (P12).
  • the image generation model (M1) is a function model with the condition parameter (P1) as a variable.
  • the image generation model (M1) is, for example, a machine-learned model
  • its preparation is easier, and a more complicated design is less likely to be required.
  • the image generation model (M1) is a mechanical It is a learned model.
  • the accuracy of the image generation model (M1) is improved, making it easier to generate an evaluation image (B1) closer to the actual object.
  • the process conditions are painting conditions.
  • the conditional parameter (P1) relates to at least one of the paint discharge amount, the paint atomizing pressure, the paint distance to the surface of the object (T1), the number of coats, and the paint drying rate.
  • the examination support method includes image acquisition processing and image generation processing.
  • image acquisition process a standard image (A1) relating to the target (T1) is acquired in which the condition parameter (P1) in the process conditions relating to the state of the surface of the target (T1) is set to a standard value. do.
  • image generation process a plurality of evaluation images (B1) relating to the object (T1) are generated by changing the condition parameter (P1) based on the predetermined image generation model (M1) and the standard image (A1) with reference to the standard value. Generate.
  • a program according to the thirteenth aspect is a program for causing one or more processors to execute the examination support method according to the twelfth aspect.
  • the configurations according to the second to eleventh aspects are not essential configurations for the examination support system (1), and can be omitted as appropriate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Computational Linguistics (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

本開示は、複雑な設計が必要となりにくくすることを目的とする。検査支援システム(1)は、画像取得部(11)と、画像生成部(12)と、を備える。画像取得部(11)は、対象(T1)に関する標準画像(A1)を取得する。標準画像(A1)は、対象(T1)の表面の状態に関する工程条件における条件パラメータ(P1)が標準値に設定された画像である。画像生成部(12)は、標準値を基準として、所定の画像生成モデル及び標準画像(A1)に基づき条件パラメータ(P1)を変化させた、対象(T1)に関する複数の評価画像(B1)を生成する。

Description

検査支援システム、検査支援方法、及びプログラム
 本開示は、一般に、検査支援システム、検査支援方法、及びプログラムに関する。より詳細には本開示は、対象の表面の状態に関する検査支援システム、検査支援方法、及びプログラムに関する。
 特許文献1には、検査基準決定装置が開示されている。この検査基準決定装置は、試料の欠陥候補領域が有する外観的特徴量、例えば、キズ又は割れの大きさ、色の違い等の大小によって、その領域が欠陥であるかどうかを判定するための、その特徴量に関する検査基準を、心理測定曲線に基づいて決定する。検査基準決定装置では、画像呈示手段が、検査員に標準サンプルと標的サンプルの1つとを呈示し、2つのサンプルの欠陥候補領域の、外観的特徴量を互いに比較させてその大小を回答させる。検査員による回答は、入力手段によって取得される。
特開2007-333709号公報
 特許文献1の検査基準決定装置では、事前に外観的特徴量に関する設計が必要となる。しかし、対象の表面の状態に関する検査においては、外観的特徴量は膨大になり得る。例えば表面塗装の場合、特徴量は、色(明度、彩度、色相)、グラデーション、粒状感、キラキラ感、光沢感、及びマット感等を含めると、多次元となり得る。そのため、人が感じる質感を単純な特徴量で表すことは困難であり、また仮に特徴量で表せたとしても主観評価の試行回数は膨大になる。
 本開示は上記事由に鑑みてなされ、複雑な設計が必要となりにくい検査支援システム、検査支援方法、及びプログラムを提供することを目的とする。
 本開示の一態様の検査支援システムは、画像取得部と、画像生成部と、を備える。前記画像取得部は、対象に関する標準画像であって、前記対象の表面の状態に関する工程条件における条件パラメータが標準値に設定された前記標準画像を取得する。前記画像生成部は、前記標準値を基準として、所定の画像生成モデル及び前記標準画像に基づき前記条件パラメータを変化させた、前記対象に関する複数の評価画像を生成する。
 本開示の一態様の検査支援方法は、画像取得処理と、画像生成処理と、を含む。前記画像取得処理では、対象に関する標準画像であって、前記対象の表面の状態に関する工程条件における条件パラメータが標準値に設定された前記標準画像を取得する。前記画像生成処理では、前記標準値を基準として、所定の画像生成モデル及び前記標準画像に基づき前記条件パラメータを変化させた、前記対象に関する複数の評価画像を生成する。
 本開示の一態様のプログラムは、1以上のプロセッサに、上記の検査支援方法を実行させるためのプログラムである。
図1は、一実施形態に係る検査支援システムの概略ブロック構成図である。 図2は、同上の検査支援システムを備えるシステム全体の概念図である。 図3Aは、同上の検査支援システムにおける標準画像と評価画像を説明するためのグラフである。図3Bは、同上の標準画像及び評価画像の表示と評価に関する概念図である。 図4は、同上の検査支援システムにおける検査基準の決定を説明するためのグラフである。 図5は、同上の検査支援システムにおける動作例1を説明するためのフローチャートである。 図6は、同上の検査支援システムにおける動作例2を説明するためのフローチャートである。 図7は、同上の検査支援システムにおける第1変形例を説明するためのグラフである。 図8は、同上の検査支援システムにおける第2変形例を説明するための概念図である。 図9は、同上の検査支援システムにおける第3変形例を説明するためのグラフである。 図10Aは、同上の検査支援システムのその他の変形例1における標準画像と評価画像を説明するためのグラフである。図10Bは、同上のその他の変形例1における標準画像及び評価画像の表示と評価に関する概念図である。 図11は、同上の検査支援システムのその他の変形例2(表示態様のバリエーション)を説明するための概念図である。 図12は、同上の検査支援システムのその他の変形例3(検査基準のプロセスの画面表示)を説明するための概念図である。
 (1)概要
 以下の実施形態において説明する各図は、模式的な図であり、各図中の各構成要素の大きさ及び厚さそれぞれの比が、必ずしも実際の寸法比を反映しているとは限らない。
 本実施形態に係る検査支援システム1は、図1に示すように、画像取得部11と、画像生成部12と、を備える。
 画像取得部11は、対象T1(図2参照)に関する標準画像A1(図3A及び図3B参照)であって、対象T1の表面の状態に関する工程条件における条件パラメータP1(図3A参照)が標準値に設定された標準画像A1を取得する。本実施形態では一例として、対象T1は、自動車部品であることを想定する。ただし、対象T1は、自動車部品に限定されず、表面を有する物体であればよい。また、ここでいう対象T1における「表面の状態」は、一例として、表面の塗装に関する状態を想定する。したがって、工程条件は、塗装条件である。条件パラメータP1は、塗料の吐出量、塗料を霧化する圧力、対象T1の表面までの塗装距離、塗装回数、及び塗料の乾燥速度の少なくとも1つに関する。ただし、「表面の状態」は、塗装以外にも、例えばメッキに関する状態、又は加飾成形に関する状態でもよい。
 図2では、自動車部品(対象T1)の外面の一部の塗装状態をドットハッチング付きの丸い絵によって概念的に表現しているだけであり、丸い絵は、対象T1が球形状であることを意図した絵ではない。同様に、図3A及び図3B等では、対象T1の塗装状態の画像をドットハッチング付きの丸い絵によって概念的に表現している。
 標準画像A1は、例えば対象T1を撮像部2(図2参照)で撮像した撮像画像である。つまり、標準画像A1は、条件パラメータP1が標準値に設定されて、塗装システム300(図2参照)にて実際に塗装された対象T1の現物(サンプル品)の撮像画像である。ただし、標準画像A1は、現物の撮像画像に限定されず、条件パラメータP1が標準値に設定されて擬似的に作成された画像(CG画像)でもよい。標準画像A1は、例えば1枚の静止画像であるが、特に限定されず、動画像でもよい。
 画像生成部12は、標準値を基準として、所定の画像生成モデルM1及び標準画像A1に基づき条件パラメータP1を変化させた、対象T1に関する複数の評価画像B1(図3参照)を生成する。ここでは画像生成モデルM1は、例えば、条件パラメータP1を変数とする関数モデルである。評価画像B1は、標準画像A1をベースに、色空間RGBの3色の色濃度(画素値)を調整して生成された画像である。ただし、色空間は、RGBに限定されず、その他にも例えばXYZ、又はLab(Lab color space)でもよい。
 この構成によれば、工程条件における条件パラメータP1を用いて複数の評価画像B1が生成される。したがって、評価画像B1を用いれば、例えば複雑な外観的特徴量に関する設計を行って検査基準を決定する場合に比べて、検査基準をより容易に決定し得る。結果的に、検査支援システム1には、複雑な設計が必要となりにくい、という利点がある。
 また本実施形態に係る検査支援方法は、画像取得処理(画像取得ステップ)と、画像生成処理(画像生成ステップ)と、を含む。画像取得処理(画像取得ステップ)では、対象T1に関する標準画像A1であって、対象T1の表面の状態に関する工程条件における条件パラメータP1が標準値に設定された標準画像A1を取得する。画像生成処理(画像生成ステップ)では、標準値を基準として、所定の画像生成モデルM1及び標準画像A1に基づき条件パラメータP1を変化させた、対象T1に関する複数の評価画像B1を生成する。この構成によれば、複雑な設計が必要となりにくい検査支援方法を提供できる。この検査支援方法は、コンピュータシステム(検査支援システム1)上で用いられる。つまり、この検査支援方法は、プログラムでも具現化可能である。本実施形態に係るプログラムは、本実施形態に係る検査支援方法を、1以上のプロセッサに実行させるためのプログラムである。
 (2)詳細
 以下、本実施形態に係る検査支援システム1及びその周辺構成を含んだ全体のシステム(塗装管理システム100)について、図1及び図2を参照しながら詳しく説明する。なお、周辺構成の少なくとも一部が、検査支援システム1の構成に含まれてもよい。
 (2.1)全体構成
 塗装管理システム100は、図2に示すように、検査支援システム1と、塗装システム300と、撮像部2(撮像システム)とを備える。
 検査支援システム1は、検査基準として、塗装品の品質上の「良品(OK)」か「不良品(NG)」かの限度を示した、いわゆる「限度見本」の作成を支援する機能を有する。具体的には、例えば自動車部品メーカが、ある部品の塗装品について、限度見本(サンプル品)を作成し、それを自動車メーカ等の顧客と情報共有し合うことで、その塗装品に関する製造の承諾を得ることになる。また実際の生産ラインの稼働時における塗装工程を終えた塗装品の検査時に検査者が限度見本を確認することで、検査作業が安定的で精度良く行われ得る。しかし、限度見本の作成には、コストと時間が膨大に掛かり得る。検査支援システム1は、限度見本の作成を支援するように構成される。
 以下では、説明の便宜上、限度見本の作成に関する作業を「見本作成作業」と呼び、これを実施する者を「作成者H1」(図2、図3B参照)と呼ぶことがある。また実際の生産ラインの塗装品を検査する作業を「検査作業」と呼び、これを実施する者を「検査者」と呼ぶことがある。説明上において、作成者H1と検査者を区別しない場合には、単に「ユーザ」と呼ぶこともある。なお、作成者H1と検査者は、同じ人物でもよい。
 本実施形態では、検査支援システム1は、図1に示すように、処理部10、操作部3、表示部4、第1記憶部5、第2記憶部6、学習部7、及び良否判定部8(推論部)を備える。検査支援システム1の主な機能(処理部10、第1記憶部5、第2記憶部6、学習部7、及び良否判定部8等の機能)は、一例としてサーバ200(図2参照)に設けられているものとする。ここでいう「サーバ」は、1台のサーバ装置から構成されることを想定する。つまり、検査支援システム1の主な機能が、1台のサーバ装置に設けられていることを想定する。ただし、「サーバ」は、複数台のサーバ装置から構成されてもよい。具体的には、処理部10、第1記憶部5、第2記憶部6、学習部7、及び良否判定部8の機能が、それぞれ個別のサーバ装置に設けられてもよいし、これらのうちの2つ以上の機能が1台のサーバ装置に設けられてもよい。またそのようなサーバ装置が、例えばクラウド(クラウドコンピューティング)を構築してもよい。また検査支援システム1の一部の機能は、サーバ以外にも、パーソナルコンピュータ、ノートパソコン、又はタブレット端末等に分散的に設けられてもよい。またサーバ装置は、塗装工程及び塗装検査の少なくとも一方を実施する工場内に設置されてもよいし、工場の外部(例えば事業本部)に設置されてもよい。検査支援システム1の複数の機能がそれぞれ個別のサーバ装置に設けられている場合、各サーバ装置は、他のサーバ装置と通信可能に接続されていることが望ましい。
 撮像部2(撮像システム)は、対象T1の表面の画像(デジタル画像)を生成するためのシステムである。本実施形態では、撮像部2は、例えば照明機器により照らされている対象T1の表面を撮像して対象T1の表面の画像を生成する。撮像部2は、例えば1以上のRGBカメラを含む。カメラは、1以上のイメージセンサを備える。なお、カメラは1以上のラインセンサを備えてもよい。撮像部2は、図2に示すように、ネットワークNT1に接続されており、ネットワークNT1を介してサーバ200と通信可能である。ネットワークNT1は、特に限定されず、通信線を介した有線通信により構築されてもよいし、或いは無線通信により構築されてもよい。有線通信は、例えばツイストペアケーブル、専用通信線、またはLAN(Local Area Network)ケーブルなどを介した有線通信である。無線通信は、例えばWi-Fi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)又は免許を必要としない小電力無線(特定小電力無線)等の規格に準拠した無線通信、あるいは赤外線通信などの無線通信である。
 本実施形態では一例として、「見本作成作業」と「検査作業」の両方で、同じ撮像部2を使用するが、各作業で異なる撮像部を使用してもよい。
 塗装システム300は、対象T1の表面の塗装のためのシステムである。すなわち、塗装システム300は、対象T1の塗装工程を実行する。塗装システム300は、1以上の塗装部(塗装ロボット)を含む。塗装ロボットは、従来周知の構成であってよいから、詳細な説明は省略する。塗装システム300は、図2に示すように、ネットワークNT1に接続されており、ネットワークNT1を介してサーバ200と通信可能である。塗装システム300及びサーバ200間の通信は、特に限定されず、撮像部2及びサーバ200間の通信と同様に、通信線を介した有線通信によって行われてもよいし、或いは無線通信により行われてもよい。
 本実施形態では一例として、「見本作成作業」と「検査作業」の両方で、同じ塗装システム300を使用するが、各作業で異なる塗装システムを使用してもよい。
 (2.2)検査支援システムの構成
 以下、検査支援システム1の構成(処理部10、操作部3、表示部4、第1記憶部5、第2記憶部6、学習部7、及び良否判定部8)について、より詳細に説明する。
 処理部10は、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部10として機能する。プログラムは、ここでは処理部10のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
 処理部10は、撮像部2、及び塗装システム300に関する処理を実行する。処理部10の機能はサーバ200にあることを想定する。また処理部10は、図1に示すように、画像取得部11、画像生成部12、評価取得部13、基準決定部14、出力部15、及び条件判定部16を有する。すなわち、処理部10は、画像取得部11としての機能、画像生成部12としての機能、評価取得部13としての機能、基準決定部14としての機能、出力部15としての機能、及び条件判定部16としての機能を有する。
 画像取得部11は、対象T1に関する標準画像A1を取得するように構成される。標準画像A1は、対象T1を撮像部2で撮像した撮像画像である。つまり、標準画像A1は、条件パラメータP1が標準値に設定されて、見本作成作業の前準備として塗装システム300にて実際に塗装された対象T1の現物の撮像画像である。見本作成作業において、検査支援システム1は、標準画像A1の情報を、撮像部2から受信する。
 ここでは条件パラメータP1は、対象T1の塗装条件に関する。条件パラメータP1は、塗料の吐出量、塗料を霧化する圧力(霧化圧)、対象T1の表面までの塗装距離、塗装回数、及び塗料の乾燥速度の少なくとも1つに関する。
 例えば塗装システム300は、塗装工程において、対象T1(例えば車体の表面)に対して、塗料の色及び種類の少なくとも一方を変えながら、吐出量、霧化圧、塗装距離、及び塗装回数等を調整して、複数の層にわたって塗り重ねを行う。吐出量は、例えば、塗装ロボットの先端にあるスプレーガンから吐出される量(L/min)である。霧化圧は、エアコンプレッサで加圧された空気がスプレーガンに送られて霧化(微粒化)した塗料の圧力である。塗装距離は、例えば、スプレーガンと、対象T1との距離である。
 上記の複数の層は、対象T1の表面側から順に、例えば、錆防止用の電着塗装(第1層)、第1ベース塗装(第2層)、第2ベース塗装(第3層)、及びクリア塗装(第4層)を含み得る。吐出量、塗装距離、及び塗装回数の調整により、塗装の厚みが制御される。第2層又は第3層の厚みが薄いと下地が見えやすくなり、第4層が薄いと光沢が増す。このように塗装の厚みが制御された第2層~第4層を設けることで、発色、美観、及び光沢等の向上が図られる。霧化圧は、塗料の粒子化(粒状感)に影響する。塗料の粒子化(粒状感)は、ザラザラ感等のユニークな表面仕上げに影響する。乾燥速度は、例えばメタリック感をより表現するための、アルミニウム粉末をフレーク化したアルミフレークの向きの均一化に影響する。
 以下では一例として、塗料の吐出量(L/min)に着目し、条件パラメータP1(塗装パラメータ)が、吐出量に関するパラメータであることを想定する。上記複数の層のうち、ある層(例えば第3層)に関する吐出量について例えば設定可能な吐出量の度合い10段階の設定レベル(レベル「1」~「10」)が存在するとすれば、標準値は、例えば真ん中の標準レベル「5」の吐出量に相当する条件パラメータP1の値である。以下では、標準レベルの吐出量に相当する条件パラメータP1の値を、第1標準値P11(図3A参照)と呼ぶ。なお、図3Aは、横軸を条件パラメータP1(塗装パラメータp)とし、縦軸を画像データI(例えばRGBに関する色濃度(画素値))とするグラフである。
 画像生成部12は、複数(図3Aでは5つ)の評価画像B1を生成するように構成される。5つの評価画像B1は、標準値を基準として、画像生成モデルM1及び標準画像A1に基づき条件パラメータP1を一定間隔で変化させた場合の画像である。ここで、画像取得部11は、条件パラメータP1が、標準値としての第1標準値P11とは異なる第2標準値P12に設定された標準画像A1を更に取得する。画像生成部12は、第1標準値P11と第2標準値P12との間で、条件パラメータP1を変化させた複数の評価画像B1を生成する。図3Aでは一例として、第2標準値P12は、例えば設定可能な吐出量の度合い10段階のレベルのうち、最も高いレベル「10」の吐出量に相当する条件パラメータP1の値である。第2標準値P12は、第1標準値P11と異なれば、その度合いは特に限定されないが、第1標準値P11と極端に異なる値であることが好ましい。特に本実施形態では、検査基準として「良(OK)」か「不良(NG)」かの限度を定めることを目的としている。そのため、第1標準値P11は目視でも十分に「良(OK)」として判断される値で、第2標準値P12は目視でも十分に「不良(NG)」として判断される値であることが好ましい。
 図3Aでは、原点に位置する画像データI1は、第1塗装条件の第1標準値P11(吐出量)により、塗装システム300にて実際に塗装された対象T1の現物(サンプル品)の撮像画像データ(以下、第1標準画像A11ともいう)である。また図3Aでは、画像データI2は、第2塗装条件の第2標準値P12(吐出量)により、塗装システム300にて実際に塗装された対象T1の現物(サンプル品)の撮像画像データ(以下、第2標準画像A12ともいう)である。
 画像生成モデルM1は、条件パラメータP1を変数とする関数モデルである。ここで、条件パラメータP1である塗装パラメータをp(変数)とすると、評価画像B1の画像データI(色濃度)は、関数f(p)(画像生成モデルM1)により決定される。つまり、関数f(p)は、ある層(例えば第3層)に関する吐出量(条件パラメータP1)に対するRGBに関する色濃度の変化特性を(近似的に)定義するものであり、測定検証又はシミュレーション結果等により得られたものである。画像生成モデルM1に関する情報は、第1記憶部5に予め記憶(格納)される。
 説明を分かりやすくするために、塗装条件は、第3層に関する吐出量(条件パラメータP1)に着目し、それだけを変化させて、他の層の吐出量、塗装回数、及び霧化圧等の条件パラメータP1は標準値に固定して評価画像B1が生成されることを想定する。しかし、2以上の条件パラメータP1を同時に変化させて評価画像B1が生成されてもよい。例えば吐出量と塗装回数を同時に変化させる場合、評価画像B1の画像データI(色濃度)は、吐出量と塗装回数に対する色濃度の変化特性を定義する関数f(p)を用意すればよい。
 第1記憶部5及び第2記憶部6は、EEPROM(Electrically Erasable Programmable Read-Only Memory)のような書き換え可能な不揮発性メモリを含む。
 第1記憶部5は、種々の塗装条件に関する情報を記憶する。また第1記憶部5は、画像生成モデルM1を複数種類記憶する。つまり、第1記憶部5は、第3層に関する吐出量の関数f(p)だけでなく、第1層、第2層、第4層に関する吐出量の関数f(p)、さらに吐出量の他にも、霧化圧、塗装距離、塗装回数、及び乾燥速度についての関数f(p)も多数記憶する。第2記憶部6は、後述する学習済みモデルM2を記憶(格納)する。本実施形態では、第1記憶部5と第2記憶部6は、別々の記憶部であるが、1つの共通する記憶部でもよい。また第1記憶部5と第2記憶部6の少なくとも一方は、処理部10のメモリでもよい。
 また評価画像B1の画像データI(色濃度)は、例えば以下の式(1)(画像生成モデルM1)により簡易的に算出されてもよい。
 I = ΔI×α+I1 ・・・式(1)
 式(1)では、ΔIは、第2標準画像A12の画像データI2(色濃度)から、第1標準画像A11の画像データI1(色濃度)を差し引いて得られる差分である。αは、塗装パラメータpを正規化した値であり、0~1を取り得る。つまり、塗装パラメータpの吐出量、塗装回数、及び霧化圧等は、互いに単位量が異なるため、αは、吐出量、塗装回数、及び霧化圧等について第1標準画像A11から第2標準画像A12まで取り得る値を0~1でスケーリングしたものである。
 式(1)を用いる場合、画像生成部12は、第1標準画像A11と第2標準画像A12の各々のRGBに関する色濃度(画素値)を特定し、差分ΔIを演算する。画像生成部12は、αを変化させて、その都度差分ΔIをαに掛けて、ベースとなる第1標準画像A11の画像データI1(色濃度)に足すことで、対象T1に関する複数の評価画像B1を生成する。図3Aは、上記式(1)により簡易的に生成された5つの評価画像B1を示している。したがって、5つの評価画像B1の色濃度は、塗装パラメータpの増加に応じて、直線的(比例的)に漸増する。
 評価取得部13は、複数(ここでは5つ)の評価画像B1に対する二段階以上の評価結果に関する評価情報を取得するように構成される。ここでは一例として、評価結果は、「良(OK)」及び「不良(NG)」の二段階であることを想定する。評価結果は、作成者H1の主観評価となる。具体的には、作成者H1は、図3Bに示すように、各評価画像B1を目視で評価し、操作部3を用いて各評価画像B1に対する評価結果(OKかNGか)を入力することになる。
 表示部4は、液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイを構成する。表示部4は、タッチパネル式のディスプレイでもよい。表示部4は、例えばユーザが使用するパーソナルコンピュータ等の情報端末9(図3B参照)に付設され得る。情報端末9は、ノートパソコン又はタブレット端末等でもよい。表示部4は、標準画像A1、及び複数の評価画像B1を表示する。
 サーバ200と情報端末9は、ネットワークNT1を介して互いに通信可能である。見本作成作業時において、情報端末9は、サーバ200から、標準画像A1及び評価画像B1の情報を受信し、表示部4の画面に表示する。作成者H1は、表示部4を通じて、標準画像A1及び評価画像B1を視認できる。特に本実施形態では、表示部4は、図3Bに示すように、標準画像A1及び各評価画像B1を目視で比較しやすいように、1つの画面に同時に表示する。表示部4は、標準画像A1及び評価画像B1以外にも種々の情報を表示する。
 操作部3は、マウス、キーボード、及びポインティングデバイス等を含む。操作部3は、例えばユーザが使用する情報端末9に設けられている。表示部4が、タッチパネル式のディスプレイである場合、操作部3の機能を兼ねてもよい。作成者H1は、表示部4に表示される標準画像A1及び各評価画像B1を目視で比較し、各評価画像B1について「良(OK)」か「不良(NG)」を評価し、その評価結果を、操作部3を介して検査支援システム1に入力することになる。処理部10は、入力された評価結果と評価画像B1とを対応付けして、記憶部(例えば第1記憶部5)に記憶する。
 基準決定部14は、評価情報に基づき、対象T1の表面の状態に対する検査基準を決定するように構成される。図3A及び図4では、作成者H1が、5つの評価画像B1(B11~B15)のうち、評価画像B11~B13を「OK」と評価し、評価画像B14,B15を「NG」と評価した評価結果を示している。図面では便宜上、「OK」に対応する評価画像B11~B13の近傍に、〇マークを印し、「NG」に対応する評価画像B14,B15の近傍に、×マークを印している。
 基準決定部14は、直線的に並ぶ複数の評価画像B1のうち、評価結果が「OK」から「NG」に変わる境目を特定する。基準決定部14は、検査基準を、評価結果が最も「NG」に近い「OK」に対応する評価画像B1(図4では、評価画像B13)とする。処理部10は、検査基準となった評価画像B13における画像データI3(色濃度)及び検査基準値P13(第3塗装条件)に関する情報を、記憶部(例えば第1記憶部5)に記憶する。
 出力部15は、検査基準に対応する条件パラメータP1(図4では、検査基準値P13)に関する情報を出力するように構成される。つまり、出力部15は、第3塗装条件に関する情報を外部(例えば情報端末9)に出力する。言い換えると、サーバ200は、第3塗装条件に関する情報を情報端末9に送信する。情報端末9は、表示部4から第3塗装条件に関する情報を提示する。第3塗装条件に関する情報は、変化の対象であったある層の吐出量に関する検査基準値P13だけでなく、標準値に固定していた他の層の吐出量、塗装回数、及び霧化圧等の条件パラメータP1も含む。
 作成者H1は、提示された第3塗装条件に基づき、限度見本となる対象T1を作成する。つまり、作成者H1は、ユーザインタフェースを介して塗装システム300に対して提示された第3塗装条件に関する情報を入力する。その結果、塗装システム300は、第3塗装条件に従って塗装し、対象T1(限度見本)が作成される。このように作成された限度見本は、画像生成部12が生成した評価画像B13に非常に近い塗装状態となる。
 出力部15による第3塗装条件に関する情報の出力先は、情報端末9ではなく、直接的に塗装システム300でもよい。塗装システム300は、サーバ200から直接受信した第3塗装条件に従って塗装し、対象T1(限度見本)が作成されてもよい。
 このように出力された第3塗装条件の情報を、塗装工程に対してフィードバックすることで、作成者H1は、検査基準に対応する現物(限度見本)の作成及び確認が行える。
 本実施形態では、第1記憶部5は、条件パラメータP1における複数の標準値にそれぞれ対応する複数の候補モデルN1(図1参照)を記憶する。ここでいう複数の候補モデルN1は、例えば過去に検査基準の決定に適用されたことのある複数の画像生成モデルM1を含み得る。
 条件判定部16は、標準値と、複数の標準値の各々との類似性を判定し、複数の標準値の中に標準値との類似性の高い値が存在すれば、複数の候補モデルN1のうち当該値に対応する候補モデルN1を、所定の画像生成モデルM1に選択する。具体的には、条件判定部16は、着目する吐出量についての第1標準値P11(塗装パラメータp)と、複数の候補モデルN1に対応する複数の第1標準値P11(塗装パラメータp′)の各々との差の絶対値(|p-p′|)を閾値と比較する。第1記憶部5内に、絶対値(|p-p′|)が閾値より小さい候補モデルN1が存在すれば、条件判定部16は、その候補モデルN1を、画像生成モデルM1に選択する。
 この条件判定部16による条件判定処理は、見本作成作業の前準備として実行されることが好ましい。もし第1記憶部5内に、絶対値(|p-p′|)が閾値より小さい候補モデルN1が存在しなければ、サーバ200は、その旨を情報端末9に通知する。作成者H1は、新たな画像生成モデルM1を用意して、操作部3を介してその情報を検査支援システム1に登録する。
 このように条件判定部16が類似性を判定し、画像生成モデルM1を選択するため、作成者H1が新たに画像生成モデルM1を作成したり選択したりする手間が省かれる。結果的に、より効率的に検査基準を決定できる。
 学習部7は、表面の状態(ここでは塗装状態)に関する良否のラベルが付与された画像データを学習データに用いて学習済みモデルM2(図1参照)を生成する。この「良否のラベル」は、基準決定部14で決定された検査基準に基づくラベルである。
 「学習データ」は、モデルを機械学習するために用いられる学習用データである。この「モデル」は、識別対象(対象T1の表面状態)に関する入力データが入力されると、識別対象がどのような状態にあるかを推定し、推定結果(識別結果)を出力するプログラムである。「学習済みモデル」は、学習用データを用いた機械学習が完了したモデルをいう。また「学習データ(セット)」は、モデルに入力される入力データ(画像データ)と、入力データに付与されたラベルと、を組み合わせたデータセットであり、いわゆる教師データである。つまり、本実施形態では、学習済みモデルM2は、教師あり学習による機械学習が完了したモデルである。
 学習部7は、対象T1に関する学習済みモデルM2を生成する機能を有する。学習部7は、ラベル付きの複数の学習データ(画像データ)に基づき学習済みモデルM2を生成する。学習済みモデルM2は、例えばニューラルネットワークを用いたモデル、又は多層ニューラルネットワークを用いた深層学習(ディープラーニング)により生成されるモデルを含むことを想定する。ニューラルネットワークは、例えばCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)、又はBNN(Bayesian Neural Network:ベイズニューラルネットワーク)等を含み得る。学習済みモデルM2は、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の集積回路に、学習済みのニューラルネットワークを実装することで実現されている。学習済みモデルM2は、ディープラーニングにより生成されるモデルに限定されない。学習済みモデルM2は、サポートベクターマシン、又は決定木等により生成されるモデルでもよい。
 複数の学習データは、種々の塗装条件により生成された複数の評価画像B1に対して、基準決定部14で決定された検査基準における評価結果「OK」又は「NG」を、ラベルとして付与することで生成される。つまり、図4の例で言えば、評価画像B11~B13の画像データに「OK」のラベルを付与した学習データが生成される。また評価画像B14,B15の画像データに「NG」のラベルを付与した学習データが生成される。なお、第1標準画像A11の画像データに「OK」のラベルを付与した学習データが生成されてもよい。また第2標準画像A12の画像データに「NG」のラベルを付与した学習データが生成されてもよい。
 つまり、複数の評価画像B1を学習データに採用する場合、ラベルの付与に関する作業(ラベリング)は、検査基準の決定時点で自動的に完了しているともいえる。したがって、ユーザによって操作部3等のユーザインタフェースを介して検査支援システム1に対して学習データを新たに用意したりラベリングしたりする手間が掛かりにくくなる。学習部7は、ラベル付きの複数の学習データを用いて、対象T1の塗装状態の良、及び不良を機械学習することにより、学習済みモデルM2を生成する。学習部7で生成された学習済みモデルM2は、第2記憶部6に格納(記憶)される。
 学習部7は、新たに取得したラベル付きの学習データ(評価画像B1)を用いて再学習を行うことで、学習済みモデルM2の性能の向上を図ることができる。例えば新しい塗装条件による評価画像B1が生成されれば、学習部7に、新しい評価画像B1に関する再学習を行わせることが可能である。
 良否判定部8は、学習済みモデルM2を用いて、対象T1の検査画像C1に関する良否の判定を行う。つまり、検査支援システム1は、例えば、実際の生産ラインにおける塗装工程を経た対象T1の塗装状態に関する良否の識別を自動的に行う機能を有する。撮像部2は、検査工程において、塗装工程を経た対象T1を順次撮像し、その撮像画像(検査画像C1)をサーバ200へ送信する。処理部10は、対象T1の識別結果を、検査者が使用する端末(例えば情報端末9)に送信する。ここでサーバ200は、識別結果が「NG(不良)」だった場合、警告メッセージを情報端末9に通知する。さらにサーバ200は、識別結果が「NG(不良)」だった対象T1を破棄するように(或いは検査者が目視確認するためにコンベア等の搬送装置の稼働を停止するように)、生産ラインを管理する管理設備に信号を送信する。
 このように基準決定部14で決定された検査基準に基づくラベル付けされた学習データを用いて良否判定の機械学習を実施することで、表面の状態に関する良否の判定精度が向上する。
 ところで、対象T1のメーカが複数拠点(工場)で対象T1を製造する場合、各拠点で表面状態の検査における検査基準にばらつきが発生する可能性がある。そこで、例えばある拠点のサーバ200が、そのサーバ200で決定された検査基準に関する情報等を、他の拠点のサーバ200へ、インターネット等の広域ネットワークを介して送信して、情報の共有をしてもよい。この場合、複数拠点で統一された検査基準を構築することができる。
 (2.3)動作
 以下、検査支援システム1を備えた塗装管理システム100に関する動作(動作例1,2)について説明する。なお、以下の各動作例における処理の順序は単なる一例であり、特に限定されない。また、各動作例における処理の一部が省略されたり、別の処理が追加されたりしてもよい。
 <動作例1:見本作成>
 以下、見本作成に関する動作例1について図5(フローチャート)を参照しながら説明する。
 まず作成者H1は、標準画像A1を用意する。すなわち、塗装システム300は、第1塗装条件(第1標準値P11)に基づく塗装を対象T1に対して実行し、現物(サンプル品)を作成する(ステップS1)。撮像部2は、第1塗装条件に基づく現物を撮像する(ステップS2:第1標準画像A11の生成)。撮像部2は、第1標準画像A11を検査支援システム1のサーバ200に送信する。結果的に、処理部10の画像取得部11は、第1標準値P11に設定された対象T1に関する第1標準画像A11を取得する(画像取得処理)。
 また塗装システム300は、第2塗装条件(第2標準値P12)に基づく塗装を対象T1(ステップS1の対象T1は別に用意された物)に対して実行し、現物を作成する(ステップS3)。撮像部2は、第2塗装条件に基づく現物を撮像する(ステップS4:第2標準画像A12の生成)。撮像部2は、第2標準画像A12を検査支援システム1のサーバ200に送信する。結果的に、処理部10の画像取得部11は、第2標準値P12に設定された対象T1に関する第2標準画像A12を取得する(画像取得処理)。
 検査支援システム1は、着目する第1標準値P11(塗装パラメータp)と、複数の候補モデルN1に対応する複数の第1標準値P11(塗装パラメータp′)の各々との差の絶対値(|p-p′|)を閾値と比較する。第1記憶部5内に絶対値(|p-p′|)が閾値より小さい候補モデルN1が存在すれば(S5:Yes)、検査支援システム1は、その候補モデルN1を、画像生成モデルM1に選択する(ステップS6)。
 もし絶対値(|p-p′|)が閾値より小さい候補モデルN1が存在しなければ(S5:No)、検査支援システム1は、その結果を作成者H1に通知する。作成者H1は、新たに画像生成モデルM1を用意し、その情報を検査支援システム1に入力する。すなわち、検査支援システム1は、新たな画像生成モデルM1を取得する(ステップS7)。
 検査支援システム1は、第1及び第2標準値P11,P12を基準として、画像生成モデルM1に基づき条件パラメータP1を変化させた、対象T1に関する複数の評価画像B1を生成する(ステップS8:画像生成処理)。
 検査支援システム1は、標準画像A1(例えば第1標準画像A11)と複数の評価画像B1とを表示部4に表示させる(ステップS9)。作成者は、表示される標準画像A1と複数の評価画像B1の各々とを比較し、各評価画像B1に対して「OK」又は「NG」の評価を行い、評価結果を入力する。すなわち、検査支援システム1は、各評価画像B1に対する評価結果を取得する(ステップS10)。
 検査支援システム1は、評価結果に基づき、対象T1の表面の状態に対する検査基準を決定する(ステップS11)。検査支援システム1は、第3塗装条件(検査基準値P13)の情報を情報端末9に出力する(ステップS12)。
 作成者H1は、第3塗装条件の情報に基づき限度見本を用意する。すなわち、塗装システム300は、第3塗装条件に基づく塗装を対象T1に対して実行し、限度見本を作成する(ステップS13)。
 例えば自動車部品メーカが、ある部品の塗装品(対象T1)について、このように作成された限度見本を自動車メーカ等の顧客と情報共有し合うことで、その塗装品に関する製造の承諾を得やすくなる。また実際の生産ラインの稼働時における塗装工程を終えた塗装品の検査時に、検査者が限度見本を確認することで、検査作業が安定的で精度良く行われ得る。限度見本の作成には、コストと時間が膨大に掛かり得るという懸念があるが、検査支援システム1では、限度見本の作成を効率良く行える。
 <動作例2:検査>
 以下、検査(検査工程)に関する動作例2について図6(フローチャート)を参照しながら説明する。
 生産ラインの稼働中において、塗装システム300は、塗装工程にて、所定の塗装条件(例えば第1塗装条件)に基づく塗装を対象T1に対して順次実行し、塗装品(製造品又は半製品)を作成する。撮像部2は、塗装工程を経た塗装品を順次撮像する(検査画像C1の生成)。撮像部2は、撮像した検査画像C1を検査支援システム1のサーバ200に順次送信する。
 検査支援システム1は、検査画像C1を順次取得する(ステップS21)。そして、検査支援システム1(良否判定部8)は、学習済みモデルM2を用いて、順次取得する検査画像C1に基づき、塗装工程を経た対象T1の塗装状態に関する良否の識別を行う(ステップS22)。識別結果が「OK」だった場合(S23:Yes)、検査支援システム1は、警告メッセージ等を通知しない。そして、検査支援システム1は、検査工程が終了していなければ(ステップS24:No)、次の検査画像C1を取得して、良否の識別を行う(S21へ戻る)。
 一方、識別結果が「NG」だった場合(S23:No)、検査支援システム1は、警告メッセージを情報端末9に通知する(ステップS25)。さらに検査支援システム1は、対象T1を搬送する搬送装置の稼働を一時的に停止するように、管理設備に停止信号を送信する(ステップS26)。検査者は、検査工程の現場に向かい現物を目視で確認し、確認を終えると、搬送装置の稼働を復旧させる操作を行う(ステップS27)。その結果、検査工程が再開する。若しくは、識別結果が「NG」だった場合、搬送装置等の設備を一時停止させずに、対象T1を取り除く機構を設けて除外されてもよい。検査工程が終了すれば(ステップS24:Yes)、処理は終了する。
 <利点>
 表面の状態に関して外観的特徴量を用いて検査する場合は、外観的特徴量のデータは膨大になり得る。例えば表面塗装の場合、特徴量は、色(明度、彩度、色相)、グラデーション、粒状感、キラキラ感、光沢感、及びマット感等を含めると、多次元となり得る。そのため、人が感じる質感を単純な特徴量で表すことは困難であり、また仮に特徴量で表せたとしても主観評価の試行回数は膨大になる。
 これに対して本実施形態に係る検査支援システム1では、工程条件における条件パラメータP1を用いて複数の評価画像B1が生成される。したがって、評価画像B1を用いれば、例えば複雑な外観的特徴量に関する設計を行って検査基準を決定する場合に比べて、低次元のパラメータ(吐出量又は塗装回数等)を扱うため、検査基準をより容易に決定し得る。結果的に、検査支援システム1には、複雑な設計が必要となりにくい、という利点がある。
 また本実施形態では、標準画像A1及び評価画像B1を表示する表示部4が設けられていることで、ユーザは目視により標準画像A1及び評価画像B1を確認できるため、検査基準をより容易に決定し得る。
 また本実施形態では、標準画像A1は、対象T1を撮像部2で撮像した撮像画像であるため、例えば標準画像A1がCG画像である場合に比べて、標準画像A1を容易に準備できる。またより精度の高い検査基準が決定される。
 特に本実施形態では、画像生成部12は、第1標準値P11と第2標準値P12との間で、条件パラメータP1を変化させた評価画像B1を生成する。そのため、対象T1の塗装状態の変化に関する方向性をより明確に定義することができる。つまり、塗装の色濃度がどの方向に変化していくかを定量化しやすくなり、条件パラメータP1に対する表面状態(塗装状態)の変化特性を線形近似化できる。
 (3)変形例
 上記実施形態は、本開示の様々な実施形態の一つに過ぎない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、上記実施形態に係る検査支援システム1と同様の機能は、検査支援方法、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。
 以下、上記実施形態の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。以下では、上記実施形態を「基本例」と呼ぶこともある。
 本開示における検査支援システム1は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における検査支援システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。
 また、検査支援システム1における複数の機能が、1つのハウジング内に集約されていることは必須の構成ではない。例えば、検査支援システム1の構成要素は、複数のハウジングに分散して設けられていてもよい。
 反対に、検査支援システム1における複数の機能が、1つのハウジング内に集約されてもよい。さらに、検査支援システム1の少なくとも一部の機能、例えば、検査支援システム1の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。
 (3.1)第1変形例
 以下に第1変形例の検査支援システム1について、図7を参照しながら説明する。なお、以下の説明では、基本例と実質的に共通する構成要素については、適宜同じ参照符号を付して適宜にその説明を省略することがある。
 基本例では、画像生成部12は、条件パラメータP1に対するRGBに関する色濃度の変化特性が直線的である前提で、条件パラメータP1を変化させた複数の評価画像B1を生成していた。しかし、実際には、条件パラメータP1の増加に対して、色濃度の変化特性は、直線的に増加しない可能性があり、例えば曲線的に漸増する可能性がある。
 ここで図7に示す破線L1は、基本例における図3及び図4の変化特性と同じである。基本例と同様に、検査支援システム1は、評価画像B13(図3及び図4参照)における画像データI3(色濃度)及び検査基準値P13(第3塗装条件)を検査基準に決定したとする。そして、塗装システム300が第3塗装条件に従って塗装し対象T1(限度見本)が作成された場合に、その限度見本を撮像部2で撮像した撮像画像X1(図7参照)は、画像生成部12が生成した評価画像B13と比べて、色濃度にずれが生じる場合がある。図7の例では、撮像画像X1の色濃度の方が、評価画像B13よりも低い。
 要するに、図7に示す実線曲線Y1のように、塗装条件の変化に対する「真の変化特性」は、理想的な直線(破線L1)と「誤差(ずれ)」が生じ得る。しかし、「真の変化特性」の実線曲線Y1は、現実的には未知であり、演算等で求めることは容易ではない可能性がある。
 そこで本変形例では、この「誤差」が解消されるまで(例えば所定値以下となるまで)、標準値の設定、評価画像B1の生成と表示、作成者H1による評価結果の取得、及び評価結果に基づく検査基準の決定の一連の流れを繰り返す点で基本例と相違する。以下、この一連の流れのことを、「基準決定過程」と呼ぶ。
 まず処理部10は、1回目の基準決定過程での、評価画像B13と、その(仮の)限度見本の撮像画像X1との色濃度の差(画像データI3と画像データI3´との差)を、所定値と比較する。
 図7の例では、上記差が所定値以上であることから、1回目の基準決定過程では「誤差」が解消されていないため、本変形例の検査支援システム1は、2回目の基準決定過程を実行する。ここで処理部10は、2回目の基準決定過程では、第3塗装条件の検査基準値P13を、新たな標準値とする。つまり、画像生成部12は、撮像画像X1を、原点、すなわち第1標準画像A11に設定する。条件判定部16は、新たな標準値(検査基準値P13)に関する類似性を判定する。複数の候補モデルN1のうち、新たな標準値と類似性の高い標準値に対応する候補モデルN1が存在すれば、条件判定部16は、それを2回目の基準決定過程で適用する画像生成モデルM1に選択する。もし類似性の高い候補モデルN1が存在しなければ、作成者H1が新たな画像生成モデルM1を用意して検査支援システム1に登録する。
 画像生成部12は、2回目の基準決定過程で適用する画像生成モデルM1を用いて、再び複数の評価画像B1を生成する。図7における破線L2(直線)は、新たに適用された画像生成モデルM1による、条件パラメータP1に対する色濃度の変化特性を示す。検査支援システム1は、生成した複数の評価画像B1を再び表示部4に表示させて、作成者H1の評価結果に基づき検査基準を決定する。検査支援システム1は、評価画像B16(図7参照)の検査基準値P14(第4塗装条件)を検査基準に決定したとする。そして、塗装システム300にて第4塗装条件に従って塗装し対象T1(限度見本)が作成されて、その限度見本を撮像した撮像画像X2(図7参照)が生成される。処理部10は、2回目の基準決定過程での、評価画像B16と、その(仮の)限度見本の撮像画像X2との色濃度の差(画像データI4と画像データI4´との差)を、所定値と比較する。
 図7の例では、上記差が所定値以上であることから、2回目の基準決定過程でも依然として「誤差」が解消されていないため、検査支援システム1は、3回目の基準決定過程を実行する。ここで処理部10は、3回目の基準決定過程では、第4塗装条件の検査基準値P14を、新たな標準値とする。つまり、画像生成部12は、撮像画像X2を、原点、すなわち第1標準画像A11に設定する。条件判定部16は、新たな標準値(検査基準値P14)に関する類似性を判定する。複数の候補モデルN1のうち、新たな標準値と類似性の高い標準値に対応する候補モデルN1が存在すれば、条件判定部16は、それを3回目の基準決定過程で適用する画像生成モデルM1に選択する。もし類似性の高い候補モデルN1が存在しなければ、作成者H1が新たな画像生成モデルM1を用意して検査支援システム1に登録する。
 画像生成部12は、3回目の基準決定過程で適用する画像生成モデルM1を用いて、再び複数の評価画像B1を生成する。図7における破線L3(直線)は、新たに適用された画像生成モデルM1による、条件パラメータP1に対する色濃度の変化特性を示す。検査支援システム1は、生成した複数の評価画像B1を再び表示部4に表示させて、作成者H1の評価結果に基づき検査基準を決定する。検査支援システム1は、評価画像B17(図7参照)の検査基準値P15(第5塗装条件)を検査基準に決定したとする。そして、塗装システム300にて第5塗装条件に従って塗装し対象T1(限度見本)が作成されて、その限度見本を撮像した撮像画像X3(図7参照)が生成される。処理部10は、3回目の基準決定過程での、評価画像B17と、その(仮の)限度見本の撮像画像X3との色濃度の差(画像データI5と画像データI5´との差)を、所定値と比較する。
 図7の例では、上記差が所定値より小さいことから、3回目の基準決定過程で「誤差」が解消されたと判定され、検査支援システム1は、3回目の基準決定過程にて、検査基準値P15(第5塗装条件)を、真の検査基準に確定する。そして、第5塗装条件による塗装品が真の限度見本となる。
 なお、上記の例では、検査支援システム1が「誤差」が解消されたか否かを所定値と比較により自動的に判定しているが、作成者H1の目視により判定されてもよい。
 本変形例の構成によれば、検査基準の精度をより高めることができる。また、撮像画像X1,X2,X3・・・の軌跡から、「真の変化特性」である(未知の)実線曲線Y1を特定可能となる。その結果、現物により近い画像生成モデルM1を作成できる。
 (3.2)第2変形例
 以下に第2変形例の検査支援システム1について、図8を参照しながら説明する。なお、以下の説明では、基本例と実質的に共通する構成要素については、適宜同じ参照符号を付して適宜にその説明を省略することがある。
 基本例では、画像生成モデルM1は、条件パラメータP1を変数とする関数モデルである。本変形例では、画像生成モデルM1は、条件パラメータP1を変えて生成された画像に関して機械学習されたモデル(学習済みモデル)である点で、基本例と相違する。
 例えば、第1変形例で「誤差」を解消するために、つまり(未知の)実線曲線Y1を特定するために、基準決定過程を繰り返すことを説明したが、画像生成モデルM1は、この「誤差」を最小となるように機械学習される。具体的には、表面状態を予測するニューラルネットワークを構成し、画像生成モデルM1とする。画像生成モデルM1が生成した画像と、実際に塗装したサンプル品を撮像したサンプル画像との誤差を最小化するようにニューラルネットワークを学習し、最適化する。ニューラルネットワークは生成器: Generatorと、識別器: Discriminatorの2つのネットワークを用いて互いに競わせながら学習させるGAN(Generative Adversarial Network:敵対的生成ネットワーク)として構成されてもよい。
 この場合、教師データとして、例えば撮像画像X1,X2,X3・・・等を用いればよい。本変形例のように機械学習された画像生成モデルM1を適用することで、図8に示すように、変化特性(破線曲線Y2)を実線曲線Y1により近づけることができる。
 (3.3)第3変形例
 以下に第3変形例の検査支援システム1について、図9を参照しながら説明する。なお、以下の説明では、基本例と実質的に共通する構成要素については、適宜同じ参照符号を付して適宜にその説明を省略することがある。
 基本例では、画像データIがRGBの色濃度の変化に関するものであった。本変形例では、画像データIがテクスチャの割合の変化に関する点で基本例と相違する。図9では、テクスチャの割合として、表面塗装において、金属片等の光輝材の入った塗料により粒子感が増して独特の質感を呈する粒状割合を例に図示している。第1標準画像A11は、粒状割合βが0(ゼロ)である。第2標準画像A12は、所定の領域内に一定量の粒状が存在する。粒状割合βは、塗装パラメータpを正規化した値であり、0~1の値を取り得る。つまり、粒状割合βは、吐出量、塗装回数、及び霧化圧等の塗装パラメータpについて第1標準画像A11から第2標準画像A12まで取り得る値を0~1でスケーリングしたものである。
 本変形例では、検査支援システム1の処理部10は、画像処理にて、第2標準画像A12から、粒状のテクスチャのみを抽出する(図9のテクスチャA2を参照)。処理部10は、テクスチャA2における粒状割合βを「1」と定義する。
 本変形例では、画像生成部12は、画像生成モデルM1に基づき、粒状割合β(条件パラメータP1)を0~1で変化させる。画像生成部12は、第1標準画像A11に、粒状割合β(例えば「0.5」)に応じた粒状のテクスチャA3を付与(合成)することで、評価画像B1を生成する。この場合、画像生成モデルM1は、テクスチャ(粒状)のずれ方向を定量化するためのモデルである。
 本変形例の構成によれば、テクスチャ(粒状)の変化についても評価画像B1を生成することができる。
 (3.4)その他の変形例
 基本例では、評価結果は、「良(OK)」及び「不良(NG)」の二段階である。しかし、評価結果は、三段階以上でもよく、例えば図10Aに示すように、「良(OK)」及び「不良(NG)」に、それらの中間に位置する「グレー」を加えた三段階でもよい。作成者H1は、図10Bに示すように、各評価画像B1を目視で評価し、操作部3を用いて各評価画像B1に対する評価結果(OKかNGかグレーか)を入力することになる。図10Aの例では、評価画像B13,B14の評価結果が「グレー」であり、その近傍に△マークが印されている。この場合、限度見本は、評価画像B12~B14のうちの少なくとも1つ(例えば評価画像B12と評価画像B14)に対応する塗装条件を用いて作成されてもよい。このようにOKとNGの中間(グレー)を設けることで、より段階的な検査基準を作成することが可能となる。この場合、「グレー」の評価画像B13に最も近い、「OK」の評価画像B12に対応する塗装条件を用いて、「OK」の限度となる良品限度見本が作成され、また、「グレー」の評価画像B14に最も近い、「NG」の評価画像B15に対応する塗装条件を用いて、「NG」の限度となる不良品限度見本が作成されてもよい。
 基本例では、表示部4は、標準画像A1と各評価画像B1を一対一で同時に画面表示しているが、このような表示態様に限定されない。表示部4は、例えば図11における画面Z1に示すように、全ての評価画像B1を一行に並べた表示態様で、標準画像A1と評価画像B1を同時に画面表示してもよい(評価画像の一覧表示)。或いは、表示部4は、例えば図11における画面Z2に示すように、全ての評価画像B1が標準画像A1の中心を囲むような表示態様で、標準画像A1と評価画像B1を同時に画面表示してもよい。この場合、作成者H1は、基本例のように画像を1枚ずつ比較する一対比較に比べて、試行回数を削減することができる。
 また表示部4は、標準画像A1と評価画像B1を画面表示する以外にも、例えば図12における画面Z3に示すように、検査基準を決定するまで過程及び結果を画面表示してもよい。図12の例では、図10Aに示した検査基準に関する結果を含むグラフが画面Z3に表示されている。この場合、作成者H1は、検査基準を決定したプロセスを容易に把握することができる。
 基本例では、検査支援システム1は、原点(第1標準値P11)から条件パラメータP1を増やす方向で変化させて評価画像B1を生成している。しかし、検査支援システム1は、例えば第1標準値P11又は第2標準値P12から、条件パラメータP1を減らす方向で変化させて評価画像B1を生成してもよい。
 (4)まとめ
 以上説明したように、第1の態様に係る検査支援システム(1)は、画像取得部(11)と、画像生成部(12)と、を備える。画像取得部(11)は、対象(T1)に関する標準画像(A1)であって、対象(T1)の表面の状態に関する工程条件における条件パラメータ(P1)が標準値に設定された標準画像(A1)を取得する。画像生成部(12)は、標準値を基準として、所定の画像生成モデル(M1)及び標準画像(A1)に基づき条件パラメータ(P1)を変化させた、対象(T1)に関する複数の評価画像(B1)を生成する。
 この態様によれば、工程条件における条件パラメータ(P1)を用いて複数の評価画像(B1)が生成される。したがって、評価画像(B1)を用いれば、例えば複雑な外観的特徴量に関する設計を行って検査基準を決定する場合に比べて、検査基準をより容易に決定し得る。結果的に、検査支援システム(1)には、複雑な設計が必要となりにくい、という利点がある。
 第2の態様に係る検査支援システム(1)は、第1の態様において、標準画像(A1)、及び複数の評価画像(B1)を表示する表示部(4)を更に備える。
 この態様によれば、ユーザは目視により標準画像(A1)、及び複数の評価画像(B1)を確認できるため、検査基準をより容易に決定し得る。
 第3の態様に係る検査支援システム(1)は、第1又は第2の態様において、評価取得部(13)と、基準決定部(14)とを更に備える。評価取得部(13)は、複数の評価画像(B1)に対する二段階以上の評価結果に関する評価情報を取得する。基準決定部(14)は、評価情報に基づき、対象(T1)の表面の状態に対する検査基準を決定する。
 この態様によれば、より精度の高い検査基準が決定される。
 第4の態様に係る検査支援システム(1)は、第3の態様において、検査基準に対応する条件パラメータ(P1)に関する情報を出力する出力部(15)を更に備える。
 この態様によれば、出力された上記情報を、例えば表面の状態に関する工程に対してフィードバックすることで、検査基準に対応する現物(限度見本)の作成及び確認が行える。
 第5の態様に係る検査支援システム(1)は、第3又は第4の態様において、学習部(7)と、良否判定部(8)とを更に備える。学習部(7)は、基準決定部(14)で決定された検査基準に基づくラベルであって、表面の状態に関する良否のラベルが付与された画像データを学習データに用いて学習済みモデル(M2)を生成する。良否判定部(8)は、学習済みモデル(M2)を用いて、対象(T1)の検査画像(C1)に関する良否の判定を行う。
 この態様によれば、表面の状態に関する良否の判定精度が向上する。
 第6の態様に係る検査支援システム(1)は、第1~第5の態様のいずれか1つにおいて、記憶部(第1記憶部5)と、条件判定部(16)とを更に備える。記憶部(第1記憶部5)は、条件パラメータ(P1)における複数の標準値にそれぞれ対応する複数の候補モデル(N1)を記憶する。条件判定部(16)は、標準値と、複数の標準値の各々との類似性を判定し、複数の標準値の中に標準値との類似性の高い値が存在すれば、複数の候補モデル(N1)のうち当該値に対応する候補モデル(N1)を、画像生成モデル(M1)に選択する。
 この態様によれば、新たに画像生成モデル(M1)を作成したり選択したりする手間が省かれる。
 第7の態様に係る検査支援システム(1)に関して、第1~第6の態様のいずれか1つにおいて、標準画像(A1)は、対象(T1)を撮像部(2)で撮像した撮像画像である。
 この態様によれば、例えば標準画像(A1)がCG画像である場合に比べて、標準画像(A1)を容易に準備できる。またより精度の高い検査基準が決定される。
 第8の態様に係る検査支援システム(1)に関して、第1~第7の態様のいずれか1つにおいて、画像取得部(11)は、条件パラメータ(P1)が、標準値としての第1標準値(P11)とは異なる第2標準値(P12)に設定された標準画像(A1)を更に取得する。画像生成部(12)は、第1標準値(P11)と第2標準値(P12)との間で、条件パラメータ(P1)を変化させた複数の評価画像(B1)を生成する。
 この態様によれば、対象(T1)の表面状態の変化に関する方向性をより明確に定義することができる。
 第9の態様に係る検査支援システム(1)に関して、第1~第8の態様のいずれか1つにおいて、画像生成モデル(M1)は、条件パラメータ(P1)を変数とする関数モデルである。
 この態様によれば、画像生成モデル(M1)が、例えば機械学習された学習済みモデルである場合に比べて、その準備が容易であり、より複雑な設計が必要となりにくくなる。
 第10の態様に係る検査支援システム(1)に関して、第1~第8の態様のいずれか1つにおいて、画像生成モデル(M1)は、条件パラメータ(P1)を変えて生成された画像に関して機械学習されたモデルである。
 この態様によれば、画像生成モデル(M1)に関する精度が向上し、より現物に近い評価画像(B1)が生成されやすくなる。
 第11の態様に係る検査支援システム(1)に関して、第1~第10の態様のいずれか1つにおいて、工程条件とは、塗装条件である。条件パラメータ(P1)は、塗料の吐出量、塗料を霧化する圧力、対象(T1)の表面までの塗装距離、塗装回数、及び塗料の乾燥速度の少なくとも1つに関する。
 この態様によれば、塗装に関する複雑な設計が必要となりにくくなる。
 第12の態様に係る検査支援方法は、画像取得処理と、画像生成処理と、を含む。画像取得処理では、対象(T1)に関する標準画像(A1)であって、対象(T1)の表面の状態に関する工程条件における条件パラメータ(P1)が標準値に設定された標準画像(A1)を取得する。画像生成処理では、標準値を基準として、所定の画像生成モデル(M1)及び標準画像(A1)に基づき条件パラメータ(P1)を変化させた、対象(T1)に関する複数の評価画像(B1)を生成する。
 この態様によれば、複雑な設計が必要となりにくい検査支援方法を提供できる。
 第13の態様に係るプログラムは、1以上のプロセッサに、第12の態様における検査支援方法を実行させるためのプログラムである。
 この態様によれば、複雑な設計が必要となりにくい機能を提供できる。
 第2~11の態様に係る構成については、検査支援システム(1)に必須の構成ではなく、適宜省略可能である。
 1 検査支援システム
 11 画像取得部
 12 画像生成部
 13 評価取得部
 14 基準決定部
 15 出力部
 16 条件判定部
 2 撮像部
 4 表示部
 5 第1記憶部(記憶部)
 7 学習部
 8 良否判定部
 A1 標準画像
 B1 評価画像
 C1 検査画像
 M1 画像生成モデル
 M2 学習済みモデル
 N1 候補モデル
 P1 条件パラメータ
 P11 第1標準値
 P12 第2標準値
 T1 対象

Claims (13)

  1.  対象に関する標準画像であって、前記対象の表面の状態に関する工程条件における条件パラメータが標準値に設定された前記標準画像を取得する画像取得部と、
     前記標準値を基準として、所定の画像生成モデル及び前記標準画像に基づき前記条件パラメータを変化させた、前記対象に関する複数の評価画像を生成する画像生成部と、
    を備える、
     検査支援システム。
  2.  前記標準画像、及び前記複数の評価画像を表示する表示部を更に備える、
     請求項1に記載の検査支援システム。
  3.  前記複数の評価画像に対する二段階以上の評価結果に関する評価情報を取得する評価取得部と、
     前記評価情報に基づき、前記対象の表面の状態に対する検査基準を決定する基準決定部と、を更に備える、
     請求項1又は2に記載の検査支援システム。
  4.  前記検査基準に対応する前記条件パラメータに関する情報を出力する出力部を更に備える、
     請求項3に記載の検査支援システム。
  5.  前記基準決定部で決定された前記検査基準に基づくラベルであって、前記表面の状態に関する良否の前記ラベルが付与された画像データを学習データに用いて学習済みモデルを生成する学習部と、
     前記学習済みモデルを用いて、前記対象の検査画像に関する良否の判定を行う良否判定部と、
    を更に備える、
     請求項3又は4に記載の検査支援システム。
  6.  前記条件パラメータにおける複数の標準値にそれぞれ対応する複数の候補モデルを記憶する記憶部と、
     前記標準値と、前記複数の標準値の各々との類似性を判定し、前記複数の標準値の中に前記標準値との類似性の高い値が存在すれば、前記複数の候補モデルのうち当該値に対応する候補モデルを、前記画像生成モデルに選択する条件判定部と、
    を更に備える、
     請求項1~5のいずれか1項に記載の検査支援システム。
  7.  前記標準画像は、前記対象を撮像部で撮像した撮像画像である、
     請求項1~6のいずれか1項に記載の検査支援システム。
  8.  前記画像取得部は、前記条件パラメータが、前記標準値としての第1標準値とは異なる第2標準値に設定された前記標準画像を更に取得し、
     前記画像生成部は、前記第1標準値と前記第2標準値との間で、前記条件パラメータを変化させた前記複数の評価画像を生成する、
     請求項1~7のいずれか1項に記載の検査支援システム。
  9.  前記画像生成モデルは、前記条件パラメータを変数とする関数モデルである、
     請求項1~8のいずれか1項に記載の検査支援システム。
  10.  前記画像生成モデルは、前記条件パラメータを変えて生成された画像に関して機械学習されたモデルである、
     請求項1~8のいずれか1項に記載の検査支援システム。
  11.  前記工程条件とは、塗装条件であり、
     前記条件パラメータは、塗料の吐出量、塗料を霧化する圧力、前記対象の表面までの塗装距離、塗装回数、及び塗料の乾燥速度の少なくとも1つに関する、
     請求項1~10のいずれか1項に記載の検査支援システム。
  12.  対象に関する標準画像であって、前記対象の表面の状態に関する工程条件における条件パラメータが標準値に設定された前記標準画像を取得する画像取得処理と、
     前記標準値を基準として、所定の画像生成モデル及び前記標準画像に基づき前記条件パラメータを変化させた、前記対象に関する複数の評価画像を生成する画像生成処理と、
    を含む、
     検査支援方法。
  13.  1以上のプロセッサに、請求項12に記載の検査支援方法を実行させるためのプログラム。
PCT/JP2022/010612 2021-03-22 2022-03-10 検査支援システム、検査支援方法、及びプログラム Ceased WO2022202365A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/551,117 US20240167965A1 (en) 2021-03-22 2022-03-10 Inspection assistance system, inspection assistance method, and program
JP2023508990A JP7660324B2 (ja) 2021-03-22 2022-03-10 検査支援システム、検査支援方法、及びプログラム
CN202280019532.2A CN117043814A (zh) 2021-03-22 2022-03-10 检查辅助系统、检查辅助方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021047799 2021-03-22
JP2021-047799 2021-03-22

Publications (1)

Publication Number Publication Date
WO2022202365A1 true WO2022202365A1 (ja) 2022-09-29

Family

ID=83395614

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010612 Ceased WO2022202365A1 (ja) 2021-03-22 2022-03-10 検査支援システム、検査支援方法、及びプログラム

Country Status (4)

Country Link
US (1) US20240167965A1 (ja)
JP (1) JP7660324B2 (ja)
CN (1) CN117043814A (ja)
WO (1) WO2022202365A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024254597A1 (en) * 2023-06-08 2024-12-12 Gecko Robotics, Inc. System, method, and apparatus to support on-site concrete inspection
US12284761B2 (en) 2021-04-20 2025-04-22 Gecko Robotics, Inc. Methods and inspection robots with on body configuration
US12313599B2 (en) 2021-04-22 2025-05-27 Gecko Robotics, Inc. Systems and methods for robotic inspection with simultaneous surface measurements at multiple orientations
US12358141B2 (en) 2016-12-23 2025-07-15 Gecko Robotics, Inc. Systems, methods, and apparatus for providing interactive inspection map for inspection robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333709A (ja) * 2006-06-19 2007-12-27 Konan Gakuen 検査基準決定方法、検査基準決定装置、及び外観検査装置
JP2016115331A (ja) * 2014-12-12 2016-06-23 キヤノン株式会社 識別器生成装置、識別器生成方法、良否判定装置、良否判定方法、プログラム
JP2019057250A (ja) * 2017-09-22 2019-04-11 Ntn株式会社 ワーク情報処理装置およびワークの認識方法
JP2019159889A (ja) * 2018-03-14 2019-09-19 オムロン株式会社 欠陥検査装置、欠陥検査方法、及びそのプログラム
JP2019212166A (ja) * 2018-06-07 2019-12-12 オムロン株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7285502B2 (ja) * 2017-12-08 2023-06-02 パナソニックIpマネジメント株式会社 検査システム、及び、検査方法
JP7017462B2 (ja) 2018-04-26 2022-02-08 株式会社神戸製鋼所 学習画像生成装置及び学習画像生成方法、並びに画像認識装置及び画像認識方法
WO2020071234A1 (ja) * 2018-10-05 2020-04-09 日本電産株式会社 画像処理装置、画像処理方法、外観検査システムおよびコンピュータプログラム
EP3900870A4 (en) * 2018-12-19 2022-02-16 Panasonic Intellectual Property Management Co., Ltd. Visual inspection device, method for improving accuracy of determination for existence/nonexistence of shape failure of welding portion and kind thereof using same, welding system, and work welding method using same
CN113924594B (zh) * 2019-08-19 2025-08-26 Lg电子株式会社 用于产品生产线上的视觉检查的基于ai的新学习模型生成系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333709A (ja) * 2006-06-19 2007-12-27 Konan Gakuen 検査基準決定方法、検査基準決定装置、及び外観検査装置
JP2016115331A (ja) * 2014-12-12 2016-06-23 キヤノン株式会社 識別器生成装置、識別器生成方法、良否判定装置、良否判定方法、プログラム
JP2019057250A (ja) * 2017-09-22 2019-04-11 Ntn株式会社 ワーク情報処理装置およびワークの認識方法
JP2019159889A (ja) * 2018-03-14 2019-09-19 オムロン株式会社 欠陥検査装置、欠陥検査方法、及びそのプログラム
JP2019212166A (ja) * 2018-06-07 2019-12-12 オムロン株式会社 画像処理装置、画像処理方法及び画像処理プログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12358141B2 (en) 2016-12-23 2025-07-15 Gecko Robotics, Inc. Systems, methods, and apparatus for providing interactive inspection map for inspection robot
US12284761B2 (en) 2021-04-20 2025-04-22 Gecko Robotics, Inc. Methods and inspection robots with on body configuration
US12302499B2 (en) 2021-04-20 2025-05-13 Gecko Robotics, Inc. Systems, methods and apparatus for temperature control and active cooling of an inspection robot
US12365199B2 (en) 2021-04-20 2025-07-22 Gecko Robotics, Inc. Inspection robots and methods for inspection of curved surfaces with sensors at selected horizontal distances
US12420585B2 (en) 2021-04-20 2025-09-23 Gecko Robotics, Inc. High temperature wheels for inspection robots
US12420586B2 (en) 2021-04-20 2025-09-23 Gecko Robotics, Inc. High temperature compliant wheels for an inspection robot
US12313599B2 (en) 2021-04-22 2025-05-27 Gecko Robotics, Inc. Systems and methods for robotic inspection with simultaneous surface measurements at multiple orientations
US12366557B2 (en) 2021-04-22 2025-07-22 Gecko Robotics, Inc. Systems, methods, and apparatus for ultra-sonic inspection of a surface
WO2024254597A1 (en) * 2023-06-08 2024-12-12 Gecko Robotics, Inc. System, method, and apparatus to support on-site concrete inspection

Also Published As

Publication number Publication date
JP7660324B2 (ja) 2025-04-11
CN117043814A (zh) 2023-11-10
JPWO2022202365A1 (ja) 2022-09-29
US20240167965A1 (en) 2024-05-23

Similar Documents

Publication Publication Date Title
JP7660324B2 (ja) 検査支援システム、検査支援方法、及びプログラム
CN107533682B (zh) 综合和智能涂装管理
US11574420B2 (en) Systems and methods for matching color and appearance of target coatings
CN112088387B (zh) 检测成像物品缺陷的系统和方法
KR20220037392A (ko) 코팅 표면의 정성적 또는 정량적 특성
EP2973247B1 (en) Systems and methods for texture assessment of a coating formulation
US12411095B2 (en) System and method for assessing a coated surface with respect to surface defects
CN101896800A (zh) 确定具有效果色素的颜料配方的系统和方法
US12100171B2 (en) Systems and methods for matching color and appearance of target coatings
CN101730835A (zh) 涂料颜色数据库的创建方法、使用数据库的检索方法、及其系统、程序和记录介质
US11978233B2 (en) Systems and methods for matching color and appearance of target coatings
JP5063076B2 (ja) 光輝性顔料の同定方法、同定システム、同定プログラム及びその記録媒体
AU2022299794A1 (en) Paint film property change amount prediction method and system, coated object production condition change amount prediction method and system, and coated object production method
AU2025275273A1 (en) Automated FMEA system for customer service
Zhang et al. Deep learning-based automated characterization of crosscut tests for coatings via image segmentation
US10970879B2 (en) Formulation systems and methods employing target coating data results
CN120662471A (zh) 基于自动化控制的铝饰条彩色涂装优化系统
CN112184717B (zh) 用于质检的自动化分割方法
Elgeneidy et al. Towards an automated masking process: A model-based approach
US20260030845A1 (en) Anomaly tracking system and method using enterprise digital twins based mixed reality
JP2025525528A (ja) コーティング風化を予測するためのシステム、方法、及びインターフェース
Tiedje et al. Efficient Painting Processes via Self-Learning Behavior Models
CN121016980A (zh) 一种喷塑环节质量检测反馈方法及系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22775157

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280019532.2

Country of ref document: CN

Ref document number: 2023508990

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18551117

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22775157

Country of ref document: EP

Kind code of ref document: A1