IT201800005636A1 - METHOD AND APPARATUS FOR DETECTING DAMAGES IN A VEHICLE, CORRESPONDING TO VARIATIONS IN THE AESTHETIC CHARACTERISTICS OF THE VEHICLE - Google Patents
METHOD AND APPARATUS FOR DETECTING DAMAGES IN A VEHICLE, CORRESPONDING TO VARIATIONS IN THE AESTHETIC CHARACTERISTICS OF THE VEHICLE Download PDFInfo
- Publication number
- IT201800005636A1 IT201800005636A1 IT102018000005636A IT201800005636A IT201800005636A1 IT 201800005636 A1 IT201800005636 A1 IT 201800005636A1 IT 102018000005636 A IT102018000005636 A IT 102018000005636A IT 201800005636 A IT201800005636 A IT 201800005636A IT 201800005636 A1 IT201800005636 A1 IT 201800005636A1
- Authority
- IT
- Italy
- Prior art keywords
- vehicle
- instant
- time
- data
- values
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30156—Vehicle coating
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)
Description
DESCRIZIONE DESCRIPTION
Annessa a domanda di brevetto per INVENZIONE INDUSTRIALE avente per titolo Attached to a patent application for INDUSTRIAL INVENTION having the title
METODO E APPARATO PER RILEVARE DANNI IN UN VEICOLO, CORRISPONDENTI A VARIAZIONI DI CARATTERISTICHE ESTETICHE DEL VEICOLO METHOD AND APPARATUS FOR DETECTING DAMAGES IN A VEHICLE, CORRESPONDING TO VARIATIONS IN THE AESTHETIC CHARACTERISTICS OF THE VEHICLE
La presente invenzione ha per oggetto un metodo e un apparato per rilevare variazioni di caratteristiche estetiche su un veicolo. Il settore tecnico riguarda il settore automobilistico, in particolare il settore delle attività di servizio sui veicoli. A titolo esemplificativo potremmo citare il settore delle officine meccaniche, il settore del lavaggio delle autovetture, il settore del parcheggio o il settore del noleggio delle vetture. In tale settore tecnico si pone spesso il problema di poter valutare eventuali variazioni estetiche del veicolo nel tempo. Tale problematica è legata principalmente all’attribuzione della responsabilità connessa a dette eventuali variazioni estetiche del veicolo. Si osservi ad esempio il caso in cui una vettura viene consegnata all’officina per attività di manutenzione. Qualora la vettura, al momento della riconsegna, fosse soggetta ad eventuali danni riscontrabili dal proprietario si porrebbe il problema di valutare eventuali responsabilità. Allo stesso modo, la stessa problematica potrebbe essere riscontrata al momento della riconsegna di un’auto presa in affitto. The present invention relates to a method and an apparatus for detecting changes in aesthetic characteristics on a vehicle. The technical sector concerns the automotive sector, in particular the sector of vehicle service activities. By way of example, we could mention the mechanical workshop sector, the car washing sector, the parking sector or the car rental sector. In this technical sector the problem often arises of being able to evaluate any aesthetic variations of the vehicle over time. This problem is mainly linked to the attribution of responsibility related to any such aesthetic changes to the vehicle. For example, observe the case in which a car is delivered to the workshop for maintenance. If the car, at the time of delivery, was subject to any damage found by the owner, the problem would arise of assessing any liability. Similarly, the same problem could be encountered when returning a rented car.
In tale settore, questa problematica viene risolta verificando lo stato della vettura al momento della consegna e segnalando su un rapporto iniziale gli eventuali danni presenti e la loro localizzazione nel veicolo. Il rapporto viene sottoscritto da entrambe le parti coinvolte. Alla riconsegna dell’autovettura, quest’ultima viene analizzata da un controllore che, confrontando lo stato della vettura con il rapporto iniziale ne identifica eventuali danni intercorsi tra il momento della consegna e il momento della riconsegna. In this sector, this problem is solved by checking the condition of the car at the time of delivery and reporting any damage present and their location in the vehicle on an initial report. The report is signed by both parties involved. When the car is returned, the latter is analyzed by a controller who, by comparing the state of the car with the initial report, identifies any damage that has occurred between the time of delivery and the time of delivery.
Tale soluzione è tuttavia poco precisa e affidabile in quanto strettamente legata all’efficienza del controllo visivo di un essere umano sia durante il controllo in fase di consegna che durante il controllo in fase di riconsegna. Sono note inoltre in tale settore soluzioni automatizzate come quelle descritte nel documento US20060143173. In tale documento è presentata una soluzione in cui un dispositivo di rilevamento è in grado di scannerizzare un veicolo e determinarne dati caratteristici. Nel documento viene descritta una forma di realizzazione in cui i dati caratteristici, rilevati in due istanti di tempo seguenti possono essere confrontati per determinare eventuali differenze che comprovino l’accadimento di un danno intercorso tra i due istanti di tempo. However, this solution is not very precise and reliable as it is closely linked to the efficiency of the visual inspection of a human being both during the control during the delivery phase and during the control during the redelivery phase. Automated solutions such as those described in US20060143173 are also known in this sector. This document presents a solution in which a detection device is able to scan a vehicle and determine its characteristic data. The document describes an embodiment in which the characteristic data, detected in the following two instants of time, can be compared to determine any differences that prove the occurrence of damage between the two instants of time.
Tuttavia, la soluzione descritta in US20060143173 non prende in considerazione la problematica relativa all’affidabilità di detto sistema di rilevazione. Infatti, gli eventuali danni riscontrabili su un veicolo sono altamente sensibili alle condizioni ambientali in cui il test viene eseguito. Tale soluzione presenta dunque il forte inconveniente di essere molto condizionato dal rumore derivante dalle condizioni ambientali cangianti nel tempo. However, the solution described in US20060143173 does not take into consideration the problem relating to the reliability of said detection system. In fact, any damage found on a vehicle is highly sensitive to the environmental conditions in which the test is performed. This solution therefore has the strong drawback of being heavily conditioned by the noise deriving from the changing environmental conditions over time.
Scopo del presente trovato è rendere disponibile un metodo e un apparato per la rilevazione delle variazioni di caratteristiche estetiche su un veicolo che superi gli inconvenienti della tecnica nota sopra citati. The object of the present invention is to make available a method and an apparatus for detecting changes in aesthetic characteristics on a vehicle that overcomes the aforementioned drawbacks of the known art.
Detto scopo è pienamente raggiunto dal metodo e dall’apparato oggetto del presente trovato, che si caratterizza per quanto contenuto nelle rivendicazioni sotto riportate. Said object is fully achieved by the method and by the apparatus object of the present invention, which is characterized by the contents of the claims reported below.
Secondo un aspetto della presente descrizione, il trovato mette a disposizione un metodo per rilevare variazioni di caratteristiche estetiche su un veicolo. Secondo un aspetto della presente descrizione, il metodo è un metodo per rilevare danni in un veicolo, corrispondenti a variazioni di caratteristiche estetiche di una superficie del veicolo. According to an aspect of the present description, the invention provides a method for detecting variations in aesthetic characteristics on a vehicle. According to an aspect of the present description, the method is a method for detecting damage in a vehicle, corresponding to variations in the aesthetic characteristics of a vehicle surface.
In una forma di realizzazione, detta superficie del veicolo può corrispondere all’intera superficie del veicolo, oppure ad una sola parte di essa. Per esempio, in alcune forme di realizzazione, detta superficie corrisponde ad una portiera e/o ad un cofano e/o ad un paraurti e/o a cerchioni e/o a pneumatici. In particolare, nel caso degli pneumatici, il metodo consente anche di determinare una loro sostituzione. Dunque, il metodo permette di rilevare danni nel veicolo, i quali si riflettono in (ovvero comportano) variazioni di caratteristiche estetiche di una superficie del veicolo o almeno una parte di una superficie. In one embodiment, said vehicle surface can correspond to the entire surface of the vehicle, or to a single part of it. For example, in some embodiments, said surface corresponds to a door and / or a hood and / or a bumper and / or rims and / or tires. In particular, in the case of tires, the method also makes it possible to determine their replacement. Therefore, the method allows to detect damages in the vehicle, which are reflected in (or involve) variations in the aesthetic characteristics of a vehicle surface or at least a part of a surface.
Il metodo comprende una fase di ricezione di primi dati d’immagine. I primi dati d’immagine sono acquisiti in un primo istante di tempo da un dispositivo scansionatore. I primi dati d’immagine sono rappresentativi di condizioni estetiche di una superficie del veicolo in detto primo istante di tempo. The method includes a phase of receiving first image data. The first image data are acquired in a first instant of time by a scanning device. The first image data are representative of the aesthetic conditions of a vehicle surface in said first instant of time.
In una forma di realizzazione, il metodo comprende una fase di salvataggio dei primi dati di immagine in un archivio. Il metodo comprende una fase di ricezione di secondi dati d’immagine. I secondi dati d’immagine sono acquisiti dal dispositivo scansionatore in un secondo istante di tempo. Il secondo istante di tempo è successivo al primo istante di tempo. I secondi dati d’immagine sono rappresentativi di condizioni estetiche della superficie del veicolo in detto secondo istante di tempo. I dati d’immagine, che siano i primi o i secondi, possono essere rappresentati da dati digitali, dati grafici come pixel, o qualsiasi altro dato che, una volta elaborato, possa rappresentare un’immagine tridimensionale e/o bidimensionale. In one embodiment, the method comprises a step of saving the first image data in an archive. The method includes a phase of receiving second image data. The second image data are acquired by the scanning device in a second instant of time. The second instant of time is subsequent to the first instant of time. The second image data are representative of the aesthetic conditions of the vehicle surface in said second instant of time. The image data, whether they are the first or the second, can be represented by digital data, graphic data such as pixels, or any other data that, once processed, can represent a three-dimensional and / or two-dimensional image.
In una forma di realizzazione il metodo comprende una fase di confronto tra i primi e i secondi dati d’immagine in una rispettiva porzione della superficie. In one embodiment, the method comprises a comparison step between the first and second image data in a respective portion of the surface.
In una forma di realizzazione, il metodo comprende una fase di determinazione di una pluralità di valori dei dati di filtraggio. In una forma di realizzazione, la fase di determinazione di una pluralità di valori dei dati di filtraggio dipende dalla precedente fase di confronto. I dati di filtraggio includono una pluralità di valori. La pluralità di valori è una pluralità di valori di parametri di identificazione. I parametri di identificazione sono parametri fisici associati ad un’immagine. I parametri di identificazione possono essere luminanza e/o crominanza. I primi dati d’immagine e i secondi dati d’immagine sono un insieme di valori dei parametri di identificazione. Ciascun dato di filtraggio è associato ad una rispettiva porzione della superficie del veicolo. Per porzione intendiamo una entità che identifica la (ovvero che è legata alla) risoluzione con cui i dati d’immagine vengono acquisiti. Al crescere della risoluzione la porzione di rilevamento ha un’estensione minore mentre al diminuire della risoluzione la porzione di rilevamento è più estesa. Ciascun dato di filtraggio è funzione di differenze tra i primi e i secondi dati d’immagine nella rispettiva porzione di rilevamento. In one embodiment, the method comprises a step of determining a plurality of filter data values. In one embodiment, the step of determining a plurality of filter data values depends on the previous comparison step. The filtering data includes a plurality of values. The plurality of values is a plurality of identification parameter values. The identification parameters are physical parameters associated with an image. The identification parameters can be luminance and / or chrominance. The first image data and the second image data are a set of values of the identification parameters. Each filter data is associated with a respective portion of the vehicle surface. By portion we mean an entity that identifies the (or that is linked to) the resolution with which the image data are acquired. As the resolution increases, the detection portion has a smaller extension while as the resolution decreases the detection portion is more extensive. Each filtering data is a function of the differences between the first and second image data in the respective detection portion.
In una forma di realizzazione, il metodo comprende una prima fase di filtraggio. In detta prima fase di filtraggio, ciascun valore dei dati di filtraggio viene confrontato con un valore di riferimento. Il confronto è eseguito secondo un primo criterio per valutare quali valori di detta pluralità possano essere ragionevolmente causati da un danno. Ciascun valore dei dati di filtraggio è confrontato con il valore di riferimento per selezionare un sottoinsieme di valori nell’ambito dei dati di filtraggio (nel presente trovato potrebbero essere anche identificati con il termine pluralità di valori di dati di filtraggio attendibili). Il sottoinsieme di valori è popolato da quei valori di detta pluralità che soddisfano il primo criterio. In una forma di realizzazione, il metodo comprende una fase di raggruppamento. In tale fase di raggruppamento, detta pluralità di valori dei dati di filtraggio vengono raggruppati in uno o più gruppi di valori. In one embodiment, the method comprises a first filtering step. In said first filtering step, each value of the filtering data is compared with a reference value. The comparison is carried out according to a first criterion to assess which values of said plurality can reasonably be caused by damage. Each filtering data value is compared with the reference value to select a subset of values within the filtering data (in the present invention they could also be identified with the term plurality of reliable filtering data values). The subset of values is populated by those values of said plurality that satisfy the first criterion. In one embodiment, the method comprises a grouping step. In this grouping step, said plurality of values of the filtering data are grouped into one or more groups of values.
Ciascun gruppo di valori corrisponde a una rispettiva zona della superficie del veicolo. In tale fase di raggruppamento, detta pluralità di valori dei dati di filtraggio vengono raggruppati nei gruppi di valori, in funzione della posizione, nella superficie del veicolo, delle porzioni di superficie corrispondenti ai rispettivi valori. In tal modo, il metodo consente di invidiare una o più zone includenti potenziali danni. Pertanto, nel seguito, quando parleremo di zone di danno potenziale intenderemo quelle zone il cui corrispondente gruppo di valori è popolato da valori inclusi nel sottoinsieme di valori. Each group of values corresponds to a respective area of the vehicle surface. In this grouping step, said plurality of values of the filtering data are grouped into groups of values, as a function of the position, in the vehicle surface, of the surface portions corresponding to the respective values. In doing so, the method makes it possible to envy one or more areas including potential damage. Therefore, in the following, when we talk about potential damage zones we will mean those zones whose corresponding group of values is populated by values included in the subset of values.
Le zone di danno potenziale sono zone del veicolo in cui c’è una concentrazione elevata di porzioni della superficie a cui sono associati valori dei dati di filtraggio soddisfacenti il primo criterio. The areas of potential damage are areas of the vehicle in which there is a high concentration of portions of the surface to which filtering data values satisfying the first criterion are associated.
Questo consente di filtrare non solo quei dati di filtraggio che non rispondono al primo criterio ma anche il rumore dovuto a dati di filtraggio posti in porzioni di rilevamento isolate e non effettivamente corrispondenti ad un danno. This allows filtering not only those filtering data that do not meet the first criterion but also the noise due to filtering data placed in isolated detection portions and not actually corresponding to a damage.
In una forma di realizzazione, il metodo comprende una fase di determinazione di un coefficiente di attendibilità. In tale fase, per ciascuna zona di danno potenziale è calcolato un coefficiente di attendibilità. In tale fase, a ciascuna zona di danno potenziale è associato un coefficiente di attendibilità. La determinazione del coefficiente di attendibilità è eseguita in funzione del gruppo di valori dei dati di filtraggio, associato alla corrispondente zona di danno potenziale. La determinazione del coefficiente di attendibilità è eseguita in funzione di una forma della zona di danno potenziale (di una distribuzione spaziale delle porzioni di cui è costituita la zona di danno potenziale). La determinazione del coefficiente di attendibilità è eseguita in funzione di un confronto tra i valori del gruppo di valori della corrispondente zona di danno potenziale. Se per esempio i valori dei dati di filtraggio sono molto diversi, l’attendibilità potrebbe essere ridotta. Se invece i valori dei dati di filtraggio sono piuttosto uniformi, l’attendibilità potrebbe essere incrementata. In one embodiment, the method comprises a step of determining a reliability coefficient. In this phase, a reliability coefficient is calculated for each area of potential damage. In this phase, a reliability coefficient is associated with each area of potential damage. The determination of the reliability coefficient is performed as a function of the group of values of the filtering data, associated with the corresponding zone of potential damage. The determination of the reliability coefficient is performed as a function of a shape of the potential damage zone (of a spatial distribution of the portions of which the potential damage zone is made up). The determination of the reliability coefficient is carried out as a function of a comparison between the values of the group of values of the corresponding potential damage zone. For example, if the filtering data values are very different, the reliability could be reduced. If, on the other hand, the values of the filtering data are rather uniform, the reliability could be increased.
In una forma di realizzazione, il metodo comprende una seconda fase di filtraggio. In detta seconda fase di filtraggio, ciascun coefficiente di attendibilità, corrispondente ad una zona di danno potenziale, è confrontato con un valore limite prestabilito. Questo consente di filtrare zone (di danno attendibili) aventi coefficiente di attendibilità maggiore del valore limite prestabilito. In one embodiment, the method comprises a second filtering step. In said second filtering step, each reliability coefficient, corresponding to a potential damage zone, is compared with a predetermined limit value. This allows you to filter areas (of reliable damage) with a reliability coefficient greater than the pre-established limit value.
Per chiarezza si osservi che quando parliamo di zone di danno attendibili intendiamo quelle zone (zone di danno potenziale) aventi coefficiente di attendibilità maggiore del valore limite prestabilito. For clarity, it should be noted that when we speak of reliable damage areas we mean those areas (areas of potential damage) with a reliability coefficient greater than the pre-established limit value.
Il valore limite prestabilito è impostato manualmente da un operatore. Questo consente ad un operatore di partire con un valore limite molto alto per poi ridurlo progressivamente recuperando ulteriori risultati. The preset limit value is set manually by an operator. This allows an operator to start with a very high limit value and then progressively reduce it, recovering further results.
In una forma di realizzazione, la seconda fase di filtraggio comprende una fase di filtraggio manuale. Nella fase di filtraggio manuale, coppie di immagini associate alle zone di danno potenziale sono mostrate su un’interfaccia utente. Nella fase di filtraggio manuale l’unità di controllo filtra le zone di danno potenziale in funzione di dati di ingresso, inseriti manualmente da un utente. In one embodiment, the second filtering step comprises a manual filtering step. In the manual filtering phase, pairs of images associated with the areas of potential damage are shown on a user interface. In the manual filtering phase, the control unit filters the areas of potential damage according to the input data, entered manually by a user.
In una forma di realizzazione, i dati di ingresso sono rappresentativi del valore limite prestabilito. In una forma di realizzazione, i dati di ingresso possono essere variabili booleane, ciascuna associata ad una coppia di immagini. Se la variabile booleana è vera, la coppia di immagini viene filtrata mentre se la variabile booleana è falsa, la coppia di immagini non viene filtrata. In one embodiment, the input data is representative of the predetermined limit value. In one embodiment, the input data can be Boolean variables, each associated with a pair of images. If the Boolean variable is true, the image pair is filtered while if the Boolean variable is false, the image pair is not filtered.
In una forma di realizzazione, la fase di determinazione di un coefficiente di attendibilità comprende una fase di correlazione. Nella fase di correlazione, ciascun gruppo di valori associato ad una rispettiva zona di danno potenziale è correlato con dati di danno caratteristici. In una forma realizzativa, i dati di danno caratteristici sono salvati nell’archivio. I dati di danno caratteristici sono corrispondenti a tipologie di variazioni estetiche note attribuite a tipologie prestabilite di danni. I dati di danno caratteristici sono dati di filtraggio peculiari di alcune variazioni estetiche note. I dati di danno caratteristici oltre ad essere dei valori di parametri di identificazione possono essere anche distribuzioni di tali valori sulle zone di danno potenziale e/o forme spaziali delle zone di danno potenziali. La fase di correlazione comprende una fase di generazione di un coefficiente di correlazione per ciascuna zona di danno potenziale, in funzione del confronto tra i valori del gruppo di valori corrispondente alla zona di danno potenziale e i dati di danno caratteristici. In one embodiment, the step of determining a reliability coefficient comprises a correlation step. In the correlation step, each group of values associated with a respective potential damage zone is correlated with characteristic damage data. In one embodiment, the characteristic damage data are saved in the archive. The characteristic damage data correspond to types of known aesthetic variations attributed to predetermined types of damage. Characteristic damage data are filtering data peculiar to some known aesthetic variations. The characteristic damage data in addition to being the values of identification parameters can also be distributions of these values on the potential damage zones and / or spatial shapes of the potential damage zones. The correlation phase comprises a phase of generating a correlation coefficient for each potential damage zone, as a function of the comparison between the values of the group of values corresponding to the potential damage zone and the characteristic damage data.
In una forma di realizzazione, la determinazione del coefficiente di attendibilità è eseguita in funzione del coefficiente di correlazione. In one embodiment, the determination of the reliability coefficient is performed as a function of the correlation coefficient.
In una forma di realizzazione, il metodo comprende una fase di apprendimento. In tale fase di apprendimento uno di detti gruppi di valori viene associato ad una rispettiva tipologia di danno, tramite una fase di attribuzione. In tale fase di apprendimento uno di detti gruppi di valori viene elaborato per derivare dati di danno caratteristici di detta rispettiva tipologia di variazione estetica. Detta tipologia di variazione estetica può essere già presente nell’archivio e, in tal caso, l’elaborazione del gruppo di valori andrebbe a completare dati di danno caratteristici già presenti. Detta tipologia di variazione estetica può essere assente dall’archivio e, in tal caso, l’elaborazione del gruppo di valori andrebbe a rappresentare un primo dato di danno caratteristici della nuova tipologia di variazione estetica. In one embodiment, the method comprises a learning step. In this learning phase, one of said groups of values is associated with a respective type of damage, through an attribution phase. In this learning phase, one of said groups of values is processed to derive damage data characteristic of said respective type of aesthetic variation. This type of aesthetic variation may already be present in the archive and, in this case, the processing of the group of values would complement the characteristic damage data already present. This type of aesthetic variation may be absent from the archive and, in this case, the processing of the group of values would represent an initial damage characteristic of the new type of aesthetic variation.
In una forma di realizzazione, il metodo comprende una fase di correzione. In one embodiment, the method comprises a correction step.
In detta fase di correzione, l’unità di controllo riceve primi parametri di luminosità. I primi parametri di luminosità sono rappresentativi di condizioni di illuminazione del veicolo al primo istante di tempo. In detta fase di correzione, l’unità di controllo riceve secondi parametri di luminosità. I secondi parametri di luminosità sono rappresentativi di condizioni di illuminazione del veicolo al secondo istante di tempo. In said correction phase, the control unit receives the first brightness parameters. The first brightness parameters are representative of the vehicle's lighting conditions at the first instant of time. In said correction phase, the control unit receives second brightness parameters. The second brightness parameters are representative of the vehicle's lighting conditions at the second instant of time.
In una forma di realizzazione, l’unità di controllo corregge la pluralità di valori dei dati di filtraggio in funzione di una differenza di luminosità tra i primi e i secondi parametri di luminosità. In una forma di realizzazione, l’unità di controllo genera un coefficiente di correzione, in funzione della differenza di luminosità tra i primi e i secondi parametri di luminosità. In una forma di realizzazione, l’unità di controllo corregge la pluralità di valori dei dati di filtraggio in funzione del coefficiente di correzione. In one embodiment, the control unit corrects the plurality of values of the filtering data as a function of a difference in brightness between the first and second brightness parameters. In one embodiment, the control unit generates a correction coefficient, as a function of the difference in brightness between the first and second brightness parameters. In one embodiment, the control unit corrects the plurality of values of the filtering data as a function of the correction coefficient.
In una forma di realizzazione, il metodo comprende una fase di generazione di un referto. In tale fase sono generate, per ciascuna zona di danno potenziale, una coppia di immagini. La coppia d’immagini include una prima immagine della zona di danno potenziale, presa al primo istante di tempo. La coppia d’immagini include una seconda immagine della zona di danno potenziale, presa al secondo istante di tempo. L’unità di controllo, per ciascuna zona di danno potenziale, associa rispettivi dati di localizzazione. I dati di localizzazione sono rappresentativi di una posizione della zona di danno potenziale nel veicolo. In altre parole, i dati di localizzazione potrebbero essere delle coordinate di un riferimento spaziale assoluto, che identifica univocamente una posizione nel veicolo. Detto riferimento spaziale assoluto potrebbe essere solidale ad un ambiente di test. In tal caso la fase di riconoscimento consente di determinare la posizione del veicolo nell’ambiente di test. In tal modo, conoscendo la posizione del dispositivo scansionatore nell’ambiente di test e la posizione del veicolo nell’ambiente di test, si è in grado di associare ai dati d’immagine una rispettiva posizione nel riferimento spaziale assoluto e, quindi, nel veicolo. In one embodiment, the method comprises a step of generating a report. In this phase, a pair of images are generated for each area of potential damage. The pair of images includes a first image of the area of potential damage, taken at the first instant of time. The pair of images includes a second image of the potential damage area, taken at the second instant of time. The control unit, for each area of potential damage, associates respective location data. The location data is representative of a location of the potential damage zone in the vehicle. In other words, the location data could be the coordinates of an absolute spatial reference, which uniquely identifies a position in the vehicle. Said absolute spatial reference could be integral to a test environment. In this case, the recognition phase allows you to determine the position of the vehicle in the test environment. In this way, knowing the position of the scanning device in the test environment and the position of the vehicle in the test environment, it is possible to associate the image data with a respective position in the absolute spatial reference and, therefore, in the vehicle. .
I dati di localizzazione, in una forma di realizzazione, fanno riferimento ad un baricentro della zona di danno potenziale. L’unità di controllo, per ciascuna zona di danno potenziale, associa il rispettivo coefficiente di attendibilità. The location data, in one embodiment, refers to a center of gravity of the potential damage zone. The control unit, for each area of potential damage, associates the respective reliability coefficient.
In una forma di realizzazione, il referto può essere stampato e/o memorizzato e/o reso disponibile su un’interfaccia utente. Tale interfaccia utente può essere un display di un operatore oppure un dispositivo mobile del proprietario della vettura o eventualmente, nello specifico caso del noleggio della vettura, di chi l’ha noleggiata. In one embodiment, the report can be printed and / or stored and / or made available on a user interface. This user interface can be a display of an operator or a mobile device of the car owner or possibly, in the specific case of car rental, of the person who has rented it.
In una forma di realizzazione, il metodo comprende una fase di riconoscimento del veicolo. In una forma di realizzazione, la fase di riconoscimento del veicolo include una fase di ricezione di un’immagine di riconoscimento. L’immagine di riconoscimento è acquisita da un dispositivo di riconoscimento. L’immagine di riferimento include un elemento di riconoscimento. L’elemento di riconoscimento è posto sul veicolo. La fase di riconoscimento del veicolo include una fase di elaborazione di detta immagine di riconoscimento. Dall’elaborazione dell’immagine di riconoscimento l’unità di controllo genera una stringa identificativa del veicolo. In una forma di realizzazione, la fase di riconoscimento del veicolo avviene tramite l’invio della stringa identificativa del veicolo da un dispositivo mobile, associato ad un utilizzatore del veicolo, ad un altro dispositivo mobile, associato all’operatore che vuole valutare la presenza di eventuali danni. In one embodiment, the method comprises a vehicle recognition step. In one embodiment, the vehicle recognition step includes a step of receiving a recognition image. The recognition image is acquired by a recognition device. The reference image includes a recognition element. The identification element is placed on the vehicle. The vehicle recognition step includes a step of processing said recognition image. From the processing of the recognition image, the control unit generates a vehicle identification string. In one embodiment, the vehicle recognition step takes place by sending the vehicle identification string from a mobile device, associated with a vehicle user, to another mobile device, associated with the operator who wants to evaluate the presence of Possible damages.
In una forma di realizzazione, il metodo comprende una fase di localizzazione spaziale. Nella fase di localizzazione spaziale, l’unità di controllo riceve un’immagine di riferimento. L’immagine di riferimento è acquisita da un dispositivo di rilevamento. L’immagine di riferimento comprende un elemento di riferimento. L’elemento di riferimento è posto in un ambiente di test. L’unità di controllo, nella fase di localizzazione spaziale, localizza il veicolo. L’unità di controllo localizza il veicolo mediante elaborazione dell’immagine di riconoscimento. Nella fase di localizzazione spaziale, l’unità di controllo verifica la corrispondenza tra una posizione di test del veicolo al primo istante di tempo e la posizione di test del veicolo al secondo istante di tempo. In one embodiment, the method comprises a spatial localization step. In the spatial localization phase, the control unit receives a reference image. The reference image is acquired by a detection device. The reference image includes a reference element. The reference element is placed in a test environment. The control unit, in the spatial localization phase, locates the vehicle. The control unit locates the vehicle by processing the recognition image. In the spatial localization phase, the control unit checks the correspondence between a vehicle test position at the first instant of time and the vehicle test position at the second instant of time.
Secondo un aspetto della presente descrizione, il presente trovato mette a disposizione un apparato per rilevare variazioni di caratteristiche estetiche su un veicolo. According to an aspect of the present description, the present invention provides an apparatus for detecting variations in aesthetic characteristics on a vehicle.
In una forma di realizzazione, l’apparato comprende un dispositivo scansionatore. Il dispositivo scansionatore è configurato per eseguire una prima scansione del veicolo in un primo istante di tempo. Tale scansione è eseguita ad una distanza di scansionamento. Il dispositivo scansionatore è configurato per generare corrispondenti primi dati d’immagine, rappresentativi delle caratteristiche estetiche del veicolo al primo istante di tempo. Il dispositivo di scansionamento è configurato per eseguire una seconda scansione del veicolo in un secondo istante di tempo. In una forma di realizzazione, il dispositivo scansionatore è configurato per generare corrispondenti secondi dati d’immagine, rappresentativi delle caratteristiche estetiche del veicolo ad un secondo istante di tempo. Il secondo istante di tempo è successivo al primo istante di tempo. In una forma di realizzazione, il dispositivo di scansionamento è configurato per eseguire la seconda scansione dalla stessa distanza di scansionamento della prima scansione. In one embodiment, the apparatus comprises a scanning device. The scanning device is configured to perform a first scan of the vehicle in a first instant of time. This scan is performed at a scanning distance. The scanning device is configured to generate corresponding first image data, representative of the aesthetic characteristics of the vehicle at the first instant of time. The scanning device is configured to perform a second scan of the vehicle in a second instant of time. In one embodiment, the scanning device is configured to generate corresponding second image data, representative of the aesthetic characteristics of the vehicle at a second instant of time. The second instant of time is subsequent to the first instant of time. In one embodiment, the scanning device is configured to perform the second scan from the same scanning distance as the first scan.
In una forma di realizzazione, il dispositivo di scansionatore è configurato per essere solidale con l’ambiente di test mentre il veicolo si sposta durante la scansione. In una forma di realizzazione, il dispositivo scansionatore è mobile rispetto all’ambiente di test mentre il veicolo rimane fermo rispetto all’ambiente di test. In one embodiment, the scanner device is configured to be integral with the test environment while the vehicle moves during the scan. In one embodiment, the scanning device is mobile with respect to the test environment while the vehicle remains stationary with respect to the test environment.
In una forma di realizzazione, il dispositivo scansionatore è configurato per rilevare un filmato del veicolo. In una forma di realizzazione, il dispositivo scansionatore è configurato per rilevare una pluralità di immagini di una stessa parte della superficie del veicolo. Ciascuna immagine di detta pluralità è presa da una rispettiva posizione relativa tra veicolo e dispositivo scansionatore. In one embodiment, the scanning device is configured to detect a footage of the vehicle. In one embodiment, the scanning device is configured to detect a plurality of images of the same part of the vehicle surface. Each image of said plurality is taken from a respective relative position between vehicle and scanning device.
In una forma di realizzazione, ciascuna immagine di detta pluralità è associata ad una rispettiva condizione di illuminazione. In one embodiment, each image of said plurality is associated with a respective lighting condition.
In una forma di realizzazione, l’apparato comprende una struttura di supporto. In una forma di realizzazione, l’apparato comprende una guida di scorrimento. La struttura di supporto è connessa al dispositivo scansionatore per sostenerlo durante la scansione. La struttura di supporto, in una forma di realizzazione è mobile lungo la guida di scorrimento che le consente di spostarsi intorno al veicolo. In tale forma di realizzazione, la struttura di supporto è mobile anche per consentire al dispositivo scansionatore di mantenere una distanza di scansionamento costante durante la scansione. In una forma di realizzazione, la struttura di supporto è invece fissa. In one embodiment, the apparatus comprises a support structure. In one embodiment, the apparatus comprises a sliding guide. The support structure is connected to the scanning device to support it during scanning. The support structure, in one embodiment, is movable along the sliding guide which allows it to move around the vehicle. In this embodiment, the support structure is also movable to allow the scanning device to maintain a constant scanning distance during scanning. In one embodiment, the support structure is instead fixed.
In una forma di realizzazione, l’apparato comprende un’unità di controllo. L’unità di controllo è connessa al dispositivo scansionatore. L’unità di controllo include un elaboratore. In one embodiment, the apparatus comprises a control unit. The control unit is connected to the scanning device. The control unit includes a computer.
In una forma di realizzazione, l’apparato comprende un archivio. L’archivio è connesso all’unità di controllo. L’archivio include dati di danno caratteristici, correlati ad una rispettiva tipologia di variazione estetica. In una forma di realizzazione l’archivio comprende una pluralità di istruzioni. Tale pluralità di istruzione possono essere istruzioni per l’unità di controllo. In one embodiment, the apparatus comprises an archive. The archive is connected to the control unit. The archive includes characteristic damage data, related to a respective type of aesthetic variation. In one embodiment, the archive comprises a plurality of instructions. This plurality of instructions can be instructions for the control unit.
In una forma di realizzazione, l’apparato comprende un’interfaccia utente. L’interfaccia utente è connessa all’unità di controllo. In one embodiment, the apparatus comprises a user interface. The user interface is connected to the control unit.
In una forma di realizzazione, l’elaboratore è programmato per eseguire una o più delle fasi del metodo descritte dal presente trovato. In one embodiment, the computer is programmed to perform one or more of the steps of the method described by the present invention.
In una forma di realizzazione, l’elaboratore è programmato per ricevere primi dati d’immagine, i quali sono acquisiti in un primo istante di tempo da un dispositivo scansionatore e sono rappresentativi di condizioni estetiche della superfice del veicolo in detto primo istante di tempo. In una forma di realizzazione, l’elaboratore è programmato per salvare i primi dati di immagine in un archivio. In one embodiment, the computer is programmed to receive first image data, which are acquired in a first instant of time by a scanning device and are representative of the aesthetic conditions of the vehicle surface in said first instant of time. In one embodiment, the computer is programmed to save the first image data in an archive.
In una forma di realizzazione, l’elaboratore è programmato per ricevere secondi dati d’immagine, i quali sono acquisiti dal dispositivo scansionatore in un secondo istante di tempo, successivo al primo istante di tempo, e sono rappresentativi di condizioni estetiche della superfice del veicolo in detto secondo istante di tempo. In one embodiment, the computer is programmed to receive second image data, which are acquired by the scanning device in a second instant of time, subsequent to the first instant of time, and are representative of the aesthetic conditions of the vehicle surface. in said second instant of time.
In una forma di realizzazione, l’elaboratore è programmato per confrontare i primi e i secondi dati d’immagine in una rispettiva porzione della superficie. In una forma di realizzazione, l’elaboratore è programmato per determinare dati di filtraggio, includenti una pluralità di valori, ciascuno dei quali è associato alla rispettiva porzione di detta superficie ed è rappresentativo di differenze tra i primi e i secondi dati d’immagine relativi alla corrispondente porzione di superficie. In one embodiment, the computer is programmed to compare the first and second image data in a respective portion of the surface. In one embodiment, the processor is programmed to determine filtering data, including a plurality of values, each of which is associated with the respective portion of said surface and is representative of differences between the first and second image data relating to the corresponding portion of the surface.
In una forma di realizzazione, l’elaboratore è programmato per confrontare ciascun valore dei dati di filtraggio con un valore di riferimento, per selezionare un sottoinsieme di valori nell’ambito dei dati di filtraggio. In one embodiment, the processor is programmed to compare each filtering data value with a reference value, to select a subset of values within the filtering data.
In una forma di realizzazione, l’elaboratore è programmato per raggruppare i valori di detto sottoinsieme in uno o più gruppi di valori, in cui ciascun gruppo corrisponde a una rispettiva zona della superficie del veicolo. In one embodiment, the computer is programmed to group the values of said subset into one or more groups of values, in which each group corresponds to a respective area of the vehicle surface.
In una forma di realizzazione, l’apparato comprende un sensore. Il sensore è configurato per rilevare parametri ambientali. I parametri ambientali possono essere temperatura, luminosità, presenza di ombre, pressione, vento o un qualsiasi parametro che possa influenzare una scansione. In one embodiment, the apparatus comprises a sensor. The sensor is configured to detect environmental parameters. Environmental parameters can be temperature, brightness, presence of shadows, pressure, wind or any parameter that can affect a scan.
In una forma di realizzazione, l’apparato comprende un sensore di luminosità. Il sensore di luminosità è disposto in prossimità dell’apparato per rilevare primi parametri di luminosità, rappresentativi di condizioni di illuminazione del veicolo al primo istante di tempo. Il sensore di luminosità è disposto in prossimità dell’apparato per rilevare secondi parametri di luminosità, rappresentativi di condizioni di illuminazione del veicolo al secondo istante di tempo. In one embodiment, the apparatus comprises a brightness sensor. The brightness sensor is placed near the device to detect the first brightness parameters, representative of the vehicle's lighting conditions at the first instant of time. The brightness sensor is placed near the device to detect second brightness parameters, representative of vehicle lighting conditions at the second instant of time.
Il sensore di illuminazione è connesso all’unità di controllo per inviarle i primi parametri di luminosità e/o i secondi parametri di luminosità. The lighting sensor is connected to the control unit to send it the first brightness parameters and / or the second brightness parameters.
In una forma di realizzazione, l’apparato comprende un display. In one embodiment, the apparatus comprises a display.
Il display può essere locale, nel caso in cui l’interfaccia utente sia solidale con l’ambiente di test. Il display può essere remoto, in particolare facente parte di un dispositivo mobile. Il display è configurato per mostrare ad un utente almeno una coppia di immagini. The display can be local, if the user interface is integral with the test environment. The display can be remote, in particular part of a mobile device. The display is configured to show a user at least one pair of images.
In una forma di realizzazione, il display è configurato per mostrare ad un utente una pluralità di coppie di immagini. La coppia di immagini include una prima immagine di una rispettiva zona di danno potenziale al primo istante di tempo. La coppia di immagini include una seconda immagine della rispettiva zona di danno potenziale al secondo istante di tempo. In one embodiment, the display is configured to show a user a plurality of pairs of images. The pair of images includes a first image of a respective potential damage zone at the first instant of time. The pair of images includes a second image of the respective potential damage zone at the second instant of time.
In una forma di realizzazione, l’interfaccia utente comprende uno strumento di input. Lo strumento di input è configurato per consentire un filtraggio manuale di detta almeno una coppia d’immagini. Lo strumento di input è configurato per consentire un filtraggio manuale di detta pluralità di coppie d’immagini. In one embodiment, the user interface comprises an input tool. The input tool is configured to allow manual filtering of said at least one pair of images. The input tool is configured to allow manual filtering of said plurality of image pairs.
In una forma di realizzazione l’interfaccia utente consente di eseguire una o più delle seguenti fasi sulla coppia d’immagini: In one embodiment, the user interface allows you to perform one or more of the following steps on the pair of images:
- variazione del valore limite del coefficiente di attendibilità per visualizzare coppie d’immagini aventi coefficiente di attendibilità più basso; - variation of the limit value of the reliability coefficient to display pairs of images with the lowest reliability coefficient;
- variazione delle dimensioni di ciascuna immagine di detta coppia d’immagini per ingrandire particolari significativi; - variation of the size of each image of said pair of images to enlarge significant details;
- gestione della riproduzione di un filmato includente una registrazione di almeno una parte della superficie del veicolo. - management of the reproduction of a video including a recording of at least a part of the vehicle surface.
In una forma di realizzazione, l’apparato comprende un dispositivo illuminatore. Il dispositivo illuminatore è disposto ad una distanza di illuminazione dal dispositivo scansionatore. In una forma di realizzazione, il dispositivo illuminatore è configurato per illuminare una zona esaminata con parametri di illuminazione costanti nel tempo. In una forma di realizzazione, il dispositivo illuminatore è configurato per uniformare le condizioni di illuminazione durante la scansione del veicolo. In one embodiment, the apparatus comprises an illuminating device. The illuminator device is arranged at an illumination distance from the scanning device. In one embodiment, the lighting device is configured to illuminate an area examined with lighting parameters constant over time. In one embodiment, the illuminating device is configured to uniform the lighting conditions during vehicle scanning.
In una forma di realizzazione, l’unità di controllo è configurata per rilevare i primi e/o i secondi parametri di illuminazione, inviati dal sensore di illuminazione, e regolare di conseguenza il dispositivo illuminatore, al fine di uniformare le condizioni di illuminazione al primo istante di tempo e al secondo istante di tempo. In one embodiment, the control unit is configured to detect the first and / or second lighting parameters, sent by the lighting sensor, and adjust the lighting device accordingly, in order to standardize the lighting conditions at the first instant. of time and to the second instant of time.
In un’altra forma realizzativa, l’unità di controllo è configurata per valutare i primi e/o i secondi parametri di illuminazione elaborando i primi e/o i secondi dati d’immagine. L’unità di controllo è configurata per determinare il coefficiente di correzione in funzione di tale valutazione dei primi e/o i secondi parametri di illuminazione. L’unità di controllo è configurata per regolare il dispositivo illuminatore in funzione del coefficiente di correzione. In another embodiment, the control unit is configured to evaluate the first and / or second lighting parameters by processing the first and / or second image data. The control unit is configured to determine the correction coefficient based on this evaluation of the first and / or second lighting parameters. The control unit is configured to adjust the lighting device according to the correction coefficient.
Secondo un aspetto della presente descrizione, il presente trovato intende tutelare anche un programma per elaboratore comprendente un software programmato per eseguire una o più delle fasi del metodo descritte nel presente trovato e per essere lanciato sull’apparato includente una o più delle caratteristiche descritte nel presente trovato. According to an aspect of the present description, the present invention also intends to protect a computer program comprising software programmed to perform one or more of the method steps described in the present invention and to be launched on the apparatus including one or more of the characteristics described herein. found.
In una forma di realizzazione il programma per elaboratore è memorizzato nell’archivio dell’apparato. In tale forma di realizzazione esso è un programma per elaboratore “on permisis”, configurato per essere implementato anche in assenza di una connessione internet. In una forma di realizzazione, il programma per elaboratore è memorizzato in remoto. In tale forma di realizzazione esso è un programma per elaboratore “SAAS (Software As A Service)”, ovvero configurato per essere implementato solo in presenza di una connessione internet. In one embodiment, the computer program is stored in the archive of the apparatus. In this embodiment it is an "on permisis" computer program, configured to be implemented even in the absence of an internet connection. In one embodiment, the computer program is stored remotely. In this embodiment it is a "SAAS (Software As A Service)" computer program, ie configured to be implemented only in the presence of an internet connection.
Questa ed altre caratteristiche risulteranno maggiormente evidenziate dalla descrizione seguente di una preferita forma realizzativa, illustrata a puro titolo esemplificativo e non limitativo nelle unite tavole di disegno, in cui: This and other characteristics will be more evident from the following description of a preferred embodiment, illustrated purely by way of non-limiting example in the accompanying drawing tables, in which:
- la figura 1 illustra schematicamente una vista dall’alto di un apparato per rilevare variazioni di caratteristiche estetiche su un veicolo; - Figure 1 schematically illustrates a top view of an apparatus for detecting changes in aesthetic characteristics on a vehicle;
- la figura 2 illustra schematicamente una vista laterale dell’apparato di figura 1; - figure 2 schematically illustrates a side view of the apparatus of figure 1;
- la figura 3 illustra schematicamente una vista posteriore di una forma di realizzazione dell’apparato di figura 1; - figure 3 schematically illustrates a rear view of an embodiment of the apparatus of figure 1;
- la figura 4 illustra schematicamente una vista laterale dell’apparato di figura 3; - figure 4 schematically illustrates a side view of the apparatus of figure 3;
- la figura 5 illustra schematicamente una vista posteriore di una forma di realizzazione dell’apparato di figura 3; - Figure 5 schematically illustrates a rear view of an embodiment of the apparatus of Figure 3;
- la figura 6 illustra schematicamente una forma di realizzazione di un’interfaccia utente dell’apparato di figura 1. - Figure 6 schematically illustrates an embodiment of a user interface of the apparatus of Figure 1.
- la figura 7 illustra uno schema delle fasi di un metodo per rilevare variazioni di caratteristiche estetiche su un veicolo; Figure 7 illustrates a diagram of the steps of a method for detecting variations in aesthetic characteristics on a vehicle;
- la figura 8 illustra uno schema delle fasi di una fase di correzione del metodo di figura 7; Figure 8 illustrates a diagram of the steps of a correction step of the method of Figure 7;
- la figura 9 illustra schematicamente una pluralità di matrici utilizzate nelle fasi del metodo di figura 7; Figure 9 schematically illustrates a plurality of matrices used in the steps of the method of Figure 7;
- la figura 10 illustra schematicamente una pluralità di grafici di funzioni utilizzati nelle fasi del metodo di figura 7. Figure 10 schematically illustrates a plurality of function graphs used in the steps of the method of Figure 7.
Con riferimento alle figure allegate si è indicato con 1 un apparato per rilevare variazioni di caratteristiche estetiche di un veicolo. L’apparato 1 comprende un dispositivo scansionatore 2. Il dispositivo scansionatore 2, in una forma di realizzazione è una telecamera 2’. In altre forme di realizzazione il dispositivo scansionatore 2 può essere un laser. Il dispositivo scansionatore 2 è configurato per acquisire dati d’immagine 201. In particolare, il dispositivo scansionatore è configurato per scansionare un veicolo e derivarne corrispondenti dati d’immagine 201. In una forma di realizzazione, l’apparato 1 comprende una superficie d’appoggio. La superfice d’appoggio 101 è configurata per sostenere (mantenere) il veicolo in una posizione di test, nella quale esso viene sottoposto a scansione. Si osservi che la superficie d’appoggio 101 può anche non essere parte integrante dell’apparato 1 nei casi in cui essa è definita dalla pavimentazione di un ambiente di test 100. With reference to the attached figures, 1 indicates an apparatus for detecting changes in the aesthetic characteristics of a vehicle. The apparatus 1 comprises a scanning device 2. The scanning device 2, in one embodiment is a camera 2 '. In other embodiments the scanning device 2 can be a laser. The scanning device 2 is configured to acquire image data 201. In particular, the scanning device is configured to scan a vehicle and derive corresponding image data 201 from it. In one embodiment, the apparatus 1 comprises a surface of support. The support surface 101 is configured to support (maintain) the vehicle in a test position, in which it is scanned. It should be noted that the support surface 101 may not even be an integral part of the apparatus 1 in cases where it is defined by the flooring of a test environment 100.
In una forma di realizzazione, la superficie di appoggio 101 include segnali di posizionamento. I segnali di posizionamento 101A sono rappresentati (o ricavati) sulla superficie di appoggio 101 e sono associati ad un componente del veicolo da scansionare. Per esempio, ma non in maniera limitativa, i segnali di posizionamento 101A possono essere delle strisce longitudinali, che si estendono lungo una direzione longitudinale L, nelle quali le ruote del veicolo devono essere posizionate durante la scansione. In una forma di realizzazione, l’apparato 1 comprende una struttura di supporto 3. La struttura di supporto 3 è configurata per sostenere il dispositivo scansionatore 2. In una forma di realizzazione, la struttura di supporto 3 comprende almeno una traversa longitudinale 301, estesa lungo la direzione longitudinale L. In una forma di realizzazione, la struttura di supporto 3 comprende almeno una traversa trasversale 302, estesa lungo la direzione trasversale T, perpendicolare alla direzione longitudinale L e alla direzione della forza peso. In una forma di realizzazione, la struttura di supporto 3 comprende almeno una colonna verticale 303, estesa lungo la direzione verticale V, parallela alla direzione della forza peso. In altre forme di realizzazione, la struttura di supporto 3 comprende un arco di sostegno 304. In one embodiment, the bearing surface 101 includes positioning signals. The positioning signals 101A are represented (or obtained) on the bearing surface 101 and are associated with a component of the vehicle to be scanned. For example, but not in a limiting manner, the positioning signals 101A can be longitudinal strips, which extend along a longitudinal direction L, in which the vehicle wheels must be positioned during scanning. In one embodiment, the apparatus 1 comprises a support structure 3. The support structure 3 is configured to support the scanning device 2. In one embodiment, the support structure 3 comprises at least one longitudinal cross member 301, extended along the longitudinal direction L. In one embodiment, the support structure 3 comprises at least one transverse cross member 302, extending along the transverse direction T, perpendicular to the longitudinal direction L and to the direction of the weight force. In one embodiment, the support structure 3 comprises at least one vertical column 303, extending along the vertical direction V, parallel to the direction of the weight force. In other embodiments, the support structure 3 comprises a support arch 304.
In una forma di realizzazione la struttura di supporto 3 è mobile rispetto alla superficie d’appoggio 101 lungo la direzione longitudinale L. In una forma di realizzazione la struttura di supporto 3 è mobile rispetto alla superficie d’appoggio 101 lungo la direzione trasversale T. In una forma di realizzazione la struttura di supporto 3 è mobile rispetto alla superficie d’appoggio 101 lungo la direzione verticale V. In altre forme di realizzazione la struttura di supporto 3 è fissa rispetto alla superficie d’appoggio 101. In one embodiment the support structure 3 is movable with respect to the support surface 101 along the longitudinal direction L. In one embodiment the support structure 3 is movable with respect to the support surface 101 along the transverse direction T. In one embodiment the support structure 3 is movable with respect to the support surface 101 along the vertical direction V. In other embodiments the support structure 3 is fixed with respect to the support surface 101.
In una forma di realizzazione, la struttura di supporto 3 comprende una guida di scorrimento 305. La guida di scorrimento 305, in una forma di realizzazione, è disposta in modo da circondare lateralmente il veicolo. La guida di scorrimento 305, in una forma di realizzazione, è disposta superiormente al veicolo lungo la direzione verticale V. La guida di scorrimento 305, in una forma di realizzazione, è disposta sotto al veicolo lungo la direzione verticale V. Preferibilmente, la guida di scorrimento 305 è configurata per consentire al dispositivo scansionatore 2 di spostarsi sulla struttura di supporto 3 per scansionare il veicolo nella sua interezza. In una forma di realizzazione, il dispositivo scansionatore 2 è mobile sulla struttura di supporto 3. In one embodiment, the support structure 3 comprises a slide guide 305. The slide guide 305, in one embodiment, is arranged to laterally surround the vehicle. The sliding guide 305, in one embodiment, is arranged above the vehicle along the vertical direction V. The sliding guide 305, in one embodiment, is arranged below the vehicle along the vertical direction V. Preferably, the guide slide 305 is configured to allow the scanning device 2 to move on the support structure 3 to scan the vehicle in its entirety. In one embodiment, the scanning device 2 is movable on the support structure 3.
In una forma di realizzazione, l’apparato 1 comprende una pluralità di dispositivi scansionatori 201, disposti sulla struttura di supporto 3 in posizioni operative differenti. Ciascun dispositivo scansionatore 2 di detta pluralità è configurato per scansionare una zona di pertinenza nel veicolo. In una forma di realizzazione, la pluralità di dispositivi scansionatori 201 è configurata per scansionare tutte le parti esterne del veicolo, compresa la parte inferiore. In one embodiment, the apparatus 1 comprises a plurality of scanning devices 201, arranged on the support structure 3 in different operating positions. Each scanning device 2 of said plurality is configured to scan a pertinent area in the vehicle. In one embodiment, the plurality of scanning devices 201 are configured to scan all exterior parts of the vehicle, including the underside.
In una forma di realizzazione, la pluralità di dispositivi scansionatori 201 è disposta sull’arco di sostegno 304. Ciascun dispositivo scansionatore 2 di detta pluralità è adiacente ad un altro dispositivo scansionatore 2 di detta pluralità per scansionare parti adiacenti del veicolo. In one embodiment, the plurality of scanning devices 201 is arranged on the support arc 304. Each scanning device 2 of said plurality is adjacent to another scanning device 2 of said plurality to scan adjacent parts of the vehicle.
In una forma di realizzazione, l’apparato 1 comprende un sollevatore 4. Il sollevatore 4 è connesso alla struttura di supporto 3. Il sollevatore 4 è connesso alla superficie d’appoggio 101 del veicolo. Il sollevatore 4 può includere un attuatore; tale attuatore può essere, per esempio, idraulico o pneumatico o elettrico. Nel caso in cui l’attuatore del sollevatore 4 sia idraulico o pneumatico, è previsto che l’attuatore includa un gruppo cilindro pistone 401. In una forma di realizzazione, il gruppo cilindro pistone 401 include un cilindro, connesso alla struttura di supporto 3, e un pistone, connesso alla superficie d’appoggio 101 del veicolo. Chiaramente, si intende tutelare anche la forma realizzativa in cui il pistone è connesso alla struttura di supporto 3 e il cilindro alla superficie d’appoggio 101 del veicolo. In one embodiment, the apparatus 1 comprises a lift 4. The lift 4 is connected to the support structure 3. The lift 4 is connected to the support surface 101 of the vehicle. The lifter 4 can include an actuator; such actuator can be, for example, hydraulic or pneumatic or electric. In the case where the actuator of the lift 4 is hydraulic or pneumatic, it is provided that the actuator includes a cylinder-piston assembly 401. In one embodiment, the cylinder-piston assembly 401 includes a cylinder, connected to the support structure 3, and a piston, connected to the bearing surface 101 of the vehicle. Clearly, it is also intended to protect the embodiment in which the piston is connected to the support structure 3 and the cylinder to the support surface 101 of the vehicle.
In una forma di realizzazione, l’apparato 1 comprende un sensore di luminosità 5. Il sensore di luminosità 5 è configurato per rilevare parametri di luminosità 501 associati alla luce presente nell’ambiente di test 100. Il sensore di luminosità 5 è posto sull’apparato 1 per rilevare la luce nell’intorno dell’ambiente di test 100. I parametri di luminosità 501 possono essere ad esempio, ma non in senso limitativo, l’intensità luminosa o la luminanza. In una forma di realizzazione, il sensore di luminosità 5 è posizionato in prossimità del dispositivo scansionatore 2. In una forma di realizzazione, l’apparato 1 comprende un dispositivo illuminatore. Il dispositivo illuminatore 6 è configurato per illuminare almeno una zona del veicolo sottoposto a scansione. Il dispositivo illuminatore 6, in una forma di realizzazione è posto nelle vicinanze del dispositivo scansionatore 2. In una forma di realizzazione, il dispositivo illuminatore 6 è vincolato al dispositivo scansionatore 2 per mantenere una distanza costante con il dispositivo scansionatore 2. La presenza di un dispositivo illuminatore 6, i cui parametri di luminosità sono noti e regolabili, consente di ridurre gli effetti di una differenza di luminosità quando si esegue la scansione in due istanti differenti. In particolare, impostando parametri di illuminazione molto elevati, le differenze di luminosità ambientale risultano trascurabili. In one embodiment, the apparatus 1 comprises a brightness sensor 5. The brightness sensor 5 is configured to detect brightness parameters 501 associated with the light present in the test environment 100. The brightness sensor 5 is placed on the apparatus 1 for detecting the light in the surroundings of the test environment 100. The brightness parameters 501 can be, for example, but not in a limiting sense, the luminous intensity or luminance. In one embodiment, the brightness sensor 5 is positioned in the vicinity of the scanning device 2. In one embodiment, the apparatus 1 comprises an illuminating device. The lighting device 6 is configured to illuminate at least one area of the vehicle being scanned. The illuminating device 6, in one embodiment, is placed in the vicinity of the scanning device 2. In one embodiment, the illuminating device 6 is constrained to the scanning device 2 to maintain a constant distance with the scanning device 2. The presence of a illuminator device 6, whose brightness parameters are known and adjustable, allows to reduce the effects of a difference in brightness when scanning in two different instants. In particular, by setting very high lighting parameters, the differences in ambient brightness are negligible.
In una forma di realizzazione, l’apparato 1 comprende una pluralità di dispositivi illuminatori 6, ciascun disposto in prossimità di un rispettivo dispositivo scansionatore 2. In one embodiment, the apparatus 1 comprises a plurality of illuminating devices 6, each arranged in proximity to a respective scanning device 2.
In una forma di realizzazione, l’apparato 1 comprende un dispositivo di riconoscimento 10. Il dispositivo di riconoscimento 10 può essere ad esempio ma non limitatamente una telecamera 2’ o uno scansionatore laser o un lettore di codici QR o di codici a barre. Il dispositivo di riconoscimento 10 è configurato per acquisire dati di riconoscimento, corrispondenti alla rilevazione di un elemento di riconoscimento disposto sul veicolo. Ad esempio, il dispositivo di riconoscimento 10 è configurato per rilevare un’immagine della targa del veicolo. In altre forma di realizzazione, il dispositivo di riconoscimento 10 è configurato per rilevare un’immagine di un codice QR (o per determinare direttamente il codice rappresentato dall’immagine) univocamente correlato al veicolo in corso di scansione. In one embodiment, the apparatus 1 comprises a recognition device 10. The recognition device 10 can be for example but not limited to a camera 2 'or a laser scanner or a QR code or barcode reader. The recognition device 10 is configured to acquire recognition data, corresponding to the detection of an identification element arranged on the vehicle. For example, the recognition device 10 is configured to detect an image of the vehicle license plate. In other embodiments, the recognition device 10 is configured to detect an image of a QR code (or to directly determine the code represented by the image) uniquely related to the vehicle being scanned.
In una forma di realizzazione, l’apparato 1 comprende un dispositivo di rilevamento 10A. Il dispositivo di rilevamento 10A è configurato per rilevare dati di rilevamento, associati ad un elemento di riferimento 10A' disposto nell’ambiente di test 100. L’elemento di riferimento 10A' è un target disposto in una posizione fissa dell’ambiente di test 100. Il dispositivo di rilevamento 10A consente di localizzare il veicolo all’interno dello spazio di test. In tal modo è possibile verificare la corrispondenza della posizione di uno stesso veicolo scansionato in due istanti di tempo diversi. In one embodiment, the apparatus 1 comprises a detection device 10A. The detection device 10A is configured to detect detection data, associated with a reference element 10A 'arranged in the test environment 100. The reference element 10A' is a target arranged in a fixed position of the test environment 100 The detection device 10A allows the vehicle to be located within the test space. In this way it is possible to verify the correspondence of the position of the same vehicle scanned in two different instants of time.
Si osservi che in una forma di realizzazione, il dispositivo scansionatore 2 coincide con il dispositivo di rilevamento 10A e con il dispositivo di riconoscimento 10. In altre forme di realizzazione, il dispositivo di rilevamento 10A e il dispositivo di riconoscimento 10 coincidono ma sono distinti dallo scansionatore. In altre forme di realizzazione, il dispositivo scansionatore 2, il dispositivo di rilevamento 10A e il dispositivo di riconoscimento 10 sono tre dispositivi distinti. It should be noted that in one embodiment, the scanning device 2 coincides with the detection device 10A and with the recognition device 10. In other embodiments, the detection device 10A and the recognition device 10 coincide but are distinct from scanner. In other embodiments, the scanning device 2, the detection device 10A and the recognition device 10 are three distinct devices.
In una forma di realizzazione, l’apparato 1 comprende una unità di controllo 7. In una forma di realizzazione l’apparato 1 comprende una interfaccia utente 8. In one embodiment, the apparatus 1 comprises a control unit 7. In one embodiment the apparatus 1 comprises a user interface 8.
In una forma di realizzazione, l’interfaccia utente 8 può essere un computer provvisto di tastiera e mouse per interagire con l’elaboratore dell’unità di controllo 7. In una forma di realizzazione, l’interfaccia utente 8 può essere un dispositivo mobile come uno smartphone o un tablet, in cui l’utente interagisce attraverso un display touch-screen. In one embodiment, the user interface 8 can be a computer equipped with a keyboard and mouse for interacting with the computer of the control unit 7. In one embodiment, the user interface 8 can be a mobile device such as a smartphone or tablet, in which the user interacts through a touch-screen display.
In una forma di realizzazione, l’apparato 1 comprende una memoria, per immagazzinare dati. In one embodiment, the apparatus 1 comprises a memory, for storing data.
In una forma di realizzazione, l’apparato 1 comprende un archivio 9. L’archivio 9 può essere remoto, per esempio contenuto in un server, o locale (in questo caso può essere contenuto nella memoria dell’apparato 1). L’archivio 9 è configurato per mantenere salvati dati d’immagine 201, parametri di luminosità 501, posizioni del veicolo scansionato, parametri caratteristici del veicolo o altri parametri, rilevati dai componenti dell’apparato 1 o inseriti manualmente da un operatore. In one embodiment, the apparatus 1 comprises an archive 9. The archive 9 can be remote, for example contained in a server, or local (in this case it can be contained in the memory of the apparatus 1). Archive 9 is configured to keep saved image data 201, brightness parameters 501, positions of the scanned vehicle, characteristic parameters of the vehicle or other parameters, detected by the components of the device 1 or entered manually by an operator.
In una forma di realizzazione, l’archivio 9 include dati di danno caratteristici 901, correlati ad una rispettiva tipologia di variazione estetica. In una forma di realizzazione, l’unità di controllo 7 è provvista di una connessione remota con l’archivio 9 remoto e di una connessione diretta con l’archivio 9 locale. L’unità di controllo 7 è collegata (via cavo o wireless) con il dispositivo scansionatore 2. L’unità di controllo 7 è collegata (via cavo o wireless) con il sensore di luminosità 5. L’unità di controllo 7 è collegata (via cavo o wireless) con il dispositivo illuminatore 6, per impostare parametri di luminosità 501 del dispositivo illuminatore 6. In una forma di realizzazione, il dispositivo scansionatore 2 è configurato per scansionare un veicolo in un primo istante di tempo da una distanza di scansionamento d. Il dispositivo scansionatore 2 è configurato per acquisire primi dati d’immagine 201A. I primi dati d’immagine 201A sono rappresentativi di una condizione estetica di una superficie del veicolo al primo istante di tempo. In una forma di realizzazione, i primi dati d’immagine 201A sono memorizzati nell’archivio 9. In one embodiment, the archive 9 includes characteristic damage data 901, related to a respective type of aesthetic variation. In one embodiment, the control unit 7 is provided with a remote connection with the remote archive 9 and a direct connection with the local archive 9. The control unit 7 is connected (via cable or wireless) with the scanner device 2. The control unit 7 is connected (via cable or wireless) with the brightness sensor 5. The control unit 7 is connected ( via cable or wireless) with the illuminator device 6, to set brightness parameters 501 of the illuminator device 6. In one embodiment, the scanner device 2 is configured to scan a vehicle in a first instant of time from a scanning distance d . The scanner device 2 is configured to acquire first image data 201A. The first image data 201A are representative of an aesthetic condition of a vehicle surface at the first instant of time. In one embodiment, the first image data 201A is stored in archive 9.
In una forma di realizzazione, il dispositivo scansionatore 2 è configurato per scansionare un veicolo in un secondo istante di tempo dalla distanza di scansionamento d. La distanza di scansionamento d può essere la stessa nel primo e nel secondo istante di tempo o può, in altre forme di realizzazione, variare nel tempo. Il dispositivo scansionatore 2 è configurato per acquisire secondi dati d’immagine 201B. I secondi dati d’immagine 201B sono rappresentativi di una condizione estetica della superficie del veicolo al secondo istante di tempo. In una forma di realizzazione, i secondi dati d’immagine 201B sono memorizzati nell’archivio 9. In one embodiment, the scanning device 2 is configured to scan a vehicle in a second instant of time from the scanning distance d. The scanning distance d may be the same in the first and second instant of time or may, in other embodiments, vary over time. The scanner device 2 is configured to acquire second image data 201B. The second image data 201B are representative of an aesthetic condition of the vehicle surface at the second instant of time. In one embodiment, the second image data 201B is stored in archive 9.
Il dispositivo scansionatore 2 è configurato per scansionare una superficie esterna del veicolo (o almeno una sua parte). In una forma di realizzazione, il dispositivo scansionatore 2 è configurato per scansionare una superficie esterna del veicolo, accessibile dal dispositivo scansionatore 2 attraverso i finestrini del veicolo. The scanning device 2 is configured to scan an external surface of the vehicle (or at least a part thereof). In one embodiment, the scanner device 2 is configured to scan an external surface of the vehicle, accessible from the scanner device 2 through the vehicle windows.
In una forma di realizzazione, il sensore di luminosità 5 è configurato per acquisire primi parametri di luminosità 501A, rappresentativi delle condizioni di illuminazione dell’ambiente di test 100 al primo istante di tempo. In una forma di realizzazione, il sensore di luminosità 5 è configurato per acquisire secondi parametri di luminosità 501B, rappresentativi delle condizioni di illuminazione dell’ambiente di test 100 al secondo istante di tempo. In one embodiment, the brightness sensor 5 is configured to acquire first brightness parameters 501A, representative of the lighting conditions of the test environment 100 at the first instant of time. In one embodiment, the brightness sensor 5 is configured to acquire second brightness parameters 501B, representative of the lighting conditions of the test environment 100 at the second instant of time.
In una forma di realizzazione, l’unità di controllo 7 è connessa al sollevatore 4. L’unità di controllo 7 è connessa al dispositivo di riconoscimento 10 per ricevere i dati di riconoscimento acquisiti sul veicolo. In una forma di realizzazione, l’unità di controllo 7 è connessa al dispositivo di rilevamento 10A per ricevere i dati di rilevamento acquisiti sull’elemento di riferimento 10A'. In one embodiment, the control unit 7 is connected to the lift 4. The control unit 7 is connected to the recognition device 10 to receive the recognition data acquired on the vehicle. In one embodiment, the control unit 7 is connected to the detection device 10A to receive the detection data acquired on the reference element 10A '.
L’unità di controllo 7 comprende un elaboratore, configurato per eseguire un programma per elaboratore. L’elaboratore è configurato per eseguire il programma per elaboratore che può attuare una o più fasi del metodo che nel seguito (nel presente trovato) vengono descritte. Si precisa che il presente trovato intende anche tutelare il programma per elaboratore che esegue una o più delle fasi sotto riportate quando lanciate nell’apparato 1 secondo una o più delle caratteristiche descritte nel presente trovato. L’unità di controllo 7 può comprendere più di un elaboratore configurato per eseguire il programma per elaboratore. In tal caso, ciascun elaboratore è disposto su un’interfaccia utente 8 (computer fisso, tablet o smartphone) per interagire con l’apparato 1 da qualsiasi posizione. The control unit 7 includes a computer, configured to run a computer program. The computer is configured to execute the computer program that can implement one or more steps of the method which are described below (in the present invention). It should be noted that the present invention also intends to protect the computer program that performs one or more of the steps listed below when launched in the apparatus 1 according to one or more of the features described in the present invention. The control unit 7 can comprise more than one computer configured to run the computer program. In this case, each computer is arranged on a user interface 8 (desktop computer, tablet or smartphone) to interact with the device 1 from any position.
Secondo un aspetto della presente descrizione il presente trovato mette a disposizione un metodo per rilevare variazioni di caratteristiche estetiche su un veicolo. According to an aspect of the present description, the present invention provides a method for detecting variations in aesthetic characteristics on a vehicle.
In una forma di attuazione il metodo comprende una fase di riconoscimento del veicolo F0. Nella fase di riconoscimento del veicolo F0, l’elaboratore riceve i dati di riconoscimento, univocamente associati al veicolo, dal dispositivo di riconoscimento 10. In one embodiment, the method comprises a step of recognizing the vehicle F0. In the vehicle recognition phase F0, the computer receives the recognition data, uniquely associated with the vehicle, from the recognition device 10.
In una forma di attuazione, il metodo comprende una fase di localizzazione del veicolo. In tale fase, l’elaboratore riceve dati di rilevamento, rappresentativi di una posizione di un elemento di riferimento 10A', stazionario rispetto all’ambiente di test 100, e dati di riconoscimento, univocamente correlati al veicolo da scansionare e rappresentativi di una distanza del veicolo da un dispositivo di riconoscimento 10, preposto all’acquisizione dei dati di riconoscimento. Nella fase di localizzazione, l’elaboratore determina una posizione assoluta del veicolo rispetto all’ambiente di test 100. In one embodiment, the method comprises a step of locating the vehicle. In this phase, the processor receives detection data, representative of a position of a reference element 10A ', stationary with respect to the test environment 100, and recognition data, uniquely related to the vehicle to be scanned and representative of a distance of the vehicle from a recognition device 10, designed to acquire the recognition data. In the localization phase, the computer determines an absolute position of the vehicle with respect to the test environment 100.
Si osservi che non è indispensabile conoscere la posizione del veicolo, per conoscere la posizione dei difetti sul veicolo stesso, ma può essere utile avere informazioni sulla presenza ed eventualmente sulla posizione del veicolo, specialmente nella fase di confronto di immagini prese in istanti di tempo diversi. It should be noted that it is not essential to know the position of the vehicle, to know the position of the defects on the vehicle itself, but it may be useful to have information on the presence and possibly on the position of the vehicle, especially in the phase of comparing images taken at different instants of time. .
In una forma di realizzazione, il metodo comprende una fase di ricezione di primi dati d’immagine F1. In tale fase un elaboratore riceve i primi dati d’immagine 201A acquisiti da un dispositivo scansionatore 2. I primi dati d’immagine 201A sono immagini di un veicolo sotto esame. I primi dati d’immagine 201A sono rappresentativi di caratteristiche estetiche di una superficie del veicolo (o di una sua parte), in un primo istante di tempo. I primi dati d’immagine 201A sono rappresentativi di un’immagine bidimensionale e/o di un’immagine tridimensionale, rilevata ad una distanza di scansionamento d. I primi dati d’immagine 201A sono dei valori di parametri di identificazione P, come ad esempio ma non limitatamente, luminanza o crominanza. In one embodiment, the method comprises a step of receiving first image data F1. In this phase, a computer receives the first image data 201A acquired by a scanner device 2. The first image data 201A are images of a vehicle under examination. The first image data 201A are representative of the aesthetic characteristics of a vehicle surface (or part of it), in a first instant of time. The first 201A image data are representative of a two-dimensional image and / or a three-dimensional image, detected at a scanning distance d. The first image data 201A are the values of identification parameters P, such as, but not limited to, luminance or chrominance.
In una forma di realizzazione, il metodo comprende una fase F2 di salvataggio dei primi dati d’immagine. Nella fase di salvataggio F2, i primi dati d’immagine 201A vengono salvati in un archivio 9. Nella fase di salvataggio F2, i primi dati d’immagine 201A vengono salvati in un percorso univoco che ne identifica l’orario e la data in cui sono stati rilevati e il veicolo ai quali fanno riferimento. In one embodiment, the method comprises a step F2 of saving the first image data. In the saving phase F2, the first image data 201A is saved in an archive 9. In the saving phase F2, the first image data 201A is saved in a unique path that identifies the time and date in which have been detected and the vehicle to which they refer.
In una forma di realizzazione, il metodo comprende una fase di ricezione di secondi dati d’immagine F3. In tale fase l’elaboratore riceve i secondi dati d’immagine 201B acquisiti dal dispositivo scansionatore 2. I secondi dati d’immagine 201B sono rappresentativi di caratteristiche estetiche della superficie del veicolo, in un secondo istante di tempo. I secondi dati d’immagine 201B sono rappresentativi di un’immagine bidimensionale e/o di un’immagine tridimensionale, rilevata ad una distanza di scansionamento d. I secondi dati d’immagine 201B sono dei valori dei parametri di identificazione P, come ad esempio ma non limitatamente, luminanza o crominanza. In one embodiment, the method comprises a step of receiving second image data F3. In this phase the computer receives the second image data 201B acquired by the scanning device 2. The second image data 201B are representative of the aesthetic characteristics of the vehicle surface, in a second instant of time. The second image data 201B are representative of a two-dimensional image and / or a three-dimensional image, detected at a scanning distance d. The second image data 201B are the values of the identification parameters P, such as, but not limited to, luminance or chrominance.
In una forma di realizzazione, il metodo comprende una fase F2’ di salvataggio dei secondi dati d’immagine. In one embodiment, the method comprises a step F2 'of saving the second image data.
I primi 201A e i secondi 201B dati d’immagine fanno riferimento ad una medesima superficie del veicolo in due istanti di tempo diversi. The first 201A and the second 201B image data refer to the same vehicle surface in two different instants of time.
In una forma di realizzazione, il metodo comprende una fase di recupero F4 dei primi dati d’immagine 201A. In tale fase di recupero F4, l’elaboratore invia una richiesta di recupero all’archivio 9 con la specifica del percorso univoco in cui sono salvati i primi dati d’immagine 201A. In one embodiment, the method comprises a recovery step F4 of the first image data 201A. In this F4 recovery phase, the computer sends a recovery request to archive 9 with the specification of the unique path in which the first 201A image data are saved.
In una forma di realizzazione, il metodo comprende una fase di recupero dei secondi dati d’immagine 201B. Questa fase è molto importante quando la valutazione dei danni sul veicolo venga per esempio fatto in un istante di tempo diverso rispetto all’istante di tempo nel quale avviene la fase di ricezione F3 dei secondi dati d’immagine 201B. In one embodiment, the method comprises a step of recovering the second image data 201B. This phase is very important when the damage assessment on the vehicle is for example done in an instant of time other than the instant in which the reception phase F3 of the second image data 201B takes place.
In una forma di realizzazione, il metodo comprende una fase di determinazione F5 di dati di filtraggio 701. In one embodiment, the method comprises a filter data determination step F5 701.
La fase di determinazione F5 comprende una fase di confronto tra i primi 201A e i secondi 201B dati d’immagine per determinare i dati di filtraggio 701. In particolare, in una forma di realizzazione, i dati di filtraggio 701 includono una pluralità di valori dei parametri di identificazione P. Tali valori sono funzione della differenza (del confronto) tra i primi 201A e i secondi 201B dati d’immagine. The determination step F5 comprises a step of comparing the first 201A and the second 201B image data to determine the filtering data 701. In particular, in one embodiment, the filtering data 701 includes a plurality of parameter values identification number P. These values are a function of the difference (of the comparison) between the first 201A and the second 201B image data.
Si osservi che d’ora in avanti si farà riferimento a dati di filtraggio 701 o a valori dei dati di filtraggio 701, volendo in tal modo intendere la stessa entità, ovvero un valore numerico di un parametro di identificazione P. Ciascun dato d’immagine di detti primi dati d’immagine 201A è associato ad una rispettiva porzione della superficie sul veicolo. Ciascun dato d’immagine di detti secondi dati d’immagine 201B è associato ad una rispettiva porzione sul veicolo. Ciascun dato di filtraggio di detti dati di filtraggio 701 è associato alla rispettiva porzione sul veicolo. It should be noted that from now on we will refer to filtering data 701 or to values of filtering data 701, thus meaning the same entity, that is a numerical value of an identification parameter P. Each image data of said first image data 201A is associated with a respective portion of the surface on the vehicle. Each image data of said second image data 201B is associated with a respective portion on the vehicle. Each filter data of said filter data 701 is associated with the respective portion on the vehicle.
In una forma di realizzazione, a titolo puramente esemplificativo, si prenda come parametro di identificazione la crominanza. I primi dati d’immagine 201A includono una prima pluralità di valori di crominanza, ciascun valore essendo associato alla rispettiva porzione nel veicolo. I secondi dati d’immagine 201B includono una seconda pluralità di valori di crominanza, ciascun valore essendo associato alla rispettiva porzione nel veicolo. I (la pluralità di valori dei) dati di filtraggio 701 sono determinati, per ciascuna porzione della superficie, in funzione della differenza tra il primo e il secondo valore di crominanza associato alla porzione stessa. Lo stesso ragionamento può essere esteso ad altri parametri di identificazione P, quali luminanza, luminosità, contrasto. In one embodiment, purely by way of example, chrominance is taken as the identification parameter. The first image data 201A include a first plurality of chroma values, each value being associated with the respective portion in the vehicle. The second image data 201B include a second plurality of chroma values, each value being associated with the respective portion in the vehicle. The (plurality of values of) filtering data 701 are determined, for each portion of the surface, as a function of the difference between the first and second chrominance values associated with the portion itself. The same reasoning can be extended to other identification parameters P, such as luminance, brightness, contrast.
Al termine della fase di determinazione F5, in una forma di realizzazione, l’elaboratore mantiene in memoria i dati di filtraggio 701, ciascuno associato alla rispettiva porzione. In una forma di realizzazione, l’elaboratore genera, per ciascun parametro di identificazione, una matrice di filtraggio 701’. Ciascun elemento della matrice di filtraggio 701’ ha una posizione, rappresentativa di una posizione della rispettiva porzione della superficie, e un valore, pari al valore del dato di filtraggio 701 corrispondente. At the end of the determination phase F5, in one embodiment, the processor keeps in memory the filtering data 701, each associated with the respective portion. In one embodiment, the processor generates, for each identification parameter, a filtering matrix 701 '. Each element of the filtering matrix 701 'has a position, representative of a position of the respective portion of the surface, and a value, equal to the value of the corresponding filtering data 701.
La notazione matriciale è solo un esempio di organizzazione dei dati di filtraggio. Matrix notation is just one example of organizing filtering data.
In una forma di realizzazione, il metodo comprende una prima fase di filtraggio F6. Nella prima fase di filtraggio F6, i dati di filtraggio 701 sono selezionati per generare un sottoinsieme di valori 701A nell’ambito dei dati di filtraggio 701. Detto sottoinsieme di valori è popolato una pluralità di dati di filtraggio attendibili. Si osservi che con dati di filtraggio attendibili non si intendono dati di filtraggio differenti ma solo dati di filtraggio che hanno superato la prima fase di filtraggio. Si osservi che nella descrizione è possibile trovare sia il termine sottoinsieme dei valori 701A che il termine pluralità di dati di filtraggio attendibili, pur avendo tali termini lo stesso significato nella descrizione. In one embodiment, the method comprises a first filtering step F6. In the first filtering phase F6, the filtering data 701 is selected to generate a subset of values 701A within the filtering data 701. Said subset of values is populated with a plurality of reliable filtering data. It should be noted that with reliable filtering data we do not mean different filtering data but only filtering data that have passed the first filtering stage. It should be noted that in the description it is possible to find both the term subset of the values 701A and the term plurality of reliable filtering data, although these terms have the same meaning in the description.
In una forma di realizzazione, nella prima fase di filtraggio F6, i valori dei dati di filtraggio 701 sono confrontati con un valore di riferimento Vf. Il confronto con il valore di riferimento Vf può essere una semplice discriminazione tra i valori dei dati di filtraggio superiori (o uguali) al valore di riferimento Vf e quelli inferiori al valore di riferimento Vf. In one embodiment, in the first filtering step F6, the values of the filtering data 701 are compared with a reference value Vf. The comparison with the reference value Vf can be a simple discrimination between the values of the filtering data higher than (or equal to) the reference value Vf and those lower than the reference value Vf.
In una forma di realizzazione, il valore di riferimento Vf è impostato precedentemente nell’elaboratore. In una forma di realizzazione, il valore di riferimento Vf è calcolato automaticamente dall’elaboratore. In one embodiment, the reference value Vf is previously set in the computer. In one embodiment, the reference value Vf is automatically calculated by the computer.
Il valore di riferimento Vf può essere un valore di un parametro di identificazione. Il valore di riferimento Vf può essere un valore determinato combinando opportunamente una pluralità di valori di riferimento corrispondenti a più parametri di identificazione P. The reference value Vf can be a value of an identification parameter. The reference value Vf can be a value determined by suitably combining a plurality of reference values corresponding to several identification parameters P.
In una forma di realizzazione, per ciascun parametro di identificazione, l’elaboratore ha in memoria un valore di riferimento Vf da confrontare con i valori dei dati di filtraggio 701 corrispondenti allo stesso parametro di identificazione. In one embodiment, for each identification parameter, the processor has in its memory a reference value Vf to be compared with the values of the filtering data 701 corresponding to the same identification parameter.
In una forma di realizzazione, partendo dalla matrice di filtraggio 701’ corrispondente alla crominanza, si confronta ciascun elemento della matrice di filtraggio 701’ con un valore di riferimento Vf di crominanza. Qualora il valore dell’elemento della matrice di filtraggio 701’ sia inferiore al valore di riferimento Vf di crominanza, quest’ultimo viene filtrato. Se invece, il valore dell’elemento della matrice di filtraggio 701’ è superiore (o uguale) al valore di riferimento Vf di crominanza, l’elemento viene mantenuto nella matrice di filtraggio 701’. In one embodiment, starting from the filtering matrix 701 'corresponding to the chrominance, each element of the filtering matrix 701' is compared with a chrominance reference value Vf. If the value of the element of the filtering matrix 701 'is lower than the chrominance reference value Vf, the latter is filtered. If, on the other hand, the value of the element of the filtering matrix 701 'is higher (or equal to) the reference value Vf of chrominance, the element is kept in the filtering matrix 701'.
Al termine della prima fase di filtraggio F6, l’elaboratore mantiene in memoria una matrice di filtraggio selezionata 701A’, popolata dei valori del sottoinsieme dei valori 701A (dai dati di filtraggio attendibili). At the end of the first F6 filtering phase, the computer keeps in memory a selected filter matrix 701A ', populated with the values of the subset of 701A values (from reliable filtering data).
In una forma di realizzazione, il metodo comprende una fase di raggruppamento F7. Nella fase di raggruppamento, l’elaboratore raggruppa valori del sottoinsieme dei valori 701A in uno o più gruppi di valori 702A', corrispondenti ad una rispettiva zona 702A della superficie del veicolo. In una forma di realizzazione, il metodo prevede di identificare tali zone 702A come zone di danno potenziale 702A. Pertanto, nel seguito ci riferiremo a zone di danno potenziale per identificare quelle zone della superficie del veicolo corrispondenti ai gruppi di valori 702A’ generati nella fase di raggruppamento F7. In one embodiment, the method comprises a grouping step F7. In the grouping phase, the processor groups values of the subset of 701A values into one or more groups of 702A 'values, corresponding to a respective area 702A of the vehicle surface. In one embodiment, the method provides for identifying such areas 702A as potential damage areas 702A. Therefore, in the following we will refer to areas of potential damage to identify those areas of the vehicle surface corresponding to the groups of values 702A 'generated in the grouping phase F7.
I valori del sottoinsieme 701A sono raggruppati in funzione della posizione, nella superficie del veicolo, delle porzioni di superficie corrispondenti ai rispettivi valori. I valori del sottoinsieme 701A sono raggruppati in funzione di coordinate spaziali S della posizione, nella superficie del veicolo, delle porzioni di superficie corrispondenti ai rispettivi valori. The values of the subset 701A are grouped as a function of the position, in the vehicle surface, of the surface portions corresponding to the respective values. The values of the subset 701A are grouped as a function of spatial coordinates S of the position, in the vehicle surface, of the surface portions corresponding to the respective values.
In una forma di realizzazione, ad esempio, la matrice di filtraggio selezionata 701A’ sarà costituita da elementi, posti in posizione adiacenti all’interno della matrice stessa. Pertanto, verosimilmente la matrice di filtraggio selezionata 701A’ sarà costituita da elementi adiacenti e da alcuni elementi isolati. In one embodiment, for example, the selected filtering matrix 701A 'will consist of elements, placed in adjacent positions within the matrix itself. Therefore, the filtering matrix selected 701A 'is likely to consist of adjacent elements and some isolated elements.
L’elaboratore, nella fase di raggruppamento F7, raggruppa gli elementi (ovvero i valori del sottoinsieme 701A) della matrice di filtraggio selezionata 701A’ che sono adiacenti. L’elaboratore, nella fase di raggruppamento F7, filtra gli elementi isolati della matrice di filtraggio selezionata 701A’. Al termine della fase di raggruppamento F7, l’elaboratore individua zone di danno potenziale 702A, corrispondenti ai gruppi di valori 702A’ della matrice delle zone 702. The processor, in the grouping phase F7, groups the elements (ie the values of the subset 701A) of the selected filter matrix 701A 'that are adjacent. The computer, in the grouping phase F7, filters the isolated elements of the selected filter matrix 701A '. At the end of the grouping phase F7, the computer identifies areas of potential damage 702A, corresponding to the groups of values 702A 'of the matrix of areas 702.
In una forma di realizzazione, l’elaboratore associa un rispettivo baricentro a ciascuna zona di danno potenziale 702A precedentemente individuata. Il baricentro è determinato in funzione (delle coordinate S) delle porzioni di superficie di cui la rispettiva zona di danno potenziale 702A è costituita. Si osservi che, quando si parla di coordinate spaziali S di una porzione della superficie si indica un punto, definito da coordinate geometriche, rappresentativo della posizione della porzione nella superficie del veicolo (ad esempio il baricentro della porzione). In one embodiment, the processor associates a respective center of gravity with each previously identified potential damage area 702A. The center of gravity is determined as a function (of the S coordinates) of the surface portions of which the respective potential damage zone 702A is constituted. It should be noted that, when we speak of spatial coordinates S of a portion of the surface, we indicate a point, defined by geometric coordinates, representative of the position of the portion in the vehicle surface (for example the center of gravity of the portion).
In una forma di realizzazione, il metodo comprende una fase di determinazione di un coefficiente di attendibilità C. Il coefficiente di attendibilità C è un valore associato a ciascuna zona di danno potenziale 702A. Il coefficiente di attendibilità C è un coefficiente che esprime una probabilità che la zona di danno potenziale 702A corrisponda effettivamente ad un danno reale sul veicolo. Il coefficiente di attendibilità C è funzione dei valori del gruppo di valori 702A’ associato alla rispettiva zona di danno potenziale 702A. Il coefficiente di attendibilità C è funzione della matrice di filtraggio selezionata 701A’. In una forma di realizzazione, il coefficiente di attendibilità C è funzione della matrice delle zone 702. Il coefficiente di attendibilità C è funzione di una distribuzione (nello spazio) delle porzioni di cui è composta la rispettiva zona di danno potenziale 702A. In una forma di realizzazione, il coefficiente di attendibilità C è funzione di un andamento dei valori (del gruppo di valori 702A’ della rispettiva zona di danno potenziale 702A) in funzione delle coordinate spaziale S delle rispettive porzioni. Per esempio, se i valori dei dati di filtraggio 701 di due porzioni adiacenti di una zona di danno potenziale 702A sono molto diversi, il coefficiente di attendibilità C potrebbe essere più basso. Viceversa, se essi sono omogenei, il coefficiente di attendibilità C potrebbe essere maggiore. In one embodiment, the method comprises a step of determining a confidence coefficient C. The confidence coefficient C is a value associated with each potential damage zone 702A. The reliability coefficient C is a coefficient that expresses a probability that the potential damage zone 702A actually corresponds to a real damage on the vehicle. The reliability coefficient C is a function of the values of the 702A 'group of values associated with the respective area of potential damage 702A. The reliability coefficient C is a function of the filtering matrix selected 701A '. In one embodiment, the reliability coefficient C is a function of the zone matrix 702. The reliability coefficient C is a function of a distribution (in space) of the portions of which the respective potential damage zone 702A is composed. In one embodiment, the reliability coefficient C is a function of a trend of the values (of the group of values 702A 'of the respective potential damage zone 702A) as a function of the spatial coordinates S of the respective portions. For example, if the filtering data values 701 of two adjacent portions of a potential damage zone 702A are very different, the confidence coefficient C could be lower. Conversely, if they are homogeneous, the reliability coefficient C could be higher.
Il coefficiente di attendibilità C è funzione di una somiglianza tra il gruppo di valori 702A’ dei dati di filtraggio 701 e i dati di danno caratteristici 901, salvati nell’archivio 9. The reliability coefficient C is a function of a similarity between the group of values 702A 'of the filtering data 701 and the characteristic damage data 901, saved in archive 9.
Al termine della fase di determinazione del coefficiente di attendibilità C, l’elaboratore mantiene in memoria una matrice delle zone 702, includente, per ciascun elemento (ciascuna zona 702A o zona di danno potenziale 702A), un rispettivo coefficiente di attendibilità C e un rispettivo baricentro (rispettivi dati di localizzazione). At the end of the phase of determining the reliability coefficient C, the computer keeps in memory a matrix of the zones 702, including, for each element (each zone 702A or zone of potential damage 702A), a respective reliability coefficient C and a respective center of gravity (respective location data).
In una forma di realizzazione, il metodo comprende una seconda fase di filtraggio F8. Nella seconda fase di filtraggio F8 le zone di danno potenziale 702A sono filtrate in funzione del loro rispettivo coefficiente di attendibilità C. Nella seconda fase di filtraggio F8 la matrice delle zone 702 è filtrata in funzione dei coefficienti di attendibilità C delle zone di danno potenziale 702A che la costituiscono. In one embodiment, the method comprises a second filtering step F8. In the second filtering phase F8 the potential damage zones 702A are filtered according to their respective reliability coefficient C. In the second filtering phase F8 the matrix of the zones 702 is filtered according to the reliability coefficients C of the potential damage zones 702A that constitute it.
In una forma di realizzazione, nella seconda fase di filtraggio F8, ciascun coefficiente di attendibilità C, corrispondente ad una zona di danno potenziale 702A, è confrontato con un valore limite Clim. In one embodiment, in the second filtering step F8, each reliability coefficient C, corresponding to a potential damage zone 702A, is compared with a limit value Clim.
In una forma di realizzazione, nella seconda fase di filtraggio F8, una matrice dei coefficienti di attendibilità C, corrispondente alla matrice delle zone 702, è confrontata con il valore limite Clim. In one embodiment, in the second filtering step F8, a matrix of the reliability coefficients C, corresponding to the matrix of the zones 702, is compared with the limit value Clim.
Il confronto consente di discriminare le zone di danno potenziale 702A per individuare zone di danno attendibili 703A, aventi coefficiente di attendibilità C maggiore del valore limite Clim. Il confronto consente di filtrare la matrice delle zone 702 e generare una matrice 703 delle zone attendibili, popolata con i gruppi di valori relativi alle zone di danno potenziale 702A aventi coefficiente di attendibilità C maggiore del valore limite Clim. Pertanto, la matrice 703 delle zone attendibili differisce dalla matrice 702 delle zone per il fatto di includere informazioni circa l’esito del confronto tra il coefficiente di attendibilità C (per i gruppi di valori relativi alle zone di danno potenziale 702A) con il valore limite Clim; tali informazioni possono essere realizzate impostando a 0 o a un valore prestabilito i gruppi di valori per cui il coefficiente di attendibilità C non supera il valore limite Clim, o aggiungendo ai gruppi di valori un ulteriore dato di riferimento o impostando una corrispondente variabile. The comparison allows to discriminate the potential damage zones 702A in order to identify reliable damage zones 703A, with reliability coefficient C higher than the Clim limit value. The comparison makes it possible to filter the matrix of the zones 702 and generate a matrix 703 of the reliable zones, populated with the groups of values relating to the zones of potential damage 702A having a reliability coefficient C greater than the Clim limit value. Therefore, the 703 matrix of the reliable zones differs from the 702 matrix of the zones in that it includes information about the outcome of the comparison between the reliability coefficient C (for the groups of values relating to the potential damage zones 702A) with the limit value Clim; this information can be obtained by setting to 0 or to a predetermined value the groups of values for which the reliability coefficient C does not exceed the Clim limit value, or by adding an additional reference data to the groups of values or by setting a corresponding variable.
In una forma di realizzazione, il metodo (la seconda fase di filtraggio F8) comprende una fase di filtraggio manuale. Nella fase di filtraggio manuale, un elaboratore genera (mostra) su un’interfaccia utente 8 coppie di immagini 706, ciascuna associata ad una rispettiva zona di danno potenziale 702A. Ciascuna coppia di immagini 706 include una prima immagine della zona di danno potenziale 702A, presa al primo istante di tempo e una seconda immagine della zona di danno potenziale 702A, presa al secondo istante di tempo. Nella fase di filtraggio manuale, l’unità di controllo 7 filtra le zone di danno potenziale 702A e/o le zone di danno attendibili 703A in funzione dei dati di ingresso. I dati di ingresso, in una forma di realizzazione, sono inseriti manualmente da un utente tramite l’interfaccia utente 8. In one embodiment, the method (the second filtering step F8) comprises a manual filtering step. In the manual filtering phase, a computer generates (shows) 8 pairs of 706 images on a user interface, each associated with a respective area of potential damage 702A. Each pair of images 706 includes a first image of the potential damage zone 702A, taken at the first instant of time and a second image of the potential damage zone 702A, taken at the second instant of time. In the manual filtering phase, the control unit 7 filters the areas of potential damage 702A and / or the areas of reliable damage 703A according to the input data. The input data, in one embodiment, are entered manually by a user via the user interface 8.
In una forma di realizzazione, ad esempio, un utente visiona sul touch screen di un tablet la prima immagine della zona di danno potenziale 702A e in parallelo la seconda immagine della zona di danno potenziale 702A per valutare direttamente la presenza o meno di un danno. A quel punto, l’operatore, tramite il touch screen, potrà identificare la zona di danno potenziale 702A come una zona di danno effettivo oppure come una zona priva di danno e frutto di un errore di rilevazione. In one embodiment, for example, a user views on the touch screen of a tablet the first image of the potential damage zone 702A and in parallel the second image of the potential damage zone 702A to directly evaluate the presence or absence of a damage. At that point, the operator, through the touch screen, will be able to identify the area of potential damage 702A as an actual damage area or as an area without damage and the result of a detection error.
In una forma di realizzazione, l’identificazione avviene toccando sul display touch screen la coppia d’immagini e successivamente selezionando un pulsante di conferma o un pulsante di eliminazione della coppia d’immagini, visualizzato sul display. In one embodiment, identification occurs by touching the pair of images on the touch screen display and then selecting a confirmation button or a button to delete the image pair, shown on the display.
In una forma di realizzazione, se l’operatore identifica la zona di danno potenziale 702A come errori di rilevazione, l’elaboratore imposta il coefficiente di attendibilità C della zona di danno potenziale 702A sul suo valore minimo assoluto. In tal modo, nella seconda fase di filtraggio, tale zona di danno potenziale 702A sarà sicuramente filtrata. In one embodiment, if the operator identifies the potential damage zone 702A as detection errors, the computer sets the reliability coefficient C of the potential damage zone 702A on its absolute minimum value. In this way, in the second filtering step, this potential damage zone 702A will surely be filtered.
In una forma di realizzazione, se l’operatore conferma la zona di danno potenziale 702A, l’elaboratore imposta il coefficiente di attendibilità C della zona di danno potenziale 702A sul suo valore massimo assoluto. In tal modo, nella seconda fase di filtraggio, tale zona di danno potenziale 702A sarà sicuramente parte delle zone di danno attendibili 703A. In one embodiment, if the operator confirms the potential damage zone 702A, the computer sets the reliability coefficient C of the potential damage zone 702A to its absolute maximum value. In this way, in the second filtering step, this potential damage zone 702A will certainly be part of the reliable damage zones 703A.
In una forma di realizzazione, il metodo comprende una fase di salvataggio di annotazioni. In tale fase, l’unità di controllo riceve note, inserite manualmente da un utilizzatore, e che sono associate ad un rispettivo veicolo e/o ad una rispettiva coppia di immagini. In seguito, dette note sono salvate nell’archivio 9, nel quale sono univocamente associate al rispettivo veicolo e/o ad una rispettiva coppia di immagini del veicolo. In una forma di realizzazione, il metodo comprende una fase di correlazione. Nella fase di correlazione, il gruppo di valori 702A’ associato a ciascuna zona di danno potenziale 702A è correlato con dati di danno caratteristici 901, corrispondenti a tipologie di variazioni estetiche note attribuite a tipologie prestabilite di danni. In tale fase di correlazione, in una forma di realizzazione, l’elaboratore genera un coefficiente di correlazione. Il coefficiente di correlazione è indicativo della somiglianza tra il gruppo di valori 702A’ associato a ciascuna zona di danno potenziale 702A e i dati di danno caratteristici 901, salvati nell’archivio 9. In one embodiment, the method comprises a step of saving annotations. In this phase, the control unit receives notes, entered manually by a user, and which are associated with a respective vehicle and / or a respective pair of images. Subsequently, said notes are saved in archive 9, in which they are uniquely associated with the respective vehicle and / or with a respective pair of images of the vehicle. In one embodiment, the method comprises a correlation step. In the correlation phase, the group of 702A values associated with each area of potential damage 702A is correlated with characteristic damage data 901, corresponding to types of known aesthetic variations attributed to predetermined types of damage. In this correlation phase, in one embodiment, the processor generates a correlation coefficient. The correlation coefficient is indicative of the similarity between the group of 702A values associated with each area of potential damage 702A and the characteristic damage data 901, saved in archive 9.
In una forma di realizzazione, il coefficiente di attendibilità C è funzione del coefficiente di correlazione. In one embodiment, the reliability coefficient C is a function of the correlation coefficient.
A puro titolo esemplificativo, si osservi un esempio relativo ad un graffio sul veicolo. I dati di danno caratteristici 901 potrebbero essere rappresentati da: un valore medio della crominanza (o di un altro parametro di identificazione) di un graffio di riferimento, una forma del graffio di riferimento (distribuzione spaziale del graffio nel veicolo), distribuzione della crominanza (o di un altro parametro di identificazione) lungo tutto il graffio di riferimento. Ciascuna zona di danno potenziale 702A rilevate dall’elaboratore è a sua volta caratterizzata dal seguente gruppo di valori 702A’: un valore medio della crominanza (o di un altro parametro di identificazione), una sua forma (distribuzione spaziale del graffio nel veicolo) e una distribuzione della crominanza (o di un altro parametro di identificazione) lungo tutta la zona di danno potenziale 702A. L’elaboratore confronta il gruppo di valori 702A’ di ciascuna zona di danno potenziale 702A con i dati di danno caratteristici 901 determinando: un primo coefficiente X, variabile da 0 a 1, in funzione alla differenza tra il valore medio della crominanza della zona di danno potenziale 702A e il valore medio dalla crominanza di un graffio di riferimento; By way of example, see an example relating to a scratch on the vehicle. The characteristic damage data 901 could be represented by: an average value of the chrominance (or other identification parameter) of a reference scratch, a shape of the reference scratch (spatial distribution of the scratch in the vehicle), distribution of the chrominance ( or another identification parameter) along the entire reference scratch. Each potential damage zone 702A detected by the computer is in turn characterized by the following group of values 702A ': an average value of the chrominance (or of another identification parameter), its shape (spatial distribution of the scratch in the vehicle) and a distribution of the chrominance (or of another identification parameter) throughout the potential damage zone 702A. The computer compares the group of values 702A 'of each potential damage zone 702A with the characteristic damage data 901, determining: a first coefficient X, variable from 0 to 1, according to the difference between the average value of the chrominance of the potential damage 702A and the average value from the chrominance of a reference scratch;
un secondo coefficiente Y, variabile da 0 a 1, in funzione alla differenza di forma della zona di danno potenziale 702A e del graffio di riferimento; un terzo coefficiente Z, variabile da 0 a 1, in funzione alla differenza di distribuzione della crominanza nella zona di danno potenziale 702A e nel graffio di riferimento; a second coefficient Y, variable from 0 to 1, as a function of the difference in shape of the potential damage zone 702A and of the reference scratch; a third coefficient Z, variable from 0 to 1, as a function of the chrominance distribution difference in the potential damage zone 702A and in the reference scratch;
Il coefficiente di correlazione potrebbe, in una forma di realizzazione, essere calcolato come il prodotto del primo, del secondo e del terzo coefficiente. Tale formulazione del calcolo del coefficiente di correlazione è puramente esemplificativa ma non intende affatto limitare la descrizione a questa modalità. The correlation coefficient could, in one embodiment, be calculated as the product of the first, second and third coefficients. This formulation of the calculation of the correlation coefficient is purely illustrative but by no means intends to limit the description to this modality.
In una forma di realizzazione, nella fase di correlazione, l’elaboratore determina una tipologia di variazione estetica sul veicolo. In particolare, l’elaboratore determina una tipologia di variazione estetica sul veicolo in funzione del coefficiente di correlazione determinato. Se, facendo riferimento all’esempio precedente, il coefficiente di correlazione con un graffio di riferimento è maggiore di un primo valore limite, l’elaboratore associa a tale zona di danno potenziale 702A una tipologia di variazione estetica nota (un graffio). In one embodiment, in the correlation phase, the computer determines a type of aesthetic variation on the vehicle. In particular, the computer determines a type of aesthetic variation on the vehicle as a function of the correlation coefficient determined. If, referring to the previous example, the correlation coefficient with a reference scratch is greater than a first limit value, the computer associates a type of known aesthetic variation (a scratch) to this area of potential damage 702A.
In una forma di realizzazione, se tutti i coefficienti di correlazione calcolati per tutti i dati di danno caratteristici sono inferiori (o uguali) ad un secondo valore limite, l’elaboratore identifica la rispettiva zona di danno potenziale 702A come un danno nuovo. In tal caso, l’elaboratore, allerta un operatore sulla presenza di differenze attendibili ma non conosciute. In una forma di realizzazione, l’elaboratore riceve da un operatore istruzioni sulla tipologia del danno nuovo. L’elaboratore salva il danno nuovo e gli associa i dati di filtraggio attendibili 701A che ha rilevato. In one embodiment, if all the correlation coefficients calculated for all the characteristic damage data are lower (or equal) to a second limit value, the processor identifies the respective potential damage zone 702A as a new damage. In this case, the computer alerts an operator to the presence of reliable but not known differences. In one embodiment, the computer receives from an operator instructions on the type of new damage. The computer saves the new damage and associates it with the 701A reliable filtering data it has detected.
In altri casi, l’istruzione dell’operatore è un’identificazione d’errore. L’elaboratore rileva l’identificazione d’errore e filtra (rimuove, non inserisce) la zona di danno potenziale 702A (dalla matrice delle zone attendibile 703) senza attribuirgli alcun danno nuovo corrispondente. In other cases, the operator's instruction is an error identification. The computer detects the error identification and filters (removes, does not insert) the area of potential damage 702A (from the matrix of trusted areas 703) without attributing any new corresponding damage to it.
Si osservi che, come mostrato nelle figure, il calcolo utilizzando matrici è un esempio di come possono essere individuate zone di danno attendibili 703A. Note that, as shown in the figures, the calculation using matrices is an example of how 703A reliable damage zones can be identified.
In particolare, una funzione di filtraggio 701’’ potrebbe corrispondere alla matrice di filtraggio 701’, ovvero ciascun dato di filtraggio della matrice di filtraggio (associato ad una rispettiva posizione nella matrice) corrisponde ad un punto della funzione di filtraggio 701”. La funzione di filtraggio 701’’ ha in ascissa coordinate spaziali S, che identificano una porzione della superficie del veicolo. La funzione di filtraggio 701’’ ha in ordinata i dati di filtraggio corrispondenti. In particolare, la funzione di filtraggio 701” ha in ordinata un parametro di identificazione P e in ascissa una coordinata spaziale S che identifica una porzione del veicolo. Pertanto, la funzione di filtraggio 701” associa a ciascuna porzione del veicolo un corrispondente dato di filtraggio, ovvero un valore del parametro di identificazione P. In particular, a filtering function 701 '' could correspond to the filtering matrix 701 ', that is, each filtering data of the filtering matrix (associated with a respective position in the matrix) corresponds to a point of the filtering function 701 ". The filtering function 701 '' has spatial coordinates S on the abscissa, which identify a portion of the vehicle surface. The filtering function 701 '' has the corresponding filtering data in ordinate. In particular, the filtering function 701 ”has an identification parameter P on the ordinate and a spatial coordinate S on the abscissa which identifies a portion of the vehicle. Therefore, the filtering function 701 "associates to each portion of the vehicle a corresponding filtering data, that is a value of the identification parameter P.
A seguito della prima fase di filtraggio F6, l’unità di controllo genera una funzione di filtraggio attendibile 701A’’, che include solo i dati di filtraggio della funzione di filtraggio 701” il cui valore è maggiore del valore di riferimento Vf. In sostanza, vengono rimossi dalla funzione di filtraggio 701’’ quei dati di filtraggio 701 aventi valore inferiore al valore di riferimento Vf. La funzione di filtraggio attendibile include il sottoinsieme dei valori 701A. Following the first filtering phase F6, the control unit generates a reliable filtering function 701A ', which includes only the filtering data of the filtering function 701 "whose value is greater than the reference value Vf. Basically, those filtering data 701 having a value lower than the reference value Vf are removed from the filtering function 701 ''. The trusted filter function includes the subset of 701A values.
Al termine della fase di raggruppamento F7, l’unità di controllo ha in memoria una funzione delle zone 702’. In una forma di realizzazione, la funzione delle zone 702’ ha in ascissa, per ciascuna zona di danno potenziale 702A sono riportate le coordinate S del baricentro della zona di danno potenziale 702A. At the end of the grouping phase F7, the control unit has a function of the 702 'zones in memory. In one embodiment, the function of the areas 702 'has in the abscissa, for each area of potential damage 702A the coordinates S of the center of gravity of the area of potential damage 702A are reported.
Al termine della fase di determinazione del coefficiente di attendibilità, il metodo ha generato un istogramma di attendibilità 702’’, in cui, per ciascuna zona di danno potenziale 702A, il corrispondente valore del coefficiente di attendibilità C è riportato in ordinata. At the end of the phase of determining the reliability coefficient, the method generated a 702 '' reliability histogram, in which, for each area of potential damage 702A, the corresponding value of the reliability coefficient C is reported in ordinate.
Al termine della fase di secondo filtraggio F8, una funzione delle zone attendibili 703’ potrebbe corrispondere alla matrice delle zone attendibili 703. Tale funzione contiene i dati di filtraggio 701 delle sole zone di danno aventi coefficiente di attendibilità C superiore al valore limite Clim. At the end of the second filtering phase F8, a function of the reliable zones 703 'could correspond to the matrix of the reliable zones 703. This function contains the filtering data 701 of the damage zones only with a reliability coefficient C higher than the Clim limit value.
In una forma di realizzazione, la fase di determinazione F5 dei dati di filtraggio 701 comprende una fase di correzione F51. In one embodiment, the determination step F5 of the filtering data 701 comprises a correction step F51.
In una forma di realizzazione, il metodo comprende una fase di ricezione F511 di primi parametri di luminosità 501A. In tale fase, l’elaboratore riceve i primi parametri di luminosità 501A rilevati dal sensore di luminosità 5 in un primo istante di tempo in prossimità dell’ambiente di test 100. In one embodiment, the method comprises a step F511 of receiving first brightness parameters 501A. In this phase, the computer receives the first brightness parameters 501A detected by the brightness sensor 5 in a first instant of time in the vicinity of the test environment 100.
In una forma di attuazione, il metodo comprende una fase di salvataggio F512 dei primi parametri di luminosità 501A. In one embodiment, the method comprises a step of saving F512 of the first brightness parameters 501A.
In una forma di realizzazione, il metodo comprende una fase di ricezione F513 secondi parametri di luminosità 501B. In tale fase, l’elaboratore riceve i secondi parametri di luminosità 501B rilevati dal sensore di luminosità 5 in un secondo istante di tempo in prossimità dell’ambiente di test 100. In one embodiment, the method comprises a step of receiving F513 second brightness parameters 501B. In this phase, the computer receives the second brightness parameters 501B detected by the brightness sensor 5 in a second instant of time near the test environment 100.
In una forma di realizzazione, il metodo comprende una fase di salvataggio dei secondi parametri di luminosità 501B. In one embodiment, the method comprises a step of saving the second brightness parameters 501B.
Nella fase di correzione F51, l’elaboratore, dopo aver ricevuto i secondi dati d’immagine 201B, esegue la fase di recupero dei primi dati d’immagine 201A. In una forma di realizzazione, l’elaboratore esegue una fase di recupero F514 primi parametri di luminosità 501A. In tale fase di recupero F514 primi parametri di luminosità 501A, l’elaboratore invia una richiesta all’archivio 9 nella quale è specificato un percorso univoco in cui sono stati precedentemente salvati i primi parametri di luminosità 501A. In the correction phase F51, the computer, after receiving the second image data 201B, performs the recovery phase of the first image data 201A. In one embodiment, the processor performs a recovery phase F514 first brightness parameters 501A. In this F514 recovery phase, the first 501A brightness parameters, the processor sends a request to archive 9 in which a unique path is specified in which the first 501A brightness parameters were previously saved.
In una forma di realizzazione, nella fase di correzione F51, l’elaboratore determina uno scostamento tra i primi parametri di luminosità 501A e i secondi parametri di luminosità 501B. In una forma di realizzazione, la fase di correzione F51 comprende una fase di calcolo F515 di un coefficiente correttivo. Nella fase di calcolo F515 del coefficiente correttivo, l’elaboratore calcola il coefficiente correttivo, in funzione dello scostamento tra i primi parametri di luminosità 501A e i secondi parametri di luminosità 501B. In one embodiment, in the correction phase F51, the processor determines a deviation between the first brightness parameters 501A and the second brightness parameters 501B. In one embodiment, the correction step F51 comprises a calculation step F515 of a correction coefficient. In the F515 calculation phase of the correction coefficient, the computer calculates the correction coefficient, according to the deviation between the first brightness parameters 501A and the second brightness parameters 501B.
In una forma di realizzazione, la fase di correzione F51 comprende una fase di aggiustamento F516. Nella fase di aggiustamento F516, l’elaboratore aggiusta il valore dei primi dati d’immagine 201A, o alternativamente dei secondi dati d’immagine 201B, per generare primi dati d’immagine corretti 201A’, o alternativamente secondi dati d’immagine 201B’ corretti. Al termine della fase di correzione F51, l’elaboratore utilizza i primi dati d’immagine 201A e i secondi dati d’immagine corretti 201B’ o, in alternativa, i primi dati d’immagine corretti 201A’ e i secondi dati d’immagine 201B. In una forma di realizzazione, sia i primi che i secondi dati d’immagine sono corretti rispetto ad una condizione di illuminazione di riferimento. In one embodiment, the correction step F51 comprises an adjustment step F516. In the adjustment step F516, the processor adjusts the value of the first image data 201A, or alternatively of the second image data 201B, to generate first corrected image data 201A ', or alternatively second image data 201B' correct. At the end of the correction phase F51, the computer uses the first image data 201A and the second image data corrected 201B 'or, alternatively, the first image data corrected 201A' and the second image data 201B. In one embodiment, both the first and second image data are correct with respect to a reference lighting condition.
In una forma di realizzazione, il metodo comprende una fase di generazione di un referto. Il referto riporta indicazioni su variazioni di carattere estetico rilevate sul veicolo. In una forma di realizzazione, nella fase di generazione del referto sono generate, per ciascuna zona di danno potenziale 702A, una coppia di immagini 706 includente una prima immagine della zona di danno potenziale 702A al primo istante di tempo e una seconda immagine della zona di danno potenziale 702A al secondo istante di tempo. In una forma di realizzazione, nella fase di generazione del referto sono generate, per ciascuna zona di danno attendibili 703, una coppia di immagini 706 includente una prima immagine della zona di danno attendibile 703 al primo istante di tempo e una seconda immagine della zona di danno attendibile 703 al secondo istante di tempo. Nella fase di generazione del referto, per ciascuna zona di danno potenziale 702A, l’unità di controllo 7 associa rispettivi dati di localizzazione 704, rappresentativi di una posizione della zona di danno potenziale 702A nel veicolo. Nella fase di generazione del referto, per ciascuna zona di danno potenziale 702A, l’unità di controllo 7 associa il rispettivo coefficiente di attendibilità C. Pertanto, un operatore sarà in grado di visualizzare sull’interfaccia utente 8 le immagini reali del veicolo, al primo e al secondo istante di tempo, una probabilità che questo sia effettivamente un danno, una collocazione del danno nel veicolo ed eventualmente anche la tipologia di danno rilevata in funzione del coefficiente di correlazione. In one embodiment, the method comprises a step of generating a report. The report contains indications on aesthetic changes found on the vehicle. In one embodiment, in the report generation step, for each potential damage zone 702A, a pair of images 706 including a first image of the potential damage zone 702A at the first instant of time and a second image of the damage zone are generated. potential damage 702A per second instant of time. In one embodiment, in the report generation step, for each reliable damage zone 703, a pair of images 706 including a first image of the reliable damage zone 703 at the first instant of time and a second image of the damage zone are generated. reliable damage 703 per second instant of time. In the report generation phase, for each area of potential damage 702A, the control unit 7 associates respective location data 704, representative of a position of the area of potential damage 702A in the vehicle. In the report generation phase, for each area of potential damage 702A, the control unit 7 associates the respective coefficient of reliability C. Therefore, an operator will be able to view the real images of the vehicle on the user interface 8, at the first and second instant of time, a probability that this is actually a damage, a location of the damage in the vehicle and possibly also the type of damage detected as a function of the correlation coefficient.
In una forma di realizzazione, il metodo comprende una fase di salvataggio del referto nell’archivio 9. In una forma di realizzazione, il metodo comprende una fase di recupero del referto dall’archivio 9 da parte di dispositivi mobili associati ad un operatore o ad un utilizzatore del veicolo (ad esempio allo smartphone, al tablet o al PC del proprietario del veicolo o di chi ha noleggiato il veicolo). In one embodiment, the method comprises a step of saving the report in the file 9. In one embodiment, the method comprises a step of retrieving the report from the file 9 by mobile devices associated with an operator or a a user of the vehicle (for example to the smartphone, tablet or PC of the vehicle owner or whoever hired the vehicle).
Le fasi descritte fino a questo punto sono tutte eseguibili da un elaboratore e una o più di loro possono appartenere al programma per elaboratore che si intende tutelare nel presente trovato. The steps described up to this point are all executable by a computer and one or more of them may belong to the computer program which is intended to be protected in the present invention.
Nel seguito sono invece descritte quelle fasi del metodo che sono invece eseguite da componenti esterni all’elaboratore ma comunque facenti parte dell’apparato 1. The following describes those phases of the method that are instead performed by components external to the computer but still part of the apparatus 1.
Secondo un aspetto della presente descrizione il metodo comprende una prima fase di scansione del veicolo, eseguita da un dispositivo scansionatore 2 sul veicolo in un primo istante di tempo. Il metodo comprende una seconda fase di scansione del veicolo, eseguita dal dispositivo scansionatore 2 sul veicolo in un secondo istante di tempo. In una forma di attuazione, il metodo comprende una fase di illuminazione. In tale fase di illuminazione, un dispositivo illuminatore 6 illumina una zona del veicolo sottoposta a scansione. In tal modo l’influenza di una variazione di luminosità nell’ambiente di test 100 diventa trascurabile. According to an aspect of the present description, the method comprises a first step of scanning the vehicle, performed by a scanning device 2 on the vehicle in a first instant of time. The method comprises a second step of scanning the vehicle, performed by the scanning device 2 on the vehicle in a second instant of time. In one embodiment, the method comprises an illumination step. In this stage of illumination, an illuminating device 6 illuminates an area of the vehicle being scanned. In this way the influence of a brightness variation in the test environment 100 becomes negligible.
In una forma di attuazione, il metodo comprende una prima fase di rilevazione luminosità. In tale fase, un sensore di luminosità 5 rileva primi parametri di luminosità 501A dell’ambiente di test 100. In una forma di realizzazione, il metodo comprende una seconda fase di rilevazione luminosità. In tale fase, un sensore di luminosità 5 rileva secondi parametri di luminosità 501B dell’ambiente di test 100. In one embodiment, the method comprises a first brightness detection step. In this phase, a brightness sensor 5 detects first brightness parameters 501A of the test environment 100. In one embodiment, the method includes a second brightness detection step. In this phase, a brightness sensor 5 detects second brightness parameters 501B of the test environment 100.
In una forma di attuazione, il metodo comprende una fase di riconoscimento. In tale fase, un dispositivo di riconoscimento 10 acquisisce dati di riconoscimento, univocamente correlati al veicolo sottoposto a scansione. In una forma di attuazione, i dati di riconoscimento sono rappresentativi di una distanza del veicolo dal dispositivo di riconoscimento 10. In one embodiment, the method comprises an acknowledgment step. In this step, a recognition device 10 acquires recognition data, uniquely related to the vehicle being scanned. In one embodiment, the recognition data is representative of a distance of the vehicle from the recognition device 10.
In una forma di attuazione, il metodo comprende una fase di rilevamento. In tale fase, un dispositivo di rilevamento 10A acquisisce dati di rilevamento, rappresentativi di una posizione di un elemento di riferimento 10A’, stazionario rispetto all’ambiente di test 100. In one embodiment, the method comprises a detection step. In this phase, a detection device 10A acquires detection data, representative of a position of a reference element 10A ', stationary with respect to the test environment 100.
Claims (17)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| IT102018000005636A IT201800005636A1 (en) | 2018-05-23 | 2018-05-23 | METHOD AND APPARATUS FOR DETECTING DAMAGES IN A VEHICLE, CORRESPONDING TO VARIATIONS IN THE AESTHETIC CHARACTERISTICS OF THE VEHICLE |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| IT102018000005636A IT201800005636A1 (en) | 2018-05-23 | 2018-05-23 | METHOD AND APPARATUS FOR DETECTING DAMAGES IN A VEHICLE, CORRESPONDING TO VARIATIONS IN THE AESTHETIC CHARACTERISTICS OF THE VEHICLE |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| IT201800005636A1 true IT201800005636A1 (en) | 2019-11-23 |
Family
ID=62952373
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| IT102018000005636A IT201800005636A1 (en) | 2018-05-23 | 2018-05-23 | METHOD AND APPARATUS FOR DETECTING DAMAGES IN A VEHICLE, CORRESPONDING TO VARIATIONS IN THE AESTHETIC CHARACTERISTICS OF THE VEHICLE |
Country Status (1)
| Country | Link |
|---|---|
| IT (1) | IT201800005636A1 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20060143173A1 (en) * | 2004-12-29 | 2006-06-29 | Snap-On Incorporated | Method, apparatus, and system for implementing vehicle identification |
| EP2911112A1 (en) * | 2014-02-21 | 2015-08-26 | Wipro Limited | Methods for assessing image change and devices thereof |
| US20160239922A1 (en) * | 2015-02-17 | 2016-08-18 | Raymond Jimenez | System and method of real-time imaging and analysis of real-world objects |
| US20170147990A1 (en) * | 2015-11-23 | 2017-05-25 | CSI Holdings I LLC | Vehicle transactions using objective vehicle data |
-
2018
- 2018-05-23 IT IT102018000005636A patent/IT201800005636A1/en unknown
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20060143173A1 (en) * | 2004-12-29 | 2006-06-29 | Snap-On Incorporated | Method, apparatus, and system for implementing vehicle identification |
| EP2911112A1 (en) * | 2014-02-21 | 2015-08-26 | Wipro Limited | Methods for assessing image change and devices thereof |
| US20160239922A1 (en) * | 2015-02-17 | 2016-08-18 | Raymond Jimenez | System and method of real-time imaging and analysis of real-world objects |
| US20170147990A1 (en) * | 2015-11-23 | 2017-05-25 | CSI Holdings I LLC | Vehicle transactions using objective vehicle data |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN102084213B (en) | Tire shape inspection method and tire shape inspection device | |
| KR0180082B1 (en) | Inspection system and method | |
| EP3889589B1 (en) | Surface defect detection method, surface defect detector, method for producing steel material, method for quality control of steel material, method for producing a surface defect determination model and surface defect determination model | |
| JP6264132B2 (en) | Inspection device and inspection method for painted surface of vehicle body | |
| JPWO2007074770A1 (en) | Defect inspection equipment that performs defect inspection by image analysis | |
| JP2014066657A (en) | Vehicle body surface inspection device and surface inspection method | |
| CN108492327B (en) | AOI image matching method, system, readable storage medium and smart device | |
| CN111448585A (en) | Inspection processing device, inspection processing method, and program | |
| JP2005265661A (en) | Image processing method and image processing device | |
| JP5481232B2 (en) | Pantograph monitoring device | |
| KR20090114565A (en) | Wafer Position Error Recognition System and Vision Position Error Recognition Method Using Vision Sensor | |
| US20130265410A1 (en) | Color vision inspection system and method of inspecting a vehicle | |
| KR20080028278A (en) | Optical Inspection System and Method of Electrical Circuit Devices | |
| IT201800005636A1 (en) | METHOD AND APPARATUS FOR DETECTING DAMAGES IN A VEHICLE, CORRESPONDING TO VARIATIONS IN THE AESTHETIC CHARACTERISTICS OF THE VEHICLE | |
| JP2003121556A (en) | Apparatus and method for detection of object | |
| JP2009139133A (en) | Defect detection method and defect detection apparatus | |
| JP6025400B2 (en) | Work position detection device and work position detection method | |
| JP6438275B2 (en) | Paint surface inspection equipment | |
| KR101523512B1 (en) | Automatic optical inspection system, apparatus and method thereof | |
| JP2000036033A (en) | Brightness/darkness inspecting device/method | |
| KR100756008B1 (en) | Container Number Recognition System and Its Method | |
| JP7435822B2 (en) | tire observation device | |
| US20130194417A1 (en) | Evaluation unit, evaluation method, measurement system for a crash test vehicle measurement and a method for performing a crash test vehicle measurement | |
| KR20150024122A (en) | Method for inspecting vehicle component | |
| JP2012122964A (en) | Method of detecting surface defect |