IT201900019070A1 - METHOD OF PROCESSING AN IMAGE OF AN OBJECT - Google Patents
METHOD OF PROCESSING AN IMAGE OF AN OBJECT Download PDFInfo
- Publication number
- IT201900019070A1 IT201900019070A1 IT102019000019070A IT201900019070A IT201900019070A1 IT 201900019070 A1 IT201900019070 A1 IT 201900019070A1 IT 102019000019070 A IT102019000019070 A IT 102019000019070A IT 201900019070 A IT201900019070 A IT 201900019070A IT 201900019070 A1 IT201900019070 A1 IT 201900019070A1
- Authority
- IT
- Italy
- Prior art keywords
- image
- images
- reference data
- detector
- detected
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Photosensitive Polymer And Photoresist Processing (AREA)
- Silver Salt Photography Or Processing Solution Therefor (AREA)
Description
DESCRIZIONE DESCRIPTION
Annessa a domanda di brevetto per INVENZIONE INDUSTRIALE avente per titolo Attached to a patent application for INDUSTRIAL INVENTION having the title
“METODO DI ELABORAZIONE DI UN’IMMAGINE DI UN "METHOD OF PROCESSING AN IMAGE OF A
OGGETTO” OBJECT"
La presente invenzione ha per oggetto un metodo di elaborazione di un’immagine di un oggetto in materiale plastico. The present invention relates to a method of processing an image of an object in plastic material.
Le linee per la produzione di contenitori di plastica, in particolare bottiglie, comprendono comunemente una macchina formatrice, configurata per formare preforme di PET (polyethilene terephtalate), e una macchina soffiatrice, configurata per soffiare le preforme in stampi per realizzare i contenitori. Alcune preforme possono presentare difettosità, come ad esempio spessore irregolare, fori, presenza di bolle o corpi estranei; tali difettosità devono essere individuate in un controllo di qualità volto a rimuovere tempestivamente le preforme difettose dalla linea di produzione. È noto dal documento brevettuale EP2976204B1 un sistema di ispezione ottica di preforme configurato per ispezionare le preforme mentre vengono trasportate da un trasportatore verso un magazzino di raccolta; il sistema comprende una telecamera e una sorgente di illuminazione, disposte in modo tale che la sorgente di illuminazione illumini le preforme da dietro e la telecamera acquisisca un’immagine della preforma da davanti. Lines for the production of plastic containers, in particular bottles, commonly include a forming machine, configured to form PET (polyethilene terephtalate) preforms, and a blowing machine, configured to blow the preforms into molds to make the containers. Some preforms may have defects, such as irregular thickness, holes, the presence of bubbles or foreign bodies; such defects must be identified in a quality control aimed at promptly removing the defective preforms from the production line. From patent document EP2976204B1 an optical preform inspection system configured to inspect the preforms while they are being transported by a conveyor to a collection warehouse is known; the system includes a camera and a lighting source, arranged in such a way that the lighting source illuminates the preforms from behind and the camera acquires an image of the preform from the front.
Un limite dei sistemi di ispezione ottica noti è che essi limitano il controllo di qualità alle caratteristiche dell’immagine visibili dalla telecamera (come per esempio la presenza di bolle), ma non riescono a rilevare difetti interni del materiale, come tensioni residue irregolari delle catene polimeriche del PET. A limitation of the known optical inspection systems is that they limit the quality control to the characteristics of the image visible by the camera (such as the presence of bubbles), but fail to detect internal defects in the material, such as irregular residual stresses of the chains. polymers of PET.
Inoltre, i sistemi noti individuano le preforme difettose sulla base di una loro somiglianza con immagini di altre preforme difettose, memorizzate in una base di dati. Quindi, i sistemi devono essere inizializzati con una base di dati relativa a tutti i possibili difetti che si vogliono individuare; tuttavia, è raro trovare una base dati completa ed esaustiva, poiché i difetti sono molto vari e le preforme difettose costituiscono solo una piccola percentuale delle preforme prodotte. Furthermore, known systems identify the defective preforms on the basis of their similarity with images of other defective preforms, stored in a database. Therefore, the systems must be initialized with a database relating to all the possible defects to be identified; however, it is rare to find a complete and exhaustive database, as defects are very varied and defective preforms make up only a small percentage of the preforms produced.
Quindi, in generale, i sistemi noti hanno un’affidabilità limitata nell’individuazione delle preforme difettose. Therefore, in general, known systems have limited reliability in identifying defective preforms.
Scopo del presente trovato è rendere disponibile un metodo di elaborazione di un’immagine di un oggetto in materiale plastico, che superi gli inconvenienti della tecnica nota sopra citati. Scopo del presente trovato è altresì rendere disponibile un dispositivo di ispezione ottica di oggetti in materiale plastico, che superi gli inconvenienti della tecnica nota sopra citati. The purpose of the present invention is to make available a method of processing an image of an object in plastic material, which overcomes the aforementioned drawbacks of the known art. The aim of the present invention is also to make available a device for optical inspection of objects made of plastic material, which overcomes the aforementioned drawbacks of the known art.
Detti scopi sono pienamente raggiunti dal metodo di elaborazione e dal dispositivo di ispezione ottica di oggetti del presente trovato, che si caratterizzano per quanto contenuto nelle rivendicazioni sotto riportate. In particolare, il presente trovato concerne un dispositivo di ispezione ottica di preforme o di altri oggetti realizzati in materiale plastico (quali ad esempio tappi o capsule); a tale proposito, si osservi che, nel resto della descrizione si farà riferimento a preforme, intendendo che la soluzione descritta può applicarsi anche ad altri oggetti realizzati in materiale plastico. Per preforme si intendono componenti intermedi del processo produzione di contenitori di plastica, come ad esempio bottiglie per bevande. In particolare, a partire da dosi di materiale plastico vengono formate per stampaggio (tipicamente a iniezione o a compressione) le preforme, che vengono successivamente espanse mediante soffiaggio per produrre i contenitori. Le preforme sono composte di materiale plastico, quale, preferibilmente, il PET (polietilene tereftalato). Said objects are fully achieved by the processing method and by the device for optical inspection of objects of the present invention, which are characterized by the contents of the claims reported below. In particular, the present invention relates to a device for the optical inspection of preforms or other objects made of plastic material (such as for example caps or capsules); in this regard, it should be noted that, in the rest of the description, reference will be made to preforms, meaning that the solution described can also be applied to other objects made of plastic material. By preforms we mean intermediate components of the production process of plastic containers, such as for example bottles for drinks. In particular, starting from doses of plastic material, the preforms are formed by molding (typically by injection or compression), which are subsequently expanded by blowing to produce the containers. The preforms are composed of plastic material, such as, preferably, PET (polyethylene terephthalate).
Il dispositivo di ispezione ottica di preforme secondo il presente trovato include un illuminatore. L’illuminatore include una sorgente luminosa, configurata per emettere un fascio di luce verso una preforma collocata in una posizione di ispezione. The preform optical inspection device according to the present invention includes an illuminator. The illuminator includes a light source, configured to emit a beam of light towards a preform placed in an inspection position.
In una forma realizzativa, il dispositivo include una sede di ispezione, configurata per ricevere la preforma nella posizione di ispezione. In un’altra forma realizzativa, la sede di ispezione, configurata per ricevere la preforma nella posizione di ispezione, è inclusa in una linea che include, inter alia, il dispositivo. In one embodiment, the device includes an inspection seat, configured to receive the preform in the inspection position. In another embodiment, the inspection seat, configured to receive the preform in the inspection position, is included in a line that includes, inter alia, the device.
Il dispositivo comprende un rilevatore. Il rilevatore include una telecamera. La telecamera (ovvero il rilevatore) è configurata per rilevare un’immagine della preforma collocata nella posizione di ispezione. The device includes a detector. The detector includes a camera. The camera (i.e. the detector) is configured to detect an image of the preform placed in the inspection position.
In una forma realizzativa, la sorgente luminosa è configurata per emettere continuativamente il fascio di luce. In una forma realizzativa, la sorgente luminosa è stroboscopica ed è configurata per emettere il fascio di luce ad intervalli di emissione prestabiliti (ad ogni intervallo di emissione corrisponde un’alimentazione di una preforma alla posizione di ispezione). In una forma realizzativa, la telecamera è configurata per rilevare l’immagine ad intervalli di rilevazione prestabiliti (ad ogni intervallo di rilevazione corrisponde un’alimentazione di una preforma alla posizione di ispezione); qualora la sorgente luminosa sia stroboscopica, gli intervalli di emissione corrispondono (ovvero sono uguali) agli intervalli di rilevazione. La preforma, nella posizione di ispezione, è operativamente interposta tra l’illuminatore e il rilevatore. In questo modo, l’illuminatore illumina la preforma da un primo lato (ad esempio, da davanti), mentre il rilevatore rileva un’immagine della preforma da un secondo lato opposto al primo (ad esempio, da dietro); dunque, il rilevatore rileva un’immagine della preforma in controluce. In one embodiment, the light source is configured to continuously emit the light beam. In one embodiment, the light source is stroboscopic and is configured to emit the light beam at predetermined emission intervals (each emission interval corresponds to a feeding of a preform to the inspection position). In one embodiment, the camera is configured to detect the image at predetermined detection intervals (each detection interval corresponds to a feeding of a preform to the inspection position); if the light source is stroboscopic, the emission intervals correspond (ie are equal) to the detection intervals. The preform, in the inspection position, is operationally interposed between the illuminator and the detector. In this way, the illuminator illuminates the preform from a first side (for example, from the front), while the detector detects an image of the preform from a second side opposite the first (for example, from behind); therefore, the detector detects an image of the preform against the light.
Preferibilmente, l’illuminatore (ovvero il dispositivo) include un filtro polarizzatore di emissione (o primo filtro polarizzatore). Il filtro polarizzatore di emissione è configurato per intercettare il fascio di luce emesso dalla sorgente luminosa. Il filtro polarizzatore di emissione è configurato per generare, a partire dal fascio di luce emesso dalla sorgente luminosa, un corrispondente fascio di luce polarizzata. Preferably, the illuminator (ie the device) includes an emission polarizing filter (or first polarizing filter). The emission polarizing filter is configured to intercept the beam of light emitted by the light source. The emission polarizing filter is configured to generate, starting from the light beam emitted by the light source, a corresponding polarized light beam.
Preferibilmente, il rilevatore (ovvero il dispositivo) include un filtro polarizzatore di ricezione (o secondo filtro polarizzatore). Preferably, the detector (i.e. the device) includes a receiving polarizing filter (or second polarizing filter).
Preferibilmente la preforma, collocata nella posizione di ispezione, è operativamente interposta tra il filtro polarizzatore di emissione e il filtro polarizzatore di ricezione. Preferably, the preform, located in the inspection position, is operatively interposed between the emission polarizing filter and the receiving polarizing filter.
Il filtro polarizzatore di ricezione è configurato per ricevere il fascio di luce polarizzata. In particolare. il filtro polarizzatore di ricezione è configurato per ricevere il fascio di luce polarizzata dal filtro polarizzatore di emissione e rifratta dalla preforma, e per generare un secondo fascio di luce polarizzata. La telecamera riceve quindi il secondo fascio di luce polarizzata. The receiving polarizing filter is configured to receive the polarized light beam. In particular. the receiving polarizing filter is configured to receive the polarized light beam from the emission polarizing filter and refracted by the preform, and to generate a second polarized light beam. The camera then receives the second polarized light beam.
Poiché il materiale di cui è fatta la preforma (preferibilmente PET) è caratterizzato da birifrangenza quando le catene polimeriche al suo interno sono orientate ed è sottoposto a stress, la luce polarizzata (dal primo filtro polarizzatore) che la colpisce viene rifratta secondo indici di rifrazioni differenti a seconda dello stress. In particolare, i raggi di luce che colpiscono la preforma vengono scomposti in due raggi che oscillano su piani perpendicolari e il secondo polarizzatore lascia passare solo alcune componenti, portandole sul medesimo piano e facendo sì che vi siano interferenze; pertanto, zone sottoposte ad uno stesso stress avranno le stesse interferenze, di conseguenza saranno isocromatiche, mentre zone sottoposte a stress diversi avranno colori diversi. La telecamera rileva quindi un’immagine che mostra un pattern cromatico rappresentativo di una distribuzione interna dello stress nella preforma. Since the material of which the preform is made (preferably PET) is characterized by birefringence when the polymer chains inside it are oriented and is subjected to stress, the polarized light (from the first polarizing filter) that hits it is refracted according to refractive indices different depending on the stress. In particular, the light rays that hit the preform are broken down into two rays that oscillate on perpendicular planes and the second polarizer lets only some components pass, bringing them on the same plane and causing interference; therefore, areas subjected to the same stress will have the same interference, consequently they will be isochromatic, while areas subjected to different stresses will have different colors. The camera then detects an image that shows a chromatic pattern representative of an internal distribution of stress in the preform.
Il primo filtro polarizzatore (o filtro di emissione) è configurato per polarizzare la luce in una prima direzione di polarizzazione: il secondo filtro polarizzatore (o filtro di ricezione) è configurato per polarizzare la luce in una seconda direzione di polarizzazione. In una forma realizzativa, la prima direzione di polarizzazione e la seconda direzione di polarizzazione sono tra esse parallele (in questo caso, la luce risultante è di colore bianco). In una forma realizzativa, la prima direzione di polarizzazione e la seconda direzione di polarizzazione sono tra esse perpendicolari (in questo caso, la luce risultante è di colore nero). The first polarizing filter (or emission filter) is configured to polarize light in a first polarization direction: the second polarizing filter (or receiving filter) is configured to polarize light in a second polarization direction. In one embodiment, the first polarization direction and the second polarization direction are parallel to each other (in this case, the resulting light is white in color). In one embodiment, the first polarization direction and the second polarization direction are perpendicular to each other (in this case, the resulting light is black).
In altre forme realizzative, non sono previsti il primo e il secondo filtro polarizzatore, e la telecamera rileva quindi, in controluce, un’immagine della preforma monocromatica (con zone più chiare e più scure). In other embodiments, the first and second polarizing filters are not provided, and the camera therefore detects, against the light, an image of the monochromatic preform (with lighter and darker areas).
In una forma realizzativa, il dispositivo comprende un’unità di elaborazione. L’unità di elaborazione è collegata al rilevatore. In one embodiment, the device comprises a processing unit. The processing unit is connected to the detector.
L’unità di elaborazione include una memoria, includente dati di riferimento. L’unità di elaborazione include un processore, programmato per elaborare l’immagine rilevata dal rilevatore sulla base dei dati di riferimento, per derivare un’informazione diagnostica circa una difettosità della preforma. In una forma realizzativa, il processore può includere uno o più criteri di identificazione di preforme difettose, sulla base di uno o più valori di soglia memorizzati nella memoria. Ad esempio, il processore può essere configurato per identificare una preforma difettosa nel caso in cui una luminosità dell’immagine rilevata dalla telecamera sia al di sopra di un valore di soglia prestabilito (infatti, una luminosità elevata dell’immagine indica una preforma con pareti molto sottili), e/o nel caso in cui l’immagine mostri una transizione cromatica repentina, sopra una certa soglia. The processing unit includes a memory, including reference data. The processing unit includes a processor, programmed to process the image detected by the detector based on the reference data, to derive diagnostic information about a defect in the preform. In one embodiment, the processor may include one or more defective preform identification criteria, based on one or more threshold values stored in the memory. For example, the processor can be configured to identify a defective preform in the event that an image brightness detected by the camera is above a predetermined threshold value (in fact, a high image brightness indicates a preform with very thick walls. thin), and / or in the case in which the image shows a sudden chromatic transition, above a certain threshold.
In una forma realizzativa preferita, l’unità di elaborazione è configurata per elaborare l’immagine rilevata dal rilevatore (sulla base dei dati di riferimento), per derivare dall’immagine valori di una pluralità di caratteristiche di immagine; tale elaborazione costituisce una codifica dell’immagine (tramite trasformazione ovvero compressione dell’immagine secondo un algoritmo prestabilito, ovvero derivato dal sistema di elaborazione in una fase di autoapprendimento). Dunque, l’unità di elaborazione è configurata per assegnare un valore a ciascuna caratteristica di immagine di detta pluralità. In una forma realizzativa, la codifica dell’immagine include una riduzione di dimensioni dell’immagine (ad esempio, la pluralità di caratteristiche di immagine può includere ovvero consistere in 500 caratteristiche). In a preferred embodiment, the processing unit is configured to process the image detected by the detector (based on the reference data), to derive from the image values of a plurality of image characteristics; this processing constitutes a coding of the image (through transformation or compression of the image according to a predetermined algorithm, or derived from the processing system in a self-learning phase). Therefore, the processing unit is configured to assign a value to each image characteristic of said plurality. In one embodiment, the image encoding includes a reduction in image size (for example, the plurality of image features can include or consist of 500 features).
Dette caratteristiche di immagine sono rappresentative dell’immagine. Dunque, l’unità di elaborazione è configurata per estrarre dall’immagine una pluralità di valori assegnati ad una corrispondente pluralità di caratteristiche di immagine, e per ridurre l’immagine a detti valori rappresentativi (ovvero significativi) dell’immagine. These image characteristics are representative of the image. Therefore, the processing unit is configured to extract from the image a plurality of values assigned to a corresponding plurality of image characteristics, and to reduce the image to said representative (meaning significant) values of the image.
In una forma realizzativa, l’unità di elaborazione è configurata per elaborare i valori della pluralità di caratteristiche di immagine (sulla base dei dati di riferimento), per derivare l’informazione diagnostica circa la difettosità della preforma. In one embodiment, the processing unit is configured to process the values of the plurality of image characteristics (based on the reference data), to derive the diagnostic information about the defectiveness of the preform.
In una forma realizzativa, l’unità di elaborazione è configurata per classificare l’immagine sulla base dei valori della pluralità di caratteristiche di immagine; ad esempio, la memoria può includere, per ciascuna caratteristica di immagine, uno o più valori tipici di una preforma sana (ovvero priva di difetti) e uno o più valori tipici di una preforma difettosa, e l’unità di elaborazione può essere configurata per identificare una preforma come difettosa nel caso in cui almeno un valore di una caratteristica di immagine sia ragionevolmente vicina (oltre una certa soglia) al rispettivo valore tipico della preforma difettosa, e/o nel caso in cui una certa combinazione (per esempio, una moltiplicazione) di caratteristiche di immagine sia ragionevolmente vicina (oltre una certa soglia) ad un valore di riferimento per la combinazione, tipico di una preforma difettosa. In one embodiment, the processing unit is configured to classify the image based on the values of the plurality of image characteristics; for example, the memory may include, for each image characteristic, one or more typical values of a sound preform (i.e. free of defects) and one or more typical values of a defective preform, and the processing unit can be configured to identify a preform as defective in the case in which at least one value of an image characteristic is reasonably close (beyond a certain threshold) to the respective typical value of the defective preform, and / or in the case in which a certain combination (for example, a multiplication ) of image characteristics is reasonably close (beyond a certain threshold) to a reference value for the combination, typical of a defective preform.
Per esempio, le caratteristiche di immagine possono includere la presenza o assenza di certi colori o combinazioni di colori, e/o la presenza o assenza di una certa simmetria, e/o l’intensità luminosa in determinati punti; l’unità di elaborazione può essere configurata per identificare una preforma come difettosa nel caso in cui l’immagine presenti un certo colore o una certa combinazione di colori, o abbia (o non abbia) una certa simmetria, o l’intensità luminosa in determinati punti sia superiore o inferiore ad un valore di soglia. For example, the image characteristics may include the presence or absence of certain colors or color combinations, and / or the presence or absence of a certain symmetry, and / or the light intensity at certain points; the processing unit can be configured to identify a preform as defective in the event that the image has a certain color or combination of colors, or has (or does not have) a certain symmetry, or light intensity in certain points is above or below a threshold value.
In una forma realizzativa preferita, l’unità di elaborazione è configurata per generare un’immagine ricostruita, a partire dai valori della pluralità di caratteristiche di immagine (e sulla base dei dati di riferimento). In una forma realizzativa preferita, l’unità di elaborazione è configurata per derivare l’informazione diagnostica circa la difettosità della preforma in funzione di un confronto tra l’immagine rilevata dal rilevatore e l’immagine ricostruita (sulla base dei dati di riferimento). In a preferred embodiment, the processing unit is configured to generate a reconstructed image, starting from the values of the plurality of image characteristics (and based on the reference data). In a preferred embodiment, the processing unit is configured to derive diagnostic information about the defectiveness of the preform as a function of a comparison between the image detected by the detector and the reconstructed image (based on the reference data).
In particolare, l’unità di elaborazione è configurata per confrontare l’immagine rilevata dal rilevatore con l’immagine ricostruita e per derivare un parametro di similitudine, rappresentativo di una somiglianza tra l’immagine rilevata dal rilevatore e l’immagine ricostruita. L’unità di elaborazione è configurata per confrontare il parametro di similitudine con un valore di soglia prestabilito (che può essere esso stesso parte dei dati di riferimento), e per derivare l’informazione diagnostica in funzione del confronto tra il valore di soglia prestabilito e il parametro di similitudine. Ad esempio, l’unità di elaborazione può essere configurata per identificare una preforma come sana qualora il parametro di similitudine sia sopra una certa soglia di somiglianza. Dunque, l’unità di elaborazione è configurata per identificare una preforma come buona qualora l’immagine ricostruita sia sufficientemente simile all’immagine di partenza, rilevata dalla telecamera. In particular, the processing unit is configured to compare the image detected by the detector with the reconstructed image and to derive a similarity parameter, representative of a similarity between the image detected by the detector and the reconstructed image. The processing unit is configured to compare the similarity parameter with a predetermined threshold value (which can itself be part of the reference data), and to derive the diagnostic information as a function of the comparison between the predetermined threshold value and the similarity parameter. For example, the processing unit can be configured to identify a preform as sound if the similarity parameter is above a certain similarity threshold. Therefore, the processing unit is configured to identify a preform as good if the reconstructed image is sufficiently similar to the starting image, detected by the camera.
Infatti, preferibilmente, l’unità di elaborazione è addestrata per elaborare l’immagine (cioè codificarla, derivare i valori della pluralità di caratteristiche di immagine e generare da essi l’immagine ricostruita) su preforme sane ovvero prive di difetti. L’unità di elaborazione può essere addestrata mediante un sistema di autoapprendimento, come descritto nel seguito, o può essere un’unità commerciale pre-addestrata. Qualora la preforma sia sana, l’unità di elaborazione riesce a elaborare la sua immagine correttamente e a generare un’immagine ricostruita simile all’immagine originale; invece, qualora la preforma sia difettosa, l’unità di elaborazione, addestrata su preforme sane, non riesce a ricostruire correttamente l’immagine e di conseguenza genera un’immagine ricostruita significativamente diversa da quella originale. In fact, preferably, the processing unit is trained to process the image (i.e. encode it, derive the values of the plurality of image characteristics and generate the reconstructed image from them) on healthy preforms or without defects. The processing unit can be trained using a self-learning system, as described below, or it can be a pre-trained commercial unit. If the preform is healthy, the processing unit is able to process its image correctly and generate a reconstructed image similar to the original image; instead, if the preform is defective, the processing unit, trained on healthy preforms, fails to correctly reconstruct the image and consequently generates a reconstructed image significantly different from the original one.
In una forma realizzativa, il dispositivo comprende un sistema di autoapprendimento. In one embodiment, the device comprises a self-learning system.
Il sistema di autoapprendimento, in una forma realizzativa, è integrato nell’unità di elaborazione. Il sistema di autoapprendimento, in una forma realizzativa è connesso al processore. Il sistema di autoapprendimento, in una forma realizzativa, è connesso alla memoria. The self-learning system, in one embodiment, is integrated into the processing unit. The self-learning system, in one embodiment, is connected to the processor. The self-learning system, in one embodiment, is connected to the memory.
Il sistema di autoapprendimento è configurato per ricevere in ingresso una pluralità di immagini rilevate dal rilevatore per una corrispondente pluralità di preforme. The self-learning system is configured to receive in input a plurality of images detected by the detector for a corresponding plurality of preforms.
Il sistema di autoapprendimento è configurato per codificare ciascuna immagine di detta pluralità di immagini rilevate dal rilevatore (sulla base dei dati di riferimento), per derivare da ciascuna immagine di detta pluralità di immagine corrispondenti valori di una pluralità di caratteristiche di immagine. Preferibilmente, il sistema di autoapprendimento è configurato per codificare le immagini sulla base di un criterio prestabilito (che può essere esso stesso parte dei dati di riferimento). The self-learning system is configured to code each image of said plurality of images detected by the detector (on the basis of the reference data), to derive from each image of said plurality of images corresponding values of a plurality of image characteristics. Preferably, the self-learning system is configured to encode the images on the basis of a predetermined criterion (which can itself be part of the reference data).
Il sistema di autoapprendimento è configurato per generare, per ciascuna immagine di detta pluralità di immagini, una corrispondente immagine ricostruita, a partire dai corrispondenti valori della pluralità di caratteristiche di immagine (e sulla base dei dati di riferimento). The self-learning system is configured to generate, for each image of said plurality of images, a corresponding reconstructed image, starting from the corresponding values of the plurality of image characteristics (and on the basis of the reference data).
Il sistema di autoapprendimento è configurato per confrontare ciascuna immagine di detta pluralità di immagini con la corrispondente immagine ricostruita, per derivare, per ciascuna immagine, un corrispondente parametro di similitudine, rappresentativo di una somiglianza tra l’immagine rilevata dal rilevatore e la corrispondente immagine ricostruita. The self-learning system is configured to compare each image of said plurality of images with the corresponding reconstructed image, to derive, for each image, a corresponding similarity parameter, representative of a similarity between the image detected by the detector and the corresponding reconstructed image .
Il sistema di autoapprendimento è configurato per aggiornare i dati di riferimento in funzione del parametro di similitudine, in modo tale che il parametro di similitudine sia inferiore ad un valore di soglia prestabilito (nel caso in cui il parametro di similitudine sia direttamente proporzionale alla somiglianza tra le immagini; altrimenti, se il parametro di similitudine è inversamente proporzionale alla differenza tra le immagini, in modo tale che sia maggiore di un valore di soglia prestabilito). Il valore di soglia prestabilito, in una forma realizzativa, è esso stesso parte dei dati di riferimento. Preferibilmente, il sistema di autoapprendimento è configurato per aggiornare (iterativamente) i dati di riferimento in funzione del parametro di similitudine, per ciascuna immagine di detta pluralità di immagini. The self-learning system is configured to update the reference data according to the similarity parameter, so that the similarity parameter is lower than a predetermined threshold value (if the similarity parameter is directly proportional to the similarity between the images; otherwise, if the similarity parameter is inversely proportional to the difference between the images, so that it is greater than a predetermined threshold value). The predetermined threshold value, in one embodiment, is itself part of the reference data. Preferably, the self-learning system is configured to update (iteratively) the reference data as a function of the similarity parameter, for each image of said plurality of images.
In una forma realizzativa preferita, il sistema di autoapprendimento è configurato per aggiornare (preferibilmente in combinazione con i dati di riferimento) la pluralità di caratteristiche di immagine, in funzione del parametro di similitudine e di un valore di soglia prestabilito. In particolare, i dati di riferimento e/o la pluralità di caratteristiche di immagine in modo tale che, per ciascuna immagine di detta pluralità di immagini, il parametro di similitudine sia maggiore ad un valore di soglia prestabilito (nel caso in cui il parametro di similitudine sia direttamente proporzionale alla somiglianza tra le immagini). In a preferred embodiment, the self-learning system is configured to update (preferably in combination with the reference data) the plurality of image characteristics, as a function of the similarity parameter and a predetermined threshold value. In particular, the reference data and / or the plurality of image characteristics in such a way that, for each image of said plurality of images, the similarity parameter is greater than a predetermined threshold value (in the event that the similarity is directly proportional to the similarity between the images).
Viceversa, nel caso in cui il parametro di similitudine sia direttamente proporzionale ad una differenza tra le immagini (ovvero inversamente proporzionale alla somiglianza), il sistema di autoapprendimento è configurato per aggiornare i dati di riferimento e/o le caratteristiche di immagini in modo che il parametro di similitudine sia inferiore ad un valore di soglia prestabilito. Conversely, if the similarity parameter is directly proportional to a difference between the images (i.e. inversely proportional to the similarity), the self-learning system is configured to update the reference data and / or the image characteristics so that the similarity parameter is lower than a predetermined threshold value.
Il criterio prestabilito, in una forma realizzativa preferita, include (ovvero è definito da) un numero massimo (o un numero prestabilito) di caratteristiche per detta pluralità di caratteristiche di immagine. Il criterio prestabilito assicura che il sistema non svolga semplicemente una funzione identità ricostruendo un’immagine identica all’immagine rilevata, indipendentemente dalla difettosità della preforma. The predetermined criterion, in a preferred embodiment, includes (or is defined by) a maximum number (or a predetermined number) of features for said plurality of image features. The established criterion ensures that the system does not simply perform an identity function by reconstructing an image identical to the detected image, regardless of the defectiveness of the preform.
Dunque, in una forma realizzativa preferita, il sistema di autoapprendimento è configurato per determinare sia le caratteristiche di immagine sia i dati di riferimento in funzione delle immagini rilevate dal rilevatore. Therefore, in a preferred embodiment, the self-learning system is configured to determine both the image characteristics and the reference data as a function of the images detected by the detector.
Questo sistema funziona è particolarmente performante se le immagini che vengono rilevate sono rappresentative di preforme sane; in questo modo, il sistema apprende come codificare e ricostruire tali immagini di preforme sane (ovvero in base a quali dati di riferimento effettuare la codifica, quali caratteristiche di immagine estrarre - in quanto rappresentative di preforme buone - e in base a quali dati di riferimento effettuare la ricostruzione). Quando il sistema di elaborazione si ritroverà a dover codificare e ricostruire una preforma difettosa, non riuscirà e genererà un’immagine ricostruita che si discosta significativamente da quella iniziale. This system works and is particularly efficient if the images that are detected are representative of healthy preforms; in this way, the system learns how to encode and reconstruct these images of healthy preforms (i.e. on the basis of which reference data to encode, which image characteristics to extract - as they are representative of good preforms - and on the basis of which reference data carry out the reconstruction). When the processing system finds itself having to code and reconstruct a defective preform, it will fail and will generate a reconstructed image that differs significantly from the initial one.
Il criterio prestabilito, in un’altra forma realizzativa, include (ovvero è definito da) la pluralità di caratteristiche di immagine (ovvero per quali caratteristiche si estraggono valori). The pre-established criterion, in another embodiment, includes (or is defined by) the plurality of image characteristics (i.e. for which characteristics values are extracted).
In una forma realizzativa, il sistema di autoapprendimento include alberi decisionali. In one embodiment, the self-learning system includes decision trees.
In una forma realizzativa preferita, il sistema di autoapprendimento include reti neurali. In una forma realizzativa, il sistema di autoapprendimento include reti neurali convoluzionali. In a preferred embodiment, the self-learning system includes neural networks. In one embodiment, the self-learning system includes convolutional neural networks.
Per reti neurali convoluzionali, si intendono reti neurali configurate per codificare l’immagine mediante una serie di step convoluzionali, alternati ad una serie di step di pooling, per ricavare valori della pluralità di caratteristiche di immagine. Negli step convoluzionali, all’immagine (ovvero alla matrice di pixel che rappresenta ciascun colore dell’immagine) vengono applicati filtri convoluzionali (i cui valori sono parte dei dati di riferimento) per ricavare un’immagine trasformata; negli step di pooling, si riduce una dimensione dell’immagine trasformata, per esempio mediante un’operazione matematica di massimo o minimo o media tra pixel adiacenti. Mediante gli step di convoluzione e pooling, si ricavano pertanto i valori della pluralità di caratteristiche di immagine. By convolutional neural networks, we mean neural networks configured to encode the image by means of a series of convolutional steps, alternating with a series of pooling steps, to derive values of the plurality of image characteristics. In convolutional steps, convolutional filters (whose values are part of the reference data) are applied to the image (ie the pixel matrix representing each color of the image) to obtain a transformed image; in the pooling steps, a dimension of the transformed image is reduced, for example by means of a mathematical operation of maximum or minimum or average between adjacent pixels. By means of the convolution and pooling steps, the values of the plurality of image characteristics are therefore obtained.
In una forma realizzativa, le reti neurali sono pre-addestrate per estrarre (ovvero derivare) i valori della pluralità di caratteristiche di immagine; in una forma realizzativa, le reti neurali possono includere reti neurali commerciali (o parti di esse) configurate per individuare soggetti in un’immagine, per esempio “ImageNet”. In one embodiment, the neural networks are pre-trained to extract (i.e. derive) the values of the plurality of image characteristics; in one embodiment, neural networks can include commercial neural networks (or parts of them) configured to identify subjects in an image, for example "ImageNet".
In una forma realizzativa, le reti neurali convoluzionali sono configurate per classificare l’immagine sulla base dei valori della pluralità di caratteristiche di immagine, confrontati con valori di riferimento (che fanno parte dei dati di riferimento). L’immagine, in una forma realizzativa, è classificata come rappresentativa di una preforma sana o di una preforma difettosa; in un’altra forma realizzativa, l’immagine può essere classificata come rappresentativa di una preforma sana o di una preforma avente un determinato difetto. In una forma realizzativa, le reti neurali includono reti “anomaly detection” o “fully connected” per classificare l’immagine sulla base dei valori della pluralità di caratteristiche di immagine. Ad esempio, si prevede di utilizzare per l’estrazione (ovvero la derivazione dei valori delle caratteristiche di immagine) una parte di una rete commerciale del tipo “ImageNet” includente convoluzioni e pooling (dunque, una rete preaddestrata) e di utilizzare per la classificazione dell’immagine una rete “fully connected” addestrata dal sistema di autoapprendimento (preferibilmente, con esempi di preforme buone ed esempi di preforme difettose) e in grado di distinguere a partire dai valori delle caratteristiche di immagine una preforma sana da una preforma difettosa. In one embodiment, the convolutional neural networks are configured to classify the image based on the values of the plurality of image characteristics, compared with reference values (which are part of the reference data). The image, in one embodiment, is classified as representing a healthy preform or a defective preform; in another embodiment, the image can be classified as representative of a healthy preform or a preform having a certain defect. In one embodiment, neural networks include "anomaly detection" or "fully connected" networks to classify the image based on the values of the plurality of image characteristics. For example, it is planned to use for the extraction (ie the derivation of the values of the image characteristics) a part of a commercial network of the "ImageNet" type including convolutions and pooling (therefore, a pre-trained network) and to use for the classification image a “fully connected” network trained by the self-learning system (preferably, with examples of good preforms and examples of defective preforms) and able to distinguish a healthy preform from a defective preform starting from the values of the image characteristics.
In una forma realizzativa, il sistema di apprendimento include reti neurali “Generative Adversial Network” (GAN); le reti neurali “Generative Adversial Network” includono un generatore e un discriminatore; il generatore, a partire dai valori della pluralità di caratteristiche di immagine (ricavate mediante step di convoluzione da un’immagine reale rilevata dal rilevatore) genera una corrispondente immagine ricostruita e la passa al discriminatore; il discriminatore cerca di distinguere se l’immagine che gli viene passata è reale, cioè rilevata dal rilevatore, o ricostruita, e invia un feedback al generatore; il generatore basandosi sul feedback del discriminatore impara a generare immagini ricostruite il più possibile simili alle immagini reali (tali che il discriminatore le consideri reali). Durante l’addestramento, la rete “GAN” riceve preferibilmente immagini di preforme sane; dunque, quando i dati di riferimento (e le caratteristiche di immagine) determinati dal sistema di autoapprendimento saranno utilizzati dal sistema di elaborazione per ispezionare le preforme, il discriminatore riconoscerà come ricostruite, tra tutte le immagini ricostruite, soltanto quelle relative a preforme difettose. In one embodiment, the learning system includes “Generative Adversial Network” (GAN) neural networks; the “Generative Adversial Network” neural networks include a generator and a discriminator; the generator, starting from the values of the plurality of image characteristics (obtained through convolution steps from a real image detected by the detector) generates a corresponding reconstructed image and passes it to the discriminator; the discriminator tries to distinguish if the image that is passed to it is real, that is, detected by the detector, or reconstructed, and sends a feedback to the generator; the generator, based on the discriminator feedback, learns to generate reconstructed images as similar as possible to the real images (such that the discriminator considers them real). During training, the "GAN" network preferably receives images of healthy preforms; therefore, when the reference data (and image characteristics) determined by the self-learning system will be used by the processing system to inspect the preforms, the discriminator will recognize as reconstructed, among all the reconstructed images, only those relating to defective preforms.
In una forma realizzativa preferita, il sistema di autoapprendimento include una rete neurale convoluzionale “Autoencoder”. In una forma realizzativa, i dati di riferimento includono un primo insieme di dati di riferimento e un secondo insieme di dati di riferimento. Il primo insieme di dati di riferimento è relativo ad una serie di step di convoluzione (ad esempio, include una pluralità di filtri di convoluzione); il secondo insieme di dati di riferimento è relativo ad una serie di step di deconvoluzione (ad esempio, include una pluralità di filtri di deconvoluzione). In a preferred embodiment, the self-learning system includes an "Autoencoder" convolutional neural network. In one embodiment, the reference data includes a first reference data set and a second reference data set. The first set of reference data relates to a series of convolution steps (for example, it includes a plurality of convolution filters); the second set of reference data relates to a series of deconvolution steps (for example, it includes a plurality of deconvolution filters).
Le reti neurali “autoencoder” sono configurate per estrarre (ovvero derivare) dall’immagine valori della pluralità di caratteristiche di riferimento, sulla base del primo insieme dei dati di riferimento relativi alla serie di step di convoluzione, e per ricostruire l’immagine (ovvero generare l’immagine ricostruita) a partire dai valori della pluralità di caratteristiche di immagine sulla base del secondo insieme di dati di riferimento relativi alla serie di step di convoluzione. The "autoencoder" neural networks are configured to extract (or derive) from the image values of the plurality of reference characteristics, on the basis of the first set of reference data relating to the series of convolution steps, and to reconstruct the image (i.e. generating the reconstructed image) starting from the values of the plurality of image characteristics on the basis of the second set of reference data relating to the series of convolution steps.
Il sistema di apprendimento, secondo la forma realizzativa in cui include una rete “autoencoder”, è configurato per ricevere in ingresso una pluralità di immagini di preforme buone, per derivarne corrispondenti valori delle caratteristiche di immagine, sulla base del primo insieme di dati di riferimento; il sistema di apprendimento è configurato per generare, a partire dai valori delle caratteristiche di immagine e sulla base del secondo insieme dei dati di riferimento relativi agli step di deconvoluzione, una corrispondente pluralità di immagini ricostruite; infine, il sistema di autoapprendimento è configurato per confrontare la pluralità di immagini ricostruite con la corrispondente pluralità di immagini originarie, e per aggiornare i dati di riferimento (in particolare, il primo insieme dei dati di riferimento o il secondo insieme dei dati di riferimento, o il primo e il secondo insieme dei dati di riferimento in combinazione) per minimizzare una differenza tra le immagini originarie rilevate dal rilevatore e le corrispondenti immagini ricostruite. In particolare, in una forma realizzativa, il sistema di autoapprendimento è configurato per derivare per ciascuna immagine un parametro di similitudine (ad esempio, calcolato con una delle seguenti funzioni, o con più delle seguenti funzioni in combinazione: norma l1, norma l2, similarità strutturale “SSIM”, peak signal-to-noise ratio “PSNR”, Haar wavelet-based perceptual similarity index “HaarPSI”) e per minimizzare il parametro di similitudine (ovvero portarlo sotto ad una certa soglia) nel caso in cui detto parametro di similitudine sia direttamente proporzionale ad una differenza tra le immagini, o viceversa massimizzarlo (ovvero portarlo sopra una certa soglia) nel caso in cui detto parametro di similitudine sia direttamente proporzionale ad una somiglianza tra le immagini. Secondo la forma realizzativa in cui include una rete “autoencoder”, il sistema di autoapprendimento è configurato per aggiornare, in combinazione col primo e col secondo insieme di dati di riferimento, la pluralità di caratteristiche di immagine, in modo tale da individuare le caratteristiche di immagine che meglio rappresentano immagini di preforme prive di difetti e individuare congiuntamente gli step di convoluzione per ricavarle e gli step di deconvoluzione per ricostruire, a partire da dette caratteristiche di immagine, l’immagine ricostruita. Preferibilmente, il sistema di autoapprendimento comprendente una rete “autoencoder” è vincolato ad almeno un criterio prestabilito (ovvero un vincolo) nel codificare l’immagine; ad esempio, il criterio può riguardare un numero massimo di caratteristiche di immagine che possono essere individuate per detta pluralità di caratteristiche di immagine. Dunque, l’operazione di codifica definisce, di fatto, una compressione dell’immagine. The learning system, according to the embodiment in which it includes an "autoencoder" network, is configured to receive in input a plurality of images of good preforms, to derive corresponding values of the image characteristics, on the basis of the first set of reference data ; the learning system is configured to generate, starting from the values of the image characteristics and on the basis of the second set of reference data relating to the deconvolution steps, a corresponding plurality of reconstructed images; finally, the self-learning system is configured to compare the plurality of reconstructed images with the corresponding plurality of original images, and to update the reference data (in particular, the first set of reference data or the second set of reference data, or the first and second set of reference data in combination) to minimize a difference between the original images detected by the detector and the corresponding reconstructed images. In particular, in one embodiment, the self-learning system is configured to derive for each image a similarity parameter (for example, calculated with one of the following functions, or with more of the following functions in combination: norm l1, norm l2, similarity structural "SSIM", peak signal-to-noise ratio "PSNR", Haar wavelet-based perceptual similarity index "HaarPSI") and to minimize the similarity parameter (i.e. bring it below a certain threshold) if said similarity is directly proportional to a difference between the images, or vice versa maximizing it (i.e. bringing it above a certain threshold) if said similarity parameter is directly proportional to a similarity between the images. According to the embodiment in which it includes an "autoencoder" network, the self-learning system is configured to update, in combination with the first and second set of reference data, the plurality of image characteristics, so as to identify the characteristics of image that best represent images of defect-free preforms and jointly identify the convolution steps to obtain them and the deconvolution steps to reconstruct, starting from said image characteristics, the reconstructed image. Preferably, the self-learning system comprising an "autoencoder" network is bound to at least one predetermined criterion (ie a constraint) in coding the image; for example, the criterion may relate to a maximum number of image characteristics that can be identified for said plurality of image characteristics. Therefore, the coding operation defines, in fact, a compression of the image.
Dunque, in una forma realizzativa, il sistema di autoapprendimento è configurato per apprendere i dati di riferimento e le caratteristiche d’immagine sulla base dei quali il sistema di elaborazione effettuerà poi l’ispezione delle preforme. Secondo la forma realizzativa in cui include una rete “autoencoder”, il sistema di autoapprendimento viene addestrato con una pluralità di immagini di preforme sane (prive di difetti); dunque, il sistema di autoapprendimento determina i dati di riferimento e le caratteristiche d’immagine sulla base dei quali le immagini delle preforme sane vengono ricostruite correttamente (cioè con una somiglianza elevata tra le immagini rilevate dal rilevatore e le corrispondenti immagini ricostruite); quando applicherà tali dati di riferimento e caratteristiche di immagine ad una preforma difettosa, l’immagine ricostruita sarà sensibilmente diversa dalla corrispondente immagine rilevata, e il sistema di elaborazione confrontandole individuerà la preforma come difettosa. Preferibilmente, il sistema di auto-apprendimento (o il sistema di elaborazione) include una prima rete neurale preposta a codificare le immagini per derivare i valori delle caratteristiche di immagine, e una seconda rete neurale preposta a decodificare i valori delle caratteristiche di immagine per ricostruire l’immagine; dette prima e seconda rete neurale sono addestrate in modo congiunto. Therefore, in one embodiment, the self-learning system is configured to learn the reference data and image characteristics on the basis of which the processing system will then carry out the inspection of the preforms. According to the embodiment in which it includes an "autoencoder" network, the self-learning system is trained with a plurality of images of healthy preforms (free of defects); therefore, the self-learning system determines the reference data and the image characteristics on the basis of which the images of the healthy preforms are correctly reconstructed (i.e. with a high similarity between the images detected by the detector and the corresponding reconstructed images); when applying these reference data and image characteristics to a defective preform, the reconstructed image will be significantly different from the corresponding detected image, and the processing system, comparing them, will identify the preform as defective. Preferably, the self-learning system (or the processing system) includes a first neural network designed to encode the images to derive the values of the image characteristics, and a second neural network designed to decode the values of the image characteristics to reconstruct the image; said first and second neural networks are jointly trained.
La presente descrizione mette anche a disposizione una linea per realizzare contenitori in materiale termoplastico. The present description also provides a line for making containers in thermoplastic material.
In una forma realizzativa, la linea comprende una macchina formatrice, configurata per generare preforme. La macchina formatrice, in una forma realizzativa, è una macchina di stampaggio a iniezione. La macchina formatrice, in una forma realizzativa, è una macchina di stampaggio a compressione (la quale potrebbe essere rotativa). In one embodiment, the line comprises a forming machine, configured to generate preforms. The forming machine, in one embodiment, is an injection molding machine. The forming machine, in one embodiment, is a compression molding machine (which could be rotary).
In una forma realizzativa, la linea comprende una unità di condizionamento termico, per scaldare e/o raffreddare le preforme. Per semplicità di esposizione, nel seguito ci si riferirà alla unità di condizionamento termico come ad un forno di riscaldamento, senza tuttavia che si intenda togliere generalità alla descrizione. Il forno di riscaldamento è configurato per ricevere le preforme in uscita dalla macchina formatrice e provvisto di mezzi riscaldatori per riscaldare le preforme. In one embodiment, the line comprises a thermal conditioning unit, for heating and / or cooling the preforms. For simplicity of explanation, the thermal conditioning unit will be referred to in the following as a heating oven, without however intending to remove generality from the description. The heating furnace is configured to receive the preforms exiting the forming machine and provided with heating means for heating the preforms.
In una forma realizzativa, la linea comprende una macchina soffiatrice configurata per ricevere le preforme e per soffiarle in stampi per realizzare detti contenitori. Preferibilmente, la macchina soffiatrice è configurata per ricevere le preforme riscaldate nel forno di riscaldamento. Il forno potrebbe essere integrato nella soffiatrice. In one embodiment, the line comprises a blowing machine configured to receive the preforms and to blow them into molds to make said containers. Preferably, the blow molding machine is configured to receive preforms heated in the heating furnace. The oven could be integrated into the blow molding machine.
È anche previsto, in una forma realizzativa, che la macchina soffiatrice e la macchina formatrice siano collocate in linee separate (che possono essere installate in stabilimenti separati), che cooperano alla produzione dei contenitori di materiale termoplastico: infatti, la linea includente la macchina formatrice produce preforme, che vengono alimentate in ingresso alla linea includente la macchina soffiatrice. Il forno è preferibilmente integrato nella linea che include la macchina soffiatrice, a monte della macchina soffiatrice per riscaldare le preforme prima del soffiaggio. It is also provided, in one embodiment, that the blowing machine and the forming machine are placed in separate lines (which can be installed in separate factories), which cooperate in the production of the containers of thermoplastic material: in fact, the line including the forming machine produces preforms, which are fed into the line including the blowing machine. The furnace is preferably integrated into the line that includes the blowing machine, upstream of the blowing machine to heat the preforms before blowing.
In una forma realizzativa, la linea comprende un magazzino (che potrebbe essere automatico), per ricevere le preforme e immagazzinarle; il magazzino è configurato per ricevere le preforme dalla macchina formatrice ed alimentarle alla soffiatrice, ovvero al forno. In one embodiment, the line comprises a magazine (which could be automatic), for receiving the preforms and storing them; the magazine is configured to receive the preforms from the forming machine and feed them to the blow molding machine, or to the furnace.
In una forma realizzativa, la linea comprende un dispositivo di ispezione ottica delle preforme secondo uno o più aspetti della presente descrizione. Il dispositivo di ispezione ottica è collocato nella linea a valle della macchina formatrice. Il dispositivo di ispezione ottica è collocato nella linea a monte della macchina soffiatrice. In una forma realizzativa, il dispositivo di ispezione ottica è collocato a valle della macchina formatrice e a monte del forno. In una forma realizzativa, il dispositivo di ispezione ottica è collocato a valle del forno e a monte della macchina soffiatrice. Il fatto che il dispositivo sia collocato a monte della macchina soffiatrice consente di identificare le preforme difettose prima che essa, avendo un profilo di stress anomalo, esplodano durante il soffiaggio. In una forma realizzativa, il dispositivo di ispezione ottica potrebbe essere posizionato nel magazzino o in un trasportatore che collega il magazzino ad altre parti della linea. In one embodiment, the line comprises an optical preform inspection device according to one or more aspects of the present description. The optical inspection device is located in the line downstream of the forming machine. The optical inspection device is located in the line upstream of the blowing machine. In one embodiment, the optical inspection device is located downstream of the forming machine and upstream of the furnace. In one embodiment, the optical inspection device is located downstream of the furnace and upstream of the blowing machine. The fact that the device is placed upstream of the blowing machine allows the defective preforms to be identified before it, having an anomalous stress profile, explodes during blowing. In one embodiment, the optical inspection device could be positioned in the warehouse or in a conveyor that connects the warehouse to other parts of the line.
In una forma realizzativa, il dispositivo di ispezione ottica è collocato nella linea in modo tale da ispezionare le preforme ad una temperatura tra i 30 e i 70 gradi Celsius (preferibilmente, tra i 50 e i 60 gradi Celsius). Infatti le preforme possono trovarsi a tali temperature, ad esempio, all’uscita della macchina formatrice. In one embodiment, the optical inspection device is placed in the line in such a way as to inspect the preforms at a temperature between 30 and 70 degrees Celsius (preferably, between 50 and 60 degrees Celsius). In fact, the preforms can be at such temperatures, for example, at the exit of the forming machine.
In una forma realizzativa, il dispositivo di ispezione ottica è collocato nella linea in modo tale da ispezionare preforme ad una temperatura ambiente (ad esempio, tra i 5 e i 30 gradi Celsius). Infatti le preforme possono trovarsi a temperatura ambiente se vengono immagazzinate o raffreddate successivamente alla formatura. In one embodiment, the optical inspection device is placed in the line in such a way as to inspect preforms at an ambient temperature (e.g., between 5 and 30 degrees Celsius). In fact, the preforms can be at room temperature if they are stored or cooled after forming.
Preferibilmente, il dispositivo di ispezione ottica è collocato nella linea in modo tale da ispezionare le preforme ad una temperatura inferiore a 60 gradi Celsius (preferibilmente, inferiore a 50 gradi Celsius); infatti, a temperature maggiori le preforme potrebbero essere soggette a deformazioni che altererebbero il profilo di stress interno delle stesse. In una forma realizzativa, il dispositivo di ispezione ottica è integrato nel forno. Se il dispositivo di ispezione ottica è integrato nel forno (preferibilmente a monte dei riscaldatori ovvero all’ingresso del forno) si può sfruttare il posizionamento delle preforme nel forno, singolarizzate e ordinate, per definire la posizione di ispezione del dispositivo di ispezione. Preferably, the optical inspection device is placed in the line in such a way as to inspect the preforms at a temperature below 60 degrees Celsius (preferably, below 50 degrees Celsius); in fact, at higher temperatures the preforms could be subject to deformations which would alter the internal stress profile of the same. In one embodiment, the optical inspection device is integrated into the furnace. If the optical inspection device is integrated into the furnace (preferably upstream of the heaters or at the entrance to the furnace), the positioning of the preforms in the furnace, singularized and ordered, can be exploited to define the inspection position of the inspection device.
In altre forme di realizzazione, il dispositivo di ispezione ottica secondo la presente descrizione è integrato fuori linea in una macchina di ripasso ad alta velocità, o in una macchina campionatrice a bassa velocità. In other embodiments, the optical inspection device according to the present description is integrated off-line in a high-speed review machine, or in a low-speed sampling machine.
La presente descrizione riguarda anche un metodo di ispezione ottica di preforme. Il metodo di ispezione ottica comprende una fase di emissione di un fascio di luce verso una preforma collocata in una posizione di ispezione, mediante un illuminatore. Il metodo di ispezione ottica comprende una fase di rilevazione di un’immagine della preforma collocata nella posizione di ispezione, mediante un rilevatore. La preforma, nella posizione di ispezione, è operativamente interposta tra l’illuminatore e il rilevatore. Dunque, l’immagine viene rilevata in controluce. The present description also relates to a method of optical inspection of preforms. The optical inspection method comprises a step of emitting a beam of light towards a preform placed in an inspection position, by means of an illuminator. The optical inspection method includes a phase of detecting an image of the preform placed in the inspection position, using a detector. The preform, in the inspection position, is operationally interposed between the illuminator and the detector. Therefore, the image is detected against the light.
In una forma realizzativa, il metodo di ispezione ottica comprende una fase di generazione di un fascio di luce polarizzata, mediante un’intercettazione del fascio di luce emesso dall’illuminatore su un filtro polarizzatore di emissione, interposto l’illuminatore e la preforma. In one embodiment, the optical inspection method comprises a phase of generating a polarized light beam, by intercepting the beam of light emitted by the illuminator on an emission polarizing filter, interposed between the illuminator and the preform.
In una forma realizzativa, il metodo di ispezione ottica comprende una fase di ricezione del fascio di luce polarizzata su un filtro polarizzatore di ricezione. La preforma collocata nella posizione di ispezione è operativamente interposta tra il filtro polarizzatore di emissione e il filtro polarizzatore di ricezione. In one embodiment, the optical inspection method comprises a step of receiving the polarized light beam on a receiving polarizing filter. The preform placed in the inspection position is operatively interposed between the emission polarizing filter and the receiving polarizing filter.
In una forma realizzativa, la preforma è realizzata in un materiale (preferibilmente PET) includente catene polimeriche. In una forma realizzativa, l’immagine rilevata dal rilevatore include un pattern cromatico rappresentativo di uno stress a cui sono sottoposte le catene polimeriche del PET. In one embodiment, the preform is made of a material (preferably PET) including polymer chains. In one embodiment, the image detected by the detector includes a chromatic pattern representative of a stress to which the PET polymer chains are subjected.
In una forma realizzativa, il metodo di ispezione ottica comprende una fase di elaborazione dell’immagine (mediante un sistema di elaborazione). In una forma realizzativa, nella fase di elaborazione l’immagine rilevata dal rilevatore viene elaborata sulla base di dati di riferimento contenuti in una memoria. In una forma realizzativa, la fase di elaborazione include una derivazione di un’informazione diagnostica circa una difettosità della preforma. In one embodiment, the optical inspection method comprises an image processing step (by means of a processing system). In one embodiment, in the processing phase the image detected by the detector is processed on the basis of reference data contained in a memory. In one embodiment, the processing step includes a derivation of diagnostic information about a defect in the preform.
In una forma realizzativa, la fase di elaborazione include una sotto-fase di codifica dell’immagine rilevata dal rilevatore sulla base di dati di riferimento, per derivare dall’immagine valori di una pluralità di caratteristiche di immagine. In one embodiment, the processing step includes a sub-step of coding the image detected by the detector on the basis of reference data, to derive from the image values of a plurality of image characteristics.
In una forma realizzativa, la fase di elaborazione include un’elaborazione della pluralità di caratteristiche di immagine, per derivare l’informazione diagnostica circa la difettosità della preforma. In particolare, in una forma realizzativa, la fase di elaborazione include una sotto-fase di generazione di una immagine ricostruita, a partire dai valori della pluralità di caratteristiche di immagine e sulla base dei dati di riferimento. In una forma realizzativa, la fase di elaborazione include una sotto-fase di derivazione di un’informazione diagnostica circa la difettosità della preforma, in funzione di un confronto tra l’immagine rilevata dal rilevatore e l’immagine ricostruita. In one embodiment, the processing step includes processing the plurality of image characteristics, to derive the diagnostic information about the defect of the preform. In particular, in one embodiment, the processing step includes a sub-step of generating a reconstructed image, starting from the values of the plurality of image characteristics and on the basis of the reference data. In one embodiment, the processing phase includes a sub-phase of derivation of diagnostic information about the defectiveness of the preform, as a function of a comparison between the image detected by the detector and the reconstructed image.
In una forma realizzativa, il metodo comprende una fase di autoapprendimento (effettuata mediante un sistema di autoapprendimento connesso al sistema di elaborazione). In una forma realizzativa, la fase di autoapprendimento comprende una sotto-fase di rilevazione di una pluralità di immagini per una corrispondente pluralità di preforme. In una forma realizzativa, la fase di autoapprendimento comprende una sottofase di codifica di ciascuna immagine di detta pluralità di immagini sulla base dei dati di riferimento, includente una derivazione, da ciascuna immagine di detta pluralità di immagini, di corrispondenti valori di una pluralità di caratteristiche di immagine, secondo di un criterio prestabilito (che può includere un vincolo sul numero massimo di caratteristiche di immagine di detta pluralità di caratteristiche di immagine). In una forma realizzativa, la fase di autoapprendimento comprende una sotto-fase di generazione, per ciascuna immagine di detta pluralità di immagini, di una corrispondente immagine ricostruita, a partire dai corrispondenti valori della pluralità di caratteristiche di immagine e sulla base dei dati di riferimento. In una forma realizzativa, la fase di autoapprendimento comprende una sotto-fase di confronto di ciascuna immagine di detta pluralità di immagini con la corrispondente immagine ricostruita, e derivazione di un corrispondente parametro di similitudine, rappresentativo di una somiglianza tra l’immagine rilevata dal rilevatore e la corrispondente immagine ricostruita. In una forma realizzativa, la fase di autoapprendimento comprende una sotto-fase di aggiornamento dei dati di riferimento e/o della pluralità di caratteristiche di immagine in funzione del parametro di similitudine e di un valore di soglia prestabilito. In particolare, i dati di riferimento e la pluralità di caratteristiche di immagine vengono aggiornati in modo tale che il parametro di similitudine sia inferiore (o superiore) al valore di soglia prestabilito. In one embodiment, the method comprises a self-learning step (carried out by means of a self-learning system connected to the processing system). In one embodiment, the self-learning step comprises a sub-step for detecting a plurality of images for a corresponding plurality of preforms. In one embodiment, the self-learning step comprises a sub-step of coding each image of said plurality of images on the basis of the reference data, including a derivation, from each image of said plurality of images, of corresponding values of a plurality of characteristics image, according to a predetermined criterion (which can include a constraint on the maximum number of image characteristics of said plurality of image characteristics). In one embodiment, the self-learning step comprises a sub-step of generating, for each image of said plurality of images, a corresponding reconstructed image, starting from the corresponding values of the plurality of image characteristics and on the basis of the reference data . In one embodiment, the self-learning step comprises a sub-step of comparing each image of said plurality of images with the corresponding reconstructed image, and derivation of a corresponding similarity parameter, representative of a similarity between the image detected by the detector and the corresponding reconstructed image. In one embodiment, the self-learning step comprises a sub-step of updating the reference data and / or the plurality of image characteristics as a function of the similarity parameter and a predetermined threshold value. In particular, the reference data and the plurality of image characteristics are updated in such a way that the similarity parameter is lower (or higher) than the predetermined threshold value.
In una forma realizzativa preferita, le immagini di detta pluralità di immagini rilevate dalla telecamera durante la fase di autoapprendimento sono rappresentative di una corrispondente pluralità di preforme prive di difetti. Il fatto che il sistema di autoapprendimento non necessiti di ricevere in ingresso immagini di preforme difettose è molto vantaggioso, poiché le preforme difettose sono difficili da reperire. In a preferred embodiment, the images of said plurality of images detected by the camera during the self-learning step are representative of a corresponding plurality of defect-free preforms. The fact that the self-learning system does not need to receive images of defective preforms at the input is very advantageous, since defective preforms are difficult to find.
Preferibilmente, il filtro polarizzatore di emissione e il filtro polarizzatore di ricezione sono orientati tra di loro secondo un orientamento predefinito (per esempio, paralleli o perpendicolari), che è lo stesso nella fase di autoapprendimento e nella fase di elaborazione. Preferably, the emission polarizing filter and the receiving polarizing filter are oriented to each other according to a predefined orientation (for example, parallel or perpendicular), which is the same in the self-learning step and in the processing step.
In una forma realizzativa, il metodo comprende una fase di alimentazione delle preforme di detta pluralità di preforme alla posizione di ispezione una alla volta (in successione). In una forma realizzative, le preforme sono alimentate secondo un’orientazione predefinita rispetto al filtro polarizzatore di emissione e rispetto al filtro polarizzatore di ricezione. Detta orientazione delle preforme è la stessa nella fase di autoapprendimento e nella fase di elaborazione. L’immagine di ciascuna preforma di detta pluralità di preforme è rilevata quando la preforma si trova nella posizione di ispezione. In one embodiment, the method comprises a step of feeding the preforms of said plurality of preforms to the inspection position one at a time (in succession). In one embodiment, the preforms are fed according to a predefined orientation with respect to the emission polarizing filter and with respect to the receiving polarizing filter. Said orientation of the preforms is the same in the self-learning phase and in the processing phase. The image of each preform of said plurality of preforms is detected when the preform is in the inspection position.
In una forma realizzativa, il processore è configurato per processare le immagini di preforme orientate in modo casuale (ad esempio, ruotandole per ricondurle ad un orientamento prestabilito); dunque, in una forma realizzativa, il dispositivo è invariante all’orientamento delle preforme. In one embodiment, the processor is configured to process images of randomly oriented preforms (for example, rotating them to bring them back to a predetermined orientation); therefore, in one embodiment, the device is invariant to the orientation of the preforms.
In una forma realizzativa, il sistema di elaborazione è configurato per elaborare in tempo reale l’immagine della preforma (non appena viene rilevata dal rilevatore). In una forma realizzativa, qualora il dispositivo fornisca un’informazione diagnostica che identifica una difettosità della preforma, la linea è configurata per fermarsi, per permettere ad un operatore di rimuovere la preforma avente difettosità, o è configurata per rimuovere essa stessa la preforma avente difettosità. In one embodiment, the processing system is configured to process the image of the preform in real time (as soon as it is detected by the detector). In one embodiment, if the device provides diagnostic information that identifies a defect in the preform, the line is configured to stop, to allow an operator to remove the defective preform, or is configured to remove the defective preform itself. .
In un’altra forma realizzativa, il sistema di elaborazione è configurato per acquisire l’immagine della preforma ed elaborarla in post processing. In questo caso, il sistema è configurato per correlare ciascuna immagine alla rispettiva preforma, in modo tale da individuare la preforma la cui immagine ha dato luogo ad un’indicazione diagnostica di preforma difettosa. In another embodiment, the processing system is configured to acquire the image of the preform and process it in post processing. In this case, the system is configured to relate each image to the respective preform, in such a way as to identify the preform whose image has given rise to a diagnostic indication of a defective preform.
La presente descrizione concerne anche un metodo di elaborazione di un’immagine di una preforma. In una forma realizzativa, il metodo di elaborazione dell’immagine include una fase di codifica dell’immagine, includente una derivazione di valori di una pluralità di caratteristiche di immagine. In una forma realizzativa, il metodo di elaborazione dell’immagine include una fase di generazione di un’immagine ricostruita, in funzione dei valori della pluralità di caratteristiche di immagine. In una forma realizzativa, il metodo di elaborazione dell’immagine include una fase di derivazione di un’informazione diagnostica circa una difettosità della preforma in funzione di un confronto tra l’immagine acquisita dalla telecamera e l’immagine ricostruita. This description also concerns a method of processing an image of a preform. In one embodiment, the image processing method includes an image coding step, including a derivation of values of a plurality of image characteristics. In one embodiment, the image processing method includes a step of generating a reconstructed image, as a function of the values of the plurality of image characteristics. In one embodiment, the image processing method includes a step of deriving diagnostic information about a defect in the preform as a function of a comparison between the image acquired by the camera and the reconstructed image.
In una forma realizzativa, il metodo di elaborazione dell’immagine include una fase di autoapprendimento (secondo uno o più aspetti illustrati nella presente descrizione). In one embodiment, the image processing method includes a self-learning phase (according to one or more aspects illustrated in this description).
La presente descrizione riguarda inoltre un programma per elaboratore (software) comprendente istruzioni operative configurate per realizzare le fasi del metodo di elaborazione secondo uno o più degli aspetti illustrati nella presente descrizione (quando eseguite su un processore, in particolare sulla unità di elaborazione del dispositivo secondo uno o più degli aspetti illustrati nella presente descrizione). The present description also relates to a computer program (software) comprising operating instructions configured to carry out the steps of the processing method according to one or more of the aspects illustrated in the present description (when performed on a processor, in particular on the processing unit of the device according to one or more of the aspects illustrated in the present description).
Questa ed altre caratteristiche risulteranno maggiormente evidenziate dalla descrizione seguente di una preferita forma realizzativa, illustrata a puro titolo esemplificativo e non limitativo nelle unite tavole di disegno, in cui: This and other characteristics will be more evident from the following description of a preferred embodiment, illustrated purely by way of non-limiting example in the accompanying drawing tables, in which:
- la figura 1 illustra un dispositivo di ispezione ottica secondo la presente descrizione; Figure 1 illustrates an optical inspection device according to the present description;
- la figura 2 illustra un’elaborazione di un’immagine svolta dal dispositivo di ispezione ottica di figura 1; - Figure 2 illustrates an image processing carried out by the optical inspection device of Figure 1;
- la figura 3 illustra, per una immagine, un’auto-apprendimento svolto dal dispositivo di ispezione ottica di figura 1; - Figure 3 illustrates, for an image, a self-learning carried out by the optical inspection device of Figure 1;
- le figure 4A, 4B e 4C illustrano, per una preforma priva di difetti, un’immagine rilevata da una telecamera, un’immagine ricostruita, e un confronto tra l’immagine rilevata e l’immagine ricostruita, rispettivamente; - le figure 5A, 5B e 5C illustrano, per una preforma difettosa, un’immagine rilevata da una telecamera, un’immagine ricostruita, e un confronto tra l’immagine rilevata e l’immagine ricostruita, rispettivamente; - Figures 4A, 4B and 4C illustrate, for a defect-free preform, an image detected by a camera, a reconstructed image, and a comparison between the detected image and the reconstructed image, respectively; - Figures 5A, 5B and 5C illustrate, for a defective preform, an image detected by a camera, a reconstructed image, and a comparison between the detected image and the reconstructed image, respectively;
- la figura 6 illustra una linea per realizzare contenitori in materiale termoplastico, comprendente il dispositivo di figura 1. - figure 6 illustrates a line for making containers in thermoplastic material, comprising the device of figure 1.
Con riferimento alle figure allegate, si è indicata col numero 1 si è indicato un dispositivo di ispezione ottica, configurato per ispezionare una preforma 2. With reference to the attached figures, the number 1 indicates an optical inspection device, configured to inspect a preform 2.
La preforma 2 include un corpo 200 di forma sostanzialmente cilindrica. La preforma 2 (ovvero il corpo 200) definisce un asse di simmetria A. Il corpo 200 ha dunque simmetria cilindrica intorno all’asse di simmetria A. La preforma 2 include un fondo 201 chiuso. La preforma 2 include un collo 202 definente un’apertura. La preforma 2 include una baga 203. The preform 2 includes a body 200 having a substantially cylindrical shape. The preform 2 (ie the body 200) defines an axis of symmetry A. The body 200 therefore has cylindrical symmetry around the axis of symmetry A. The preform 2 includes a closed bottom 201. The preform 2 includes a neck 202 defining an opening. Preform 2 includes a 203 bag.
Il dispositivo 1 è configurato per ricevere la preforma 2 in una posizione di ispezione 10. In una forma realizzativa, la posizione di ispezione è definita da una sede di ispezione. In una forma realizzativa, la sede di ispezione include un elemento di sostegno 11, configurato per trattenere la preforma 2 (preferibilmente, sostenendo la baga 21). The device 1 is configured to receive the preform 2 in an inspection position 10. In one embodiment, the inspection position is defined by an inspection seat. In one embodiment, the inspection seat includes a support element 11, configured to hold the preform 2 (preferably, supporting the lip 21).
Il dispositivo 1 include un illuminatore 3. L’illuminatore 3 include una sorgente luminosa 31. La sorgente luminosa 31 è configurata per configurata per emettere un fascio di luce verso una preforma 2 (ovvero verso la sede di ispezione 10). L’illuminatore 3 include un filtro polarizzatore di emissione 32. Il filtro polarizzatore di emissione 32, in una forma realizzativa, è connesso alla sorgente luminosa 31. Il filtro polarizzatore di emissione 32 è configurato per intercettare il fascio emesso dalla sorgente luminosa 31 e per polarizzarlo. Dunque, la preforma 2 riceve un fascio di luce polarizzato dal filtro polarizzatore di emissione 32 e lo rifrange. The device 1 includes an illuminator 3. The illuminator 3 includes a light source 31. The light source 31 is configured to be configured to emit a beam of light towards a preform 2 (ie towards the inspection seat 10). The illuminator 3 includes an emission polarizing filter 32. The emission polarizing filter 32, in one embodiment, is connected to the light source 31. The emission polarizing filter 32 is configured to intercept the beam emitted by the light source 31 and for polarize it. Therefore, the preform 2 receives a polarized light beam from the emission polarizing filter 32 and refracts it.
Il dispositivo 1 include un rilevatore 4. Il rilevatore 4 include una telecamera 41. Il rilevatore include un filtro polarizzatore di ricezione 42. In una forma realizzativa, il filtro polarizzatore di ricezione 42 è collegato alla telecamera 41. Il filtro polarizzatore di ricezione 42 è configurato per ricevere il fascio di luce rifratto dalla preforma 2 e per polarizzarlo. Dunque, la telecamera 41 riceve il fascio di luce polarizzato dal filtro polarizzatore di emissione 32, rifratto dalla preforma e ulteriormente polarizzato dal filtro polarizzatore di ricezione 42. La telecamera 41 è configurata per rilevare (o acquisire) un’immagine 20 della preforma 2. L’illuminatore 3 illumina lateralmente la preforma 2, su un primo lato 200A del corpo 200. Il rilevatore 4 rileva un’immagine laterale della preforma 2, su un secondo lato 200B del corpo 200, opposto al primo lato 200A. The device 1 includes a detector 4. The detector 4 includes a camera 41. The detector includes a receiving polarizing filter 42. In one embodiment, the receiving polarizing filter 42 is connected to the camera 41. The receiving polarizing filter 42 is configured to receive the light beam refracted by the preform 2 and to polarize it. Thus, the camera 41 receives the polarized light beam from the emission polarizing filter 32, refracted by the preform and further polarized by the receiving polarizing filter 42. The camera 41 is configured to detect (or acquire) an image 20 of the preform 2. The illuminator 3 laterally illuminates the preform 2, on a first side 200A of the body 200. The detector 4 detects a lateral image of the preform 2, on a second side 200B of the body 200, opposite the first side 200A.
Il dispositivo 1 include una memoria 5. La memoria 5 contiene dati di riferimento. In particolare, la memoria 5 contiene almeno un primo insieme di dati di riferimento 51 e un secondo insieme di dati di riferimento 52; il primo insieme di dati di riferimento 51 e il secondo insieme di dati di riferimento 52, in una forma realizzativa, sono tra di loro distinti. Device 1 includes memory 5. Memory 5 contains reference data. In particular, the memory 5 contains at least a first set of reference data 51 and a second set of reference data 52; the first set of reference data 51 and the second set of reference data 52, in one embodiment, are distinct from each other.
Il dispositivo 1 include un processore 6. Il processore 6 è collegato alla memoria 5. Il processore 6 è programmato per elaborare l’immagine 20 rilevata dalla telecamera 41 sulla base dei dati di riferimento 51, 52, per derivare un’informazione diagnostica 23 circa una difettosità della preforma 2. In particolare, il processore 6 è programmato per codificare 61 l’immagine 20, in funzione del primo insieme di dati di riferimento 51, per derivare valori di una pluralità di caratteristiche 21 di immagine. Il processore 6 è inoltre configurato per decodificare 62 le caratteristiche 21 di immagine, generando un’immagine ricostruita 22, sulla base del secondo insieme di dati di riferimento 52. The device 1 includes a processor 6. The processor 6 is connected to the memory 5. The processor 6 is programmed to process the image 20 detected by the camera 41 on the basis of the reference data 51, 52, to derive approximately diagnostic information 23. a defect of the preform 2. In particular, the processor 6 is programmed to encode 61 the image 20, as a function of the first set of reference data 51, to derive values of a plurality of image characteristics 21. The processor 6 is also configured to decode 62 the image characteristics 21, generating a reconstructed image 22, based on the second set of reference data 52.
Il processore 6 è quindi configurato per confrontare 63 l’immagine ricostruita 22 con l’immagine rilevata 20 per derivare un’informazione diagnostica 23 circa la difettosità della preforma 2. Processor 6 is then configured to compare 63 the reconstructed image 22 with the detected image 20 to derive diagnostic information 23 about the defectiveness of preform 2.
In una forma realizzativa, l’informazione diagnostica include una mappa di errore 25 data da una differenza tra l’immagine rilevata 20 e l’immagine ricostruita 22 (o viceversa). In una forma realizzativa illustrata nelle figure, la mappa di errore 25 presenta una campitura omogenea nel caso di preforma buona, mentre presenta una colorazione a chiazze nel caso di preforma difettosa. In one embodiment, the diagnostic information includes an error map 25 given by a difference between the detected image 20 and the reconstructed image 22 (or vice versa). In an embodiment illustrated in the figures, the error map 25 has a homogeneous pattern in the case of a good preform, while it has a patchy coloration in the case of a defective preform.
In una forma realizzativa, l’informazione diagnostica 23 include un parametro di similitudine 24 il cui valore è correlato ad un grado di similitudine tra l’immagine rilevata 20 e l’immagine ricostruita 22. In una forma realizzativa, il processore 6 è programmato per derivare il parametro di similitudine 24 sulla base della mappa di errore 25. In una forma realizzativa, l’informazione diagnostica 23 include un valore di un parametro binario indicante se la preforma è buona o è difettosa (calcolato, ad esempio, confrontando il parametro di similitudine 24 con un valore di soglia prestabilito). In one embodiment, the diagnostic information 23 includes a similarity parameter 24 whose value is related to a degree of similarity between the detected image 20 and the reconstructed image 22. In one embodiment, the processor 6 is programmed to derive the similarity parameter 24 based on the error map 25. In one embodiment, the diagnostic information 23 includes a value of a binary parameter indicating whether the preform is good or defective (calculated, for example, by comparing the similarity 24 with a predetermined threshold value).
In una forma realizzativa, il dispositivo 1 (o preferibilmente il sistema di elaborazione) comprende un sistema di autoapprendimento 7. Il sistema di autoapprendimento 7 è preferibilmente integrato nel processore 6. Il sistema di autoapprendimento 7 è collegato alla memoria 5. In one embodiment, the device 1 (or preferably the processing system) comprises a self-learning system 7. The self-learning system 7 is preferably integrated in the processor 6. The self-learning system 7 is connected to the memory 5.
Il sistema di auto-apprendimento 7 è configurato per ricevere una pluralità di immagini 20 rilevate per una corrispondente pluralità di preforme 2. Il sistema di auto-apprendimento 7 è preferibilmente configurato per svolgere il seguente procedimento per ciascuna immagine 20 ricevuta: codifica 61 dell’immagine 20 sulla base del primo insieme di dati di riferimento 51, per derivare valori di una pluralità di caratteristiche 21 di immagine; decodifica 62 delle caratteristiche 21 di immagine sulla base del secondo insieme di dati di riferimento 51, per generare un’immagine 22 ricostruita; confronto 63 tra l’immagine ricostruita 22 e l’immagine derivata 20, per derivare un parametro di similitudine 24 rappresentativo di una somiglianza tra l’immagine rilevata 20 e l’immagine ricostruita 22; valutazione 70 del parametro di similitudine 24, rispetto ad un valore di soglia 72 prestabilito per detto parametro di similitudine; aggiornamento (iterativo) del primo insieme di dati di riferimento 51, del secondo insieme di dati di riferimento 52 e delle caratteristiche di immagine 21, fino a che il parametro di similitudine 24 non è sopra (o sotto) il parametro di soglia 72. Dunque, il sistema di auto-apprendimento 7 svolge un problema di ottimizzazione delle operazioni di codifica 61 e decodifica 62, in cui le variabili sono definite dal primo insieme di dati di riferimento 51, dal secondo insieme di dati di riferimento 52, (ed eventualmente dall’insieme di caratteristiche di immagine 21), per minimizzare ovvero portare sotto una certa soglia (o massimizzare ovvero portare sopra una certa soglia) il parametro di similitudine 24. Dunque, preferibilmente, il primo insieme di dati di riferimento 51 e il secondo insieme di dati di riferimento 52 sono aggiornati in combinazione. The self-learning system 7 is configured to receive a plurality of images 20 detected for a corresponding plurality of preforms 2. The self-learning system 7 is preferably configured to carry out the following procedure for each received image 20: encoding 61 of the image 20 based on the first set of reference data 51, to derive values of a plurality of image characteristics 21; decoding 62 of the image features 21 on the basis of the second set of reference data 51, to generate a reconstructed image 22; comparison 63 between the reconstructed image 22 and the derived image 20, to derive a similarity parameter 24 representative of a similarity between the detected image 20 and the reconstructed image 22; evaluation 70 of the similarity parameter 24, with respect to a predetermined threshold value 72 for said similarity parameter; updating (iterative) of the first set of reference data 51, of the second set of reference data 52 and of the image characteristics 21, until the similarity parameter 24 is above (or below) the threshold parameter 72. Therefore , the self-learning system 7 carries out a problem of optimization of the operations of coding 61 and decoding 62, in which the variables are defined by the first set of reference data 51, by the second set of reference data 52, (and possibly by 'set of image characteristics 21), to minimize or bring below a certain threshold (or maximize or bring above a certain threshold) the similarity parameter 24. Therefore, preferably, the first set of reference data 51 and the second set of reference data 52 are updated in combination.
Poiché il sistema di auto-apprendimento 7 ottimizza tali operazioni di codifica 61 e decodifica 62 con immagini 20 di preforme 2 sane, i dati di riferimento 51, 52 (ed eventualmente l’insieme di caratteristiche di immagine 21) determinati in seguito all’ottimizzazione saranno tali per cui, per preforme sane 2, una differenza tra l’immagine 20 rilevata e l’immagine 22 ricostruita è minima. Viceversa, poiché tali operazioni non sono ottimizzate per preforme 2 difettose, l’immagine 22 ricostruita per una preforma difettosa sarà significativamente diversa dall’immagine 20 rilevata e il processore 6 (riscontrando tale differenza) genererà un’informazione diagnostica 23 indicante che la preforma è difettosa. Since the self-learning system 7 optimizes these operations of coding 61 and decoding 62 with images 20 of sound preforms 2, the reference data 51, 52 (and possibly the set of image characteristics 21) determined following the optimization they will be such that, for healthy preforms 2, a difference between the detected image 20 and the reconstructed image 22 is minimal. Conversely, since these operations are not optimized for defective preforms 2, the reconstructed image 22 for a defective preform will be significantly different from the detected image 20 and the processor 6 (detecting this difference) will generate diagnostic information 23 indicating that the preform is defective.
Preferibilmente, il sistema di auto-apprendimento 7 esegue iterativamente le operazioni di codifica 61, decodifica 62, confronto 63, valutazione 70 e aggiornamento dei dati di riferimento 51, 52 (ed eventualmente delle caratteristiche di immagine 21), per ciascuna immagine 20, in successione (ovvero, prima svolge tutte le iterazioni necessarie a minimizzare o massimizzare il parametro di similitudine 24 per una prima preforma 2, poi per una seconda preforma 2, e così via). Preferably, the self-learning system 7 iteratively performs the operations of coding 61, decoding 62, comparison 63, evaluation 70 and updating of the reference data 51, 52 (and possibly of the image characteristics 21), for each image 20, in succession (that is, it first carries out all the iterations necessary to minimize or maximize the similarity parameter 24 for a first preform 2, then for a second preform 2, and so on).
È anche previsto, in una forma realizzativa, che il sistema di autoapprendimento svolga una prima iterazione nella quale svolge, per tutte le immagini 20, le operazioni di codifica 61, decodifica 62, confronto 63 e valutazione 70; dunque, a partire dai parametri di similitudine 24 ricavati per tutte le preforme 2, aggiorna i dati di riferimento 51, 52 (ed eventualmente le caratteristiche di immagine 21) e passa ad una seconda iterazione nella quale svolge nuovamente, per tutte le immagini 20, le operazioni di codifica 61, decodifica 62, confronto 63 e valutazione 70, e così via. It is also provided, in one embodiment, that the self-learning system carries out a first iteration in which it carries out, for all the images 20, the operations of coding 61, decoding 62, comparison 63 and evaluation 70; therefore, starting from the similarity parameters 24 obtained for all the preforms 2, it updates the reference data 51, 52 (and possibly the characteristics of image 21) and passes to a second iteration in which it again performs, for all images 20, the operations of encoding 61, decoding 62, comparison 63 and evaluation 70, and so on.
La presente descrizione riguarda anche una linea 100 per realizzare contenitori in materiale termoplastico quali, per esempio, bottiglie. The present description also relates to a line 100 for making containers in thermoplastic material such as, for example, bottles.
La linea 100 comprende una macchina formatrice 101, configurata per generare (ovvero formare) preforme 2. La macchina formatrice 101 in una forma realizzativa è una macchina rotativa. La linea 100 comprende un forno di riscaldamento 102, configurato per ricevere le preforme 2 formate e per riscaldarle. La linea 100 comprende una macchina soffiatrice 103, configurata per soffiare le preforme 2 per generare i contenitori. La macchina soffiatrice 103 in una forma realizzativa è una macchina rotativa. Preferibilmente, la linea 100 include una prima giostra di trasferimento 106 configurata per trasferire le preforme 2 dalla macchina formatrice 101 al forno di riscaldamento 102. Preferibilmente, la linea 100 include una seconda giostra di trasferimento 107 configurata per trasferire le preforme 2 dal forno di riscaldamento 102 alla macchina soffiatrice 103. In una forma realizzativa, la linea 100 include un magazzino 104, per immagazzinare le preforme 2 formate prima del soffiaggio. In una forma realizzativa, la linea 100 include un dispositivo di orientamento delle preforme 105, configurato per orientare le preforme 2 in uscita e/o in ingresso dal magazzino 104. In una forma realizzativa, la linea 100 include un trasportatore 108, configurato per trasportare le preforme 2 in ingresso e in uscita dal magazzino 104. Il trasportatore 108 alimenta le preforme 2 estratte dal magazzino 104 al forno di riscaldamento 102. Line 100 comprises a forming machine 101, configured to generate (i.e. form) preforms 2. The forming machine 101 in one embodiment is a rotary machine. Line 100 comprises a heating oven 102, configured to receive the formed preforms 2 and to heat them. The line 100 comprises a blowing machine 103, configured to blow the preforms 2 to generate the containers. Blow molding machine 103 in one embodiment is a rotary machine. Preferably, the line 100 includes a first transfer carousel 106 configured to transfer the preforms 2 from the forming machine 101 to the heating oven 102. Preferably, the line 100 includes a second transfer carousel 107 configured to transfer the preforms 2 from the heating oven. 102 to the blowing machine 103. In one embodiment, the line 100 includes a magazine 104, for storing the preforms 2 formed before blowing. In one embodiment, the line 100 includes a preform orienting device 105, configured to orient the preforms 2 exiting and / or entering the warehouse 104. In one embodiment, the line 100 includes a conveyor 108, configured to transport the preforms 2 entering and leaving the warehouse 104. The conveyor 108 feeds the preforms 2 extracted from the warehouse 104 to the heating furnace 102.
Claims (12)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| IT102019000019070A IT201900019070A1 (en) | 2019-10-16 | 2019-10-16 | METHOD OF PROCESSING AN IMAGE OF AN OBJECT |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| IT102019000019070A IT201900019070A1 (en) | 2019-10-16 | 2019-10-16 | METHOD OF PROCESSING AN IMAGE OF AN OBJECT |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| IT201900019070A1 true IT201900019070A1 (en) | 2021-04-16 |
Family
ID=69570776
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| IT102019000019070A IT201900019070A1 (en) | 2019-10-16 | 2019-10-16 | METHOD OF PROCESSING AN IMAGE OF AN OBJECT |
Country Status (1)
| Country | Link |
|---|---|
| IT (1) | IT201900019070A1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170140524A1 (en) * | 2015-11-17 | 2017-05-18 | Kla-Tencor Corporation | Single image detection |
| EP2976204B1 (en) | 2013-03-22 | 2017-06-28 | Finatec Holding AG | Method and system for checking the color quality of unordered preforms |
| CN108961217A (en) * | 2018-06-08 | 2018-12-07 | 南京大学 | A kind of detection method of surface flaw based on positive example training |
-
2019
- 2019-10-16 IT IT102019000019070A patent/IT201900019070A1/en unknown
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2976204B1 (en) | 2013-03-22 | 2017-06-28 | Finatec Holding AG | Method and system for checking the color quality of unordered preforms |
| US20170140524A1 (en) * | 2015-11-17 | 2017-05-18 | Kla-Tencor Corporation | Single image detection |
| CN108961217A (en) * | 2018-06-08 | 2018-12-07 | 南京大学 | A kind of detection method of surface flaw based on positive example training |
Non-Patent Citations (3)
| Title |
|---|
| KOMOTO KYOSUKE ET AL: "A performance evaluation of defect detection by using Denoising AutoEncoder Generative Adversarial Networks", 2018 INTERNATIONAL WORKSHOP ON ADVANCED IMAGE TECHNOLOGY (IWAIT), IEEE, 7 January 2018 (2018-01-07), pages 1 - 4, XP033352573, DOI: 10.1109/IWAIT.2018.8369766 * |
| THOMAS SCHLEGL ET AL: "Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 17 March 2017 (2017-03-17), XP080757690, DOI: 10.1007/978-3-319-59050-9_12 * |
| ZHAO ZHIXUAN ET AL: "A Surface Defect Detection Method Based on Positive Samples", 27 July 2018, INTERNATIONAL CONFERENCE ON FINANCIAL CRYPTOGRAPHY AND DATA SECURITY; [LECTURE NOTES IN COMPUTER SCIENCE; LECT.NOTES COMPUTER], SPRINGER, BERLIN, HEIDELBERG, PAGE(S) 473 - 481, ISBN: 978-3-642-17318-9, XP047481215 * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| IT201800011107A1 (en) | DEVICE FOR OPTICAL INSPECTION OF PREFORMS | |
| US11597135B2 (en) | Blow molder control systems and methods | |
| US12005626B2 (en) | Energy efficient blow molder control | |
| US12145304B2 (en) | Apparatus and method for heating plastic preforms with spatially resolved temperature detection | |
| US20220072759A1 (en) | Apparatus and method for heating plastic preforms with spatially resolved temperature detection | |
| US8593515B2 (en) | Method for quality control of plastic containers | |
| IT201900019070A1 (en) | METHOD OF PROCESSING AN IMAGE OF AN OBJECT | |
| CN120035757A (en) | Method and apparatus for inspecting glass containers according to at least two modalities to classify the containers by their glass defects | |
| WO2020226921A1 (en) | Predictive. preventive maintenance for container-forming production process | |
| US20250229476A1 (en) | Apparatus and method for producing plastics material preforms with spectral analysis device | |
| IT202400004006A1 (en) | DEVICE AND METHOD FOR INSPECTING AN OBJECT | |
| CN120116465A (en) | Method and device for producing plastic containers |