DE69320014T2 - Verfahren und Vorrichtung zur Inspektion von ophthalmischen Linsen - Google Patents
Verfahren und Vorrichtung zur Inspektion von ophthalmischen LinsenInfo
- Publication number
- DE69320014T2 DE69320014T2 DE69320014T DE69320014T DE69320014T2 DE 69320014 T2 DE69320014 T2 DE 69320014T2 DE 69320014 T DE69320014 T DE 69320014T DE 69320014 T DE69320014 T DE 69320014T DE 69320014 T2 DE69320014 T2 DE 69320014T2
- Authority
- DE
- Germany
- Prior art keywords
- lens
- edge
- pixels
- image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000007704 transition Effects 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 42
- 238000003860 storage Methods 0.000 claims description 2
- 230000002250 progressing effect Effects 0.000 claims 1
- 238000007689 inspection Methods 0.000 abstract description 37
- 230000002950 deficient Effects 0.000 abstract description 33
- 238000000605 extraction Methods 0.000 abstract description 15
- 230000007547 defect Effects 0.000 description 68
- 239000013598 vector Substances 0.000 description 35
- 230000008569 process Effects 0.000 description 15
- 238000006073 displacement reaction Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 10
- 238000012552 review Methods 0.000 description 8
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000013213 extrapolation Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 239000008367 deionised water Substances 0.000 description 4
- 229910021641 deionized water Inorganic materials 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000000717 retained effect Effects 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 239000000017 hydrogel Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 101150027068 DEGS1 gene Proteins 0.000 description 1
- 125000000205 L-threonino group Chemical group [H]OC(=O)[C@@]([H])(N([H])[*])[C@](C([H])([H])[H])([H])O[H] 0.000 description 1
- 206010034960 Photophobia Diseases 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000005338 frosted glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000013101 initial test Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001954 sterilising effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/0242—Testing optical properties by measuring geometrical properties or aberrations
- G01M11/0278—Detecting defects of the object to be tested, e.g. scratches or dust
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29D—PRODUCING PARTICULAR ARTICLES FROM PLASTICS OR FROM SUBSTANCES IN A PLASTIC STATE
- B29D11/00—Producing optical elements, e.g. lenses or prisms
- B29D11/00951—Measuring, controlling or regulating
- B29D11/0098—Inspecting lenses
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/0242—Testing optical properties by measuring geometrical properties or aberrations
- G01M11/025—Testing optical properties by measuring geometrical properties or aberrations by determining the shape of the object to be tested
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Manufacturing & Machinery (AREA)
- Eyeglasses (AREA)
- Image Analysis (AREA)
- Testing Of Optical Devices Or Fibers (AREA)
- Image Processing (AREA)
- Eye Examination Apparatus (AREA)
- Acyclic And Carbocyclic Compounds In Medicinal Compositions (AREA)
- Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
- Prostheses (AREA)
Description
- Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Inspektion von ophthalmischen Linsen und insbesondere ophthalmischen Linsen, wie zum Beispiel Hydrogel-Kontaktlinsen, deren Aufbau aus einem wesentlichen Wasseranteil besteht, obwohl das Verfahren auch zur Inspektion von anderen kleinen hochpräzisen ophthalmischen Linsen, wie zum Beispiel Augenlinsen, geeignet ist.
- Aufgrund der kritischen Beschaffenheit von ophthalmischen Linsen (die zum korrekten Sehen auf oder in dem menschlichen Auge verwendet werden) ist es in der Industrie für ophthalmische Linsen extrem wichtig und äußerst vorrangig, daß derartige Linsen überprüft werden, um sicher zu sein, daß sie die geforderten Eigenschaften aufweisen. Diese Anforderungen erstrecken sich nicht nur auf die optischen Eigenschaften der Linse, das heißt, die optische Brechkraft, sondern auch die physikalischen Eigenschaften, wie zum Beispiel Abmessung, Krümmung, Unversehrtheit der Kante und Fehlen von Blasen, Einschlüssen und anderen Fehlern.
- Bis jetzt bestand das zuverlässigste Verfahren zur Inspektion derartiger Linsen darin, daß ein menschlicher Prüfer jede Linse in einem vergrößerten Maßstab betrachtet, um zu verifizieren, daß die Linse jede der geforderten Eigenschaften erfüllt. Da die Industrie für ophthalmische Linsen gewachsen ist, hat eine derartige Inspektion der Industrie eine große Personal- und Kostenlast auferlegt und erfordert sie eine langweilige Aufgabe seitens des Prüfers. Insbesondere im Hinblick auf Kontaktlinsen, die für einen periodischen häufigen Austausch vorgesehen sind, nahm die Anzahl von Linsen, die hergestellt und somit geprüft werden müssen, dramatisch zu.
- Ein mit der Inspektion von ophthalmischen Linsen verbundenes Problem besteht darin, daß die Linse selbst optisch transparent ist und somit nicht die üblichen hellen und dunklen Merkmale aufweist, die bei der Inspektion von üblicheren Gegenständen vorliegen.
- Gegenwärtige von Menschen durchgeführte Inspektionsverfahren verwenden das auf dem Gebiet gut bekannte Schlieren-Verfahren mit Dunkelfeldbeleuchtung insbesondere zur Untersuchung von transparenten Flüssigkeitsströmungen und Inspektion von optischen Komponenten. Bei diesem Verfahren wird Licht von einer Punktquelle von einer Linse kollimiert, das dann durch das Medium (d. h. Linse) der Untersuchung tritt. Das Licht wird dann von einer zweiten Linse direkt auf eine Messerkante fokussiert. Irgendwelches von einer brechenden Ungleichmäßigkeit in der Linse (wenn auch transparent) abgelenktes Licht wird nicht an der Messerkante fokussiert. Das auf diese Weise von der Unterbrechung durch die Messerkante abgelenkte Licht wird dann von einer Objektlinse auf einen Schirm projiziert, und es tritt dann ein Lichtfleck auf dem ansonsten dunklen Projektionsschirm auf, der der Ungleichförmigkeit entspricht.
- Ein weiteres für die Inspektion von ophthalmischen Linsen eigentümliches Problem besteht darin, daß, während die Größe der Linse um einen bestimmten Betrag von einer Nennabmessung variieren kann, die Größe von akzeptierbaren Fehlern, wie zum Beispiel Kerben in der Kante oder Blasen in der Mitte, nicht akzeptierbar ist, selbst wenn sie zwei Größenordnungen geringer als die erlaubte Abweichung der Nennabmessung ist. Die normalen Verfahren zur automatischen Inspektion, bei denen einen Schablone oder Maske auf dem zu überprüfenden Bild plaziert und dann mit dem Bild verglichen wird, sind nicht für die Inspektion von ophthalmischen Linsen geeignet, da die Fehler, nach denen mittels der Inspektion gesucht wird, um einen Faktor einhundert kleiner als eine zulässige Abweichung in der Nennabmessung der Linse sein können.
- Es ist somit eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zur automatischen Hochgeschwindigkeitsinspektion von ophthalmischen Linsen mit einem Genauigkeitsgrad in der Größenordnung der Genauigkeit bei der menschlichen Inspektion unter Vergrößerung bereitzustellen.
- Es ist eine weitere Aufgabe der vorliegenden Erfindung, die oben genannte Inspektion unter Verwendung einer leicht verfügbaren Video-Ausrüstung, elektronischen Komponenten und Rechensystemen zu bewerkstelligen.
- Es ist eine weitere Aufgabe der vorliegenden Erfindung, bestimmen zu können, ob eine Linse in der Produktionsstraße fehlt.
- Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, die Bildanalyse auf den Teil der Linse zu konzentrieren, der für Produktionsfehler am anfälligsten ist.
- Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, Linsenmerkmale, die auf der Linse vor dem Lokalisieren der Linsenkante gefunden worden sind, zu analysieren und zu bestimmen, ob ein derartiges Merkmal einen Fehler darstellt, der die Linse fehlerhaft macht.
- Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, irgendwelche an der Linsenkante aufgefundene Unstetigkeiten zu überbrücken, so daß kleinere Linsenfehler und Bildverarbeitungsausfälle den Inspektionsvorgang für eine spezielle Linse nicht nutzlos machen, was zu der Zurückweisung der guten Linse führt.
- Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, Merkmalsabweichungen entsprechend Kategorien zu kategorisieren, um die in den Linsen aufgefundenen Fehler zu katalogisieren und dadurch Informationen über den Herstellvorgang zu liefern.
- In EP-A-0491663 wird ein Verfahren (und entsprechende Vorrichtung) zur optischen Untersuchung von Kontaktlinsen offenbart, das die Schritte des Beleuchtens einer Linse, Erstellen eines Bildes der Linse auf einem Satz von Bildelementen, Umwandeln des Bildes in Binärinformation, Zählen der Anzahl von beleuchteten Bildelementen und Vergleichen der Anzahl von Bildelementen mit einer vorab bestimmten Anzahl von Bildelementen zur Bestimmung des Ausmaßes von Fehlern in der Linse umfaßt.
- Gemäß der vorliegenden Erfindung wird ein Verfahren und eine Vorrichtung zur Inspektion von ophthalmischen Linsen gemäß den nachfolgenden Ansprüchen 1 und 22 bereitgestellt.
- Diese und weitere Aufgaben werden erzielt, indem eine elektronische Kamera ein Bild einer ophthalmischen Linse, die von einer Lichtquelle beleuchtet worden ist, erfaßt. Das Bild fällt auf den Empfängerteil einer Kamera; dieser Empfänger besteht aus mehreren Bildelementen. Der Ort und die darauf einfallende Lichtintensität jedes Bildelementes wird in eine elektrische Größe umgewandelt, die dann übertragen und in einem Speicher gespeichert wird. Ein Computer ist mit dem Speicher betriebsfähig verbunden und kann sowohl die darin gespeicherten Orts- als auch Intensitätswerte wiederauffinden. Der Computer enthält Anweisungen zum Vergleich der Intensitäts- und Ortswerte der Bildelemente.
- In einer bevorzugten Ausführungsform umfaßt dieser Vergleich den Beginn an einem Bildelement in der Nähe der Mitte des Empfängerfeldes und Fortsetzen in Richtung zu der Kante des Bildelementfeldes, bis eine Intensitätsabweichung auftritt. Durch Auswerten der das mittlere Bildelement mit der Intensitätsvariation umgebenden Bildelemente, Auffinden der dichtesten Übereinstimmung mit dem Bildelement, dann Wiederholen der Prozedur, werden die Merkmale im groben erhalten. Wenn die Charakteristiken des Merkmals nicht mit einer Linsenkante übereinstimmen, wird das Merkmal zur Bestimmung ausgewertet, ob die Linse zurückgewiesen werden sollte. Wenn das Merkmal nicht der Linsenkante entspricht, werden die Charakteristiken der Kante zur Bestimmung ausgewertet, ob die Kante und dadurch die Linse akzeptabel ist.
- In einer bevorzugten Ausführungsform wird dies durch Absuchen um den Kantenort bewerkstelligt, bis näherungsweise 30 Datenpunkte in 12º-Intervallen aufgefunden worden sind. Es werden dann drei gekoppelte Gleichungen für zehn Gruppen mit 3 Punkten gelöst, um den durchschnittlichen Mittelpunkt der Linse und den durchschnittlichen Radius zu vermitteln. Damit wird unter Verwendung der Mittelpunkt- und Radiusdaten ein Kreisring erzeugt. Die Grenzen dieses Kreisringes umschließen die tatsächliche Linsenkante. Mit diesem Kreisring werden alle Bildelemente von einem absoluten Intensitätswert in einen Gradientenwert umgewandelt, wodurch die Linsenkante durch zwei Übergangskanten, eine von der Innen- und eine von der Außenseite der Kontaktlinsenkante, wiedergegeben werden kann. Diese zwei Kanten werden dann dünner gemacht, so daß nur die Maximalintensitätsbildelemente entlang der Kante übrigbleiben. Die Linsenkanten werden dann von einem XY-System in ein polares System umgewandelt, wodurch Werte für den Radius, Winkel und Intensitätsgradienten erhalten werden. Die Merkmalsextraktion wird dann auf diesen zwei Datenmatrizen durchgeführt. Diese Merkmalsextraktion umfaßt eine Suche nach der radialen Abweichung, Ortsgradientenabweichung, räumlichen Abweichung, DIP-Ortsgradientenabweichung, Einende-Ortsgradientenabweichung und Unstetigkeit. Nach Vornahme dieser Bildelementwertbestimmungen wird jedes fehlerhafte Bildelement als Mitglied einer Fehlergruppe angesehen. Nach separatem Gruppieren sowohl der inneren als auch der äußeren Umrisse der Linsenkante fallen diejenigen Gruppen, die sich auf beiden Seiten der Linsenkante in einem Gebiet der Linse überlappen, in Kombinationsfehlergruppen. Wenn die Gruppen bestimmt worden sind, erhält jede Gruppe auf der Grundlage der Anzahl, Art und Schwere der der Gruppe zugeordneten fehlerhaften Bildelemente Punkte. Damit kann der gesamten Linse eine gewichtete Punktzahl gegeben werden, und basierend auf dieser Punktzahl gelangt die Linse entweder durch die Inspektion oder fällt sie hindurch.
- Fig. 1 ist ein Blockdiagramm, das die zu der vorliegenden Erfindung gehörigen physikalischen Komponenten, die Art, in der sie miteinander verbunden sind, sowie die Lichtquelle und die zu prüfende Linse zeigt.
- Fig. 2 ist ein Flußdiagramm, das die von der Vorrichtung der vorliegenden Erfindung zur Abbildung der Linse und Verarbeitung des Bildes zur Bestimmung der Akzeptierbarkeit der Linse durchgeführten Schritte zeigt.
- Fig. 3 ist ein Diagramm, das die von dem Algorithmus gemäß der vorliegenden Erfindung zum Lokalisieren der Linse auf einem Bild verwendete Technik zeigt.
- Fig. 4 ist eine Darstellung der Weise, in der Datenpunkte um einen Linsenkante in Dreiersätzen gesammelt werden.
- Fig. 5 ist ein Beispiel des Verfahrens, durch das Mittelpunkt und Radius zur Bewertung der Linsenkante anhand der vorangehend erzielten Datenpunkte bestimmt werden.
- Fig. 6 ist eine Darstellung eines Bearbeitungskreisringes, der um die vorher abgeleitete theoretische Kontaktlinsenkante erzeugt ist.
- Fig. 7 ist eine Darstellung der Ergebnisse des Kantenverstärkungsoperators, der zwei Übergänge zu der Linsenkante liefert, die eine Innenkante und eine Außenkante liefern.
- Fig. 8 ist eine Darstellung der verschiedenen Bereiche, in die die Linse unterteilt ist, um Kantenoperatoren mit unterschiedlichen Richtungen zu benutzen.
- Fig. 9 ist ein Diagramm, das die von den in dem Algorithmus der vorliegenden Erfindung verwendeten Gleichungen zur Bezeichnung von unterschiedlichen Bildelementorten verwendete Notation zeigt.
- Fig. 10 ist ein Diagramm, das die für die Winkelnotation in einem Linsenbild verwendete Konvention zeigt.
- Fig. 11 ist eine Darstellung von unterschiedlichen Ergebnissen, die aus der Anwendung von Suchvektoren zum Lokalisieren der Linse innerhalb des Bearbeitungskreisringes resultieren.
- Fig. 12 zeigt in Fig. 12a die rechtwinkligen Koordinaten und in Fig. 12b Polarkoordinaten, eine Unstetigkeit in einem verstärkten Linsenbild und die Bildelementverarbeitung, die zum Detektieren einer Unstetigkeit durchgeführt wird.
- Fig. 13 zeigt in rechtwinkligen Koordinaten in Fig. 13a und in Polarkoordinaten in Fig. 13b eine Darstellung der Überbrückung eines fragmentierten Bereichs einer Linse. Das anfängliche Überbrücken verwendet eine Extrapolationstechnik, während das letzte Überbrücken eine Sprungtechnik verwendet.
- Fig. 14 ist eine Darstellung der Bewertung der radialen Abweichung der Linsenkante, die unter Verwendung der Bildelementverarbeitung durchgeführt wird, wobei Fig. 14a in rechtwinkligen Koordinaten und 14b in Polarkoordinaten vorliegt.
- Fig. 15 zeigt die Beziehung des interessierenden Bildelements und seines Nachbarn für einen Gradienten.
- Fig. 16 zeigt in rechtwinkligen Koordinaten in Fig. 16a und Polarkoordinaten in Fig. 16b die aus der Bildelementverarbeitung abgeleitete Gradientenextraktion.
- Fig. 17 zeigt in 17a im rechtwinkligen System und in 17b in Polarkoordinaten das Verfahren, mit dem die Merkmale der räumlichen Ableitung anhand der Linsenkanten extrahiert werden.
- Die Implementierung der vorliegenden Erfindung gilt nicht speziell für irgendein besonderes Hardwaresystem und kann durch eine Anzahl von Software-Schemata vorgenommen werden. Das folgende ist jedoch ein spezielles Beispiel für die beste Ausführungsform.
- Unter Bezugnahme auf Fig. 1a besteht das System der vorliegenden Erfindung aus einem Aufbau (nicht gezeigt), der eine Kontaktlinsenverpackung 10, die eine Kontaktlinse 12 enthält, in entionisiertem Wasser enthalt, über einer Lichtquelle 14 und unter einer Kamera 16 hält.
- Eine ausführlichere Beschreibung der bevorzugten Ausführungsform der Linsenverpackung ist in der gleichzeitig anhängigen EP-A-0 604 177 enthalten, die gleichzeitig mit dieser Anmeldung eingereicht worden ist.
- Die Kamera 16 ist eine hochauflösende Festkörperkamera, wie die von Kodak, Rochester (New York) hergestellte Videk MegaPlus-Kamera.
- Diese Kamera umfaßt eine Linse 18, und in dieser Ausführungsform ist die Linse auf ein 14,5 Millimeter-Sehfeld eingestellt. Die Kamera war mit einer Nikkor 55 Millimeter-Standardlinse ausgestattet. Die Linse wurde auf f/2,8 eingestellt, dann an einem Andover-Bandpassfilter mit dem Wellenlängenschwerpunkt bei 550 nm und einer Vollwellenhalbwertsbreite (FWHH) von 10 nm an der Seite der Kameralinse angebracht. Ein derartiges Filter hält chromatische Aberrationen fern, um dadurch die gesamte räumliche Auflösung zu verbessern, und hält eine Tagesempfindlichkeit für die Linseninspektion aufrecht, die der Augenempfindlichkeit eines menschlichen Prüfers ähnelt. Dieses Filter 22 entfernt auch Infrarotlicht an dem CCD-Detektor, das die Gesamtsystemmodulationsübertragungsfunktion (MTF) vermindern würde.
- Unter der Verpackung, die die Linse in entionisiertem Wasser enthält, befindet sich ein optischer Diffusor 13 aus überfangenem Milchglas und darunter befindet sich eine Lichtquelle, wie zum Beispiel ein Stroboskoplicht 14. Die Stroboskoplampe kann einen 10 Mikrosekunden-Lichtimpuls mit 5 Joule abgeben, der von dem Bildverarbeitungssystem gezündet wird. Typischerweise benötigt das Stroboskop zum Wiederaufladen zwischen zwei Pulsen eine Erholungszeit von 450 Millisekunden.
- Eine ausführlichere Beschreibung der bevorzugten Ausführungsform des Beleuchtungssystems ist in der dazu anhängigen Europäischen Patentanmeldung EP-A-0604 178 gegeben, die gleichzeitig mit der vorliegenden Anmeldung eingereicht worden ist.
- Die Kamera 16 wird von einem präzisen Spindelantrieb fokussiert, der die Kamera an dem Rahmen, an dem sie befestigt ist, hinauf- und hinunterbewegt. Wenn die Kamera fokussiert ist, bleibt sie während der Durchführung des Inspektionsvorgangs stationär.
- Die Kamera umfaßt weiterhin einen CCD(charged coupled device)- Sensor, der als ein Lichtempfänger dient. Dieser CCD-Empfänger besteht aus einer Matrix von Bildelementen in einer rechteckigen Anordnung, 1.320 · 1.035.
- Der CCD-Sensor-Empfänger der Kamera wandelt die Lichtintensität in ein elektrisches Signal um. Dieses analoge elektrische Signal wird dann von einem Schaltkreis 24 mittels eines 8 Bit-Analog/Digital(A/D)-Wandlers von einem analogen in ein digitales Videoausgangssignal mit 256 Graustufen umgewandelt.
- Die Kamera wird unter Verwendung eines von der Linse und der sich an den richtigen Ort bewegenden Verpackung erzeugten Signals asynchron betrieben, um sowohl die Zündung des Stroboskops als auch die nachfolgende Übertragung des Bildes anzusteuern.
- Eine ausführlichere Beschreibung der bevorzugten Ausführungsform des Linsentransportsystems und -palettensystems mit Beleuchtungsansteuerung wird in den dazu anhängigen Europäischen Patentanmeldungen EP-A-0604 180 und EP-A-0604175 gegeben, die gleichzeitig mit der vorliegenden Anmeldung eingereicht worden sind.
- Das Bild wird über Schaltkreise in der Kamera 24 zu dem Eingabemodul 26 des Bildverarbeitungssystems übertragen. Das Bildverarbeitungssystem besteht aus drei Teilen, dem Eingabemodul 26, dem CPU-Modul 28 und dem Abbildungs-Motherboard 30.
- Das digitale Signal in dem Eingabemodul 26 wird zur Sicherstellung, daß jede Zeile ein entsprechendes Videosynchronisiersignal aufweist, verarbeitet. Das korrigierte digitale Signal wird dann einem Video-Multiplexer 34 zugeführt, der das digitalisierte Signal zu dem CPU-Modul 28 überträgt.
- Dieser Datensatz, der ein Videobild (oder bei der speziell beschriebenen Kamera 1.048.576 Bildpunkte) darstellt, ist über Videobusse 36 zugängig, die eine Übergabe an eine andere Verarbeitungs-Hardware erlauben. Das Bild wird auch unter Verwendung eines Video-Bildwiederholspeicher-D/A- Wandlers (RAMDAC) 38 dargestellt, das danach von einem Wandler 40 in eine Pseudofarbausgabe umgewandelt und über einen RGB-Ausgang 42 zu einem Video bildschirm 44 übertragen werden kann, wo ein Bild dargestellt werden kann. Der RGB-Pseudovideofarbausgang wird von drei Referenztabellen (100k-up tables (LUTs)) bereitgestellt.
- Die Eingabe in das CPU-Modul 28 wird in dem dritten Beispiel als erstes zu einem Bildspeicher 46 mit näherungsweise einem Megabyte übertragen. Die in dem Bildspeicher 46 gespeicherten Daten werden von einer Bildabfolgesteuerung der Reihe nach zu Verarbeitungseinheiten 48 übertragen.
- Die Verarbeitung der Daten wird von einer Motorola 68040-CPU durchgeführt.
- Der erforderliche Bildverarbeitungscode wird in einem löschbaren, programmierbaren Festwertspeicher EPROM 52 gespeichert. Die Ergebnisse des verarbeiteten Bildes werden dann für eine geeignete Ausgabesteuerung dem Abbildungs-Motherboard 30 bereitgestellt. Die Ausgabe kann entweder über digitale parallele 16 Bit-Eingänge/Ausgänge 60 oder über serielle RS 232- oder RS 422-Anschlüsse 62 erfolgen.
- Die von dem Prozessor vorgenommene Annahme/Rückweisungs-Entscheidung wird dem Übertragungsmechanismus 66 mitgeteilt, der dann anordnet, daß die Linse 12 entweder durch Verpacken und Sterilisieren weiterbearbeitet oder als durchgefallene Linse zerstört wird.
- Unter Bezugnahme auf Fig. 2 wird der durch die in Fig. 1 gezeigte Vorrichtung implementierte Prüfungsvorgang in Blockdiagrammform und der von dem CPU-Modul 28 durchgeführte Prüfungsalgorithmus ausführlicher gezeigt.
- In dem ersten Schritt wird von der Kamera ein Rohbild erfaßt und dem Bildverarbeitungssystem zugeführt. Das Bild, das in einen Strom von digitalen Daten umgewandelt ist, enthält einen Algorithmus zur Korrektur von bekannten fehlerhaften Bildelementen in der Kamera.
- Der Preis einer hochauflösenden Kamera hängt von der Anzahl von in dem CCD-Sensor-Empfänger 20 zulässigen fehlerhaften Bildelementen ab. Diese umfassen in erster Linie Bildelemente, deren Lichtempfindlichkeit um 10% oder mehr von ihren Nachbarbildelementen abweicht, und Pakete derartiger Elemente in Gruppen von 5 oder weniger.
- Da die Anzahl von fehlerhaften Bildelementen sogar bei der preiswertesten Klasse von Kameras begrenzt ist und die Anzahl von zusammengepackten derartigen Bildelementen begrenzt ist, kann auch eine kostengünstige Kamera für die Linsenprüfung verwendet werden.
- Der in der Videk MegaPlus-Kamera verwendete CCD-Sensor enthält eine Anzahl von spaltenartigen Fehlern. Diese Fehler sind üblicherweise auf eine einzige Spalte beschränkt und können sich über mehrere Bildelemente bis zu 50 oder mehr Bildelemente erstrecken. Diese fehlerhaften Gebiete führen dazu, daß die Bildelementgraustufen unabhängig von der abgebildeten Szene höher oder niedriger als die Nachbarbildelemente sind. Wenn diese Fehler an oder nahe bei der Linsenkante auftreten, können sie fälschlicherweise dazu führen, daß die Software sie als Fehler oder Unstetigkeiten in der Linse interpretiert.
- Fehlerhafte Gebiete werden durch manuelles Absuchen eines Bildes eines gleichförmiges Testobjektes nach Gebieten bestimmt, in denen die Graustufenwerte unerwartet abweichen. Da die Fehler auf eine einzige Spalte beschränkt sind, führt eine Interpolation zwischen benachbarten Spalten zu einer adäquaten Korrektur. Die Interpolation von spaltenartigen Fehlern stellt sich als der Mittelwert der Graustufenwerte der Spalten auf jeder Seite des Fehlers heraus. Der Sensor der verwendeten Kamera kann auch paketartige Fehler enthalten, die die Form kreisrunder Kleckse annehmen. Dieser Fehlerart kann entweder durch Bringen derselben in ein Gebiet, das nicht die Bildverarbeitung stören würde, oder unter Verwendung der oben genannten selben Interpolationstechnik begegnet werden.
- Nachdem die oben beschriebene Korrektur für bekannte fehlerhafte Kamerabildelemente durchgeführt worden ist, wird die Linse durch Identifizieren der Linsenkante in dem Bildfeld angeordnet. Nach Durchführung eines Versuches zum Lokalisieren der Linsenkante wird eine Entscheidung getroffen, ob die Linse sich tatsächlich in dem Behälter befindet oder ob der Behälter keine Linse aufweist. Wenn der Behälter keine Linse aufweist, wird eine durchgefallene Linse angenommen, so daß eine leere Verpackung nicht verarbeitet und nicht zu dem Verbraucher geschickt wird.
- Nachdem nachgewiesen worden ist, daß eine Linsenkante vorhanden ist, werden Daten im Hinblick auf den Ort von Punkten um die Linsenkante gesammelt. Diese Daten werden zur Erstellung einer Anzahl von Kantentripletts verwendet, die einen Kreis und einen Kreismittelpunkt definieren. Die Mitte mit der größten Entfernung von der durchschnittlichen Mitte wird zur Eliminierung von unfundierten Daten verworfen.
- Außer den Kantentripletts, die zum Definieren des Ortes der Kante und des Linsenmittelpunktes verwendet werden, ist zu diesem Zeitpunkt keine spezielle Kanteninformation erzielt worden.
- Um die Kanten tatsächlich zu überprüfen, werden die berechneten Mittelpunkte zum Erzeugen eines Verarbeitungskreisringes verwendet, der die darin befindliche tatsächliche Kontaktlinse enthält. Dies ermöglicht es, daß die weitere ausführliche Datenverarbeitung auf nur den die interessierende Kante enthaltenden Kreisring konzentriert wird.
- Um die Linsenkante vom Hintergrund zu unterscheiden, wird auf die Bildelemente in dem Verarbeitungskreisring ein Kantenverstärkungsoperator angewandt. Diese Kantenverstärkung liefert zwei Linsenübergangskanten. Eine erstreckt sich von der Innenseite der Linse zu der Kante und die zweite von der Außenseite der Linse in die Kante.
- Obwohl zu diesem Zeitpunkt nur Kanteninformationen zurückbleiben, sind die zwei Kanten (die tatsächlich Kantenübergänge sind) weiterhin etwas verschwommen, wobei ein Intensitätsgradient in die Kante hinein- und von dort herausgeht. Um diese Übergangskanten genauer zu definieren, wird an den in dem Verarbeitungskreisring enthaltenen Kantendaten eine modifizierte Skelettier (modified skeletonization)-Operation durchgeführt. Von dem Skelettieroperator werden Graustufeninformationen erhalten, da er für eine Merkmalsextraktion nützliche Informationen enthält.
- Der nächste in dem Algorithmus vorgenommene Schritt besteht in der Anwendung eines Schwellenwertoperators, der Graustufeninformationen eliminiert, die über die bei der Merkmalsextraktion nützlichen hinausgehen.
- Der nächste von dem Algorithmus durchgeführte Schritt besteht in dem Absuchen der inneren und äußeren Kanten, um Linsenkantenmerkmale zu extrahieren. Dieses Absuchen wird in einer zu der anfänglichen Lokalisierung der Linsenkante ähnlichen Weise begonnen; sie unterscheidet sich jedoch darin, daß zum Lokalisieren der Linsenkante bei der Suche von der inneren Grenze des Verarbeitungskreisringes nach außen Graustufenkriterien verwendet werden. Wenn auf ein Bildelement, das die Graustufenschwellenwertkriterien erfüllt, getroffen wird, werden eine Reihe von Nebenbildelementen abgesucht, um zu bestimmen, ob es sich um die Linsenkante handelt. Wenn dies so ist, wird die Linsenkante um die gesamte Kante verfolgt und werden die Orte und die entsprechenden Bildelementintensitätsgradienten gespeichert.
- Die rechtwinklige Koordinateninformation wird dann in Radial- und Winkelverschiebungswerte in dem polaren System umgewandelt und mit dem zugehörigen Intensitätsgradientenwert verbunden. Um die Daten richtig zu verarbeiten und nicht fälschlicherweise gute Linsen zurückzuweisen, werden Unstetigkeiten unter einer bestimmten Anzahl von Bildelementen nicht überbrückt.
- Mit der nun in Polarkoordinaten verfügbaren Information werden vier Arten von Merkmalsextraktionen durchgeführt. Die erste besteht in der Bestimmung von radialen Abweichungen (Radial Deviations (RD)) von idealen inneren und äußeren Linsenkanten. Die nächste ist die Ortsgradientenabweichung (Localized Gradient Deviations (LGD)), die den Gradienten des Intensitäts wertes in jedem Bildelement in Bezug auf seine Nachbarn berücksichtigt. Dann wird die Merkmalsextraktion bezüglich der räumlichen Ableitung (Spatial Derivative(SD)) durchgeführt. Die räumliche Ableitung mißt die Änderung des Radius gegenüber der Änderung der Winkelverschiebung. Im Gegensatz zu der Extraktion der radialen Abweichung achtet die Extraktion der räumlichen Ableitung hauptsächlich auf scharfe oder plötzliche Änderungen in dem Kantenradius gegenüber der Änderung in der Winkelverschiebung.
- Es werden drei abschließende Merkmalsextraktionen durchgeführt. Der Unstetigkeitsfehler ist das Ergebnis einer Unstetigkeit, die in entweder der inneren oder der äußeren Linsenkante so groß ist, daß sie von dem Algorithmus, der diese Unstetigkeiten überbrückt, als nicht korrigierbar erachtet wird.
- Ähnlich wie das Merkmal der Ortsgradientenabweichung achtet die DIP-Ortsgradientenabweichung (Dip Localized Gradient Deviation (DLGD)) auf den Betrag der Abweichung in dem Gradientenwert des interessierenden Bildelements von dem Mittelwert seiner lokalen Nachbarn. Der Unterschied besteht darin, daß mehr Nachbarn verwendet werden und es einen größeren Spalt von nicht benutzten Bildelementen um das interessierende Bildelement gibt. Die DLGD ist dafür vorgesehen, daß sie nur für Gradientenabweichungen empfindlich ist, die geringer als deren Nachbarn sind, daher der Name "Dip".
- Das DLGD-Merkmal identifiziert speziell kleine Kantenschnipsel, die durch andere Merkmale nicht identifizierbar sind. Der Betrag der Abweichung eines basierend auf DLGD als fehlerhaft klassifizierten Bildelements wird als ein Zeichen der Schwere gespeichert.
- Die Einende-Ortsgradientenabweichung (One Tail Localized Gradient Deviation (ALGD)) verwendet Nachbarbildelemente zur Berechnung von Abweichungen von einer Seite des interessierenden Bildelementes. Zum Bestimmen des Nachbarschaftsmittelwertes werden 20 Bildelemente vor dem interessierenden Bildelement verwendet, wobei die vier unmittelbar vor dem interessierenden Bildelement befindlichen Bildelemente ausgenommen sind. ALGD achtet sowohl auf negative als auch auf positive Gradientenabweichungen.
- Während die oben beschriebenen Merkmalsextraktionsschritte stattfinden, werden jedem der identifizierten Merkmale Punktzahlen zugeordnet, die proportional zur Stärke des Fehlers abgeleitet werden. Zusätzlich werden durch Achten auf abweichende Bildelemente auf sowohl der inneren als auch der äußeren Kante Fehler in Gruppen angeordnet, um zu bestimmen, ob sie Teil eines größeren Fehlers sind, der einer Fehlergruppe zuzuordnen ist. Diese Gruppen werden dann bewertet, um zu sehen, ob sie miteinander kombiniert werden soll ten, um größere Gruppen zu bilden, und ob Innen- und Außenfehlergruppen in Kombination als ein einziger Fehler betrachtet werden sollten.
- Schließlich erhält jeder Fehler oder jede Fehlergruppe eine Punktzahl, die von der Schwere abhängt, und jede Fehlerart wird entsprechend dem Einfluß, den er auf die Qualität der Linse hat, gewichtet.
- Diese numerischen Ergebnisse aller Fehler werden dann zum Bereitstellen einer einzigen Zahl addiert, die dann bestimmt, ob die Linse akzeptabel ist oder verworfen werden muß.
- Zusätzlich kann die von dem Gewichtungs- und Punkteverteilungsvorgang abgeleitete quantitative Information aufgelistet oder angezeigt werden, um eine statistische Qualitätsanalyse der hergestellten Linsen zu liefern und dadurch diejenigen, die das Herstellverfahren steuern, anzuleiten, irgendwelche abweichenden Prozeßparameter zu identifizieren sowie den Einfluß von Änderungen auf das Herstellverfahren abzuschätzen.
- Die in dem oben beschriebenen Algorithmus durchgeführten Schritte werden nun ausführlicher beschrieben.
- Unter Bezugnahme auf Fig. 3 ist dort das Empfängerfeld 70 gezeigt, das aus einer Anzahl von Bildelementen (nicht gezeigt) besteht. In dem Feld befindet sich das Bild einer Kontaktlinse 72. Bei diesem speziellen Bild besteht die Linse aus einer Kante 74 und Fehlern oder Rauschen 76. In diesem speziellen Linsenbild befindet sich auch ein Spalt in der Kante 78.
- Die Linsenkante wird mit einem Suchvektor 80 durch Starten von der Mitte des Feldes unter einem 45º-Winkel lokalisiert. Der Suchvektor bewegt sich von der Mitte des Feldes von Bildelement zu Bildelement radial zu einem erwarteten Zusammentreffen mit der Linsenkante weg. Der Algorithmus testet jedes Bildelement entlang des Suchvektors, bis das Kantenkriterium erfüllt ist; jedes Bildelement wird mit einer Graustufe und einem vorab bestimmten kalibrierten Kriterium verglichen. Wenn das gegenwärtige Bildelement in dem Vektor einen Grauwert aufweist, der geringer als der von dem "trk thres"- Parameter spezifizierte Wert ist, dann wird angenommen, daß auf ein Bildelement auf der Linsenkante gestoßen wurde.
- Zur Verifizierung, daß das angetroffene Objekt die Linsenkante ist, verfolgt der Vektor dann den Umriß des aufgefundenen Objekts. Im Falle der Suchvektoren 80 und 82 erkennt der Algorithmus, daß die angetroffenen Objekte nicht Teil der Linsenkante sind, da die Krümmung des Weges nicht mit der erwarteten Krümmung oder dem Kreisumfang einer Linsenkante übereinstimmt. Diese Überprüfungstechnik funktioniert sehr einfach durch Bestimmen, ob die Umrißabsuche über das Startbildelement innerhalb einer spezifizierten Anzahl von Bildelementen zurückläuft, und es wird festgestellt, daß es klein genug ist, um Rauschen oder ein Linsenfehler zu sein. Wenn auf ein Rauschobjekt gestoßen wird, dann wird ein weiterer Suchvektor in einer Drehrichtung im Uhrzeigersinn um näherungsweise 11º erzeugt und wird eine ansonsten mit dem ursprünglichen Vektor identische Suche durchgeführt.
- Es ist ein weiterer Suchvektor 84 gezeigt, der einen Weg zurückgelegt hat, der zu einem Spalt in der Linsenkante 78 führt. Der Suchvektor setzt damit fort, bis er eine Grenze des Empfängerfeldes 70 erreicht, wo die Suche beendet wird und ein weiterer Suchvektor 86 näherungsweise 11º im Uhrzeigersinn von dem vorangehenden Suchvektor 84 beginnt. In jedem Fall wird die Suche Pixel zu Pixel entweder horizontal, vertikal oder diagonal treppenstufenartig zu Nebenbildelementen durchgeführt. Für jede der zwei vorangehenden Arten von angetroffenen Linsenfehlern, entweder Fehler in dem Körper der Linse 76 oder ein Spalt in der Linsenkante 78 können geeignete Kriterien angewandt werden und kann die Linse zurückgewiesen werden.
- Im Falle des Vektors 86 ist die Suche erfolgreich und wird die Linsenkante 74 gefunden. Eine Verifikation, daß das gefundene Merkmal tatsächlich die Linsenkante ist, ist unter Bezugnahme auf Fig. 4 gezeigt.
- Ausgehend von dem in dem vorangehenden Schritt gefundenen guten Datenpunkt folgt die Software dem Umriß der Linse unter Verwendung einer 4- Verknüpfung-Absuche (4-connectivity tracking) über 90 Bildelemente. In Abhängigkeit von dem tatsächlichen Radius in der Linse r wird die verwendete Absuchstrecke sich von Bild zu Bild unterscheiden basierend auf der Formel:
- Absuchstrecke = T = (1024/F) · (2 "π" r/30),
- wobei
- F = 14,5 mm (Sehfeld) ist.
- Somit beträgt T üblicherweise 90 Bildelemente für eine 12,2 mm- Linse in entionisiertem Wasser. Wenn die Strecke T um die Linsenkante erfolgreich abgeschritten worden ist, wird ein Datenpunkt aufgezeichnet.
- Somit wird der Ort der Linsenkante verifiziert. Nachdem insgesamt 30 weitere Datenpunkte in 12º-Intervallen aufgefunden worden sind, werden drei gekoppelte Gleichungen für 10 Gruppen mit drei Punkten gelöst, um die definierten Werte des mittleren Mittelpunktes der Linse und des Radius zu bestimmen.
- In Fig. 4 geben die quadratischen, dreieckigen und kreisförmigen Symbole Punkte wieder, an denen Daten erfaßt worden sind. Symbole mit denselben internen Mustern sind in demselben Datensatz erfaßt worden.
- Die zehn Datensätze werden dann zum Berechnen der Gleichungen für 10 verschiedene Kreise, wobei jeder Kreis ein Modell der Linsenkante darstellt, verwendet. Es wird ein mittlerer Zeilenbildelement- und Spaltenbildelementkreismittelpunkt berechnet. Als nächstes wird die Entfernung von jedem der zehn Kreismittelpunkte zu dem mittleren Mittelpunkt bestimmt. Es wird dann jeder Mittelpunkt mit einer vorab bestimmten Abweichung von dem Mittelpunkt, der als der statistisch häufigste Wert der Verteilung der Mittelpunkte bestimmt worden ist, eliminiert. Diese Eliminierung wird zum Entfernen von zufälligen Linsenkanten, die von an Fehlerstellen erfaßten Daten resultiert haben können, die von der normalen Linsenkante abweichen, durchgeführt. Dies wird in Fig. 5 gezeigt, wo ein Mittelpunkt 88 gezeigt ist, der von dem verbleibenden Paket aus neun weiteren Mittelpunkten aufgrund der Linsenkantenaberration 87 abweicht und somit eliminiert wird.
- Es werden dann Standardabweichungen für die verbleibenden Zeilen- und Spaltenmittelpunkte berechnet und mit einem speziellen Schwellenwert verglichen. Wenn sowohl die Zeilen- als auch Spaltenstandardabweichungen das Schwellenwertkriterium erfüllen, dann ist die Linse gefunden worden. Der in dem Endmodell verwendete Radius ist der Mittelwert der verbleibenden Kreisradien. Wenn eine Standardabweichung herausfällt, dann wird ein neuer Suchfaktor erzeugt. Der Startwinkel dieses neuen Vektors wird von dem vorangehenden Vektor in der Weise gedreht, daß die Daten nicht an denselben Punkten entlang der Linsenkante erfaßt werden. Dieser verschachtelte iterative Vorgang des Lokalisierens einer Linse und Sammelns von Datenpunkten wird für maximal zwei Kreise fortgesetzt. Wenn eine Linse nicht innerhalb dieser Zeit erfolgreich aufgefunden wird, wird davon ausgegangen, daß die Linse fehlt, und wird sie automatisch zurückgewiesen.
- Unter Bezugnahme auf Fig. 6 wird ein Verarbeitungskreisring 90 erzeugt und über die Kontaktlinsenkante 72 gelegt. Da dieser Kreisring unter Verwendung der Werte für den vorher hergeleiteten Mittelpunkt und Radius und unter Verwendung eines internen Parameters für die Breite des Verarbeitungskreisringes erzeugt wird, schließen die Grenzen des Verarbeitungskreisringes mit Sicherheit die Linsenkante ein. Die gesamte weitere Verarbeitung des Bildes wird nur innerhalb dieses Kreisringes durchgeführt, um die Geschwindigkeit zu erhöhen und die Verarbeitungszeit durch Begrenzen der Anzahl von zu bewertenden Bildelementen zu verringern. Die Anforderungen bezüglich der Größe des Kreisringes (und in der Tat die Notwendigkeit, einen beschränkten Verarbeitungskreisring überhaupt zu verwenden) hängt von der verfügbaren Computer-Datenhandhabung und -Verarbeitung und den damit verbundenen Kosten ab. Der Mittelpunkt des Kreisringes ist der in dem vorangehenden Schritt des Algorith mus modellierte Kreis. Die Breite des Kreisringes in Bildelementen wird von dem Parameter "anls width" bestimmt.
- Bezugnehmend auf Fig. 7 wird dort der nächste Schritt des Algorithmus dargestellt, wobei der Verarbeitungskreisring der vorangehenden Figur nicht gezeigt ist. Wiederum ist auf dem Sensor-Empfängerfeld 70 der durchschnittliche Mittelpunkt 92 gezeigt. Es wird ein Kantenverstärkungsoperator auf das Rohlinsenbild angewandt, da die Graustufeninformation alleine nicht empfindlich genug ist, um eine Unterscheidung zwischen normalen und fehlerhaften Gebieten einer Linsenkante zu ermöglichen. Somit wird diese Operation zum Herausbringen von entlang der Innen- und Außenseiten des Linsenkantenbildes enthaltener Unterscheidungsinformation verwendet. Der verwendete Operator ist ein modifizierter 3 · 3-Operator, der unterschiedliche Zonen um die Linsenkante benutzt. Die Kontaktlinsenkante 72 in der vorangehenden Figur ist durch Anwendung des Kantenverstärkungsoperators eliminiert worden. Der Kantenverstärkungsoperator verarbeitet das Rohlinsenkantenbild, das 2 bis 4 Bildelemente breit ist, in eine separate innere 94 und äußere Kante 96, wie es in Fig. 6 nach Anwendung des Kantenverstärkungsoperators auf ein Rohlinsenbild gezeigt ist.
- Zur Anwendung des Kantenverstärkungsoperators muß die Linse in unterschiedliche Zonen aufgeteilt werden.
- Der genaue Anfang und das genaue Ende der Zonen hängt von der Größe der Linse in dem Bild und dem Ort der Linse in dem Bild ab. Fig. 8 zeigt die Beziehung zwischen den in einer Linse verwendeten fünf Zonen. Die Zonen wurden zum Trennen der meistens horizontalen, vertikalen und diagonalen Gebiete um die Linse erstellt.
- Jede Zone in Fig. 8 verwendet einen Kantenoperator einer unterschiedlichen Richtung. Für die Zonen 1, 3 und 5 wird ein diagonaler Operator verwendet. Für die Zonen 2 und 4 wird ein horizontaler/vertikaler Operator verwendet. Es werden Operatoren unterschiedlicher Richtungen zum Kompensieren der Krümmung der Linse und zum Ausgleichen des Gradientenbetrages um die Linse verwendet. Das heißt, ein diagonaler Operator in einem hauptsächlich vertikalen Bereich der Linse ist grob gleich einem horizontalen/vertikalen Operator auf einem hauptsächlich diagonalen Bereich der Linse.
- Der Kantenoperator wird in Bezug auf die gerade verarbeitete Kante diagonal gemacht, um eine unerwünschte Zitterbewegung zu unterdrücken. Die Dicke einer normalen Rohlinsenkante schwankt etwas in lokalisierten Gebieten. Ein parallel und senkrecht zu der Richtung des Rohlinsenkantenbildes arbeitender Kantenoperator würde somit dazu neigen, Schwankungen aufzugreifen und fälschlicherweise kleine Abweichungen in der Kante aufrechtzuerhalten. Die Merkmalsextraktions-Software würde dann diese kleinen Abweichungen als Kantenfehler betrachten.
- In Fig. 9 ist die bei der Implementierung der Kantenverstärkungsoperatoren verwendete Bildelementnotation gezeigt. Wie es von einem Fachmann auf dem Gebiet erkannt werden kann, ist diese Notation die bei der Benennung der Elemente in einer Matrix oder einer Anordnung verwendete Standardnotation.
- Die folgenden Gleichungen 1-6 zeigen den für die zwei Kantenoperatoren verwendeten Algorithmus. Die resultierenden Gradientenwerte für jedes Bildelement werden dann skaliert, um in den 8-Bit-Bereich von 0 bis 255 zu fallen.
- Horz-/Vert-Operator = abs(hdif) + abs(vdif),
- wobei
- hdif = Pi+lj+1 + 2 · Pij+1 + Pi+lj+1 - (Pi-lj-1 + 2 · Pij-1 + Pi+lj-1)
- vdif = Pi+lj+1 + 2 · Pi+lj + Pi+lj-1 - (Pi-lj + 2 · Pi-lj + Pi-lj-1)
- Diag-Operator = abs(d1dif) + abs(d2dif),
- wobei
- d1dif = Pi-lj + 2 · Pi-lj-1 + Pij-1 - (Pij+1 + 2 · Pi+lj+1 + Pi+lj )
- d2dif = Pi-lj + 2 · Pi-lj+1 + Pij+1 - (Pij-1 + 2 · Pi+lj-1 + Pi+lj).
- Nachdem die diagonale Kantenverstärkung in den Zonen 1, 3 und 5 durchgeführt worden ist, wird die horizontale/vertikale Kantenverstärkung in den Zonen 2 und 4 durchgeführt, wobei die resultierenden inneren und äußeren Kanten mit einem Skelettieroperator bearbeitet werden. Die resultierenden Kanten sind typischerweise ein einziges Bildelement breit und enthalten, von dem Kantenquerschnitt betrachtet, nur von dem stärksten Teil der Kante Informationen. Während dieser Prozedur wird jedoch die in diesem Bildelement enthaltene Graustufeninformation beibehalten. Die Kantenverstärkung wird auf diese Weise in einer Anschlußrichtung mit den in den jeweiligen Kreisringzonen verwendeten Operatoren durchgeführt. Bei Gebrauch lediglich der Gradienteninformation von dem vorangehenden Schritt sucht diese Operation nach Spitzenwerten in vier Richtungen von dem interessierenden Bildelement. Wenn sie einen Spitzenwert findet, ersetzt sie das interessierende Bildelement durch diesen Wert. Anderenfalls erhält das Bildelement den Wert null, was zu dem Bild von Fig. 7 führt.
- Der nächste Schritt in dem Algorithmus besteht in der Lokalisie rung und Absuche der erneut verstärkten und skelettierten inneren und äußeren Linsenkanten unter Verwendung eines Schwellenwertmechanismus. Die Schwellenwertoperation wird nur entlang des Linsenumrisses durchgeführt, während die Kante abgesucht wird.
- Der nächste Schritt in dem Algorithmus besteht in der Anwendung eines Schwellenwertes auf ausgewählte Bildelemente oberhalb eines spezifizierten Bildelementintensitätswertes. Der Zweck der Anwendung einer Schwellenwertoperation besteht in der Eliminierung aller Bildelemente innerhalb des Kreisringes, die nicht länger Teil der interessierenden Kanten sind und als Rauschen erscheinen. Der für die Schwellenwertoperation verwendete Graustufenwert ist der "inner thr"- und "outer thr"-Parameter jeweils für die inneren und äußeren Kanten. Dies sind die in dem Algorithmus zum Absuchen des Umrisses verwendeten Schwellenwerte. Die Implementierung der Schwellenwertoperation geht wie folgt:
- Wenn (Pij > = Schwellenwert und ein Bildelement entlang der verarbeiteten Innenkante ist), dann Pij = ein Umrißbildelement.
- In Fig. 9 ist die für eine Linse in einem Bild innerhalb des Sensorfeldes 70 verwendete Winkelnotation gezeigt. Zum Lokalisieren der Linsenkante für eine anfängliche Absuche wird ein Suchvektor benutzt, der dem anfänglich zum Lokalisieren der Linse verwendeten ähnelt. In diesem Beispiel verwendet der Suchvektor nur Graustufen als Kriterien bei der Suche nach dem nächsten Bildelement.
- Unter Bezugnahme auf Fig. 10 beginnt der Vektor genau innerhalb des Verarbeitungskreisringes bei 0º und schreitet er entlang einer Bildelementzeile voran, bis er auf die Linsenkante trifft oder bis er die gegenüberliegende Seite des Verarbeitungskreisringes erreicht.
- Bezugnehmend auf Fig. 11 sind die möglichen Suchszenarien für eine innere Kante dargestellt.
- In dieser Figur zeigt ein vergrößerter Bereich einer verstärkten Linsenkante eine innere Kante 94, eine äußere Kante 96 und einen Verarbeitungskreisring 90. Der Verarbeitungskreisring 90 besteht aus der inneren Grenze 98 und der äußeren Grenze 100.
- Beispielhaft ist ein oben beschriebener erster Suchvektor 102 gezeigt. In dem Beispiel dieses ersten Suchvektors wird auf einen kleinen Fehler oder Rauschen 104 gestoßen, da dieses Rauschen oder der kleine Fehler 104 eine unterscheidbare Graustufe aufweist. Der Suchvektor verfolgt seine Grenze, aber der Algorithmus weist dieses Objekt zurück, da die Krümmung nicht mit derjeni gen einer Linsenkante, wie er durch die Anzahl von verfolgten Bildelementen vor Treffen auf das Startbildelement bestimmt werden kann, übereinstimmt.
- Nach einem derartigen fehlgeschlagenen Versuch zum Lokalisieren der Kante wird ein von dem vorangehenden um 20 Bildelementzeilen versetzter Suchvektor erzeugt. Beispielsweise versucht dieser zweite Suchvektor 106, die innere Linsenkante 94 durch Beginn an der inneren Grenze des Verarbeitungskreisringes 98 und Schreiten zu dem Kreisring 100 der äußeren Grenze zu lokalisieren. In diesem Beispiel trifft der Suchvektor 106 nicht auf von einer Linsenkante verschiedene Bildelemente und tritt er durch einen Spalt 108 und die innere Kante 94 und die äußere Kante 96. Wenn der Suchvektor die äußere Grenze des Verarbeitungskreisringes 100 erreicht, wird die Suche beendet.
- Es wird dann eine dritter Suchvektor 110 erzeugt, der wiederum 20 Bildelementzeilen von dem zweiten Suchvektor 106 versetzt ist. In diesem Beispiel des dritten Suchvektors 110 ist der Versuch des Auffindens der inneren Linsenkante 94 erfolgreich und konzentriert sich der Algorithmus dann auf die Absuche der inneren und äußere Linsenkante 94 und 96.
- Der Vorgang des Erzeugens eines neuen Suchvektors, jedesmal wenn ein vorangehender Vektor aufgrund des Treffens auf einen kleinen Fehler oder einen Spalt in dem Linsenkante erfolglos gewesen ist, wird wiederholt, bis die Linsenkante lokalisiert ist oder maximal 15 Versuche durchgeführt worden sind. Dieser Lokalisierungsvorgang wird für die innere Linsenkante 94 und die äußere Linsenkante 96 separat durchgeführt.
- Wenn eine Kante lokalisiert worden ist, wird eine 8-Verknüpfungs- Absuche durchgeführt. Der Vektor beginnt bei 0º und sucht die inneren und äußeren Umrisse der Linsenkante unter Verwendung von 8-Verknüpfbarkeit ab. Die 8-Verknüpfbarkeit stellt sicher, daß irgendein an der Kante hängendes Bildelement in dem endgültigen Umriß enthalten sein wird. Es wird ein Graustufen- Schwellenwert zur Bestimmung, ob ein Bildelement Teil der Kante ist, unter Verwendung des Wertes des "inner thr"-Parameters für die innere Kante und des Wertes des "outer thr"-Parameters für die äußere Kante verwendet.
- Der Algorithmus macht eine Drehung nach rechts, wenn das gerade angetroffene Bildelement ein Kantenbildelement ist, und eine Drehung nach links, wenn das angetroffene Bildelement kein Kantenbildelement ist. Es werden diagonale Bildelemente überprüft, wenn spezielle Umstände erfüllt sind. Da derselbe Code zum Verfolgen der inneren und äußeren Kanten verwendet wird, tritt eine Absuche in einer Richtung im Uhrzeigersinn für die innere Kante und in einer Richtung entgegen dem Uhrzeigersinn für die äußere Kante ein.
- Wenn alles abgeschlossen ist, besteht die Linsenkante aus nähe rungsweise 6000 Bildelementen, 3000 an der inneren Kante und 3000 an der äußeren Kante. Wenn die Anzahl von Bildelementen sich nicht innerhalb der erstellten Grenzen befindet, stellt der Algorithmus fest, daß keine Linse gefunden wurde, und der Vorgang kann dann entweder wiederholt werden oder die Packung kann zurückgewiesen werden.
- Für jedes Bildelement auf der Kante wird ein Informationssatz in einer Anordnung von Strukturen gesichert. Diese Information schließt die radiale und winkelmäßige Position, Gradientengraustufe, Fehlerart und -schwere ein. An diesem Punkt in dem Algorithmus sind noch nicht alle Linsenanordnungsinformationen vorhanden, aber es wird Speicher für eine zukünftige Verwendung bereitgestellt.
- Wenn festgestellt wurde, daß ein Bildelement Teil der Kante ist, wird eine Transformation von rechtwinkligen Koordinaten zu Polarkoordinaten durchgeführt. Der Mittelpunkt der rechtwinkligen und Polarkoordinatensysteme ist der anhand der anfänglichen Lokalisierung der Linse bestimmte Linsenmittelpunkt. Die folgenden Gleichungen zeigen, wie die Transformation implementiert ist, wobei theta der Winkel und r der Radius ist.
- θ = arctan [(Linsenmittelpunktzeile - Bildelementzeile)/ (Bildelementspalte - Linsenmittelpunktspalte)]
- R = SQRT [(Bildelementspalte - Linsenmittelpunktspalte)² + (Linsenmittelpunktzeile - Bildelementzeile)²]
- Theta wird von einem Gleitkommawert im Bereich von 0,0 bis 360,0 Grad in einen Ganzzahlwert im Bereich von 0 bis 8191, der durch 13 Bits, 2~3, darstellbar ist, umgewandelt. R wird zu Beginn auch als ein Gleitkommawert berechnet und auf einen Ganzzahlwert abgerundet.
- Die Radius- und Winkelverschiebungswerte für jedes Umrißbildelement werden dann in der großen Anordnung von Strukturen angeordnet. Die weitere Verarbeitung wird durch Verarbeitung von lediglich etwa 6000 in dieser großen Anordnung aufgefundenen Bildelementen effizienter gemacht.
- In den folgenden Figuren ist die Linsenkante bildlich gezeigt. Die Operationen werden jedoch von dem Algorithmus im digitalen Bereich durchgeführt.
- Bezugnehmend auf Fig. 12 wird dort das verstärkte Linsenbild in 12a in rechtwinkligen Koordinaten und in 12b in Polarkoordinaten gezeigt. Da die Kante aufgefunden und abgesucht worden ist, ist der Verarbeitungskreisring aus dieser Figur entfernt. In den Fig. 12a und 12b sind die innere Linsenkante 94 und die äußere Linsenkante 96 gezeigt. Bei der in Fig. 12 gezeigten Operation werden Unstetigkeiten in den Kanten durch Fehler an der Linse, schwache Kanten oder durch die Kante oder die Kantenverstärkungsoperatoren resultierende Anomalien verursacht. Unabhängig von dem Grund ist es notwendig, diese Unstetigkeiten zu detektieren und zu überbrücken, so daß der verbleibende Bereich der Kanten verarbeitet werden kann.
- Die Unstetigkeit wird durch Beibehalten der Winkelverschiebung des weitesten Bildelements, das abgesucht worden ist, und Vergleichen derselben mit der Winkelverschiebung des Bildelements, das gegenwärtig verarbeitet wird, detektiert, was in 12b gezeigt ist. Wenn der zwischen dem weitesten Bildelement 112 und dem gegenwärtigen Bildelement erzeugte Winkel sich in der zu der Absuche entgegengesetzten Richtung befindet und wenn er größer als der durch den Parameter "bktrk degs" spezifizierte Winkel ist, dann ist eine Unstetigkeit detektiert worden. Dies ist in Fig. 12b an dem durch 114 gekennzeichneten Punkt gezeigt.
- Wenn eine Unstetigkeit detektiert wird, verwendet der Algorithmus das äußerste Bildelement als Bezugspunkt zum Überbrücken. Der anfängliche Versuch des Überbrückens einer Unstetigkeit besteht in einer Extrapolationstechnik, die einen Spalt über ein bis drei Bildelement (e) überbrücken kann. Die Extrapolation verwendet die Richtung der Bewegung genau vor dem Erreichen der Unstetigkeit.
- In gewissen Fällen beträgt der Spalt in der Kante mehr als drei Bildelemente und kann er nicht durch Extrapolation überbrückt werden. Unter Bezugnahme auf Fig. 13 wird in den Fällen, in denen eine Extrapolation zum Schließen einer Unstetigkeit, wie zum Beispiel 116, nicht erfolgreich ist, eine Sprungtechnik verwendet. Die Sprungtechnik nimmt den winkelmäßigen Ort der Unstetigkeit, dreht in der Richtung der Absuche um die in dem Parameter "gap angle" spezifizierten Gradzahlen und setzt einen Suchvektor zum Lokalisieren der anderen Seite der Unstetigkeit in Gang.
- Der Suchvektor beginnt genau innerhalb des Inneren des Verarbeitungskreisringes und sucht in Abhängigkeit von dem winkelmäßigen Ort der Unstetigkeit entlang einer Zeile oder Spalte. Die Suche setzt sich fort, bis ein Kantenbildelement angetroffen wird oder bis die äußere Kante des Verarbeitungskreisringes erreicht ist. Wenn ein Kantenbildelement nicht während der Suche gefunden wird, wird davon ausgegangen, daß die Linse extrem verformt ist, und wird die Linse zurückgewiesen. Wenn ein Kantenbildelement gefunden wird, setzt sich die Verarbeitung normal fort. Die Tatsache, daß die Unstetigkeit nicht durch Extrapolation überbrückt werden kann, ist ein Anzeichen für das Vorliegen eines Fehlers und eine "Überbrückung durch Springen" wird als ein Merkmal identifiziert.
- Alle Bildelemente, die seit dem äußersten Bildelement und dann weiter bis zur Detektion der Unstetigkeit verarbeitet worden sind, werden aus der Umrißanordnung entfernt, da sie eine Rückverfolgung durch die Kantenabsuche darstellen.
- Manchmal wird ein Bereich der Linsenkante in der Weise fragmentiert, daß eine Überbrückung einer Unstetigkeit den Absuchvorgang auf einen kleinen isolierten Abschnitt der in Fig. 13a gezeigten Kante 118 bringt. In diesem Fall funktioniert die normale Methode zur Detektierung einer Unstetigkeit nicht, da es für den Absuchvorgang nicht möglich ist, um den erforderlichen Betrag zurückzugehen. Um diese Anomalie zu überwinden, wird eine spezielle Detektionstechnik implementiert. Diese Technik behält die Zeilen- und Spaltenwerte für die genau vor dem Überbrücken einer Unstetigkeit angetroffenen Bildelemente. Wenn die Weiterverfolgung durch dieses Eingangsbildelement viermal zurück hindurchtritt, ist ein kleiner, isolierter Bereich der Kante detektiert worden. Das in dem Fragment gefundene äußerste Bildelement wird dann als Ort zum Versuch einer weiteren Überbrückung verwendet. In Fig. 13b ist ein Szenario gezeigt, das eine Mehrfachüberbrückung 120 gefolgt von einer vorher als 116 beschriebenen "Brücke durch Sprung" mit sich bringt.
- Die Überbrückung von mehrfachen isolierten Abschnitten einer Kante ist ein iterativer Vorgang, der so oft wie zum Aufspannen des fragmentierten Abschnittes erforderlich durchgeführt wird. Jede Iteration wird als erstes eine Extrapolationsbrücke und dann eine Sprungbrücke versuchen.
- Nach der Absuche der Kante und irgendwelcher überbrückter Spalte extrahiert der Algorithmus sechs unterschiedliche Merkmale von jedem auf dem Kantenumriß gefundenen Bildelement. Die Merkmale sind wie folgt:
- Radiale Abweichung (RD)
- Ortsgradientenabweichung (LGD)
- Räumliche Ableitung (SD)
- Unstetigkeit (D)
- Dip-Ortsgradientenabweichung (DLGD)
- Einende-Ortsgradientenabweichung (ALGD)
- Die letzten zwei Merkmale beziehen sich auf die Ortsgradientenabweichung und werden zur Identifizierung spezieller Fehlerarten, die anderenfalls nicht detektierbar sein können, hinzugefügt.
- Die für jedes Merkmal berechneten Werte werden mit Schwellenwerten verglichen. Alle Schwellenwerte sind als Benutzerparameter zugänglich. Wenn ein Merkmalswert das Schwellenwertkriterium erfüllt, dann wird das Bildelement auf der Grundlage des Merkmals als fehlerhaft klassifiziert. Es ist möglich, daß ein einzelnes Bildelement durch mehr als ein Merkmal als fehlerhaft klassifiziert wird.
- Nun bezugnehmend auf Fig. 14 ist die verstärkte Linsenkante in Fig. 14a in rechtwinkligen Koordinaten und in Fig. 14b in Polarkoordinaten und mit Merkmalen, die als radiale Abweichung kategorisiert werden können, gezeigt. Die radiale Abweichung ist die Strecke, die der Radius des interessierenden Bildelements von dem Nennradius abweicht. Wenn die Abweichung gleich oder größer als der in dem Parameter "rad dev thr" spezifizierte Wert ist, dann wird das Bildelement als fehlerhaft angesehen. Der normale Radius ist als der mittlere Radiuswert der 250 Umrißbildelemente vor und der 250 Umrißbildelemente nach dem interessierenden Bildelement definiert. Wenn ein Bildelement anhand der radialen Abweichung als fehlerhaft klassifiziert wird, dann wird der Betrag der Abweichung als ein Anzeichen für die Schwere behalten. In den Fig. 14a und 14b sind die innere Linsenkante 94 und die äußere Linsenkante 96 gezeigt. Zusätzlich zeigt Fig. 14b auch die wie oben beschrieben berechneten idealen Radien für die inneren und äußeren Kanten 122. Fig. 14b zeigt auch drei Beispiele der Radialabweichungsmerkmale 124, 126 und 128. Die zur Implementierung der Radialabweichungs-Merkmalsextraktion verwendeten Gleichungen lauten wie folgt:
- wobei R = Radiuswert und i,n,m = Umrißindexwerte sind, wenn (RD > = Schwellenwert oder RD < = -Schwellenwert) gilt, dann ist das interessierende Bildelement fehlerhaft.
- Das nächste extrahierte Merkmal ist die Ortsgradientenabweichung. Die LGD betrachtet den Betrag der Abweichung in dem Gradientenwert des interessierenden Bildelements von dem Mittelwert der lokalen Nachbarn. Als Nachbarbildelemente werden diejenigen Bildelemente betrachtet, die während der Absuche des Umrisses der Kante am dichtesten an dem interessierenden Bildelement sind. Unter Bezugnahme auf Fig. 15 hat das interessierende Bildelement 130 die Bezeichnung i erhalten. Der zur Bestimmung, ob ein Bildelement fehlerhaft ist, auf der Grundlage der LGD verwendete Schwellenwert ergibt sich aus dem "grd dev thr"-Parameter. Die folgenden Gleichungen zeigen die Implementierung dieses Merkmals.
- wobei
- G = Gradientenwert und i,n,m = Umrißindexwerte, wenn (LGD > = Schwellenwert), dann interessierendes Bildelement = fehlerhaft.
- Dieser Vorgang der Extraktion der Ortsgradientenabweichung ist in Fig. 16 gezeigt. Fig. 16a ist wiederum eine bildliche Darstellung der verstärkten Linsenkante, wohingegen 16b eine Darstellung der Gradienteninformationen im Polarsystem ist. Wie es ersichtlich ist, tritt eine in Fig. 16a gezeigte Ortsgradientenabweichung 134 nur an einer Kante des verstärkten Linsenkantenbildes auf und erscheint sie als eine unpaarige Unregelmäßigkeit 136, wenn sie in dem Polarsystem verfolgt und angezeigt wird. Wenn ein Bildelement basierend auf der LGD als fehlerhaft klassifiziert wird, dann wird der Betrag der Abweichung als ein Anzeichen der Schwere behalten.
- Das nächste bei der Merkmalsextraktion betrachtete Merkmal ist die Unstetigkeit. Wie es vorangehend beschrieben wurde, wird ein Unstetigkeitsfehler durch Überbrücken einer Kantenunstetigkeit mit der Sprungtechnik verursacht. Durch Betrachten des Unterschiedes bei der Winkelverschiebung von einem Bildelement in dem Umriß zu dem nächsten wird er durch die Merkmalsextraktion identifiziert. Die Unstetigkeit enthält keine Informationen über die Schwere und zeigt nur an, daß ein Sprung aufgefunden wurde. Anfangsbildelemente auf jeder Seite der Unstetigkeit werden als fehlerhaft betrachtet. Das nächste extrahierte Merkmal ist die Dip-Ortsgradientenabweichung.
- Die Dip-Ortsgradientenabweichung ähnelt dem Merkmal der Ortsgradientenabweichung, das extrahiert worden ist. Wie die LGD betrachtet die DLGD den Betrag der Abweichung in dem Intensitätsgradientenwert des interessierenden Bildelements von dem Mittelwert seiner lokalen Nachbarn. Der Unterschied besteht darin, daß mehr Nachbarn verwendet werden und es einen größeren Spalt von nicht verwendeten Bildelementen um das interessierende Bildelement gibt. DLGD ist auch geschaffen worden, um nur für die Gradientenabweichungen in der Intensität, die geringer als deren Nachbarn sind, empfindlich zu sein und wird somit als "Dip"-Ortsgradientenabweichung bezeichnet.
- Der zur Bestimmung, ob ein Bildelement fehlerhaft ist, auf der Grund lage der DLGD verwendete Schwellenwert ergibt sich aus dem "dip lgd thr"- Parameter. Die folgenden Gleichungen zeigen die Implementierung dieses Merkmals.
- wobei
- G = Gradientenwert und i,n,m = Umrißindexwerte, wenn (DLGD < = Schwellenwert), dann ist das interessierende Bildelement fehlerhaft.
- Das DLGD-Merkmal ist speziell zur Identifizierung von kleinen Kantenschnipseln, die nicht durch andere Merkmale identifiziert werden, implementiert. Wenn ein Bildelement basierend auf der DLGD als fehlerhaft klassifiziert wird, dann wird der Betrag der Abweichung als ein Anzeichen für die Schwere gespeichert.
- Ein weiteres Merkmal, das extrahiert wird, ist die Einende-Ortsgradientenabweichung (ALGD). Bei der Extrahierung dieses Merkmals werden die zur Berechnung der Abweichung verwendeten Bildelementnachbarn von einer einzigen Seite des interessierenden Bildelements genommen. Es werden zwanzig Bildelemente vor dem interessierenden Bildelement zur Bestimmung des Nachbarschaftsmittelwertes verwendet. Die vier Bildelemente genau vor dem interessierenden Bildelement werden jedoch nicht verwendet. ALGD betrachtet sowohl negative als auch positive Gradientenabweichungen.
- Die zum Vergleich verwendeten Schwellenwerte sind in den Parametern "aux lgd low" und "aux lgd up" gespeichert. Die folgenden Gleichungen zeigen die Implementierung des ALGD-Merkmals.
- wobei
- G = Gradientenwert und i,n,m = Umrißindexwerte, wenn (ALGD > = oberer Schwellenwert oder untere ALGD < = Schwellenwert), dann ist das interessierende Bildelement fehlerhaft.
- Das letzte Merkmal, das extrahiert wird, ist die räumliche Ableitung (SD). Die räumliche Ableitung mißt die Änderung des Radius gegenüber der Änderung der Winkelverschiebung. Wenn eine scharfe Radiusänderung über eine kleine Winkelstrecke eintritt, dann ist es wahrscheinlich, daß ein Fehler vorliegt. Das Merkmal der räumlichen Ableitung ist in Fig. 17 dargestellt.
- Fig. 17a zeigt wiederum die verstärkte Linsenkante in rechtwinkligen Koordinaten und Fig. 17b ist in das Polarsystem übertragen, das wieder die idealen Radien 122 für die innere Linsenkante 94 und die äußere Linsenkante 96 zeigt.
- Es ist der Fehler mit Merkmalen 136 der räumlichen Ableitung gezeigt, und in Fig. 17b ist seine Änderung des Radius 138 über den Winkel 140 dargestellt.
- Die Implementierung des Merkmals der räumlichen Ableitung ist durch die folgenden Gleichungen gegeben:
- ΔR= abs(Radiuswert des Umrißbildelementsi+2 - Radiuswert des Umrißbildelementsi-2),
- wobei
- ΔR= Radiusänderung und
- i = Umrißindex in bezug auf das interessierende Bildelement,
- Δθ = Winkelverschiebungswert des Umrißbildelementsi+2
- Winkelverschiebungswert des Umrißbildelementsi+2,
- wobei
- Δθ = Änderung der Winkelverschiebung und
- i = Umrißindex in bezug auf das interessierende Bildelement ist.
- SD = ΔR/Δθ,
- wobei
- SD = räumliche Ableitung,
- wenn (SD > = positiver Schwellenwert oder DS < = 0), dann ist das interessierende Bildelement fehlerhaft.
- Wenn ein Bildelement gemäß der letzten oben genannten Gleichung als fehlerhaft klassifiziert wird, wird keine Information über die Schwere behalten. Die Weiterverarbeitung durch den Algorithmus basiert nur auf der Tatsache, daß das Bildelement basierend auf SD als fehlerhaft angesehen worden ist.
- Nach der Bildelementwerteinschätzung wird jedes fehlerhafte Bildelement als Mitglied einer Fehlergruppe angesehen. Es kann viele Fehlergruppen um die Linse geben und ein Bildelement muß nicht dicht bei weiteren fehlerhaf ten Bildelementen sein, um einer Gruppe anzugehören.
- Eine Fehlergruppierung bringt drei Schritte mit sich. Die ersten zwei Schritte werden unabhängig an der inneren und äußeren Kante durchgeführt, und der letzte Schritt kombiniert Informationen sowohl von der inneren als auch der äußeren Kante. Nach Abschluß des Gruppiervorgangs an den inneren und äußeren Kante werden die Nähen der resultierenden Gruppen miteinander verglichen, um zu sehen, ob irgendwelche Gruppen von der inneren Kante mit Gruppen von der äußeren Kante kombiniert werden sollten. Wenn eine Verschmelzung stattfindet, wird eine Kombinationsfehlergruppe gebildet.
- Der anfängliche Schritt betrachtet jedes fehlerhafte Bildelement von Bildelement zu Bildelement und entscheidet, ob es Teil eines größeren Fehlers ist. Wenn ein Bildelement als Teil eines größeren Fehlers ermittelt wird, dann wird es in einer Struktur plaziert, die Fehlergruppe genannt wird. Der zweite Schritt bestimmt, ob irgendwelche dieser Fehlergruppen zur Bildung größerer Grupgen miteinander kombiniert werden sollten. Der letzte Schritt vergleicht die Innen- und Außenfehlergruppen miteinander, um zu bestimmen, ob sie kombiniert werden sollten. Das Ergebnis ist die größtmögliche Fehlergruppe zur Darstellung des diskreten Fehlers auf der Linse. Dies wiederum liefert die genaueste Wiedergabe der wahren Fehlerschwere. Klarerweise sind Kombinationsfehler schwerer als Einzelfehlergruppen und treten sie nur bei den ernsteren Kantenfehlern auf.
- Wie es vorangehend genannt wurde, wird der Vorgang durch Gruppieren von Bildelement zu Bildelement begonnen. Das allererste fehlerhafte Bildelement, auf das getroffen wird, wird zum Starten des Vorgangs automatisch in einer Einzelbildelementfehlergruppe plaziert. Die Winkelverschiebungen von nachfolgenden fehlerhaften Bildelementen werden mit dem äußersten Bildelement in der gegenwärtig aktiven Fehlergruppe verglichen. Wenn das Bildelement sich innerhalb der durch den Parameter "prox zone" spezifizierten Winkelverschiebung befindet, wird es in der Gruppe plaziert, und wird der äußerste Winkel der Gruppe aktualisiert. Wenn das fehlerhafte Bildelement nicht in die gegenwärtig aktive Fehlergruppe fällt, dann wird davon ausgegangen, daß auf einen neuen Fehler getroffen wurde. Das Ergebnis besteht darin, daß eine neue Fehlergruppe, die nur das gegenwärtige fehlerhafte Bildelement enthält, gebildet wird und die gegenwärtig aktive Gruppe wird. Dieser Vorgang setzt sich fort, bis alle fehlerhaften Bildelemente an der Kante überprüft worden sind.
- Wenn fehlerfreie Bildelemente auf dem Umriß zwischen einem Bildelement, das in einer Fehlergruppe plaziert werden soll, gefunden werden, dann werden sie auch in die Fehlergruppe aufgenommen und erneut von fehlerfreien zu gruppenartigen fehlerhaften Bildelementen klassifiziert.
- Der zweite Schritt des gesamten Gruppierungsvorgangs sieht wie folgt aus. Es ist möglich, daß ein einzelner Fehler von mehr als einer Fehlergruppe wiedergegeben wird. Um diese Komplikation zu eliminieren, wird ein Durchlauf über alle auf einer Kante gefundenen Fehlergruppen durchgeführt. Es werden zwei Vergleiche vorgenommen. Ein Vergleich überprüft die Startwinkelverschiebung einer Gruppe mit einer Endwinkelverschiebung einer weiteren Gruppe. Der zweite Vergleich überprüft dieselbe Endwinkelverschiebung einer Gruppe mit den Startwinkelverschiebungen der anderen Gruppe. Wenn einer dieser Vergleiche eine Änderung der Winkelverschiebung ergibt, die geringer als der durch "prox angle" spezifizierte Betrag ist, werden die zwei Gruppen verschmolzen. Die Gruppe mit einem Startwinkel, der dicht genug bei dem Endwinkel der anderen Gruppe ist, schließt dann die Gruppe ein. Die Gruppe, die eingeschlossen ist, überträgt ihre Information und wird dann ungültig gemacht.
- Schließlich werden winkelmäßig entsprechende Innen- und Außenkantenfehlergruppen gemeinsam gruppiert. Diese Gruppierung ähnelt der unabhängig an den inneren und äußeren Kanten durchgeführten Gruppierung. Es wird ein Vergleich zwischen den Start- und Endorten der Gruppe durchgeführt. Es wird auch ein Extravergleich zur Bestimmung, ob eine Gruppe vollständig von einer anderen Gruppe umgeben ist, durchgeführt. Wenn irgendein Vergleich zu einer Verschmelzung führt, wird eine separate Struktur, die Informationen von beiden Fehlergruppen enthält, geschaffen und werden die zwei ursprünglichen Gruppen ungültig gemacht.
- Nach Identifizierung der fehlerhaften Bildelemente und Durchführung der oben genannten Gruppieroperationen wird jeder Fehlergruppe eine Schwerepunktzahl zugeordnet. Die Schwerepunktzahl ist die Summe aller den jeweiligen Bildelementen in der Gruppe zugeordneten Punktzahlen. Wenn ein einziges Bildelement durch mehr als eine Fehlerart als fehlerhaft klassifiziert wird, ist das Ergebnis eine Mehrfachpunktzahl für dieses spezielle Bildelement.
- Jedem Fehlertyp wird eine Gewichtung zugeordnet, die es ermöglicht, daß die unterschiedlichen Fehler in Bezug aufeinander unterschiedliche Stärken aufweisen. Werte für alle Gewichtungen können durch benutzerzugängliche Parameter kontrolliert werden. RD-, LGD-, SD-, D-, DLGD- und ALGD-Gewichtungen sind den jeweiligen Parametern "rd weight", "lgd weight", "sd weight", "disc weight", "diplgd wgt" und "aux lgd wgt" entnehmbar.
- Anders als die anderen drei Fehler enthalten die RD-, LGD- und DLGD-Fehler Information über die Schwere für ein bestimmtes Bildelement. Diese Information über die Schwere ist durch die jedem der betroffenen Bildelemente zugeordneten Fehlerartgewichtungen normiert und multipliziert. Die Normierung wird verwendet, da der Bereich der Werte für die unterschiedlichen Merkmale nicht vergleichbar ist. Nach einer Normierung wird jede gewichtete Punktzahl in einen Bereich zwischen 1,0 und 2,0 fallen. Der Normierungsbereich wird durch die Werte der verwendeten Schwellenwerte und der minimalen oder maximalen theoretischen Werte, die die Merkmale annehmen können, bestimmt.
- Wenn beispielsweise ein Bildelementmerkmal denselben Wert wie der Nennwert aufweist, beträgt die gewichtete Punktzahl 1,0. Wenn im Gegensatz dazu ein Bildelementmerkmal einen Wert aufweist, der dem höchsten maximalen oder minimalen Wert, der möglich ist, gleicht, dann wird die gewichtete Schwerepunktzahl als 2,0 berechnet. Der maximale theoretische Wert für die radiale Abweichung und Ortsgradientenabweichung wird durch die in den jeweiligen "max rd" und "max lgd" aufgefundenen jeweiligen Parameterwerte bestimmt. Der minimale theoretische Wert für die Dip-Ortsgradientenabweichung ergibt sich aus dem Parameter "min dip lgd".
- Die SD-,ALGD-, Gruppen- und D-artigen Fehler sind in keiner Weise normiert. "Unstetigkeit" und "Gruppe" sind Boolesche Fehler mit Werten von 0 und 1. Die räumliche Ableitung und die ALGD enthalten nicht genügend Informationen über die Schwere, um sie zu behalten.
- Die Bildelementfehlerschweregleichungen für jede der sechs Fehlerarten gemeinsam mit irgendeiner geeigneten Normierung und Gewichtung sehen wie folgt aus.
- RD-Punktzahl = (1,0 + (abs(Bildelement-RD-Wert) - RD-Schwellenwert)/(- maximaler theoretischer RD-Wert - RD-Schwellenwert)) rd weight,
- wobei
- RD-Punktzahl = Gesamtpunktzahl, die einem Bildelement anhand der RD-Klassifizierung zugeordnet worden ist,
- Bildelement-RD-Wert = RD-Merkmalswert für das interessierende Bildelement, RD-Schwellenwert = zur Bestimmung des Vorliegens eines RD-Fehlers verwendeter Schwellenwert,
- Maximaler theoretischer RD-Wert = maximal möglicher Wert anhand des RD- Merkmals, und
- rd weight = der RD-Fehlerart zugeordnete Gewichtung.
- LGD-Punktzahl = (1,0 + (Bildelement-LGD-Wert - LGD-Schwellenwert)/(maximaler theoretischer LGD-Wert - LGD-Schwellenwert)) * lgd weight,
- wobei
- LGD-Punktzahl = Gesamtpunktzahl, die einem Bildelement anhand der LGD- Klassifizierung zugeordnet worden ist,
- Bildelement-LGD-Wert = LGD-Merkmalswert für das interessierende Bildelement,
- LGD -Schwellenwert = zur Bestimmung des Vorliegens eines LGD-Fehlers verwendeter Schwellenwert,
- Maximaler theoretischer LGD-Wert = maximal möglicher Wert anhand des LGD- Merkmals, und
- lgd_weight = der LGD-Fehlerart zugeordnete Gewichtung.
- DLGD-Punktzahl = (1,0 + (Bildelement-DLGD-Wert - DLGD-Schwellenwert)/(- maximaler theoretischer DLGD-Wert - DLGD-Schwellenwert)) * dip lgd weight,
- wobei
- DLGD-Punktzahl = Gesamtpunktzahl, die einem Bildelement anhand der DLGD- Klassifizierung zugeordnet worden ist,
- Bildelement-DLGD-Wert = DLGD-Merkmalswert für das interessierende Bildelement,
- DLGD-Schwellenwert = zur Bestimmung des Vorliegens eines DLGD-Fehlers verwendeter Schwellenwert,
- Maximaler theoretischer DLGD-Wert = maximal möglicher Wert anhand des DLGD- Merkmals, und
- dip lgd weight = der DLGD-Fehlerart zugeordnete Gewichtung.
- SD-Punktzahl = sd weight,
- wobei
- SD-Punktzahl = Gesamtpunktzahl, die einem Bildelement anhand der SD-Klassifizierung zugeordnet worden ist, und
- sd weight = der SD-Fehlerart zugeordnete Gewichtung.
- Gruppenpunktzahl = grp weight,
- wobei
- Gruppenpunktzahl = Gesamtpunktzahl, die einem Bildelement anhand der Gruppenklassifizierung zugeordnet worden ist, und
- grp weight = der Gruppenfehlerart zugeordnete Gewichtung.
- Disc-Punktzahl = disc weight,
- wobei
- Disc-Punktzahl = Gesamtpunktzahl, die einem Bildelement anhand der Unstetigkeitsklassifizierung zugeordnet worden ist, und
- disc weight = der Unstetigkeitsfehlerart zugeordnete Gewichtung. ALGD-Punktzahl = aux lgd wgt,
- wobei
- Gruppenpunktzahl = Gesamtpunktzahl, die einem Bildelement anhand der Gruppenklassifizierung zugeordnet worden ist, und
- aux lgd wgt = der ALGD-Fehlerart zugeordnete Gewichtung.
- Nach den oben beschriebenen Bildelementwertabschätzungen und Plazieren der fehlerhaften Bildelemente in Fehlergruppen (die einschließen: Verschmelzungsüberlappungsfehler, Gruppierfehler, die sich benachbart zueinander befinden, und Gruppierfehler, die sich in derselben Winkelverschiebung sowohl an der inneren Kante als auch der äußeren Kante befinden) wird eine Fehlergruppenschwerepunktzahl berechnet. Diese Fehlergruppenschwerepunktzahl gibt die irgendeiner bestimmten Fehlergruppe zugeordnete Gesamtschwerepunktzahl wieder und wird durch die folgende Gleichung berechnet:
- "Fehlergruppen"-Schwerepunktzahl = Σ&sub0; RD-Punktzahl + Σ&sub0; LGD-Punktzahl + Σ&sub0; DLGD-Punktzahl + Σ&sub0; SD-Punktzahl + Σ&sub0; Disc-Punktzahl + Σ&sub0; Gruppenpunktzahl + Σ&sub0; ALGD-Punktzahl,
- wobei
- "Fehlergruppen"-Schwerepunktzahl = Gesamtpunktzahl, die eine "Fehlergruppe" anhand aller in der Gruppe aufgefundenen fehlerhaften Bildelemente zugeordnet worden ist, und
- Ω = Summenbereich zum Einschließen aller in einer bestimmten "Fehlergruppe" aufgefundenen Bildelemente.
- Nachdem die obigen Berechnungen durchgeführt worden sind, werden die Schwerepunktzahlen jeder Fehlergruppe durch eine benutzerdefinierbare Parabelfunktion gewichtet. Die Parabelfunktion ordnet größeren Fehlern eine proportional größere Schwerepunktzahl zu. Zum Beispiel wird ein Fehler, der zweimal so groß wie zwei kleinere Fehler ist, mit einer Schwere enden, die größer als die Summe der zwei kleinen Fehler ist.
- Die Gewichtungsfunktion wird durch die folgende Gleichung beschrieben:
- Gewichtete "Fehlergruppen" - Schwerepunktzahl a coeff*("Defektgruppe" Schwerepunktzahl)2 + b coeff*("Defektgruppe" Schwerepunktzahl), wobei
- a coeff = ein benutzerzugänglicher Parameter, der die Parabelgewichtungsfunktion definiert,
- b coeff = ein benutzerzugänglicher Parameter, der die Parabelgewichtungsfunktion definiert.
- Die resultierende gewichtete Punktzahl wird dann so skaliert, daß sie in einen Bereich von 0 bis 999 fällt. Der Skalierfaktor wird anhand der folgenden Gleichung bestimmt:
- Skalierfaktor = 999,0/maximale gewichtete Punktzahl,
- wobei
- maximale gewichtete Punktzahl = a coeff*(max score)2 + b coeff(max score), wobei
- Max score = ein empirisch bestimmter benutzerdefinierbarer Parameter.
- Eine Fehlergruppe, die Punkte von mehr als 999 aufweist, wird abgeschnitten. Die Summe aller Fehlergruppenpunktzahlen ist die Endpunktzahl für eine bestimmte Linse. Wenn die Punktzahl größer als oder gleich ein/einen Schwellenwert (der als Benutzerparameter zugänglich ist) sein sollte, dann wird die Linse zurückgewiesen. Anderenfalls wird die Linse akzeptiert.
- Obwohl das Endergebnis der Linsenpunktzahl darin besteht, daß entweder die Linse durchkommt oder durchfällt, sind alle Zwischendaten, -berechnungen und -punktzahlen zur Bereitstellung von Informationen hinsichtlich der Linsenqualität und der Charakteristikarten, die bei der Linse beobachtet wurden, verfügbar.
- Es ist für einen Fachmann klar, daß diese Information über eine Linse auf Basis der Linse oder als statistische Information oder als eine visuelle Ausgabe auf einem Computerbildschirm gegeben werden kann.
- Der oben beschriebene Algorithmus wurde bei der oben beschriebenen Vorrichtung implementiert, und es wurden ophthalmische Linsen überprüft. Diese Linsen waren Johnson & Johnson Vision Products Acuvue"-Soft-Hydrogel-Kontaktlinsen, die zu 58% aus Wasser bestehen. Es wurden 128 Linsen in einem ersten Test verwendet.
- Als erstes wurden die Linsen durch erfahrene Produktionsstraßen- Linsenprüfer in entionisiertem Wasser unter Verwendung eines Bildvergrößerungssystems überprüft. Jede Linse wurde von dem Prüfer als durchgelassen oder durchgefallen klassifiziert, und es wurde die Fehlerart für jeden Fehler identifiziert.
- Wenn die Linsen von dem hierin beschriebenen automatisierten Prüfsystem überprüft wurden, wurde jede Linse manuell in der Prüfpackung zentriert, um irgendwelche Beleuchtungsprobleme zu vermeiden.
- Nachdem das automatisierte Prüfsystem von allen 128 Linsen Bilder gemacht hatte, wurden 25 Punkteverteilungsabweichungen zu den menschlichen Prüfern identifiziert. Die Ergebnisse des Vergleichs zwischen maschinenüberprüften und mit dem menschlichen Auge überprüften Linsen sind in Tabelle 1 angegeben. TABELLE 1: Zusammenfassung von Maschinen- gegenüber menschlicher Überprüfung #1
- Obwohl die Ergebnisse andeuten, daß die Maschinenprüfung bei 19,5% falsch war, gab es 12 Fälle (9,4%), in denen die Maschine übermäßig kritisch war und eine Linse durchfallen ließ, die ein menschlicher Prüfer hätte durchgehen lassen. Das ist eine negative Beurteilung der Maschine. Es gab auch 13 Fälle (10,1%), in denen die Maschine zu positiv beurteilte und eine Linse hindurchließ, die der menschliche Prüfer als schlecht gekennzeichnet hatte (positive Beurteilung der Maschine).
- In dem Fall der positiven Beurteilung der Maschine erschien es, daß die Beleuchtung der Linse in dem maschinengeprüften System ungeeignet eingestellt war und richtiggestellt werden konnte. Bei den negativen Beurteilungen der Maschine erschien es, daß die Maschinenparametereinstellungen zu empfindlich waren und eingestellt werden mußten. Es ist jedoch kein großer Fehler der Detektion entkommen und die meisten versäumten Fehler wiesen eine Grenzliniengröße unter 50 Mikron auf. Nicht eine einzige halbe Linse oder fehlende Linse entkam der Detektion.
- Von den zwölf negativen Beurteilungen der Maschinen wiesen sieben Bilder aufgrund der Beleuchtungsfehler schwache Kanten auf und in fünf Fällen traten echte Fehler auf, die von dem menschlichen Prüfer nicht gesehen wurden, aber von der Maschine und einem zweiten menschlichen Prüfer gesehen wurden. Von den dreizehn positiven Beurteilungen der Maschine wiesen vier Linsen nicht länger Fehler auf oder sind sie durch zusätzliches Material, das abgewaschen worden ist, verursacht worden. Sechs Bilder wiesen aufgrund der Beleuchtungsfehler schwache Kanten auf und drei Linsen hatten Fehler, die zu klein waren, um von einem menschlichen Prüfer gesehen zu werden.
- Somit waren von den 128 getesteten Linsen grob 20% mit der menschlichen Überprüfung inkonsistent. Von diesen Fehlern wurden 56% der Beleuchtung, 36% Fehlern des menschlichen Prüfers oder Änderungen des Linsenzustandes durch Handhabung und 12% falschen Entscheidungen zugeordnet. Diese 12% entsprechen nur 2, 3% falschen Entscheidungen insgesamt.
- Da die Mehrheit der inkonsistenten Entscheidungen auf Beleuchtungsproblemen beruht, wurde eine Untersuchung vorgenommen, und es wurde herausgefunden, daß eine Ungleichförmigkeit der Lichtquelle und insbesondere über die Beleuchtung die Linsenkante verwaschen ließ und Fehler nicht sichtbar machte. Ein weiterer Grund für ein inkonsistentes Ergebnis zwischen der menschlichen Prüfung und der Maschinenprüfung bestand darin, daß die Linse weder während der menschlichen Überprüfung noch der Maschinenüberprüfung in Bewegung gehalten wurde, wobei eine Unterscheidung zwischen Teilchen in dem Wasser und Fehlern an der Linse nicht leicht offenbar war.
- Die Beleuchtung der Linse wurde durch Bereitstellen einer gleichförmigeren und diffuseren Beleuchtungsquelle verbessert. Nach den Beleuchtungsverbesserungen wurden 128 zusätzliche Linsen maschinenüberprüft. Bei diesem Überprüfungsprotokoll wurden für jede Linse zwei Bilder von der Maschine aufgenommen und mit einem Überprüfungsbericht eines menschlichen Prüfers verglichen. Die Ergebnisse dieser Überprüfung durch die Maschine und den Menschen sind in Tabelle 2 gegeben. TABELLE 2: Zusammenfassung von Maschinen- gegenüber menschlicher Inspektion #2
- Wie anhand der in Tabelle 2 gegebenen Daten beobachtet werden kann; wurde eine neue Kategorie von negativen Beurteilungen, "nicht fokussiertes Bild", beobachtet. Die Spur führte dazu, daß die Linse falsch unter der Kammer angeordnet worden ist, was dazu führte, daß ein Teil der Linse sich nicht im Fokus befand. Als ein Maß für die Systemleistung ist ein nicht fokussiertes Bild nicht für die Zuverlässigkeit kennzeichnend, sondern eine Form von Benutzerfehler, und diese Datenpunkte wurden richtigerweise ausgeschlossen.
- verursachte, beträgt der Anteil von Linsen, bei denen die menschliche Überprüfung und die Maschine nicht übereinstimmen, nur 15,6%. Dies ist eine Verbesserung um 3,9% gegenüber den ersten 128 Linsen.
- In einem dritten Vergleichsexperimentdurchgang wurden 192 Linsen von einem Menschen überprüft und dann zweimal von der Maschine abgebildet. Die Ergebnisse ähnelten den vorangehenden Experimentdurchgängen. Von der Gesamtanzahl von 384 Bildern stimmten 317 Einstufungen, 82,6%, mit der menschlichen Überprüfung überein. Als ein Maß der Konsistenz bei dem Verarbeitungsalgorithmus und der resultierenden Linseneinstufung wurden beide von der Maschine aufgenommenen Bilder von dem Algorithmus bearbeitet und in 84% der Fälle waren die Punktzahlen in dem zweiten Durchgang mit denjenigen des ersten identisch.
- Obwohl das Prüfsystem in erster Linie gestaltet ist, um die Linsenkante zu überprüfen, wurden fehlende Linsen aufgrund der bei der Lokalisierung der Linsenkante benutzten Suchvektoren richtig aufgefunden. Da die Linsenkantensuchroutine mehrere Male durchgeführt wird, wurden Linsen mit Löchern detektiert, zusätzliche Stücke aufgefunden und Linsen mit Kantentropfen aufgefunden.
- In der folgenden Tabelle 3 sind die Ergebnisse der dritten Überprüfung unterteilt in negative Beurteilungen der Maschine, positive Beurteilungen der Maschine und korrekte Einstufungen angegeben. Nur 8,1% der Maschinenüberprüfungen waren falsche negative Beurteilungen und 9,4% waren falsche positive Beurteilungen.
- Die Ergebnisse der ersten zwei Schalen waren schlechter als die folgenden vier, da das Wasser Staubverschmutzungen aufgenommen hatte. Und somit ist dies nicht für die Systemleistung kennzeichnend.
- Insgesamt stimmten der menschliche Prüfer und die Maschine 317 mal überein und stimmten sie 67 mal nicht überein. Bei Betrachtung der übereinstimmenden und negativen Beurteilung der Maschine waren die Entscheidungen aus Sicht der Überprüfung akzeptierbar, wobei die Verfügung über die Linse zu 90,6% genau war.
Claims (22)
1. Ein Verfahren zur Inspektion einer ophthalmischen Linse, das die
Schritte umfaßt:
Erzeugen eines beleuchteten Bildes der Linse auf einer Anordnung von
Bildelementen;
Erzeugen von Datenwerten, die die Intensität des beleuchteten Bildes
auf der Anordnung von Bildelementen darstellen; und
Zuordnen eines Positionswertes und eines Bildintensitätswertes, der
die Intensität des Linsenbildes an dem Bildpunkt darstellt, zu jedem der
Bildelemente;
gekennzeichnet durch die Schritte:
Verwenden eines Computers zum
(i) Vergleichen der Positionswerte und der Bildintensitätswerte der
Bildelemente, um Beziehungen unter den Bildpunkten herzustellen,
ii) Identifizieren von Sätzen von Bildelementen in beleuchteten
Bildern mit vorab bestimmten Merkmalen der Linse anhand der Beziehungen, und
iii) Vergleichen der Beziehungen unter den Bildelementen in den
identifizierten Sätzen von Bildelementen mit einer vorab hergestellten
Beziehung, um festzustellen, ob eine Linse akzeptierbar ist.
2. Das Verfahren von Anspruch 1, worin der Vergleich zwischen
Bildelementen entlang eines dem Umriß der Linsenkante (74) folgenden Weges
durchgeführt wird.
3. Das Verfahren von Anspruch 1, worin die Identifikation von
Merkmalen das Sammeln von Bildelementen, die eine Merkmalscharakteristik gemeinsam
haben, zum Erzeugen eines Satzes von Bildelementen umfaßt.
4. Das Verfahren von Anspruch 1, worin der Vergleich unter einem die
Linsenkante (74) umfassenden Satz von Bildelementen stattfindet.
5. Das Verfahren von Anspruch 1, worin der Vergleich unter einem einen
Bereich des Linseninneren umfassenden Satz von Bildelementen stattfindet.
6. Das Verfahren von Anspruch 2, worin die Linsenkante (74) als erstes
an einem Punkt in der Nähe der Mitte der Anordnung von Bildelementen beginnend
und zu der Grenze der Anordnung von Bildelementen voranschreitend, bis ein
Bildelement mit einer Intensitätswertscharakteristik einer Linsenkante
aufgefunden ist, aufgefunden wird.
7. Das Verfahren von Anspruch 6, worin dem Umriß eines Satzes von
verbundenen zusätzlichen Bildelementen in der Nähe des Bildelements mit einer
Intensitätswertscharakteristik einer Linsenkante gefolgt wird, um zu
bestimmen, ob der Umriß derjenige einer Linsenkante (74) ist.
8. Das Verfahren von Anspruch 4, worin ein Verarbeitungskreisring (90)
um die Linsenkante (74) gelegt wird, um die Anzahl von verarbeiteten
Bildelementen auf in der Nähe der Linsenkante befindliche zu beschränken.
9. Das Verfahren von Anspruch 4, worin der Satz von Bildelementen mit
der Linsenkante (74) zusätzlich in zwei Untergruppen von Bildelementen zum
Durchführen des Vergleiches unterteilt wird, wobei eine Untergruppe von
Bildelementen den Übergang von dem Linseninneren zu der Linsenkante und eine
Untergruppe von Bildelementen den Übergang von dem Gebiet außerhalb der Linse
zu der Linsenkante umfaßt.
10. Verfahren von Anspruch 9, worin der Vergleich unter Bildelementen
von der Untergruppe von Bildelementen mit dem Übergang von dem Linseninneren
zu der Linsenkante durchgeführt wird.
11. Das Verfahren von Anspruch 9, worin der Vergleich unter
Bildelementen von der Untergruppe von Bildelementen mit dem Übergang von dem
Gebiet außerhalb der Linse zu der Linsenkante durchgeführt wird.
12. Das Verfahren von Anspruch 9, worin der Vergleich zwischen
Bildelementen von der Untergruppe von Bildelementen mit dem Übergang von dem
Linseninneren zu der Linsenkante und der Untergruppe mit dem Übergang von dem
Gebiet außerhalb der Linse zu der Linsenkante durchgeführt wird.
13. Das Verfahren von Anspruch 4, worin die verglichene Beziehung eine
Unstetigkeit in den die Linsenkante erzeugenden Bildelementen ist.
14. Das Verfahren von Anspruch 4, worin die verglichene Beziehung eine
Gradientenabweichung in der Intensität der die Linsenkante erzeugenden
Bildelemente ist.
15. Das Verfahren von Anspruch 4, worin die verglichene Beziehung eine
radiale Abweichung in der Lage der die Linsenkante erzeugenden Bildelemente
ist.
16. Das Verfahren von Anspruch 4, worin die verglichene Beziehung eine
räumliche Abweichung der Lage der die Linsenkante erzeugenden Bildelemente
ist.
17. Das Verfahren von Anspruch 1, das die Schritte umfaßt:
1) Zuordnen eines der Datenwerte zu jedem von einer Gruppe von
Bildelementen;
2) Auswählen eines der Bildelemente in der Anordnung als ein
interessierendes Bildelement;
3) Bestimmen anhand der Datenwerte, ob das interessierende Bildelement
eine Merkmalscharakteristik aufweist;
wenn das interessierende Bildelement nicht die Merkmalscharakteristik
aufweist,
4a) Auswechseln des interessierenden Bildelements durch ein anderes
Bildelement in der Anordnung von Bildelementen, wobei sowohl das eine und als
auch das andere Bildelement auf einem bestimmten Weg liegen, und
4b) Wiederholen des Schrittes (3);
wenn das interessierende Bildelement die Merkmalscharakteristik
aufweist,
5a) Vergleichen der den Bildelementen, die sich benachbart zu dem
interessierenden Bildelement befinden, zugeordneten Datenwerte.
5b) Bestimmen des benachbarten Bildelements, das die beste Korrelation
mit der Merkmalscharakteristik aufweist;
5c) Auswechseln des interessierenden Bildelements durch dasjenige
benachbarte Bildelement, das die beste Korrelation aufweist;
5d) Wiederholen der Schritte (5a), (5b) und (5c), bis das
interessierende Bildelement die Vervollständigung der Merkmalscharakteristik darstellt;
5e) Bestimmen, ob der von den interessierenden Bildelementen erzeugte
Satz eine Kante des beleuchteten Bildes der Linse erzeugt;
6) Wiederholen der Schritte (4a) und (4b) für diejenigen Sätze von
Bildelementen, die nicht eine Linsenkante darstellen; und
7) Vergleichen der Beziehung zwischen den Bildelementen der Sätze mit
vorab bestimmten Beziehungen, um zu bestimmen, ob die Linse akzeptierbar ist,
für diejenigen Sätze von Bildelementen, die eine Linsenkante darstellen.
18. Das Verfahren von Anspruch 17, worin das Startbildelement sich in
der Nähe der Mitte der Linse befindet und der die Linsenkante kreuzende Weg
sich entlang eines sich von der Mitte der Linse ersteckenden Strahls befindet.
19. Das Verfahren von Anspruch 18, das außerdem in Schritt (6) den
Schritt des Vergleichens des Satzes von Bildelementen, die nicht eine
Linsenkante darstellen, mit einer vorab bestimmten Beziehung umfaßt, um zu
bestimmen, ob die Linse akzeptierbar ist.
20. Das Verfahren von Anspruch 18, worin die ungefähre Mitte der Linse
durch Heranziehen wenigstens eines Satzes von wenigstens drei Punkten mit
einer Kantencharakteristik bestimmt wird.
21. Das Verfahren von Anspruch 17, worin die Merkmalscharakteristik
ein Absolutwert eines Bildintensitätsgradienten ist.
22. Eine Vorrichtung zur Inspektion und Bewertung von ophthalmischen
Linsen, mit:
einer Lichtquelle (14) zum Beleuchten einer Linse (12);
einer Kamera (16) mit einem Empfänger (20), der mehrere Bildelemente
zum Empfangen eines beleuchteten Bildes der Linse (12) einschließt; und
einer Einrichtung (26, 28, 30j zum Erzeugen von Datenwerten, die die
Intensität des beleuchteten Bildes auf jedem Bildelement darstellen;
gekennzeichnet durch
eine Speichereinrichtung (46) zum Speichern der zu jedem Bildelement
gehörigen Bildintensitätswerte und zum Speichern eines zu der Lage jedes
Bildelements in dem Empfänger gehörigen Lagewertes; und
einen digitalisierten Computer (28), der zum Empfangen der
Bildintensitätswerte und Lagewerte mit der Speichereinrichtung (46) verbunden ist und
eine Einrichtung zum Vergleichen der Bildintensitätswerte und der Lagewerte
unter den Bildelementen einschließt und außerdem eine Einrichtung zum
Bestimmen, ob die Merkmale die Linse nicht akzeptierbar machen, einschließt.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US99375692A | 1992-12-21 | 1992-12-21 | |
| US993756 | 1992-12-21 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| DE69320014D1 DE69320014D1 (de) | 1998-09-03 |
| DE69320014T2 true DE69320014T2 (de) | 1999-03-04 |
| DE69320014T3 DE69320014T3 (de) | 2006-08-24 |
Family
ID=25539896
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE69320014T Expired - Lifetime DE69320014T3 (de) | 1992-12-21 | 1993-12-20 | Verfahren und Vorrichtung zur Inspektion von ophthalmischen Linsen |
Country Status (22)
| Country | Link |
|---|---|
| US (1) | US5717781A (de) |
| EP (1) | EP0604179B9 (de) |
| JP (1) | JP3708138B2 (de) |
| KR (1) | KR100233218B1 (de) |
| CN (1) | CN1071893C (de) |
| AT (1) | ATE169109T1 (de) |
| AU (1) | AU668606B2 (de) |
| BR (1) | BR9305148A (de) |
| CA (1) | CA2111738C (de) |
| CZ (1) | CZ278293A3 (de) |
| DE (1) | DE69320014T3 (de) |
| ES (1) | ES2121064T3 (de) |
| FI (1) | FI935739A7 (de) |
| GR (1) | GR1002468B (de) |
| GT (1) | GT199300075A (de) |
| HU (1) | HUT65571A (de) |
| IL (1) | IL107603A (de) |
| MX (1) | MX9400085A (de) |
| NO (1) | NO934708L (de) |
| NZ (1) | NZ250427A (de) |
| TW (1) | TW278133B (de) |
| ZA (1) | ZA939538B (de) |
Families Citing this family (68)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GR1002574B (el) * | 1992-12-21 | 1997-02-06 | Johnson & Johnson Vision Products Inc. | Παλλετα για την υποδοχη και μεταφορα δοχειων οφθαλμικων φακων. |
| IL107605A (en) * | 1992-12-21 | 1998-01-04 | Johnson & Johnson Vision Prod | Lens inspection system |
| TW325744U (en) * | 1993-07-21 | 1998-01-21 | Ciba Geigy Ag | Two-sided contact lens mold |
| DE69402281T2 (de) * | 1993-09-17 | 1997-09-04 | Essilor Int | Verfahren und Gerät zur absoluten Messung der geometrischen oder optischen Struktur eines optischen Bestandteiles |
| US5528878A (en) | 1994-06-10 | 1996-06-25 | Johnson & Johnson Vision Products, Inc. | Automated apparatus and method for consolidating products for packaging |
| US6148097A (en) * | 1995-06-07 | 2000-11-14 | Asahi Kogaku Kogyo Kabushiki Kaisha | Optical member inspecting apparatus and method of inspection thereof |
| FR2743241B1 (fr) * | 1995-12-28 | 1998-02-13 | Sagem | Procede de modification de la resolution d'une image numerisee |
| US5818573A (en) * | 1997-02-06 | 1998-10-06 | Pbh, Inc. | Opthalmic lens inspection system |
| US5801822A (en) * | 1997-02-06 | 1998-09-01 | Pbh, Inc. | Ophthalmic lens inspection system |
| US6113817A (en) * | 1997-03-25 | 2000-09-05 | Novartis Ag | Molding processes |
| US6625318B1 (en) * | 1998-11-13 | 2003-09-23 | Yap-Peng Tan | Robust sequential approach in detecting defective pixels within an image sensor |
| DE29901791U1 (de) * | 1999-02-02 | 2000-07-06 | Novartis Ag, Basel | Linsenmesseinrichtung |
| US6567565B1 (en) * | 1999-07-22 | 2003-05-20 | Xerox Corporation | Antialiased image rendering algorithm |
| WO2001080068A1 (en) * | 2000-04-14 | 2001-10-25 | Mobileye, Inc. | Generating a model of the path of a roadway from an image recorded by a camera |
| US7474337B1 (en) * | 2000-10-24 | 2009-01-06 | Sony Corporation | Method and apparatus to provide edge enhancements as part of a demosaicing process |
| US6577387B2 (en) | 2000-12-29 | 2003-06-10 | Johnson & Johnson Vision Care, Inc. | Inspection of ophthalmic lenses using absorption |
| EP1245372B1 (de) | 2001-03-26 | 2011-09-28 | Novartis AG | Giessform und Verfahren zur Herstellung von opthalmischen Linsen |
| DE10146499B4 (de) * | 2001-09-21 | 2006-11-09 | Carl Zeiss Smt Ag | Verfahren zur Optimierung der Abbildungseigenschaften von mindestens zwei optischen Elementen sowie Verfahren zur Optimierung der Abbildungseigenschaften von mindestens drei optischen Elementen |
| US6788399B2 (en) * | 2001-11-30 | 2004-09-07 | Bausch & Lomb Incorporated | Ophthalmic article inspection system |
| US7256881B2 (en) | 2002-02-15 | 2007-08-14 | Coopervision, Inc. | Systems and methods for inspection of ophthalmic lenses |
| JP2005518537A (ja) * | 2002-02-21 | 2005-06-23 | ジョンソン・アンド・ジョンソン・ビジョン・ケア・インコーポレイテッド | 光学素子検査方法及び装置 |
| FR2838513B1 (fr) * | 2002-04-12 | 2004-09-10 | Essilor Int | Procede pour relever la forme d'un contour d'une lentille ophtalmique prealablement usinee |
| TWI224860B (en) * | 2004-03-18 | 2004-12-01 | Pixart Imaging Inc | Automatically-packaging apparatus which can package an optical sensing module with a preferred distance between a lens and an optical sensor |
| GB2417073A (en) * | 2004-08-13 | 2006-02-15 | Mv Res Ltd | A machine vision analysis system and method |
| US7038185B1 (en) * | 2004-12-01 | 2006-05-02 | Mitsubishi Electric Research Laboratories, Inc. | Camera for directly generating a gradient image |
| JP4764040B2 (ja) * | 2005-03-18 | 2011-08-31 | キヤノン株式会社 | レンズの非球面の偏心軸の偏心測定方法 |
| US20060232766A1 (en) * | 2005-03-31 | 2006-10-19 | Watterson Robert J Jr | Methods of inspecting ophthalmic lenses |
| US7663742B2 (en) * | 2005-11-24 | 2010-02-16 | Novartis Ag | Lens inspection system using phase contrast imaging |
| CN100468034C (zh) * | 2006-03-02 | 2009-03-11 | 久元电子股份有限公司 | 光学式物距模拟装置 |
| US7786898B2 (en) | 2006-05-31 | 2010-08-31 | Mobileye Technologies Ltd. | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications |
| US8122878B1 (en) * | 2006-10-20 | 2012-02-28 | Energy Innovations, Inc. | Solar concentrator with camera alignment and tracking |
| CN101329281B (zh) * | 2007-06-20 | 2011-08-10 | 佛山普立华科技有限公司 | 影像感测晶片污点检测系统及其检测方法 |
| JP4991499B2 (ja) * | 2007-11-28 | 2012-08-01 | 株式会社日立ハイテクノロジーズ | レチクル検査装置及びレチクル検査方法 |
| US8358828B2 (en) * | 2007-12-28 | 2013-01-22 | Cadence Design Systems, Inc. | Interpolation of irregular data in a finite-dimensional metric space in lithographic simulation |
| JP2009170019A (ja) * | 2008-01-15 | 2009-07-30 | Taiyo Yuden Co Ltd | 光ディスクの表面評価方法及び光ディスク記録再生装置 |
| US7990531B2 (en) * | 2008-06-05 | 2011-08-02 | Coopervision International Holding Company, Lp | Multi-imaging automated inspection methods and systems for wet ophthalmic lenses |
| TWI875491B (zh) | 2010-07-30 | 2025-03-01 | 瑞士商愛爾康公司 | 水合隱形鏡片 |
| US8696117B2 (en) * | 2010-09-14 | 2014-04-15 | Truform Optics | Fitting a contact lens |
| US8699813B2 (en) * | 2010-11-19 | 2014-04-15 | Analog Devices, Inc | Adaptive filter for low-light noise reduction |
| US20120133958A1 (en) | 2010-11-30 | 2012-05-31 | Widman Michael F | Laser confocal sensor metrology system |
| JP2012196245A (ja) * | 2011-03-18 | 2012-10-18 | Canon Inc | 眼科情報処理装置及びその制御方法 |
| CA2851668C (en) | 2011-10-12 | 2016-08-16 | Novartis Ag | Method for making uv-absorbing ophthalmic lenses by coating |
| US8832621B1 (en) | 2011-11-28 | 2014-09-09 | Cadence Design Systems, Inc. | Topology design using squish patterns |
| WO2013119775A1 (en) | 2012-02-10 | 2013-08-15 | Johnson & Johnson Vision Care, Inc. | Method and apparatus for determining a thickness profile of an ophthalmic lens using a single point thickness and refractive index measurements |
| CN102768214B (zh) * | 2012-05-28 | 2014-09-03 | 明基材料有限公司 | 隐形眼镜检测系统与方法 |
| US8606011B1 (en) | 2012-06-07 | 2013-12-10 | Amazon Technologies, Inc. | Adaptive thresholding for image recognition |
| US9147275B1 (en) | 2012-11-19 | 2015-09-29 | A9.Com, Inc. | Approaches to text editing |
| US9043349B1 (en) | 2012-11-29 | 2015-05-26 | A9.Com, Inc. | Image-based character recognition |
| CN104871036B (zh) | 2012-12-17 | 2019-12-10 | 诺华股份有限公司 | 制备改进的uv吸收性眼用透镜的方法 |
| US9342930B1 (en) | 2013-01-25 | 2016-05-17 | A9.Com, Inc. | Information aggregation for recognized locations |
| US9256795B1 (en) | 2013-03-15 | 2016-02-09 | A9.Com, Inc. | Text entity recognition |
| TW201508254A (zh) * | 2013-08-27 | 2015-03-01 | Hon Hai Prec Ind Co Ltd | 鏡頭模組的測量方法 |
| TWI698628B (zh) * | 2013-10-08 | 2020-07-11 | 新加坡商億美視覺私人有限公司 | 用於檢查潮溼眼用鏡片的系統及方法 |
| US9424598B1 (en) | 2013-12-02 | 2016-08-23 | A9.Com, Inc. | Visual search in a controlled shopping environment |
| MY180543A (en) | 2013-12-17 | 2020-12-01 | Novartis Ag | A silicone hydrogel lens with a crosslinked hydrophilic coating |
| CN106537110A (zh) | 2014-05-15 | 2017-03-22 | 伊麦视觉私人有限公司 | 用于检查眼镜镜片的系统和方法 |
| US9536161B1 (en) | 2014-06-17 | 2017-01-03 | Amazon Technologies, Inc. | Visual and audio recognition for scene change events |
| CN106715101B (zh) | 2014-08-26 | 2019-11-05 | 诺华股份有限公司 | 用于在硅酮水凝胶接触镜片上施用稳定的涂层的方法 |
| FR3039660B1 (fr) * | 2015-07-30 | 2017-09-08 | Essilor Int | Methode de verification d'une caracteristique geometrique et d'une caracteristique optique d'une lentille ophtalmique detouree et dispositif associe |
| CN108369291B (zh) | 2015-12-15 | 2021-07-20 | 爱尔康公司 | 用于将稳定的涂层施加在硅酮水凝胶接触镜片上的方法 |
| SG11201903172TA (en) * | 2016-10-18 | 2019-05-30 | Eyoto Group Ltd | Lens examination equipment and method |
| EP3388813B1 (de) * | 2017-04-13 | 2021-09-29 | Carl Zeiss Vision International GmbH | Verfahren zur herstellung eines brillenglases gemäss wenigstens eines datensatzes von formranddaten |
| HUE057348T2 (hu) | 2017-12-13 | 2022-05-28 | Alcon Inc | Eljárás MPS-kompatibilis hidrogradiens kontaktlencsék elõállítására |
| DE102018222140B3 (de) * | 2018-12-18 | 2020-02-06 | Siemens Mobility GmbH | Ermitteln einer Durchlassgüte einer Optikeinheit eines Kamerasystems |
| CN116503397B (zh) * | 2023-06-26 | 2023-09-01 | 山东天通汽车科技股份有限公司 | 基于图像数据的车内传输带缺陷检测方法 |
| CN116883446B (zh) * | 2023-09-08 | 2023-11-21 | 鲁冉光电(微山)有限公司 | 一种车载摄像头镜片碾磨程度实时监测系统 |
| CN117269179B (zh) * | 2023-11-23 | 2024-02-02 | 平方和(北京)科技有限公司 | 基于机器视觉的隐形眼镜边缘缺陷的高精度检测方法和系统 |
| CN118570208B (zh) * | 2024-08-02 | 2024-11-12 | 深圳市锦兆电子科技股份有限公司 | 基于机器视觉的镜片组件缺陷识别方法及系统 |
Family Cites Families (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| NL112574C (de) † | 1958-01-14 | 1900-01-01 | ||
| DD138110A1 (de) * | 1978-07-27 | 1979-10-10 | Horst Riesenberg | Auflicht-beleuchtungseinrichtung fuer mikroskope |
| US4275964A (en) † | 1979-05-18 | 1981-06-30 | Rodenstock Instruments Corporation | Apparatus and method for determining the refractive characteristics of a test lens |
| DE3115634A1 (de) * | 1981-04-18 | 1982-11-04 | Feldmühle AG, 4000 Düsseldorf | Verfahren und vorrichtung zum pruefen von durch kreislinien begrenzten flaechen |
| US4598420A (en) * | 1983-12-08 | 1986-07-01 | Mts Systems Corporation | Optical grid analyzer system for automatically determining strain in deformed sheet metal |
| JPS60159637A (ja) † | 1984-01-31 | 1985-08-21 | Kirin Brewery Co Ltd | 欠陥検出方法および装置 |
| DE3432002A1 (de) * | 1984-08-31 | 1986-03-06 | Fa. Carl Zeiss, 7920 Heidenheim | Verfahren und vorrichtung zur optischen untersuchung von kontaktlinsen |
| GB2171812B (en) * | 1984-11-20 | 1988-08-17 | Michael Roy Killpartrick | Wet cell inspection of contact lenses |
| JPH0616013B2 (ja) † | 1984-11-22 | 1994-03-02 | 肇産業株式会社 | 自動検査装置 |
| JPS61223542A (ja) † | 1985-03-28 | 1986-10-04 | Eisai Co Ltd | アンプルの溶閉不良検出方法及び装置 |
| US4691231A (en) † | 1985-10-01 | 1987-09-01 | Vistech Corporation | Bottle inspection system |
| US4817184A (en) * | 1986-04-14 | 1989-03-28 | Vartec Corporation | Electronic inspection system and methods of inspection |
| US4817166A (en) * | 1986-05-05 | 1989-03-28 | Perceptics Corporation | Apparatus for reading a license plate |
| DD249525A1 (de) † | 1986-06-02 | 1987-09-09 | Zeiss Jena Veb Carl | Anordnung zum fotoelektrischen erkennen des zusammenfallens zweier objektbilder |
| DE3629676A1 (de) * | 1986-09-01 | 1988-03-10 | Rodenstock Instr | Einrichtung zur messung der refraktionseigenschaften von brillenglaesern |
| US4798460A (en) * | 1986-11-07 | 1989-01-17 | Buffington Robert D | Method and apparatus for detecting and modifying peripheral curves and junction ridges in contact lenses |
| JPH0711494B2 (ja) † | 1988-06-16 | 1995-02-08 | 松下電工株式会社 | 透光性容器の検査方法 |
| US5081685A (en) * | 1988-11-29 | 1992-01-14 | Westinghouse Electric Corp. | Apparatus and method for reading a license plate |
| JPH02257007A (ja) * | 1989-03-30 | 1990-10-17 | Seiko Epson Corp | コンタクトレンズ外周欠け検査装置 |
| FR2647912B1 (fr) † | 1989-06-05 | 1991-09-13 | Essilor Int | Dispositif optique a reseau pour le controle, en transmission, par detection de phase, d'un quelconque systeme optique, en particulier d'une lentille ophtalmique |
| US5094609A (en) * | 1990-04-17 | 1992-03-10 | Vistakon, Inc. | Chamber for hydrating contact lenses |
| US5080839A (en) * | 1990-04-17 | 1992-01-14 | Johnson & Johnson Vision Products, Inc. | Process for hydrating soft contact lenses |
| JP2942596B2 (ja) * | 1990-07-06 | 1999-08-30 | 株式会社ニデック | 自動レンズメーター |
| JP2981762B2 (ja) † | 1990-08-21 | 1999-11-22 | 三菱電線工業株式会社 | Oリング検査方法 |
| US5100232A (en) * | 1990-11-05 | 1992-03-31 | American Optical Corporation | Apparatus and method for detecting hidden marks on progressive aspheric ophthalmic lenses |
| JPH0776757B2 (ja) * | 1990-12-14 | 1995-08-16 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 光学的検査装置 |
| AU649291B2 (en) * | 1990-12-19 | 1994-05-19 | Bodenseewerk Geratetechnik Gmbh | Process and apparatus for examining optical components, especially optical components for the eye and device for illuminating clear-transparent test-objects |
| JPH04305144A (ja) * | 1991-04-01 | 1992-10-28 | Seiko Epson Corp | コンタクトレンズ外周欠け検査装置 |
| US5301004A (en) † | 1992-03-13 | 1994-04-05 | Leica Inc. | Method and apparatus for determining the optical properties of a lens |
-
1993
- 1993-11-14 IL IL10760393A patent/IL107603A/xx not_active IP Right Cessation
- 1993-11-25 AU AU51944/93A patent/AU668606B2/en not_active Expired
- 1993-11-25 HU HU9303348A patent/HUT65571A/hu unknown
- 1993-12-01 GR GR930100477A patent/GR1002468B/el unknown
- 1993-12-10 NZ NZ250427A patent/NZ250427A/en unknown
- 1993-12-15 GT GT199300075A patent/GT199300075A/es unknown
- 1993-12-16 CZ CZ932782A patent/CZ278293A3/cs unknown
- 1993-12-17 CA CA002111738A patent/CA2111738C/en not_active Expired - Lifetime
- 1993-12-17 KR KR1019930028178A patent/KR100233218B1/ko not_active Expired - Lifetime
- 1993-12-20 FI FI935739A patent/FI935739A7/fi not_active Application Discontinuation
- 1993-12-20 ZA ZA939538A patent/ZA939538B/xx unknown
- 1993-12-20 AT AT93310342T patent/ATE169109T1/de not_active IP Right Cessation
- 1993-12-20 DE DE69320014T patent/DE69320014T3/de not_active Expired - Lifetime
- 1993-12-20 ES ES93310342T patent/ES2121064T3/es not_active Expired - Lifetime
- 1993-12-20 BR BR9305148A patent/BR9305148A/pt not_active IP Right Cessation
- 1993-12-20 NO NO934708A patent/NO934708L/no unknown
- 1993-12-20 JP JP34480093A patent/JP3708138B2/ja not_active Expired - Lifetime
- 1993-12-20 EP EP93310342A patent/EP0604179B9/de not_active Expired - Lifetime
- 1993-12-21 CN CN93119892A patent/CN1071893C/zh not_active Expired - Lifetime
-
1994
- 1994-01-03 MX MX9400085A patent/MX9400085A/es not_active IP Right Cessation
- 1994-02-28 TW TW083101672A patent/TW278133B/zh not_active IP Right Cessation
-
1996
- 1996-02-07 US US08/598,068 patent/US5717781A/en not_active Expired - Lifetime
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69320014T2 (de) | Verfahren und Vorrichtung zur Inspektion von ophthalmischen Linsen | |
| DE69319875T3 (de) | Beleuchtungs- und Abbildungs-Teilsysteme für ein Linseninspektionssystem | |
| DE3612233C2 (de) | ||
| DE68923353T2 (de) | Anordnung und Verfahren zum Ermitteln von Fehlern in zu prüfenden Mustern. | |
| DE69531805T2 (de) | Inspektion einer Kontaktlinse mit einer Beleuchtung mit Doppelfokus | |
| DE3587846T2 (de) | Verfahren und Gerät zum Prüfen der Geometrie von Mehrschichtmustern für integrierte Schaltungsstrukturen. | |
| DE69330008T2 (de) | Verfahren und Vorrichtung zur automatischen Inspektion von ophthalmischen Linsen | |
| DE3937950A1 (de) | Verfahren zum pruefen optischer oberflaechen | |
| DE69032459T2 (de) | Verfahren und Gerät zur Untersuchung eines leitenden Musters auf einer Leiterplatte | |
| DE3336471A1 (de) | Verfahren und anordnung zur inspektion von bildern | |
| EP1132732A2 (de) | Verfahren zur Bewertung von strukturfehlern auf einer Waferoberfläche | |
| EP0938662B1 (de) | Verfahren zum testen der zuverlässigkeit eines prüfgerätes, insbesondere eines leerflascheninspektors | |
| DE2830846A1 (de) | Vorrichtung zum ermitteln von fehlern in flaechenhaften mustern, insbesondere in photomasken | |
| EP0991934B1 (de) | Verfahren zur fokussierung bei der abbildung strukturierter oberflächen von scheibenförmigen objekten | |
| DE2700252C2 (de) | Verfahren zum Prüfen definierter Strukturen | |
| DE2653590A1 (de) | Vorrichtung zum ermitteln von fehlern in flaechenhaften mustern, insbesondere in photomasken | |
| DE112005000828B4 (de) | Vorrichtung und Verfahren zur Prüfung von Halbleiter-Wafern | |
| DE4408291C2 (de) | Verfahren zur automatisierten optischen Prüfung einer Schweißnaht eines Bauteils unter Anwendung des Lichtschnittverfahrens | |
| DE4434475A1 (de) | Verfahren und Vorrichtung zur Qualitätskontrolle eines Gegenstandes | |
| WO1998021567A1 (de) | Verfahren zum testen der zuverlässigkeit eines prüfgerätes, insbesondere eines leerflascheninspektors | |
| DE102008001174A1 (de) | Inspektionssystem und -verfahren für die optische Untersuchung von Objektoberflächen, insbesondere von Waferoberflächen | |
| DE19612939C2 (de) | Verfahren und Einrichtung zur Auswahl von Meßgebieten bei der Vermessung von Strukturbreiten und Überdeckungsgenauigkeiten in Herstellungsprozessen für integrierte Schaltkreise | |
| DE20317095U1 (de) | Vorrichtung zur Erkennung von Oberflächenfehlern | |
| DE102020216419A1 (de) | Verfahren zum Bestimmen einer Astigmatismuskorrektur | |
| HK1003444B (en) | Ophthalmic lens inspection method and apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8363 | Opposition against the patent | ||
| 8366 | Restricted maintained after opposition proceedings | ||
| 8328 | Change in the person/name/address of the agent |
Representative=s name: BOEHMERT & BOEHMERT, 28209 BREMEN |