[go: up one dir, main page]

DE69826753T2 - Optischer Profilsensor - Google Patents

Optischer Profilsensor Download PDF

Info

Publication number
DE69826753T2
DE69826753T2 DE69826753T DE69826753T DE69826753T2 DE 69826753 T2 DE69826753 T2 DE 69826753T2 DE 69826753 T DE69826753 T DE 69826753T DE 69826753 T DE69826753 T DE 69826753T DE 69826753 T2 DE69826753 T2 DE 69826753T2
Authority
DE
Germany
Prior art keywords
profile
value
points
determining
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69826753T
Other languages
English (en)
Other versions
DE69826753D1 (de
Inventor
Kenneth A. Uncasville Pietrzak
Farooq Manchester Bari
Leroy G. Vernon Puffer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RTX Corp
Original Assignee
United Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by United Technologies Corp filed Critical United Technologies Corp
Publication of DE69826753D1 publication Critical patent/DE69826753D1/de
Application granted granted Critical
Publication of DE69826753T2 publication Critical patent/DE69826753T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

  • Die Erfindung betrifft optische Sensoren, insbesondere optische Sensoren zum Bestimmen des Profils eines Gegenstands.
  • Präzisionsbauteile müssen häufig strengen Anforderungen bezüglich Abmessungen, Profil und Oberflächenzustand genügen, beispielsweise wird eine Kante an einem Flugzeugmotor-Propellerblatt gemäß strengen Normen für sämtliche der oben angegebenen Eigenschaften verarbeitet. Somit wird ein Inspektionssystem benötigt, mit welchem derartige Messungen vorgenommen werden können.
  • Das Propellerblatt oder die Tragfläche wird häufig mit Hilfe von Schablonen oder Messlehren überprüft, die an dem interessierenden Strukturmerkmal angebracht und durch In-Augenscheinnahme auf Passung geprüft wird. Ein weiteres Prüfverfahren beinhaltet das Andrücken eines Wachsstabs an die Propellerblattkante, um dadurch einen Eindruck der Propellerblattkante zu erhalten, der Wachseindruck wird dann von dem Propellerblatt abgenommen, von hinten beleuchtet, vergrößert und auf einen Bildschirm projiziert, um eine Abmessungsprüfung mit Hilfe einer Kunststoffschablone vorzunehmen. Allerdings ist keines dieser Verfahren exakt genug, um den strengen Prüfanforderungen zu genügen, die für solche kritischen Bauteile gefordert werden.
  • Alternativ werden Propellerblätter oder Laufschaufeln häufig mit einer Koordinatenmessmaschine (CMM) geprüft, die mit einer Berührungssonde ausgerüstet sind. Das Messen einer Propellerblattkante mit Hilfe einer Berührungssonde ist allerdings eine schwierige Aufgabe. Darüber hinaus benötigt eine CMM-Maschine im allgemeinen Stunden, um eine einzelne Blattkante auszumessen. Insgesamt lassen derartige Unzulänglichkeiten erkennen, dass mechanische Prüfgeräte von sich aus in ihre Fähigkeit beim exakten und raschen Messen von Bauteilen mit komplexen Profilen begrenzt sind. Deshalb wird anstelle eines mechanischen Sensors ein optischer Sensor gesucht.
  • Ein optischer Sensor zum Messen des Profils einer Blattkante wurde in einer zum Stand der Technik zählenden Druckschrift vorgeschlagen (Chiarella, M. und Pietrzak, K. A., "An Accurate Calibration Technique for 3-D Laser Stripe Sensors", Proceedings of the SPIE Conference on Optics, Illumination, and Image Sensing for Machine Vision IV, SPIE Vol. 1194, Nov. 8–10, 1989, Seiten 176–185). Dieser Sensor verwendet eine Lichtquelle, um eine Ebene des Lichts in Richtung auf die Oberfläche eines Blatts zu projizieren, um dadurch die Oberfläche zu beleuchten, und zwar in der Form eines Streifens. Das Profil der beleuchteten Oberfläche wird dann von einer Kamera aufgenommen. Allerdings hat ein derartiger Sensor deshalb eine begrenzte Kapazität, da er nur einen kleinen Ausschnitt der Blattkante zu einer Zeit beleuchten und aufnehmen kann. Wird er bewegt, um einen anderen Abschnitt der Blattkante aufzunehmen, so können die Ansichten deshalb nicht kombiniert werden, weil jede Ansicht einer anderen Perspektive entspricht und es keine gemeinsame Bezugsgröße gibt, mit welcher sie kombiniert werden könnten. Deshalb vermisst dieser Sensor nicht das Gesamtprofil der Blattkante.
  • Es gibt verschiedene andere optische Sensoren, die allerdings in keinem Fall gut geeignet sind, um das Profil der Kante eines Blatts zu ermitteln. Beispielsweise kombiniert die sog. Stereovision Bilder aus mehreren Kameras, um dies allerdings zu bewerkstelligen, ist es erforderlich, dass ein spezielles unterscheidbares Merkmal sich im Blickfeld sämtlicher Kameras zur gleichen Zeit befindet. Dies ist bei Propellerblätterkanten deshalb nicht praktikabel, weil es an der Kante eines Propellerblatts keine derartigen Merkmale gibt. Zum Beleuchten, Betrachten und Aufnehmen des Abstands zu einem Punkt auf einer Oberfläche gibt es optische Triangulationsverfahren. Eine Oberflächenkontur lässt sich ermitteln, indem man die Oberfläche abtastet, d. h. durch sukzessives Beleuchten, Beobachten und Ermitteln des Abstands zu unterschiedlichen Punkten auf der Oberfläche. Dies ist aber besonders schwierig bei einer Oberfläche mit einem komplexen Profil wie dem einer Propellerblattkante. Darüber hinaus erfordert die Triangulation, dass die Lage sämtlicher optischer Komponenten exakt bekannt ist. Darüber hinaus kann die Triangulation typischerweise nicht optische Mängel wie z. B. eine Linsenverzerrung kompensieren. Zum Kombi nieren von Bildern aus Kameras, die verschiedene Abschnitte eines Objekts abbilden, kann ein Spezialeffekt-Generator verwendet werden, allerdings hat diese Methode nur begrenzte Genauigkeit, wenn nicht sämtliche Kameras präzise in Bezug auf den Gegenstand und in Bezug aufeinander orientiert sind. Aufgrund dieser Beschränkung eignet sich diese Methode im allgemeinen nicht zur Verwendung beim Ermitteln des Profils einer Propellerblatt- oder Laufschaufelkante.
  • In einem mit der Stereovision verwandten System projiziert ein Sensor Referenzmerkmale auf die zu profilierende Oberfläche, um Referenzgrößen zum Kombinieren von Aufnahmen aus mehreren Kameras zu haben. Ein derartiger Sensor beispielsweise verwendet zwei (linienförmige) Lichtquellen und zwei Kameras zum Messen des Querprofils des Kopfes einer Schiene eines Eisenbahngleises (US-Patent 4 531 837). Der Kopf besitzt eine im Großen und Ganzen flache Oberseite. Die Lichtquellen werden auf den Kopf projiziert aus Winkeln von oben, um das Profil zu beleuchten. Eine Diskontinuität in der Beleuchtung, d. h. ein dunkler Punkt, ist auf dem flachen oberen Teil des Kopfes vorgesehen. Jede Kamera blickt auf den dunklen Fleck und eine Seite des Profils. Der dunkle Fleck bildet einen gemeinsamen Referenzpunkt, der beim Kombinieren der Aufnahmen verwendet wird. Ein derartiges System kann allerdings nur bei Oberflächen eingesetzt werden, die spezielle Geometrien aufweist, z. B. eine flache Oberseite besitzen. Hingegen ist dieses System nicht praktikabel bei komplizierten Profilen wie beispielsweise denen einer Propellerblattkante. Erstens besitzt die Propellerblattkante keine keine große Flachseite, die sich zum Projizieren eines solchen Flecks eignet. Zweitens würde ein Fleck kritische Aspekte des Kantenprofils verbergen.
  • Gesucht wird also ein verbessertes optisches Prüfgerät zum raschen und exakten Vermessen von Propellerblatt- oder Flügelkanten-Kanten anderer Bauteile mit kritischen Abmessungen und/oder komplizierten Profilen. Zumindest sollte ein derartiges Gerät imstande sein, das gesamte Profil einer Flügelkante zu bestimmen, d. h. in der Lage sein, beide Seiten der Flügel- oder Blattkante aufzunehmen und die beiden Aufnahmen zu kombinieren, um ein vollständiges Profil zu bilden.
  • Ein Verfahren zum raschen und exakten Auswerten des Profils wird ebenfalls gesucht. Ein traditionelles Verfahren erfordert, dass ein Querschnitt des gesamten Flügels, nicht nur der Kante, ermittelt wird. Dann erfolgt eine bestmögliche Anpassung des Blattquerschnitts, und es wird für jeden Punkt an der Kante eine Normalabweichung errechnet. Dieses Verfahren hat zahlreiche Nachteile. Es erfordert Messungen an Flügelabschnitten, die nicht von vorrangiger Bedeutung sind, es ist langsam, und es ist anfällig für das Antreffen von Fehlern während der Datenmanipulation. Es wird also ein besseres Verfahren gesucht.
  • Die WO 96/00159 zeigt eine Vorrichtung und ein Verfahren mit Merkmalen der Oberbegriffe der Ansprüche 1 und 7.
  • Gemäß einem ersten Aspekt schafft die Erfindung eine Vorrichtung nach Anspruch 1. Gemäß einem zweiten Aspekt schafft die Erfindung ein Verfahren nach Anspruch 7.
  • Vorzugsweise ist der Bildprozessor dazu ausgebildet, die Ausgangssignale der optischen Detektoren miteinander zu verknüpfen, ohne ein Merkmal des Inhalts der Ausgangssignale zu verwenden. Der projizierte Lichtstreifen kann in einer Zielzone im Großen und Ganzen planar sein, er kann außerdem im wesentlichen rechtwinklig zur Oberfläche des Gegenstands verlaufen. Die Detektoren können nahezu parallel zur Oberfläche des Gegenstands abgewinkelt sein. Die Detektoren können Videokameras sein. Die Vorrichtung kann verwendet werden zum Ermitteln des Profils irgendeines geeigneten Gegenstands, einschließlich – aber ohne Beschränkung – Kanten von Gegenständen sowie Vorder- und Rückkanten von Tragflächen. Die Vorrichtung kann weiterhin eine Einrichtung zum Vergleichen eines Profils mit einem Nennprofil und/oder eine Einrichtung zum Ausführen von Messungen an dem Profil aufweisen.
  • In einer bevorzugten Ausführungsform kann das Profil mit Hilfe eines Verfahrens ausgewertet werden, welches folgende Schritte beinhaltet: Drehen des Profils, um es so zu orientieren, dass eine seiner beiden Seiten im wesentlichen parallel zu einer Koordinatenachse verläuft, und Anordnen der Spitze durch Feststellen, welcher Punkt den extremsten Koordinatenwert in einer Richtung entlang der Koordinatenachse aufweist. Dieses Verfahren ermittelt rasch und genau die Stelle der Profilspitze und kann als Grundlage zur weiteren Auswertung des Profils dienen. Es ist nicht anfällig für während der Datenmanipulation anfallende Fehler, noch erfordert es Messungen anderer Profilabschnitte, die keine wesentliche Bedeutung haben. Das Verfahren kann das Auffinden und Ermitteln einer Linie eines relativ flachen Abschnitts einer Seite des Profils und das Drehen des Profils in der Weise beinhalten, dass das Profil so orientiert ist, dass die Linie im wesentlichen parallel zu der Koordinatenachse verläuft.
  • In einer bevorzugten Ausführungsform kann das Profil mit Hilfe eines Verfahrens ausgewertet werden, welches folgende Schritte aufweist: Ausrichten des Profils mit einem Profiltoleranzband in einem Koordinatensystem, Bereitstellen mehrerer Speicherstellen zum Abspeichern von Werten, wobei jedes der Speicherelemente zu einem Punkt in dem Koordinatensystem gehört, Einstellen des in jeder der Speicherstellen gespeicherten Werts, wobei solche Speicherstellen, die nicht zu Punkten des Toleranzbands gehören, auf einen ersten Wert eingestellt werden, hingegen solche Speicherstellen, die zu Punkten des Toleranzbands gehören, auf einen zweiten Wert eingestellt werden; und Feststellen, ob die Punkte des Profils innerhalb des Toleranzbands liegen, indem der Wert der Speicherstellen ausgewertet wird, die zu Punkten des Profils gehören. Dieses Verfahren ermöglicht einen raschen und exakten Vergleich des Profils mit einem Profiltoleranzband. Wie bei dem oben angesprochenen Verfahren ist auch dieses Verfahren nicht anfällig für während der Datenmanipulation auftretende Fehler, noch erfordert es Messungen an anderen Profilabschnitten, die nicht von besonderer Bedeutung sind. Die Speicherstellen können jene eines Videoanzeigesystems sein, wobei die Werte eine Farbe an einer Stelle auf der Anzeige des Anzeigesystems repräsentieren können.
  • Bei einer weiteren Ausführungsform wird die Breite des Profils einer Flügelkante mit Hilfe eines Verfahrens ermittelt, das folgende Schritte aufweist: Bestimmen der Spitze des Profils, Bestimmen eines Medians und eines Punkts auf dem Median mit einem Abstand von der Stütze; Bestimmen einer Linie, die rechtwinklig zu dem Median verläuft und den bestimmten Punkt auf dem Median enthält; Bestimmen von zwei Gruppen von Punkten, eine Gruppe für jede Seite des Profils und in der Nähe der Stelle, an der die rechtwinklige Linie die Seite des Profils schneidet; Bestimmen von zwei geschnittenen Linien, von denen eine jeweils für eine der beiden Gruppen von Punkten steht; und Bestimmen der Breite als die Länge der rechtwinkligen Linie, die zwischen den beiden geschnittenen Linien liegt. Dieses Verfahren ermöglicht ein rasches und exaktes Festellen der Breite (Dicke) des Profils. Wie bei den oben angesprochenen Verfahren ist auch dieses Verfahren nicht anfällig für während der Datenmanipulation auftretenden Fehler, noch erfordert es Messungen an anderen Profilabschnitten, die keine besondere Bedeutung haben.
  • Im Folgenden wird eine Ausführungsform der Erfindung lediglich beispielhaft unter Bezugnahme auf die Zeichnungen erläutert. Es zeigen:
  • 1 eine Kombination einer perspektivischen Ansicht eines Kantenabschnitts einer Tragfläche und einer vereinfachten auseinander gezogenen perspektivischen Ansicht eines optischen Sensors mit dessen angedeutetem Deckel und einer optischen Kopplung, vereint mit einem vereinfachten Blockdiagramm eines elektronischen Bildverarbeitungssystems zum Empfangen und Auswerten von Signalen, die von dem optischen Sensor empfangen werden, gemäß der Erfindung;
  • 2 eine stilisierte Darstellung von zwei Ansichten der Kante der Tragfläche bei Betrachtung mit dem in 1 gezeigten optischen Sensor;
  • 3 eine perspektivische Ansicht eines Bedieners, der von Hand den optischen Sensor nach 1 an der Kante der Tragfläche positioniert;
  • 4 eine Darstellung einer Anzeige, die von dem Bildprozessor nach 1 geliefert wird und Darstellungen von Bildern zeigt, die von dem Sensor unter optimaler Abwinkelung des Sensors an der Kante der Tragfläche empfangen werden;
  • 5 ein vereinfachtes Flussdiagramm einer beispielhaften Ausführungsform der Bildverarbeitungsschritte, die von dem in 1 gezeigten Bildprozessor ausgeführt werden können;
  • 6A eine grafische Darstellung eines Bildes in einer zweidimensionalen Koordinatenebene xf, yf, wobei um einen Teil des Bildes ein Kasten gezogen ist;
  • 6B eine Tabelle von Elementbeträgen in einem Abschnitt eines Wickelfeldes, welches den Kastenbereich des Bildes in 6A darstellt, wobei um die auf der Mittellinie liegenden Beträge Kreise gezogen sind;
  • 6C eine Tabelle von Koordinatenpaaren in einem Abschnitt eines Profilfeldes entsprechend dem in 6 gezeigten Abschnitt des Pixelfeldes;
  • 7 ein vereinfachtes Blockdiagramm, welches die bei der Ausführungsform der Erfindung verwendete Transformation veranschaulicht;
  • 8 eine in der X/Y-Koordinaten-Ebene liegende grafische Darstellung der Dreh- und Translationsschritte, die dazu dienen, die Koordinaten des Kantenprofils auszurichten mit den Koordinaten des Nennprofils, bevor die beiden Profile miteinander verglichen werden;
  • 9 ein vereinfachtes Flussdiagramm einer beispielhaften Ausführungsform eines Profildrehprozesses;
  • 10 eine Darstellung einer Anzeige, die durch den Bildprozessor geliefert wird, und Darstellungen des Kantenprofils mit darüber gelegtem Profiltoleranzband darstellt;
  • 11A eine grafische Darstellung einer an dem Kantenprofil ausgeführten Breitenmessung;
  • 11B eine grafische Darstellung einer weiteren an dem Kantenprofil ausgeführten Breitenmessung;
  • 12A eine perspektivische Veranschaulichung einer Konfiguration zur Kamera-Kalibrierung; und
  • 12B eine perspektivische Darstellung einer Konfiguration für eine Lichtebenen-Kalibrierung.
  • Offenbart wir die folgende Erfindung anhand einer bevorzugten Ausführungsform zur Verwendung bei einer Strahltriebwerkschaufel, wie sie in 1 gezeigt ist.
  • Nunmehr auf 1 Bezug nehmen, besitzt eine Tragfläche 20 eine Längsachse 25 und eine Außenoberfläche 30 mit einer Längskante (einer länglichen Kante) 35. Die Kante 35 besitzt zwei Seiten 36, 37 und einen am weitesten außen liegenden Abschnitt 40, der scharf oder abgerundet sein kann. Die Kante 35 kann über ihre Länge hinweg eine kurvige Form und ein anderes Profil an jeder Stelle aufweisen.
  • Eine Vorrichtung 45 zum Gewinnen und zum Messen des Profils an jeder Stelle entlang der Kante 35 enthält einen Sensor 50 mit einer Lichtquelle 55, die einen Lichtstreifen projiziert, der von der Kante geschnitten wird, wodurch ein Streifen 60 von unten der Kante beleuchtet wird. Die Lichtquelle muss den Streifen aus mehreren Winkeln projizieren, damit der erhaltene Streifen vorzugsweise im wesentlichen kontinuierlich über den äußersten Abschnitt 40 und die Seiten der Kante 35 verläuft. Der beleuchtete Streifen 60 stellt ein Profil der Kante 35 dar, welches kollektiv durch ein Paar Videokameras 65, 70 betrachtet wird, die sich auf einander abgewandten Seiten des Schaufelblatts befinden. Jede Videokamera 65, 70 betrachtet eine zugehörige Seite 75, 80 (vgl. 2) des beleuchteten Streifens 60 und liefert ein Ausgangssignal über Videoleitungen 85, 90, die ihre spezielle Ansicht des Profils wiedergibt. Die Videokamera-Ausgangssignale werden von einem Bildprozessor 35 empfangen, der die Kamera-Ausgangssignale digitalisiert, für eine Filterung sorgt und die Punkte in jeder Ansicht, welche das Profil bilden, identifiziert (extrahiert). Der Bildprozessor 95 verwendet einen vorbestimmten Satz von Kalibrierparametern zum Transformieren der Koordinaten der extrahierten Punkte so, dass sie Koordinaten in einem gemeinsamen Referenzsystem entsprechen. Dieser Schritt "kombiniert" im Endeffekt die beiden Seiten des Profils derart, dass diese Koordinaten gemeinsam das Profil der Kante wiedergeben. Der Bildprozessor 95 kann weiterhin das Profil verarbeiten mit dem Zweck, das Profil darzustellen, ebenso wie ein entsprechendes Profiltoleranzband (vgl. 10) auf einem Videoanzeigesystem 10 darzustellen, woraufhin sich Toleranzpunkte an dem Profil identifizieren lassen. Der Prozessor 95 kann außerdem die Breite (11) des Profils ermitteln und das Ergebnis auf dem Anzeigesystem 100 darstellen.
  • Bei der Ausführungsform enthält die Lichtquelle 55 eine einzelne Laserdiode (einen Laser) 105 und zwei Spiegel 110. Der Laser 105 enthält eine zylindrische Linse, die das Licht in eine Streifenform aufspreizt, die vorzugsweise unter etwa rechten Winkeln auf die Laufschaufel projiziert. Spiegel 110 reflektieren (projizieren) Licht auf die Seiten 36, 37, um die Kante in Streifenform zu beleuchten, woraufhin aufgrund der Form der Laufschaufel das Licht nicht direkt auftrifft. Die Spiegel sind vorzugsweise mit dem Laser derart ausgerichtet, dass der projizierte Streifen innerhalb einer Zielfläche im wesentlichen planar ist, d. h. in der Querschnittsfläche innerhalb des Streifens 60.
  • Die Linse des Lasers und deren Abstand zu der Blattkante sollten so gewählt sein, dass der projizierte Lichtstreifen im wesentlichen auf die Blattkante fokussiert ist. Aufmerksamkeit sollte außerdem sowohl der Brennweite (der Fokusdistanz) und der Laser-Feldtiefe gewidmet werden. Allerdings kann eine gewisse Defokussierung aufgrund der Positionierung der Kameras toleriert werden, wie unten erläutert werden.
  • Der Laser 105 kann ein in der Praxis maximal mögliche Leistung aufweisen, um eine bessere Abbildung von glänzenden Gegenständen und den Einsatz einer kleineren Kamerablende zu erleichtern, wie es untern erläutert wird. An dieser Ausführungsform beträgt die Laserleistung etwa 20 mW. Der Laser 105 liefert Licht vorzugsweise im sichtbaren Bereich von beispielsweise 680 nm, um eine Bedienungsperson zu warnen und so die Möglichkeit einer Verletzung zu verringern. Eine Schaltung mit Softstart empfiehlt sich für die Speisung des Lasers.
  • Die Videokameras 65, 70 sind vorzugsweise Schwarzweiß-Festkörper-Videokameras, beispielsweise PANASONIC Model GP-MS112. Die Kameras 65, 70 haben jeweils eine Linse, die das Bild des Profils auf den Sensor innerhalb der Kamera projiziert, außerdem enthalten sie eine Blende zum Begrenzen der auf den Sensor gelangenden Lichtmenge zum Verbessern der Tiefenschärfe. Um die Transmission von Umgebungslicht einzuschränken, können die Kameras ein schmalbandiges Filter aufweisen, welches ausschließlich Licht mit einer Wellenlänge in der Nähe derjenigen des Laserlichts (z. B. etwa 680 nm) durchlässt.
  • Die Kameras werden so positioniert, dass sie das Profil unter einem schrägen Winkel relativ zu dem Lichtstreifen aufnimmt, vorzugsweise derart, dass die optischen Achsen nahezu rechtwinklig (hier etwa mindestens 80°) zu dem Lichtstreifen verlaufen. Dies ermöglicht eine genauere Aufnahme von dem Profil und hilft dem System, eine gewisse Defokussierung in dem beleuchteten Profil auszugleichen. Das nahezu rechtwinklige Positionieren hält auch die erforderliche Abbildungs-Bildtiefe (DOF) gering und ermöglicht damit eine große Kamerablende, was wiederum zu einer gesteigerten Lichtempfindlichkeit führt. Damit verringert sich die erforderliche Laserleistung, was wiederum Kosten verringert und die Zuverlässigkeit des Lasers steigert.
  • Nunmehr auf 2 Bezug nehmend, werden die Videokameras 65, 70 (1) vorzugsweise derart orientiert, dass jede Seite 75, 80 des Streifens 60 (1) bei 114 unter einem Winkel von näherungsweise 45° innerhalb des Gesichtsfelds 115, 120 abgewinkelt ist, d. h. diagonal über das Gesichtsfeld 115, 120. Dies erleichtert die maximale Bildvergrößerung und folglich die maximale Auflösung und Genauigkeit. Es vereinfacht außerdem die Verarbeitungsschritte, die im Folgenden erläutert werden und von dem Bildprozessor 35 ausgeführt werden. Bei der vorliegenden Ausführungsform werden etwa 0,75 Zoll (19 mm) der Blattkante von jeder Kamera abgebildet, während etwa 0,60 Zoll (15 mm) dieser 0,75 Zoll (19 mm) von besonderem Interesse sind.
  • Es sollte gesehen werden, dass, obwohl die Lichtquelle und die Kameras exakt positioniert werden können, um optimale optische Leistungsfähigkeit zu erreichen, die Lage dieser Komponenten nicht genau bekannt sein muss, weil die vorliegende Erfindung von Kalibrierung und Kalibrierparametern Gebrauch macht, die im Folgenden erläutert wird.
  • Erneut auf 1 Bezug nehmend, erzeugt jede der Kameras 45, 70 ein kontinuierliches Ausgangssignal in einem RS-170-Analog-Videoformat, repräsentativ für das zweidimensionale, von der Kamera gesehene Bild. Die Kamera-Ausgangssignale werden über das Paar Vidokabel 85, 90 zu dem Bildprozessor 95 geleitet, der vorzugsweise einen industriellen Mehrzweckcomputer 125 mit einer CPI 130 und einem Speicher 135 aufweist, weiterhin umfassend eine MATROX-Image-LC-Bildverarbeitungsplatine mit einem Digitalisierer 140, einem Bildspeicher 141 und einem Coprozessormodul 142. Das Kamera-Ausgangssignal wird dem Digitalisierer 140 angeboten, der eine für das Videosignal repräsentative entsprechende digitale Signaldarstellung erzeugt. Das digitale Signal ist organisiert als Array oder Feld von Elementen, wie es im Folgenden beschrieben wird, gespeichert wird es in dem Bildspeicher 141. Das Coprozessormodul 142 implementiert grundlegende Bildverarbeitungs-Tasks schneller als eine typischer CPU. die CPU 130 sendet Task-Befehle an das Coprozessormodul 142. Am sendet das Coprozessormodul 142 Daten zurück an die CPU 130. Alternativ kann, falls geeignet, die CPU 130 sämtliche Bildverarbeitungsaufgaben übernehmen. Ein Bildverarbeitungsprogramm ist in dem Speicher 135 gespeichert. Der Bildprozessor 95 ist über ein Videokabel 145 an ein Videoanzeigesystem 100 angeschlossen, um Information für die Bedienungsperson anzuzeigen.
  • Die Lichtquelle 55 und die Kameras 65, 70 sind justierbar an einem Gehäuse 150 mit Hilfe einer mechanischen Befestigung gelagert, die nicht dargestellt, aber im Stand der Technik bekannt ist. Das Gehäuse 150 trägt dazu bei, Umgebungslicht fernzuhalten, welches ansonsten die Abbildung des Streifens 60 erschweren könnte. Ein U-förmiger Träger mit Schenkel 155, 160, die gabelförmige Enden 160, 161 besitzen, sind fest an dem Gehäuse 150 gelagert. Der Abstand zwischen den Trägern 155, 160 kann mehrere Zoll betragen. Die ga belförmigen Enden 160, 161 nehmen die Blattkante auf, um den Sensor 50 vertikal und seitlich gegenüber dem Schaufelblatt 20 zu positionieren. Der am weitesten vorne gelegene Trägerschenkel 155 wird vorzugsweise unmittelbar vor dem Lichtstreifen positioniert, um eine exakte Anordnung des Sensors und des Blatts in der Nähe des Profils zu erreichen.
  • Der Sensor 50 kann manuell an der Kante 35 angebracht werden, wie dies in 3 dargestellt ist. In diesem Fall kann eine Schablone 165 mit Kennzeichnungsmarkierungen 166 dazu eingesetzt werden, das Anordnen des Sensors 50 zu unterstützen, und das Gehäuse 150 kann mit einem oder mehreren elektrischen Druckschaltern 170 ausgestattet sein, damit die Bedienungsperson die Signalüberleitung zu dem Bildprozessor einleitet. Alternativ lässt sich der Sensor mit automatischen Mitteln platzieren, beispielsweise einem Roboter, der den Sensor mit Hilfe einer optischen Kupplung 175 anbringt. Die Kupplung 175 besitzt eine Platte 176, die an dem Gehäuse 150 angebracht ist, außerdem nachgiebige Elemente 177, 178, die für Flexibilität in vertikaler und seitlicher Richtung sorgen. Diese Flexibilität ist empfehlenswert, um Fehlausrichtungen zwischen dem Sensor und dem Blatt auszugleichen, und weil die Farben der Blätter untereinander etwas abweichen, bedingt durch übliche Fertigungsungenauigkeiten. Die Flexibilität verringert auch die Wahrscheinlichkeit, dass die Träger 155, 156 an der Kante 35 kleben bleiben. Wird ein Roboter verwendet, sollte der hinterste Trägerschenkel 156 locker an der Kante anliegen, um ein Festhaften zu vermeiden.
  • Die Träger 155, 156 fixieren nicht die Kipplage oder den Winkel des Sensors 50 in Bezug auf die Kante 35 des Blatts 20, d. h. der Sensor kann sich in Richtung einer Seite des Blatts oder zur anderen Seite hin lehnen. Wenn daher eine Bedienungsperson den Sensor positioniert (3), muss die Bedienungsperson den Sensor korrekt abwinkeln, damit jede der Kameras eine gute Sicht der Blattkante besitzt. Zur Unterstützung überlagert der Bildprozessor 95 die Bildsignale von den Kameras, um ein resultierendes Bild zu erzeugen, wobei das resultierende Bild auf dem Videoanzeigesystem 100 angezeigt wird, wie dies 4 zeigt. Der Sensor ist korrekt abgewinkelt, wenn die überlagerten Bilder etwa den gleich groß bemessenen Außenabschnitt 40 tragen, und das resul tierende Bild hat die Form eines symmetrischen X (4). Die Anzeige wird fortlaufend aktualisiert, so dass eine Art "Live"-Bild entsteht und die Bedienungsperson eine dauernde und zeitgleiche Rückkopplung hat. Der Bildprozessor 50 "wartet" auf eine Meldung (Bereit-Signal 180), dass der Sensor zufrieden stellend positioniert ist. Die Bedienungsperson leitet den Vorgang ein durch Niederdrücken von einem der beiden elektrischen Druckschalter (3) außen an dem Sensorgehäuse, wodurch der Prozessor die "Live"-Anzeige der überlagerten Bilder anhält und die Bildverarbeitung einleitet.
  • Wird ein Roboter verwendet, so braucht die Kipplage, d. h. der Winkelpositionierschritt, der oben erläutert wurde, nur am Anfang der Programmierung des Roboters für eine Stelle ausgeführt zu werden. Zu diesem Zeitpunkt kann die anzeige (4) dazu benutzt werden, den Roboter in einem optimalen Winkel anzustellen. Anschließend kann der Roboter angewiesen werden, die Position zu speichern. Danach erreicht der Roboter den optimalen Winkel anhand seiner Programmierung automatisch. Zufriedenstellen positioniert, kann der Roboter automatisch das Bereit-Signal an den Bildprozessor 95 liefern.
  • Nunmehr auf 5 Bezug nehmend, beginnt ein Flussdiagramm für ein bevorzugtes Bildverarbeitungsprogramm innerhalb des Bildprozessors 25 mit einer Unterroutine 185 (bei der es sich tatsächlich um mehrere verschiedene Unterroutinen handeln kann) zum Initialisieren des Systems und zum Laden von Dateien. Diese Dateien können Kalibrierparameter enthalten, die zum Ausführen der Erfindung verwendet werden, zusätzlich zu Profil- und Breitenanforderungen für die Kante. Eine Unterroutine 190 stellt fest, ob es irgendwelche Probleme bei den vorhergehenden Schritten gibt, falls ja, wird von einer Unterroutine 195 eine Fehlernachricht aufgerufen. Gibt es keine Probleme, fordern Unterroutinen 200, 205 die Bedienungsperson auf, die Teilenummer anzugeben und die Abschnittsnummer einzustellen, d. h. den erwarteten Profilstellenwert auf eins zu setzen. Eine Unterroutine 210 stellt fest, ob eine Änderung der Abschnittsnummer erwünscht ist. Falls ja, wird bei der Bedienungsperson eine neue Abschnittsnummer in einer Unterroutine 215 erfragt. Das Programm geht weiter zu einer Unterroutine 220, welche das Kantenprofiltoleranzband für die Abschnittsnummer anzeigt. Die Unterroutine 225 verhindert, dass das Pro gramm weiterläuft, bis das Bereit-Signal 180 (1) empfangen wird, beispielsweise bis eine Taste 170 (3) an dem Gehäuse 150 gedrückt wird oder ein Signal von dem Roboter kommt. Nachdem das Bereit-Signal 180 (1) empfangen ist, liefert eine Unterroutine 230 die "Live"-Bilder zur Überlagerung und Darstellung (4), um eine optimale Kippwinkeleinstellung des Sensors in der oben beschriebenen Weise zu unterstützen.
  • Eine Unterroutine 235 wartet auf das Bereit-Signal 180 (1), nach dessen Erhalt eine Unterroutine 240 das Digitalisieren der Kamerasignale einleitet, um entsprechende digitale Signaldarstellungen der zweidimensionalen Bilder zu erzeugen. Die digitalen Darstellungen sind jeweils in Form eines Feldes oder Arrays von Elementen (Pixeln) organisiert, eines für jede Koordinatenstelle innerhalb jedes zweidimensionalen Bildes, wobei jedes Pixel einen Betrag im Bereich von z. B. 0 bis 250 hat, um eine Graustufe an der entsprechenden Koordinatenstelle darzustellen, wie dies in den 6A, 6B zu sehen ist. Dann ruft eine Unterroutine 245 eine Tiefpassfilterung der digitalen Darstellungen auf, um Einflüsse des Oberflächen-Mikrostruktur-Rauschens zu vermindern. Nach Erreichen der Unterroutine 250 wird auf die gefilterten digitalen Darstellungen ein aktiver Schwellenalgorithmus angewendet. Dieser Algorithmus verringert den Einfluss des Rauschens zusätzlich, verringert die Einflüsse von Sekundär-Reflexion und erleichtert das Identifizieren einer Gruppe von Pixeln, die für den Laserstreifen innerhalb jeder digitalen Darstellung stehen. Ein Makro-Statement einer beispielhaften Ausführungsform von Schritten, die zu dem adaptiven Schwellenalgorithmus gehören, findet sich in Tabelle 1.
  • Tabelle 1
    • 1. Dehnen (Graustufendehnung) des Tiefpass-gefilterten Bildes entlang jeder Spalte eines N × 1-Strukturelements N muss größer sein als die maximale Breite des Lichtstreifens. Eine Vergrößerung von N verbessert die Filterung jedes möglichen Restrauschens und erhöht die Verarbeitungszeit.
    • 2. Teilen des gedehnten Bildes durch 2.
    • 3. Subtrahieren des gedehnten Bildes von dem Tiefpass-gefilterten Bild. Dies hat den Effekt des Anwendens eines niedrigeren Schwellenwerts dort, wo Lichtwerte des Lichtstreitens gering sind, und eines höheren Schwellenwerts dort, wo es starke Lichtpegel gibt.
    • 4. Binärumsetzung des resultierenden Bildes unter Verwendung eines konstanten Schwellenwerts. Der Schwellenwert sollte so gewählt werden, dass rauschbehaftete Pixel eliminiert werden, dass aber die Gesamtheit des Lichtstreifens erhalten bleibt.
    • 5. Dehnen des resultierenden Binärbilds mit einem kreisförmigen Strukturelement, um die nicht mehr verbundenen Pixelzonen (gewisse Abschnitte des Lichtstreifens fehlen möglicherweise durch Reflexionsprobleme, was zu zwei oder mehr nicht mehr verbundenen Pixelzonen führt) zu verbinden und im Idealfall eine Zone untereinander verbundener Pixel zu erhalten, welche den Lichtstreifen bilden.
    • 6. Ausführen einer Zusammenhanganalyse an dem erhaltenen Bild. Dieser Schritt erzeugt ein markiertes Bild, in welchem jede resultierende verbundene Pixelzone (Klumpen) von Pixeln einen Wert (1–255) erhalten und sämtliche Hintergrundpixel einen Wert von 0 erhalten.
    • 7. Berechnen der Fläche jedes resultierenden Klumpens.
    • 8. Beseitigen sämtlicher resultierender Klumpen unterhalb eines spezifizierten Flächenschwellenwerts (Setzen der Pixelwerte für diese Klumpen auf 0). Es handelt sich dabei entweder um Rausch-Flecken oder um Sekundär-Reflexionen.
    • 9. Bleibt mehr als ein Klumpen übrig, so werden linker und rechter Endpunkt jedes Klumpens geprüft. Wenn ein Endpunkt eines Klumpens oder Flecks sich in der Nähe des Endpunkts eines anderen Klumpens befindet, können diese beiden Klumpen als ein Klumpen neu markiert werden (d. h. sie behalten denselben Pixelwert). Dies verbindet Abschnitte des Lichtstreifens, die durch einen kleinen Spalt innerhalb des Lichtstreifens getrennt sind. Gibt es mehr als einen verbleibenden Klumpen, so ist einer von ihnen der Lichtstreifen, bei den anderen handelt es sich um Sekundär-Reflexionen. Der Klumpen in der größten Fläche wird beibehalten. Die Pixel sämtlicher anderer Klumpen werden auf 0 gesetzt als Lichtstreifen-Klumpen. Die Pixel des verbleibenden Klumpens entsprechen dem Lichtstreifen.
    • 10. Neu-Markierung des verbliebenen Klumpens auf 255 und Ausführen einer Bit-weisen logischen UND-Verknüpfung mit dem Tiefpass-gefilterten Bild.
  • Anschließend wird jedes resultierende Bild in einer Unterroutine 255 verarbeitet, um die Mittellinie des Streifens zu extrahieren, indem der Graustufen-Schwerpunkt für jede Pixelspalte berechnet wird. Die Koordinaten der Schwerpunkte stehen für die Mittellinien-Koordinaten. Für jedes Bild speichert eine Unterroutine 260 die Mittellinien-Koordinaten in einem Array (extrahierten Array), wie in 6C gezeigt ist. Es sei angemerkt, dass 6C die extrahierten Koordinaten als ganze Zahlenwerte darstellt, es kann sich aber auch um einen Bruch handeln, um eine Subpixel-Auflösung zu erhalten.
  • Wie oben ausgeführt, ist das Positionieren der Profilbilder auf den Diagonalen innerhalb eines Betrachtungsfeldes (2) zum Teil durch den Wunsch veranlasst, die Bildverarbeitung zu vereinfachen. Mit dem Bild auf der Diagonalen erscheint lediglich ein schmaler Streifen in jeder Spalte. Damit lässt sich das Bild vertikal verarbeiten, d. h. Spalte für Spalte, um das Profil mit hoher Auflösung und ohne Uneindeutigkeiten zu definieren. Wenn die Kameras so eingestellt werden, dass ein Bild auf der anderen Diagonalen erhalten wird, so erhält man optimale Auflösung durch horizontale Verarbeitung anstatt der vertikalen Verarbeitung. Ist hingegen das Bild horizontal, so würde die Spitze des Profils, das ist der Abschnitt des Profils, der dem am weitesten außen liegenden Abschnitt 40 der Kante 35 entspricht, nahezu vertikal erscheinen, d. h. als langer Streifen in einer Spalte. Dies würde die Verwendung einer vertikalen Verarbeitung für die Spitze ausschließen, obwohl horizontale, d. h. Reihe für Reihe erfolgende Verarbeitung für die Spitze verwendet werden könnte, könnte dies nicht für den Rest des Profils verwendet werden, welches innerhalb des Bildes horizontal verläuft. Folglich kann ein Typ von Verarbeitung nicht für das gesamte Bild herangezogen werden.
  • Eine Unterroutine 265 leitet die Transformation der zweidimensionalen Koordinaten innerhalb der extrahierten Arrays in entsprechende Weltkoordinaten – das sind physikalische Koordinaten – ein, dargestellt als Beispiel in 7. Die Transformation macht Gebrauch von Kalibrierparametern, die für jede Kamera bereitgestellt werden mit Hilfe einer Kalibrierprozedur, die unten noch erläutert wird. Die Kalibrierparameter liegen vorzugsweise in der Form einer Abbildung von Bildkoordinaten auf physikalische Koordinaten in einem gemeinsamen Referenzsystem vor. Dieser Schritt führt die Kameraansichten – wenngleich indirekt – in Beziehung durch "Kombinieren" der Bilder der beiden Kameras, d. h. der beiden Seiten des Profils in der Weise, dass diese Koordinaten gemeinsam das Profil der Kante repräsentieren, vollständig und in richtiger räumlicher Zuordnung. Im Gegensatz zu Sensoren, die von der Stereovision Gebrauch machen, kann somit die Erfindung Kamerabilder "kombinieren", um ein Profil eines Gegenstands festzustellen, ohne zurückzugreifen auf ein gemeinsames Referenzmerkmal innerhalb dieses Bildes. Außerdem beruht die Erfindung nicht auf der Abtastung und der exakten Kenntnis der Positionierung der optischen Komponenten, wie es bei Sensoren für die Triangulation der Fall ist.
  • Eine Unterroutine 279 stellt fest, ob die transformierten Arrays (Profil-Arrays) genügend Datenpunkte für die weitere Verarbeitung haben. Falls nicht, zeigt eine andere Unterroutine eine Fehlernachricht an, und das Programm kehrt zurück zur Unterroutine 220, um den Prozess zu wiederholen. Sind die Daten OK, setzt ein Schritt 285 den Zähler auf Eins.
  • Eine Unterroutine 290 besorgt die Drehung des Kantenprofils. Die Motivation für diesen Schritt und die bevorzugte Methode hierzu sind: Nach der Transformation bilden die Profil-Arrays gemeinsam eine Menge von rechteckigen Koordinatenpaaren, beispielsweise xy-Koordinaten, die das aktuelle bauliche Profil der Kante an einer speziellen Stelle entlang der Längserstreckung der Kante angeben. Um das Kantenprofil mit dem Sollprofil zu vergleichen, wird das eine Profil über das andere gelegt, so dass die beste Übereinstimmung zwischen dem Kantenprofil und dem Sollprofil erreicht wird. Dies macht es erforderlich, dass beide Profile, jeweils dargestellt durch eine Menge von Datenpunkten in der xy-Ebene, ähnlich orientiert und positioniert sind.
  • Nunmehr auf 8 Bezug nehmen, wurde ein aus CAD-Dateien generiertes Soll- oder Nennprofil 295, welches spezifischen xy-Koordinaten vorab zugeordnet wurde, um eine bekannte Orientierung und Lage innerhalb der xy-Koordinatenebene zu haben, d. h. die Spitze 300 des Profils befindet sich auf der Y-Achse, und der flachste Abschnitt der flacheren Seite 305 befindet sich auf der X-Achse. Es ist ersichtlich, dass alternative Orientierungen mit geringfügigen Modifizierungen der im Folgenden erläuterten Schritte möglich sind. Eine Kurve 310 veranschaulicht das Kantenprofil, welches durch Koordinatenpaare in den Profilarrays repräsentiert wird. Um in ähnlicher Weise das Kantenprofil 310 mit dem Sollprofil zu orientieren und zu positionieren, ist es bevorzugt, die Kantenprofil-Koordinaten zu drehen und zu verschieben. Dabei beachtet man, dass die Identität des die Abbildung der flacheren Seite haltenden Arrays vorab stets bekannt ist. Dies deshalb, weil jede interessierende Stelle entlang der Längserstreckung der Kante eine bekannte flachere Seite hat und der Sensor stets auf der Kante mit gleicher Orientierung platziert wird (Kamera-Blickwinkel abgewandt von der Wurzel). Damit ist die Kamera mit der flacheren Seite bekannt, und mithin ist auch das Array bekannt, weil es die bekannte Entsprechung zwischen den Kameras und den Arrays gibt. Für das Kantenprofil 310 ist die Seite 315 die flachere Seite. Es sollte gesehen werden, dass zwar die Profile der einander abgewandten Seite der Kante kombiniert dargestellt sind, dass aber zwei Arrays entsprechend den einander abgewandten Seiten des Kantenprofils alternativ getrennt gehalten werden können, wobei dennoch die gleichen mathematischen Schritte verwendet werden, die im Folgenden detailliert beschrieben werden. Darüber hinaus ist ersichtlich, dass die im Folgenden dargelegten Schritte Kantenprofildaten beliebiger Orientierung und Lage behandeln können.
  • Nunmehr auf 9 Bezug nehmend, beginnt der Drehprozess mit einer Unterroutine 320, die von bekannten Verfahren Gebrauch macht, um den Punkt aufzufinden, an welchem die flachere Seite des Profils sich zur Bildung einer Linie streckt. Dies geschieht so, dass der Winkel zwischen der flacheren Seite und der x-Achse bestimmt werden kann, demzufolge das Profil gedreht werden kann, um seine flachere Seite parallel zu der Achse zu orientieren. Der Schritt 325 stellt fest, ob der Zähler den Wert eins hat, und falls ja, so wird das erste, d. h. das grobere von zwei Verfahren, für die Drehung verwendet. Zuerst ermittelt eine Unterroutine 330, ob die flachere Seite etwa rechtwinklig zur x-Achse verläuft, d. h. einen Winkel von 90° oder 270° bildet. Zu diesem Zweck wird die Steigung des Profils zwischen verschiedenen Punkten der flacheren Seite ausgewertet. Wenn der Betrag der Steigung groß genug ist, wird angenommen, dass die flachere Seite rechtwinklig zu der x-Achse verläuft, in welchem Fall eine Unterroutine 335 das Profil auf der Grundlage des ermittelten Winkels dreht. Diese Methode wird deshalb verwendet, weil alternative numerische Analyseverfahren nicht gut funktionieren, wenn der Winkel nahezu rechtwinklig ist und deshalb die Steigung sehr groß ist, z. B. nahezu unendlich. In solchen Situationen, in denen die flachere Seite nicht rechtwinklig zur x-Achse verläuft, bildet die Unterroutine 340 eine Linienanpassung erster Ordnung an den flacheren Abschnitt der flacheren Seite 315 des Profils 310 (8). Dann ermittelt eine Unterroutine 345 den sinus und den cosinus des Winkels, außerdem passende Vorzeichen für den Quadranten. Es erfolgt eine Drehung mit Hilfe einer Unterroutine 350, die auf Standard-Drehformen basiert. Wiederum auf 8 Bezug nehmend, zeigt ein Kantenprofil 355 mit einer flacheren Seite 360 die Orientierung und die Lage des Kantenprofils nach der ersten Drehung.
  • Erneut auf 9 Bezug nehmend, wird, wenn die Unterroutine 325 feststellt, dass der Zähler nicht den Wert eins enthält, ein zweites Verfahren zum Drehen verwendet. Das zweite Verfahren sorgt für eine feinere Ausrichtung, erfordert jedoch, dass die Grobausrichtung und eine Verschiebung bereits erfolgt sind. Das zweite Verfahren macht es erforderlich, dass die exakte Lage des Profils bekannt ist, weil es auf der Identifizierung von zwei bekannten Punkten auf einem flachen Fleck in einer vorbestimmten Entfernung von der Spitze des Profils beruht. Unter Verwendung dieser beiden Punkte ermittelt die Unterroutine 365 die Gleichung der sie verbindenden geraden Linie. Die Unterroutine 345 stellt den sinus und den cosinus des Winkels zwischen der Linie und der x-Achse sowie das Vorzeichen des Quadranten fest. Die Unterroutine 350 dreht das Profil, um die flachere Seite paralleler mit der x-Achse zu machen.
  • Erneut auf 15 Bezug nehmend, ermittelt nach der Drehung eine Unterroutine 370, ob es mit der Drehung irgendwelche Probleme gegeben hat, und falls dies so ist, liefert die Unterroutine 280 eine Fehlernachricht, und das Programm geht zurück zur Unterroutine 220.
  • Wenn es keine Probleme gibt, führt eine Unterroutine 375 eine Verschiebung des Kantenprofils 350 (8) durch. Erneut auf 8 Bezug nehmend, beinhaltet dies die Verschiebung in x- und y-Richtung. Es steht zu hoffen, dass nach der Verschiebung die Spitze der Blattkante auf der y-Achse liegt, d. h. bei x = 0, und dass die flache Seite des Blatts auf der x-Achse liegt, d. h. bei y = 0. Der erste Schritt besteht darin, den Minimumwert des x-Koordinatenpunkts in dem Profilarray aufzufinden und den Betrag von sämtlichen x-Koordinaten in dem Array zu subtrahieren, um eine Verschiebung in x-Richtung zu erhalten. Weil die Gleichung für den flachen Abschnitt des Flachseitenbildes bekannt ist, wird eine Verschiebung in y-Richtung erreicht durch Einstellen sämtlicher y-Koordinaten für das Profil entsprechend dem y-Versatz dieser Linie. Alternativ kann der y-Wert an einer bekannten x-Koordinatenstelle von flachen Punkten dazu dienen, die geeignete y-Verschiebung zu bestimmen. Nach der ersten Verschiebung liegt das Kantenprofil etwa über dem Sollprofil 295.
  • Erneut auf 5 Bezug nehmend, erhöht ein Schritt 380 den Zähler von eins auf zwei. Der Schritt 385 ermittelt, ob der Zähler kleiner oder gleich zwei ist, und falls ja, geht der Ablauf zurück zum Schritt 290, der die Drehung des Kantenprofils mit Hilfe des oben beschriebenen zweiten Verfahrens durchführt. Dann führt die Unterroutine 375 die zweite Verschiebung durch, woraufhin das Kantenprofil am besten abgeglichen auf dem Sollprofil liegt. Der Schritt 380 erhöht den Zähler von zwei auf drei, und das Programm geht durch den Entscheidungsschritt 385.
  • Eine Unterroutine 390 stellt das Kantenprofil überlagert mit dem Solltoleranzband folgendermaßen dar: Weil beide Datenmengen diskrete Punkte sind und nicht durchgehende Linien, außerdem eine geringere Auflösung haben als die Anzeige, wird vorzugsweise von einer kubischen Spline-Interpolation Gebrauch gemacht, um zwischen Punkten beider Datenmengen zu interpolieren. Nunmehr auf 10 Bezug nehmend, ist vor der Anzeige des Profils und des Toleranzbands der Anzeigehintergrund 395 eine Farbe wie beispielsweise Schwarz. Anschließend wird das Toleranzband 400 dargestellt in einer Farbe wie z. B. Blau. Die Punkte des Kantenprofils 405 werden anschließend einzeln angezeigt. Bevor jeder Punkt angezeigt wird, wird die Farbe an der vorgesehenen Stelle abgefragt, d. h. das Anzeigesystem besitzt die Farbe für jede Anzeigestelle (Bildschirmstelle), die in dem internen Speicher gespeichert ist, der Computer sendet einen Befehl an das Anzeigesystem und erfragt die Farbe der vorgesehenen Stelle, und der Computer untersucht die Antwort von dem Anzeigesystem. Ist es die Farbe des Toleranzbands, so liegt der Profilpunkt innerhalb der Toleranz und wird in einer Farbe wie z. B. Weiß angezeigt. Wenn die vorgesehene Stelle die Farbe des Hintergrunds ist, liegt der Profilpunkt außerhalb des Toleranzbands und kann in einer anderen Farbe als Weiß dargestellt werden, beispielsweise Rot, um anzuzeigen, dass der Wert außerhalb des Toleranzbereichs liegt.
  • Als Alternative kann der Vergleich von Profil und Toleranzband vollständig innerhalb des Computers durchgeführt werden. Beispielsweise können mehrere Speicherstellen verwendet werden, wobei jede Speicherstelle zu einem speziellen Punkt innerhalb des Koordinatensystems gehört. Der in jeder der Speicherstellen gespeicherte Wert wird initialisiert (auf einen Anfangswert gesetzt), und der in dieser Speicherstelle gespeicherte Wert in Verbindung mit einem Punkt innerhalb des Toleranzbands wird aktualisiert (auf einen aktualisierten oder revidierten Wert gesetzt), dann kann das Profil eingestellt werden, indem man den Wert in jeder Speicherstelle, die zu einem Punkt des Profils gehört, auswertet. Wenn der Wert der aktualisierte Wert ist, liegt der Profilpunkt innerhalb der Toleranz. Wenn der Wert der Anfangswert ist, liegt das Profil außerhalb der Toleranz. Der Wert in jeder dieser Speicherstellen lässt sich weiter revidieren, um das Vorhandensein des Profils anzugeben und/oder die Aus wertung (Disposition) widerzuspiegeln. Ein vergleichbares Ergebnis lässt sich auch dadurch erzielen, dass man ein Paar derartiger Mengen von Speicherstellen verwendet, eine für das Toleranzband, die andere für das Profil. Die Auswertung kann erreicht werden durch Ausführen einer ausgewählten logischen Operation bezüglich Paaren von Speicherstellen in Verbindung mit demselben Punkt innerhalb des Koordinatensystems.
  • Es gibt eine gewisse Redundanz in den Profilen bei Aufnahme aus zwei Kameras, typischerweise eine kleine Zone an der Spitze des Profils. Bei der Darstellung auf dem Bildschirm allerdings sollte die redundante Zone keine wesentliche Diskontinuität zwischen den beiden Profilen aufweisen, d. h. sie sollten sich im Wesentlichen überlappen, weil ansonsten der Sensor eine erneute Kalibrierung benötigt.
  • Wiederum auf 5 Bezug nehmend, ermittelt eine Unterroutine 410, ob mögliche Kantenprofilpunkte außerhalb der Toleranz sind, und falls ja, zeigt eine Unterroutine 415 eine Fehlernachricht an. Dann werden mit einer Unterroutine 420 Breitenmessungen durchgeführt. Die Breitenmessungen sollten die Breite an speziellen Punkten ausgehend von der Spitze der Blattkante auffinden. Zwei unterschiedliche Typen von Breitenmessungen kommen zum Einsatz, der erste Typ davon ist weniger kompliziert als der zweite. Nunmehr auf 11A Bezug nehmend, ermittelt der erste Typ die Breite an einer vorab definierten x-Stelle 425, ohne Interpolation. An jeder Seite des Blatts wird ein Punkt 430, 435 aufgefunden, der der vorab definierten x-Stelle 425 am nächsten bezüglich der Profilspitze, allerdings nicht darüber hinausgeht. Die entsprechenden y-Koordinatenwerte für diese beiden Punkte werden subtrahiert, um die Breite 440 zu ermitteln. Diese Art von Breitenmessung erfolgt an zwei unterschiedlichen, vorab definierten x-Stellen 425, 445. Es kann für jede Abschnittzahl eine verschiedene vorab definierte Stelle geben.
  • Nunmehr auf 11B Bezug nehmend, beginnt die zweite Breitenmessung mit dem Bestimmen eines Medians 450. Dies geschieht durch Auswählen eines Punkts 455 an der Flachseite des Profils und durch Auffinden des direkt gegenüber liegenden Punkts 460, der allerdings nicht über das Profil hinausgeht.
  • Die y-Koordinatenwerte für die beiden Punkte werden gemittelt, um die y-Koordinate des entsprechenden Punkts 465 auf dem Median 450 zu erhalten. Es werden Medianpunkte jeden Datenpunkts auf der Flachseite des Profils errechnet. Die Gleichung der Linie 470 rechtwinklig zur Medianlinie 450 in einem vorbestimmten Abstand 475 von der Spitze des Kantenprofils wird anschließend ermittelt. Diese Linie schneidet beide Seiten des Blattprofils. Für jede Seite wird eine Gleichung einer Linie 480, 485 ermittelt, die durch Punkte in der Nähe der Schnittstelle der rechtwinkligen Linie läuft. Es werden Simultangleichungen gelöst, um die Koordinaten 490, 495 der Schnittstelle dieser Linien mit der rechtwinkligen Linie zu finden. Zur Auffindung der Breite wird eine Standard-Abstandsformel unter Verwendung von x- und y-Koordinatenwerten der Schnittpunkte verwendet.
  • Erneut auf 5 Bezug nehmend, ermittelt eine Unterroutine 500, ob die gemessenen Breiten außerhalb der Toleranz liegen, und falls ja, zeigt eine Unterroutine 505 eine Fehlernachricht an. Die Ergebnisse werden mit Hilfe einer Unterroutine 510 in einem nicht-flüchtigen Massespeicher, z. B. einem Magnetspeicher, einer Festplatte oder dergleichen gesichert. Ein Schritt 515 ermittelt, ob die Abschnittsnummer gleich derjenigen des Endabschnitts ist, und falls ja, werden Ergebnisse angezeigt und ausgedruckt, und die Abschnittsnummer wird auf eins gesetzt, was mit einer Unterroutine 520 geschieht. Fall nein, wird im Schritt 525 die Abschnittsnummer erhöht. Eine Unterroutine 530 wartet auf eine Angabe zur „Fortsetzung". Daraufhin ermittelt eine Unterroutine 535, ob eine Änderung der Abschnittsnummer erwünscht ist, und falls ja, wird die Bedienungsperson bezüglich einer neuen Abschnittsnummer mit Hilfe einer Unterroutine 540 aufgerufen. Das Programm kehrt zurück zur Unterroutine 220, um das Profil der neuen Abschnittsnummer festzustellen.
  • Wie oben ausgeführt wurde, verwendet die vorliegende Erfindung Kalibrierparameter, um die betrachteten Profilabschnitte in ein gemeinsames Referenzsystem zu transformieren. Die Kalibrierparameter liegen vorzugsweise in der Form einer Abbildung für jede Kamera aus 2D-Bildkoordinaten in 3D-Weltkoordinaten vor. Die Abbildungen verwenden vorzugsweise ein gemeinsames 3D-Welt-Referenzsystem. Mit Hilfe eines Kalibrierprozesses werden Kalibrierdaten gesammelt, die bei den Abbildungsvorgängen verwendet werden. Die Abbildung lässt sich betrachten als abgeleitet von einem System aus drei Gleichungen mit drei Unbekannten, wie im Folgenden ausgeführt wird. Die Ausführungsform verwendet einen zweiteiligen Kalibrierprozess: eine Kamera-Kalibrierung und eine Lichtebenen-Kalibrierung.
  • Nunmehr auf 12A Bezug nehmend, ist ein Kamera-Kalibriertarget 550 auf einer Translationsbühne 545 gelagert. Das Kalibriertarget 550 umfasst ein Gitter aus schwarzen Quadraten 555 (aus Gründen der Vereinfachung dargestellt in der Form 5 × 9, tatsächlich jedoch 11 × 11) abgelichtet auf eine Glasplatte 560 und gelagert an einem rechteckigen Block. Die Lage jedes Quadrats ist innerhalb eines Koordinatensystems bekannt, welches sich auf einen gewissen Datenwert an dem Kalibriertarget 550 bezieht. Das Koordinatensystem lässt sich definieren durch eine Ecke des Kalibrierblocks (z-Achse 565 rechtwinklig zur Gitterebene). Das Gitter wird von einer Faseroptik-Lichtführung 570 und einem Spiegel 575 von hinten erleuchtet. Die Verschiebungsrichtung der Translationsbühne 545 ist senkrecht zu der Glasplatte (entlang der z-Achse 565). Es sind andere Konfigurationen möglich, einschließlich, aber ohne Beschränkung, andere Targets, die von Punktlichtquellen oder durchscheinenden Hintergrundbeleuchtungen mittels Lichtquelle Gebrauch machen.
  • Der Sensor 50 (1) ist über der Translationsbühne 545 derart positioniert, dass die Kameras 65, 70 und der Laser 105 etwa in der dargestellten Lage angeordnet sind, wobei die Kameras 65, 70 auf das Zentrum des Gitters fokussiert und der Laser „ausgeschaltet" ist. Die Translationsbühne 545 dient zum Verschieben des Targets 550 rechtwinklig zu der Glasplatte (nach oben und nach unten in Bezug auf die Kameras), und zwar in etwa zehn exakt bekannte Positionen entlang der z-Achse 565. An jeder Stelle der z-Achse wird ein von jeder Kamera kommendes Bild digitalisiert und verarbeitet, um die Kamera-Bildkoordinaten (xf, yf) für jede Ecke jedes sichtbaren Quadrats (vorzugsweise 50) aufzufinden. Weil die Stelle jeder Ecke exakt bekannt ist, beispielsweise in 3D-Weltkoordinaten (xw, yw, zw), wird ein Paar zugehöriger Koordinaten (Bild-/Welt-Koordinatenpaar), {(xf, yf), (xw, yw, zw)}, für jede Ecke an jeder z-Achsen-Stelle erhalten.
  • Typischerweise werden insgesamt etwa 2000 Bild-/Welt-Koordinatenpaare {(xf, yf), (xw, yw, zw)} für jede Kamera erhalten, allerdings kann hier der Kalibriervorgang von nur 60 Paaren Gebrauch machen.
  • Während es verschiedene Methoden zum Verarbeiten der Kamera-Kalibrierdaten gibt, ist die bevorzugte Methode jene, die von Tsai vorgeschlagen wurde (vgl. R. Y. Tsai, "A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off – the Shelf TV Cameras and Lenses", IEEE Journal of robotics and Automation, Vol. RA-3, Nr. 4, August 1987), weil diese Methode von einer radialen Ausrichtungsbeschränkung Gebrauch macht, um die Dimensionsgröße des unbekannten Parameterraums zu verkleinern (was das Verfahren robuster macht), weil es einfach zu berechnen ist und weil es eine Kalibrierung für radiale Linsenverzerrungen bietet. Wenn die oberen gegebenen Mängel von Bild-/Welt-Koordinatenpaaren gegeben ist, {(xf, yf), (xw, yw, zw)}, löst diese Methode die folgenden Parameter:
    f: Normalen-Abstand von der Mitte der Linse bis zur Bildebene
    sx: Skalenfaktor der Kamera
    k: radialer Linsenverzerrungskoeffizient
    R: 3 × 3-Drehmatrix
    Figure 00250001

    T = (Tx, Ty, Tz): 1 × 3-Translationsvektor
    wobei R und T die Transformation vom Weltkoordinatensystem in das 3D-Koordinatensystem der Kamera definieren.
  • Ein Markrostatement einer beispielhaften Ausführungsform der Schritte in Verbindung mit dem bevorzugten Kamera-Kalibrierprozess ist in der folgenden Tabelle 2 angegeben:
  • Tabelle 2
    • 1. Ermitteln Ncx, Nfx, dx, dy, Cx, Cy mittels Information über die Kamera und Einzelbildspeicher, die von dem Hersteller geliefert wird, wobei Ncx = Anzahl der Kamera-Sensorelemente in X-Richtung (Abtastzeile) Nfx = Anzahl von Pixel in einer Zeile bei Abtastung durch die Digitalisierer dx = Mitte-Mitte-Abstand zwischen benachbarten Kamera-Sensorelementen in X-Richtung (Abtastzeilen-Richtung), multipliziert mit (Ncx/Nfx) dy = Mitte-Mitte-Abstand zwischen benachbarten Kamera-Sensorelementen in Y-Richtung (Cx, Cy) = mittleres Pixel des Bildspeichers
    • 2. Ermitteln der Menge von Bild-/Welt-Koordinatenpaaren gemäß obiger Beschreibung
    • 3. Für jedes Bild-/Welt-Koordinatenpaar wird berechnet: Xd = dd(xf – Cx) Yd = dy(yf – Cy)
    • 4. Berechne R11/Ty, R12/T, R13/Ty, Tx/Ty, R21/Ty, R22/Ty, R23/Ty folgendermaßen: Für jedes Paar {(Xd, Yd), (xw, yw, zw)}; stelle die folgende lineare Gleichung mit R11/Ty, R12/Ty, R13/Ty, Tx/Ty, R21/Ty, R22/Ty, R23/Ty als Unbekannten:
      Figure 00270001
      Mit N > 7 lässt sich dies als überbestimmtes Gleichungssystem lösen.
    • 5. Berechne die folgenden Parameter, wobei a1 = R11/Ty, a2 = R12/Ty, a3 = R13/Ty, a4 = Tx/Ty, a5 = R21/Ty, a6 = R22/Ty, und a7 = R23/Ty |Ty| = (a5 2 + a6 2 + a7 2)–1/2 sx = (a1 2 + a2 2 + a3 2)1/2|Ty|
    • 6. Berechne das Vorzeichen von Betrag |Ty| Greife einen Objektpunkt heraus, dessen Computerbildkoordinate (xf, xf) von der Bildmitte (Cx, Cy) entfernt ist, beispielsweise das erste Koordinatenpaar; die Objekt-Weltkoordinate lautet: (xwywzw).
    • ii) Wähle das Vorzeichen von Ty zu + 1.
    • iii) Berechne die folgenden Werte unter Verwendung von a1 bis a7 aus dem Schritt 5: R11 = a1Ty R12 = a2Ty R21 = a5Ty R22 = a6Ty Tx = a4Ty x = R11xw + R12yw + Tx y = R21xw + R22yw + Ty
    • iv) WENN ((x und xf gleiches Vorzeichen haben) und (y und yf gleiches Vorzeichen haben)), DANN sgn(Ty) = +1, SONST sgn(Ty) = –1.
    • 7. Berechne R und Tx: R11 = a1Ty/sx R12 = a2Ty/sx R13 = a3Ty/sx R21 = a5Ty R22 = a6Ty R23 = a7Ty Tx = a4Ty/sx x = R11xw + R12yw + Tx y = R21xw + R22yw + Ty Die dritte Reihe von R wird berechnet als das Kreuzprodukt der ersten beiden Reihen unter Verwendung der Rechte-Hand-Regel.
    • 8. Berechne die Näherung von f und Tz unter Nichtbeachtung der Linsenverzerrung: Für jedes Bild-/Welt-Koordinatenpaar i,
      Figure 00290001
      Mit mehreren weiteren Kalibrierpaaren liefert das ein überbestimmtes System linearer Gleichungen, die sich für f und Tz lösen lassen.
    • 9. Berechne die exakte Lösung für f, Tz und k: Löse folgende Gleichung:
      Figure 00290002
      mit f, Tz und k als Unbekannten unter Verwendung eines Standard-Optimierungsschemas, beispielsweise dem der größten Steigung. Man verwende die Annäherung für f und Tz, wie in Schritt 8 berechnet, und 0 für k als Anfangswerte. Nach Abschluss der Kamera-Kalibrierung können zwei Formeln (Gleichungen) mit drei Unbekannten aufgestellt werden. Diese Formeln verwenden die Definitionen und die Ergebnisse, die oben erhalten wurden. Anhand dieser Formeln kann man eine Auflösung für die 3D-Weltkoordinaten (xw, yw, zw) erhalten, die irgendeiner Kamerabildkoordinate (xf, yf) entsprechen. Da es aber nur zwei Gleichungen gibt mit drei Unbekannten, entspricht die Lösung einem Strahl oder einer Linie anstatt einem Punkt. Die aufstellbaren Formeln lauten: (xuR31 – fR11)xw + (xuR32 – fR12)yw + (xuR33 – fR13)zw + (xuTz – fTx) = 0 (yuR31 – fR21)xw + (yuR32 – fR22)yw + (yuR33 – fR23)zw + (yuTz – fTy) = 0wobeixu = xd + Dx yu = yd + Dy undxd = dx(xf – Cx)/sx yd = dy(yf·Cy)undDx = xdk(xd 2 + yd 2) Dy = ydk(xd 2 + yd 2)
  • Der zweite Teil des bevorzugten Kalibrierverfahrens ist eine Lichtstreifen-Kalibrierung, um die Gleichung für den Lichtstreifen in 3D-Weltkoordinaten festzustellen. Bei Gebrauch in Verbindung mit den obigen Gleichungen ermöglicht dies die Bestimmung des 3D-Weltkoordinatenpunkts (xw, yw, rw), der einer gegebenen Kamerabildkoordinate (xf, yf) entspricht, d. h., es wird eine dritte Gleichung geliefert, um die dritte Unbekannte zu erhalten. Die Lichtstreifen-Kalibrierung braucht nur für eine der Kameras zu erfolgen, da die Lichtstreifengleichung für beide Kameras gleich ist.
  • Nunmehr auf 12B Bezug nehmend, wird bei dieser Ausführungsform die Lichtstreifen-Kalibrierung auf einer planaren Fläche rechtwinklig zu einer der Koordinatensystemachsen durchgeführt, die durch den Kalibrierblock definiert sind, vorzugsweise oben auf der Metalloberfläche 580 des Kalibrierblocks nahe bei dem und parallel zu dem Gitter. Diese Oberfläche verläuft rechtwinklig zur z-Achse 565. Ihre Stelle auf der z-Achse ist über die Translationsbühne 545 exakt bekannt. Der Sensor 50 (1) wird über der Translationsbühne 545 derart positioniert, dass die Kameras 65 und 70 und der Laser 150 ungefähr gemäß Darstellung gelegen sind, wobei der Laser 105 einen Lichtstreifen projiziert, der einen Streifen 585 oben auf dem Metallabschnitt beleuchtet, im Gesichtskreis beider Kameras 65 und 70. Die Position des Sensors relativ zu dem Kalibrierblock sollte sich nicht zwischen der Kamera-Kalibrierung und der Lichtstreifen-Kalibrierung ändern, ausgenommen eine mögliche Translation in Richtung x oder y (oder eine Kombination davon). Die Faseroptik-Lichtquelle 570 ist ausgeschaltet. Die Translationsbühne 545 dient zum Verschieben der Oberfläche zu etwa zehn exakt bekannten Stellen entlang der z-Achse 565. An jeder z-Achsen-Stelle wird ein Bild von einer Kamera digitalisiert und verarbeitet (5, Unterroutine 240, 245, 250, 255, 260), um eine Gruppe von Kamerabildkoordinaten (xf, yf) zu bestimmen, die für den Lichtstreifen stehen. Für jedes Kamerabildkoordinatenpaar (xf, yf) wird ein entsprechender 3D-Weltkoordinatenpunkt (xw, yw, zw) bestimmt. Dies geschieht dadurch, dass zw mit der z-Achsen-Position der Translationsbühne 565 gleichgesetzt wird und mit Hilfe der durch die Kamera-Kalibrierung gewonnenen beiden Gleichungen eine Auflösung nach xw und yw gefunden wird.
  • Mit Hilfe der kleinsten Quadrate erfolgt eine Verarbeitung von vier oder mehr 3D-Weltkoordinatenpunkten, um die Koeffizienten für die unten angegebene Lichtstreifengleichung zu erhalten, die als Gleichung für eine Ebene zu erkennen ist: axw + byw + czw + d = 0
  • Nachdem sämtliche drei Kalibriergleichungen erhalten wurden, lassen sich Bildkoordinaten (xf, yf) in 3D-Weltkoordinaten (xw, yw, zw) umwandeln, indem man eine Lösung für die drei oben erwähnten Gleichungen mit den drei Unbekannten (xw, yw, zw) findet. Dieses System von Gleichungen lässt sich nach einer Standardmethode lösen, beispielsweise mittels des Gauss'schen Eliminationsalgorithmus. Sie können in der Laufzeit für jeden Punkt (xf, yf) gelöst werden, indem zunächst eine Umwandlung in (xu, yu) erfolgt. Effizienter ist es jedoch, die Gleichung symbolisch unter Verwendung von (xu, yu) vorauseilend zu lösen, um die Anzahl arithmetischer Operationen während der Laufzeit zu verringern. Nach dem symbolischen Lösen der Gleichungen erhält man folgende Gleichungen: xw = (Cxxxu + Cyxyu + Cx)/(Cxdxu + Cydyu + Cd) yw = (Cxyxu + Cyyyu + Cy)/(Cxdxu + Cydyu + Cd) zw = (Cxzxu + Cyzyu + Cz)/(Cxdxu + Cydyu + Cd) wobei die Parameter Cxx, Cyx, Cx, Cxy, Cyy, Cy, Cxz, Cyz, Cz, Cxd, Cyd und Cd aus den Kalibrierparametern berechnet werden und im Speicher abgelegt werden, um für den Abbildungsprozess herangezogen zu werden.
  • Weil das Profil zweidimensional und die Profilverarbeitungsalgorithmen (5, Unterroutine 290, 375, 390, 420) für ein zweidimensionales Profil ausgelegt sind, wird von einer Abbildung aus den 3D-Weltkoordinaten in 2D-Koordinaten Gebrauch gemacht. Da das Profil in der allgemeinen Ebene des Lichtstreifens liegt, erfolgt eine lineare Transformation des Sensor-Koordinatensystems in der Weise, dass eine Achse des Koordinatensystems rechtwinklig zu dem Lichtstreifen verläuft. Es versteht sich, dass zwar die 2D-Koordinaten nicht die aktuellen physikalischen Koordinaten des Profils sind, sie aber im Großen und Ganzen diesen entsprechen.
  • Man kann jede Achse wählen, solange sie rechtwinklig zu der Ebene des Lichtstreifens verläuft. Hier wird die y-Achse gewählt. Damit ist nach der Transformation y eine Konstante, und lediglich die x- und z-Komponenten werden zum Beschreiben des Profils benötigt. Die lineare Transformation ist eine Drehung um die x-Achse, θ, des Sensor-Koordinatensystems, gefolgt von einer Drehung um die neue z-Achse, ϕ. Unter Verwendung der Koeffizienten für die Lichtebenengleichung axw + byw + czw + d = 0 lassen sich folgende Winkel berechnen: θ = π – sin–1(c/(a2 + b2 + c2)1/2) Radiant ϕ = sin–1(–a/((a2 + b2 + c2)1/2*cos(θ))) RadiantFalls jedoch cos(θ)*cos(ϕ)*b > 0, dann ϕ = π – ϕ Radiant
  • Mit Hilfe von θ und ϕ werden die oben beschriebenen linearen Transformationen auf die 3D-Weltkoordinaten (xw, yw, zw) oder Gleichungen für diese angewendet, um Gleichungen für Koordinaten im 2D-Koordinatensystem, beispielsweise (xw, zw) zu erhalten.
  • Es wurde festgestellt, dass man eine Verfeinerung oder geringfügige Justierung in der Kalibrierung erreichen kann, ohne durch den Neukalibrierprozess zu gehen. Eine solche Verfeinerung erfordert einen Artefakt, das ist ein Objekt ähnlich demjenigen, für das das Profil zu ermitteln ist, und für das das Profil vorab exakt bekannt ist. Der Sensor wird auf dem Artefakt platziert, und das Profil wird in der oben beschriebenen Weise ermittelt. Die Breite wird an verschiedenen Stellen festgestellt und mit Erwartungswerten für die Breite verglichen. Abweichungen zwischen den Sensorwerten und den Erwartungswerten werden als auf Kalibrierfehlern beruhend angenommen. Die Kalibrierung lässt sich verfeinern durch Berechnen der durchschnittlichen Diskrepanz und durch entsprechendes Modifizieren der Kalibrierparameter.
  • Während die oben beschriebene optische Instrumentierung eine bevorzugte Positionierung und Orientierung darstellt, wird hierdurch aber nicht eine mögliche andere, möglicherweise weniger optimale Positionierung und Orientierung ausgeschlossen. Das Licht kann sichtbar oder unsichtbar sein. Darüber hinaus verwenden zwar die obigen Sensoren einen oder mehrere Freiträger zur Anbringung des Sensors an dem Blatt, dies schließt aber nicht andere Mittel zum Aufstellen des Sensors aus, entweder mit Gehäuse oder ohne Gehäuse.
  • Wenngleich die beschriebene Ausführungsform eine Lichtquelle zeigt, die zwei Spiegel aufweist, kann die Lichtquelle auch mehr als zwei Spiegel besitzen. Als eine Alternative für einen einzelnen Laser und Spiegel kommen mehr als eine Lichtquelle, beispielsweise ein Paar Laser auf einander abgewandten Seiten des Blatts für die Verwendung in Betracht, um den Streifen auf die Kante zu projizieren. Einige Anwendungen erfordern möglicherweise sogar noch mehr als zwei Lichtquellen, die passend so positioniert sind, dass die erwünschten Bereiche des Profils angemessen entweder durchgängig oder nicht-durchgängig beleuchtet werden. Die Lichtquellen sollten ausreichend hohe Intensität aufweisen, um eine geeignete Abbildung zu erleichtern. Die Quellen sollten miteinander so ausgerichtet sein, dass der projizierte Lichtstreifen im Allgemeinen planar, vorzugsweise im Wesentlichen planar bezüglich der Zielfläche ist. Wird von einem Paar Laser Gebrauch gemacht bei einer Blattkante oder einem ähn lichen Objekt, so können die Laser etwas an der Kante nach unten gerichtet werden, um eine stärkere Beleuchtung des Außenabschnitts 40 der Kante 35 zu erhalten als bei direkter Anbringung. Das Ausrichten des Paars lässt sich vor dem Einsatz an der Blattkante erreichen, indem man ein durchscheinendes oder opakes Target in der Targetfläche anbringt und die Laser-Projektionswinkel justiert.
  • Zwar ist die Erfindung in Bezug auf eine bevorzugte Ausführungsform offenbart, die von einem Paar Schwarz-weiß-Videokameras Gebrauch macht, man erkennt jedoch, dass die Erfindung auch mit anderen optischen Detektoren realisierbar ist. Darüber hinaus kann die Erfindung mehr als zwei optische Detektoren aufweisen, die kollektiv das Profil aufnehmen, wobei jeder Detektor eine andere Ansicht aufweist und einen anderen Teil des beleuchteten Profils aufnimmt als der andere. Die optischen Detektoren sollten grundsätzlich so positioniert sein, dass von dem betreffenden Teil eine gute Ansicht erhalten wird.
  • Während die Erfindung einen Bildprozessor mit einem industriellen Rechner, einer Bildverarbeitungsplatine und einem in einem Speicher enthaltenes Programm verwendet, lässt sich die Erfindung auch mit unterschiedlichen Ausführungsformen realisieren, darunter in Form einer Software mit einem beliebigen Typ von Speichermedium, innerhalb oder außerhalb des Bildprozessors angeordnet, Hardware- oder Firmware-Implementierungen und Kombinationen daraus. Der Bildprozessor kann mehr als die obigen Merkmale aufweisen, beispielsweise kann er eine Bildverarbeitungsplatine für jede Kamera aufweisen, oder kann weniger als sämtliche oben beschriebenen Merkmale enthalten, beispielsweise dann, wenn eine Digitalkamera verwendet wird, braucht der Bildprozessor keinen Digitalisierer. Der Bildprozessor kann über die Vorrichtung verteilt ausgebildet sein. Der Bildprozessor kann in jeder geeigneten Weise arbeiten, die es erlaubt, Signale zu verarbeiten und das Profil zu bestimmen.
  • Die Transformation kann aus Bildkoordinaten in 3D-Koordinaten oder Bildkoordinaten in 2D-Koordinaten umsetzen. Die Transformation sollte mit den Kamerablickwinkeln in Beziehung stehen, entweder direkt oder indirekt, so dass sich die Ansichten möglicherweise kombinieren lassen. Während man bei einer Transformationsgleichung von einer bitweisen Abbildung Gebrauch machen kann, schließt das nicht andere Wege aus, wie Information verwendet werden kann, die aus der Kalibrierung abgeleitet wird, beispielsweise mit Hilfe einer Nachschlagetabelle (aufgenommen in einem Speicher, der für jede Koordinatenstelle in der Ansicht eine zugehörige Koordinate in einem gemeinsamen Referenzsystem gespeichert wird), um die Punkte jeder Ansicht zu korrelieren mit Punkten eines gemeinsamen Referenzsystems. Solange die Transformation in der Lage ist, festzustellen, welche Koordinaten zu welcher Kamera gehören, kann die Transformation der Koordinaten in beliebiger Reihenfolge stattfinden, und die Ausgangswerte können separat oder kombiniert erhalten werden. Man erkennt, dass im Normalfall lediglich die extrahierten Bildkoordinaten, die für das Profil der Ansicht stehen, transformiert werden, um die Anzahl von Transformation zu minimieren. Auf Wunsch allerdings könnte das gesamte Bild transformiert werden, in welchem Fall die Profil-Extraktion nach der Transformation erfolgen kann. Vorzugsweise erfolgt die Transformation mit digitalen Signalen, möglich ist aber auch eine Durchführung der Transformation anhand analoger Signale. Die Ausgangsgrößen der Transformation brauchen nicht weiter verarbeitet zu werden.
  • Darüber hinaus sind die offenbarte Kalibrierprozedur und die zugehörigen Gleichungen zur Verwendung der Kalibrierdaten nur ein Beispiel und schließen nicht andere Kalibrierprozeduren und Verfahren zum Bestimmen der Kalibrierparameter aus, die in den Schutzumfang der Ansprüche fallen. Wenngleich bei der bevorzugten Ausführungsform die Bilder gleichzeitig verarbeitet werden oder zumindest in rascher Aufeinanderfolge, so ist die Erfindung nicht auf dieses Merkmal beschränkt.
  • Obwohl die Erfindung anhand einer bevorzugten Ausführungsform offenbart wird, bei der das Profil einer Kante einer Tragfläche oder dergleichen erhalten wird, kann die Erfindung auch zum Aufnehmen des Profils irgendeiner anderen Oberfläche oder eines Objekt eingesetzt werden, darunter – ohne Beschränkung – langgestreckte Oberflächen, Oberflächen mit einer Kante, Oberflächen mit einer lang gestreckten Kante, zylindrische Gegenstände, Kästchen-ähnliche Gegenstände, mehr oder weniger flache Flächen mit Oberflächen-ähnlichen Merkmalen und Kombinationen daraus. Dies beinhaltet sowohl die Vorderkante als auch die Hinterkante einer Tragfläche. Obwohl die Erfindung bezüglich eines Sensors offenbart ist, der das Profil an beliebiger Stelle aufnehmen kann, sollte gesehen werden, dass mehr als ein Sensor gleichzeitig für die Tragfläche verwendet werden können.
  • Während die spezielle Erfindung anhand von Ausführungsformen zum Bestimmen des Profils einer Verdichterschaufel beschrieben wurde, bedeutet dies nicht, dass die Beschreibung im einschränkenden Sinn zu verstehen ist. Es versteht sich, dass zahlreiche Abwandlungen der obigen Ausführungsformen einschließlich zusätzlicher Ausführungsformen der Erfindung, die für den Fachmann unter Bezugnahme auf die vorliegende Beschreibung ersichtlich sind, möglich sind, ohne dabei von dem durch die beigefügten Ansprüche definierten Schutzumfang abzuweichen.

Claims (25)

  1. Vorrichtung (45) zum Bestimmen des Profils eines Gegenstands, umfassend: mindestens eine Lichtquelle (55), um einen Lichtstreifen aus mindestens zwei Winkeln auf den Gegenstand zu richten, wobei das Profil des Gegenstands beleuchtet wird an der Schnittstelle des Lichtstreifens mit dem Gegenstand; mindestens zwei optische Detektoren (65, 70), die kollektiv das Profil aufnehmen, wobei jede Aufnahme einen anderen Abschnitt des Profils betrifft als die Aufnahme durch die anderen, wobei jeder der optischen Detektoren ein Ausgangssignal liefert, welches repräsentativ für seine Aufnahme des Profils ist; einen Bildprozessor (95), der betrieblich mit den optischen Detektoren verbunden ist und auf die Ausgangssignale der optischen Detektoren anspricht, indem er ein oder mehrere Profilsignale, die kollektiv das Profil darstellen, liefert, dadurch gekennzeichnet, dass der Bildprozessor Kalibrierparameter dazu verwendet, die von den optischen Detektoren kommenden Ausgangssignale zu verknüpfen, wobei die Kalibrierparameter solche Parameter darstellen, die dadurch abgeleitet werden, dass die mindestens zwei optischen Detektoren (65, 70) dazu gebracht werden, ein bekanntes Ziel (550) aufzunehmen, und mindestens einer der mindestens zwei optischen Detektoren dazu gebracht wird, einen Schnitt des Lichtstreifens und einer Zieloberfläche (560) aufzunehmen.
  2. Vorrichtung nach Anspruch 1, bei der der Bildprozessor (95) dazu ausgebildet ist, die Ausgangssignale zu verknüpfen, ohne von einem Merkmal des Inhalts der Ausgangssignale Gebrauch zu machen.
  3. Vorrichtung nach Anspruch 1 oder 2, bei der der Lichtstreifen im Bereich des Gegenstands im Wesentlichen eben ist.
  4. Vorrichtung nach einem vorhergehenden Anspruch, bei der der Gegenstand die Kante (35) einer Tragfläche (20) ist.
  5. Vorrichtung nach einem vorhergehenden Anspruch, bei der die mindestens zwei optischen Detektoren zwei Videokameras (65, 70) enthalten, von denen eine Videokamera auf einer Seite des Gegenstands und die andere Videokamera auf der anderen Seite des Gegenstands positioniert ist.
  6. Vorrichtung nach einem vorhergehenden Anspruch, bei der die Vorrichtung außerdem eine Einrichtung zum Auswerten des Profils aufweist.
  7. Vorrichtung nach Anspruch 6, bei der die Auswerteeinrichtung einen Prozessor für diese Auswertung aufweist und das Profil dargestellt wird durch eine Mehrzahl von Datenpunkten innerhalb eines Koordinatensystems, wobei die Vorrichtung aufweist: eine Einrichtung zur Bildung eines Profiltoleranzbands; eine Einrichtung zum Ausrichten von Profil und Profiltoleranzband; eine Einrichtung zur Schaffung einer Mehrzahl von Speicherstellen zum Speichern von Werten, wobei jede der Speicherstellen zu einem Punkt in dem Koordinatensystem gehört; eine Einrichtung zum Einstellen des in jeder der Speicherstellen gespeicherten Werts, wobei solche Speicherstellen, die nicht zu Punkten des Toleranzbands gehören, auf einen ersten Wert eingestellt, und solche Stellen, die zu Punkten des Toleranzbands gehören, auf einen zweiten Wert eingestellt werden; eine Einrichtung zum Feststellen, ob die Punkte des Profils innerhalb des Toleranzbands liegen, indem der Wert der Speicherstellen ausgewertet wird, die zu Punkten des Profils gehören.
  8. Vorrichtung nach Anspruch 6, bei der die Auswerteeinrichtung einen Prozessor für diese Auswertung enthält, wobei das Profil eine Spitze und zwei Seiten aufweist, von denen eine Seite flacher ist als die andere und das Profil dargestellt wird durch eine Mehrzahl von Datenpunkten innerhalb eines Koordinatensystems, umfassend folgende Merkmale: eine Einrichtung zum Drehen des Profils, um es derart zu orientieren, dass eine der beiden Seiten im Wesentlichen parallel zu einer Koordinatenachse verläuft; eine Einrichtung zum Feststellen, welcher Punkt für die Spitze steht, indem festgestellt wird, welcher Punkt einen Koordinaten-Extremwert in einer Richtung entlang der Koordinatenachse besitzt.
  9. Vorrichtung nach einem vorhergehenden Anspruch, zum Bestimmen der Breite eines Profils einer Blattkante in einen System mit einem Prozessor für eine solche Auswertung, wobei das Profil eine Spitze und zwei Seiten aufweist und dargestellt wird durch eine Mehrzahl von Datenpunkten in einem Koordinatensystem, umfassend: eine Einrichtung zum Bestimmen eines Medians (450); eine Einrichtung zum Bestimmen eines Punkts auf dem Median, der von der Spitze einen Abstand hat; eine Einrichtung zum Bestimmen einer Linie (470), die rechtwinklig zu dem Median verläuft und den bestimmten Punkt auf dem Median enthält; eine Einrichtung zum Bestimmen von zwei Gruppen von Punkten, eine Gruppe für jede Seite des Profils in der Nähe der Stelle, an der die rechtwinklige Linie die Seite des Profils schneidet; eine Einrichtung zum Bestimmen von zwei geschnittenen Linien, wobei eine jeweils jede der zwei Gruppen von Punkten repräsentiert und eine Einrichtung zum Bestimmen der Länge der rechtwinkligen Linie, die zwischen den zwei geschnittenen Linien liegt.
  10. Verfahren zum Bestimmen eines Profils eines Gegenstands, umfassend folgende Schritte: Bereitstellen mindestens einer Lichtquelle (55) zum Projizieren eines Lichtstreifens, der aus mindestens zwei Winkeln auf den Gegenstand gerichtet wird, wobei das Profils des Gegenstands an der Schnittstelle des Lichtstreifens mit dem Gegenstand beleuchtet wird; Bereitstellen von mindestens zwei optischen Detektoren (65, 70), welche kollektiv das Profil aufnehmen und jeweils eine Aufnahme eines anderen Abschnitts des Profils machen als es von den anderen aufgenommen wird, und jeder der optischen Detektoren ein Ausgangssignal liefert, welches repräsentativ ist für seine Aufnahme des Profils; Bereitstellen eines Bildprozessors (95), der betrieblich mit den optischen Detektoren verbunden ist und auf deren Ausgangssignale anspricht, um ein oder mehrere Profilsignale zu bilden, die gemeinsam das Profil darstellen, dadurch gekennzeichnet, dass der Bildprozessor Kalibrierparameter verwendet zum Verknüpfen der Ausgangssignale der optischen Detektoren, wobei die Kalibrierparameter Parameter repräsentieren, die dadurch abgeleitet werden, dass die mindestens zwei optischen Detektoren (65, 70) ein bekanntes Ziel (550) aufnehmen, und mindestens einer der mindestens zwei optischen Detektoren dazu gebracht wird, eine Schnittstelle des Lichtstreifens mit der Zieloberfläche (560) aufzunehmen.
  11. Verfahren nach Anspruch 10, bei dem der Bildprozessor (95) die Ausgangssignale ohne Verwendung eines Merkmals des Inhalts der Ausgangssignale verknüpft.
  12. Verfahren nach Anspruch 10 oder 11, bei dem der Gegenstand eine Kante (35) einer Tragfläche (20) ist.
  13. Verfahren nach Anspruch 10, 11 oder 12, weiterhin umfassend den Schritt des Auswertens des Profils.
  14. Verfahren nach Anspruch 13, bei dem das Profil durch mehrere Datenpunkte innerhalb eines Koordinatensystems dargestellt wird und die Auswertung folgende Schritte beinhaltet: Bereitstellen eines Profiltoleranzbands; Ausrichten des Profils und des Profiltoleranzbands; Bereitstellen mehrerer Speicherstellen zum Speichern von Werten, wobei jede Speicherstelle zu einem Punkt in dem Koordinatensystem gehört; Einstellen des in jeder der Speicherstellen gespeicherten Werts, wobei solche Speicherstellen, die nicht zu Punkten des Toleranzbands gehören auf einen ersten Wert eingestellt werden, und solche Speicherstellen, die zu Punkten des Toleranzbands gehören, auf einen zweiten Wert eingestellt werden; Feststellen, ob die Punkte des Profils innerhalb des Toleranzbands liegen, indem der Wert der Speicherstellen ausgewertet wird, die zu Punkten des Profils gehören.
  15. Verfahren nach Anspruch 14, bei dem der Schritt des Feststellens aufweist: Auswerten des Werts der Speicherstellen mit einem zugehörigen Punkt des Profils wobei dann, wenn der Wert dem zweiten Wert entspricht, das Profil innerhalb des Toleranzbands liegt und dann, wenn der Wert dem ersten Wert gleicht das Profil außerhalb des Toleranzbands liegt.
  16. Verfahren nach Anspruch 14, bei dem der Schritt des Einstellens das Einstellen des Werts sämtlicher Speicherstellen auf den ersten Wert beinhaltet, weiterhin das anschließende Ändern des Werts der Speicherstellen, die zu Punkten des Toleranzbands gehören, in den zweiten Wert.
  17. Verfahren nach Anspruch 14, weiterhin umfassend den Schritt des Änderns des in den Speicherstellen mit Punkten des Profils gespeicherten Werts auf einen Wert, der die Ergebnisse des Auswerteschritts widerspiegelt, wobei der Wert auf einen Wert geändert wird, der besagt, dass das Profil innerhalb der Toleranz liegt, oder auf einen anderen Wert, welcher besagt, dass das Profil außerhalb der Toleranz liegt.
  18. Verfahren nach Anspruch 14, bei dem die Speicherstellen solche einer Videoanzeige sind und die Werte eine Farbe an einer Stelle der Anzeige der Videoanzeige bilden.
  19. Verfahren nach Anspruch 14, bei dem die mehreren Speicherstellen eine erste Menge von Speicherstellen aufweisen und das Verfahren weiterhin die Schritte beinhaltet: Bereitstellen einer zweiten Mehrzahl von Speicherstellen zum Abspeichern von Werten, wobei jede der Speicherstellen zu einem Punkt in einem Koordinatensystem gehört; Einstellen des in jeder der Speicherstellen gespeicherten Werts, wobei solche Speicherstellen, die nicht zu Punkten des Profils gehören, auf einen dritten Wert eingestellt werden, und solche Speicherstellen, die zu Punkten des Profilbands gehören, auf einen vierten Wert eingestellt werden; wobei der Schritt des Feststellens beinhaltet: Ausführen einer logischen Funktion bezüglich der in einem Paar der Speicherstellen gespeicherten Werte, eine Speicherstelle aus jeder von der ersten und der zweiten Mehrzahl von Speicherstellen, wobei das Paar zu ein und demselben Punkt innerhalb des Koordinatensystems gehört.
  20. Verfahren nach Anspruch 19, bei dem der erste, der zweite, der dritte und der vierte Wert Binärwerte sind.
  21. Verfahren nach Anspruch 13, bei dem das Profil eine Spitze und zwei Seiten aufweist, wobei eine der beiden Seiten flacher ist als die andere und das Profil dargestellt wird durch eine Mehrzahl von Datenpunkten innerhalb eines Koordinatensystems, und die Auswertung folgende Schritte beinhaltet: Drehen des Profils derart, dass dieses so orientiert ist, dass eine der beiden Seiten im Wesentlichen parallel zu einer Koordinatenachse verläuft; Feststellen, welcher Punkt die Spitze repräsentiert, indem festgestellt wird, welcher Punkt einen Koordinaten-Extremwert in einer Richtung entlang der Koordinatenachse aufweist.
  22. Verfahren nach Anspruch 21, bei dem der Schritt des Drehens des Profils folgende Schritte beinhaltet: an einem relativ flachen Abschnitt wird eine der Seiten des Profils angeordnet; es wird die Gleichung einer Linie ermittelt, die für den relativ flachen Abschnitt steht; das Profil wird so gedreht, dass es eine Orientierung hat, in der die für den relativ flachen Abschnitt stehende Linie im Wesentlichen parallel zu einer Koordinatenachse verläuft.
  23. Verfahren nach Anspruch 22, bei dem die eine Seite des Profils die flachere der beiden Seiten des Profils ist.
  24. Verfahren nach Anspruch 23, umfassend den Schritt des Feststellens der Breite des Profils in einer Entfernung von der Spitze.
  25. Verfahren nach einem der Ansprüche 10 bis 24, zum Bestimmen der Breite des Profils einer Blattkante in einem System mit einem Prozessor für eine solche Auswertung, wobei das Profit eine Spitze und zwei Seiten besitzt und das Profil dargestellt wird durch eine Mehrzahl von Datenpunkten innerhalb eines Koordinatensystems, umfassend folgende Schritte: Ermitteln der Spitze des Profils; Bestimmen eines Medians (450); Bestimmen eines Punkts auf der Medianlinie, der von der Spitze einen Abstand hat; Bestimmen einer Linie (470), die rechtwinklig zu dem Median verläuft und den bestimmten Punkt auf dem Median enthält; Bestimmen von zwei Gruppen von Punkten, eine Gruppe für jede Seite des Profils und in der Nähe der Stelle, an der die rechtwinklige Linie die Seite des Profils schneidet; Bestimmen von zwei geschnittenen Linien, von denen eine jeweils für eine der beiden Gruppen von Punkten steht; Bestimmen der Breite als die Länge der rechtwinkligen Linie, die zwischen den beiden geschnittenen Linien liegt.
DE69826753T 1997-02-19 1998-02-19 Optischer Profilsensor Expired - Lifetime DE69826753T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/801,336 US6175415B1 (en) 1997-02-19 1997-02-19 Optical profile sensor
US801336 1997-02-19

Publications (2)

Publication Number Publication Date
DE69826753D1 DE69826753D1 (de) 2004-11-11
DE69826753T2 true DE69826753T2 (de) 2006-03-02

Family

ID=25180840

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69826753T Expired - Lifetime DE69826753T2 (de) 1997-02-19 1998-02-19 Optischer Profilsensor

Country Status (4)

Country Link
US (2) US6175415B1 (de)
EP (1) EP0866308B1 (de)
JP (1) JPH10311711A (de)
DE (1) DE69826753T2 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009010355A1 (de) * 2009-02-25 2010-09-02 Solving 3D Gmbh Profilerfassungseinrichtung
DE102010047137A1 (de) * 2010-09-30 2012-04-05 Kronoplus Technical Ag Verfahren und Vorrichtung zur Überwachung der Herstellung von Verlege- und Verriegelungsprofilen von Laminatpaneelen
DE102011007520A1 (de) * 2011-04-15 2012-10-18 Krones Aktiengesellschaft Verfahren und Vorrichtung zum Kalibrieren einer Ausrichteiheit für Behälter und zum Ausrichten von Behältern
DE102010036762B4 (de) * 2010-06-16 2017-12-28 Wincor Nixdorf International Gmbh Verfahren und Vorrichtung zur Formerkennung von Leergutgebinden in Leergutrücknahmeautomaten mittels eines Lichtschnitt Triangulationsverfahren

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7342665B2 (en) * 1998-06-30 2008-03-11 Drake Jr Thomas E System and method for control of paint thickness
US6633384B1 (en) * 1998-06-30 2003-10-14 Lockheed Martin Corporation Method and apparatus for ultrasonic laser testing
US6657733B1 (en) * 1998-06-30 2003-12-02 Lockheed Martin Corporation Method and apparatus for detecting ultrasonic surface displacements using post-collection optical amplification
US7612890B2 (en) * 1998-06-30 2009-11-03 Lockheed Martin Corporation System and method for controlling wafer temperature
US7561281B2 (en) * 1998-06-30 2009-07-14 Lockheed Martin Corporation System and method for controlling tube thickness
US7545509B2 (en) * 1998-06-30 2009-06-09 Lockheed Martin Corporation System and method for online control of paper elasticity and thickness
JP3961729B2 (ja) 1999-03-03 2007-08-22 株式会社デンソー 全焦点撮像装置
US7286241B2 (en) * 1999-06-24 2007-10-23 Lockheed Martin Corporation System and method for high-speed laser detection of ultrasound
AU6238300A (en) * 1999-07-27 2001-02-13 California Cedar Products Company Automatic circular saw tooth inspection system and method
DE29916075U1 (de) 1999-09-13 2000-12-14 Siemens AG, 80333 München Einrichtung zur Inspektion einer dreidimensionalen Oberflächenstruktur
GB0002421D0 (en) * 2000-02-02 2000-03-22 Rolls Royce Plc A conformal gauge created using rapid prototyping
WO2001077615A1 (fr) * 2000-04-07 2001-10-18 I-Ware Laboratory Co., Ltd. Procede et dispositif de determination de forme
JP4874499B2 (ja) * 2000-07-14 2012-02-15 ロッキード マーティン コーポレイション 試験目的の超音波信号発生装置を配置し位置決めするためのシステムおよび方法
US6868194B2 (en) * 2001-12-19 2005-03-15 General Electric Company Method for the extraction of image features caused by structure light using image reconstruction
US6876459B2 (en) * 2002-04-01 2005-04-05 General Electric Company Method and apparatus for optical measurement of the leading edge position of an airfoil
GB0210990D0 (en) * 2002-05-14 2002-06-19 Rolls Royce Plc Method of generating an inspection program and method of generating a visual display
US7009717B2 (en) * 2002-08-14 2006-03-07 Metris N.V. Optical probe for scanning the features of an object and methods therefor
US7428061B2 (en) * 2002-08-14 2008-09-23 Metris Ipr N.V. Optical probe for scanning the features of an object and methods thereof
US7679757B1 (en) * 2002-10-31 2010-03-16 BYTEWISE Measurement Systems LLC. Non-contact profile measurement system
DK1579171T3 (da) 2002-12-31 2009-07-20 D4D Technologies Llc Laserdigitizersystem til dentale anvendelser
WO2004085956A2 (en) 2003-03-24 2004-10-07 D3D, L.P. Laser digitizer system for dental applications
US20060192939A1 (en) * 2003-04-16 2006-08-31 Lebeau Robert C Optical sharpness meter
DE10317778B4 (de) * 2003-04-16 2017-08-31 Cascade Microtech, Inc. Verfahren zur Erhöhung der Genauigkeit der Positionierung eines ersten Objektes relativ zu einem zweiten Objekt
US20040207857A1 (en) * 2003-04-16 2004-10-21 Lebeau Robert C. Optical sharpness meter
US20050020910A1 (en) * 2003-04-30 2005-01-27 Henley Quadling Intra-oral imaging system
US7355721B2 (en) * 2003-05-05 2008-04-08 D4D Technologies, Llc Optical coherence tomography imaging
US20040263840A1 (en) * 2003-06-25 2004-12-30 Segall Stephen B. Calibration of reconfigurable inspection machine
US6969821B2 (en) * 2003-06-30 2005-11-29 General Electric Company Airfoil qualification system and method
US6997046B2 (en) * 2003-08-01 2006-02-14 General Electric Company Method and apparatus for fixtured wax and trace
AU2004273957B2 (en) * 2003-09-17 2009-05-28 D4D Technologies, Llc High speed multiple line three-dimensional digitization
US7327857B2 (en) 2004-03-09 2008-02-05 General Electric Company Non-contact measurement method and apparatus
EP1615153A3 (de) * 2004-07-09 2011-05-04 Rolls-Royce Plc Komponentenauswahl
US7511722B1 (en) * 2004-08-27 2009-03-31 Apple Inc. Method and system for fast 90 degree rotation of arrays
TWI267035B (en) 2004-09-27 2006-11-21 Elan Microelectronics Corp Optical sensing part and method for quickly inspecting its matching part
CN1316226C (zh) * 2005-01-04 2007-05-16 李小路 双激光器实时测量机翼顶端垂直位移的方法
US7623250B2 (en) * 2005-02-04 2009-11-24 Stryker Leibinger Gmbh & Co. Kg. Enhanced shape characterization device and method
GB0612925D0 (en) * 2006-06-29 2006-08-09 Rolls Royce Plc Method and system for measuring a component
US20080117438A1 (en) * 2006-11-16 2008-05-22 Solvision Inc. System and method for object inspection using relief determination
US20080134505A1 (en) * 2006-12-12 2008-06-12 Thomas Andrew Gabriel Method and fixture for manufacturing components
DE102007009851B3 (de) * 2007-02-28 2008-05-29 Kuka Roboter Gmbh Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt
DE102007028174A1 (de) * 2007-06-20 2008-12-24 Mummenhoff Technologie Gmbh Messanordnung und Verfahren zum optischen Vermessen von Trennwerkzeugen
DE102007038785A1 (de) * 2007-08-06 2009-02-19 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zum Bestimmen von Geometriedaten eines Messobjekts
US7578178B2 (en) * 2007-09-28 2009-08-25 United Technologies Corporation Method of inspecting turbine internal cooling features using non-contact scanners
US8105651B2 (en) * 2007-12-21 2012-01-31 United Technologies Corp. Artifacts, methods of creating such artifacts and methods of using such artifacts
US8883261B2 (en) 2007-12-21 2014-11-11 United Technologies Corporation Artifacts, method of creating such artifacts and methods of using such artifacts
US7869026B2 (en) * 2007-12-21 2011-01-11 United Technologies Corp. Targeted artifacts and methods for evaluating 3-D coordinate system measurement accuracy of optical 3-D measuring systems using such targeted artifacts
US8184909B2 (en) 2008-06-25 2012-05-22 United Technologies Corporation Method for comparing sectioned geometric data representations for selected objects
JP5597056B2 (ja) * 2010-08-02 2014-10-01 株式会社キーエンス 画像測定装置、画像測定方法及び画像測定装置用のプログラム
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
DE102011000304B4 (de) * 2011-01-25 2016-08-04 Data M Sheet Metal Solutions Gmbh Kalibrierung von Laser-Lichtschnittsensoren bei gleichzeitiger Messung
US8515149B2 (en) * 2011-08-26 2013-08-20 General Electric Company Inspection system and method for determining three dimensional model of an object
FR2981450B1 (fr) * 2011-10-17 2014-06-06 Eads Europ Aeronautic Defence Systeme et procede de controle de la qualite d'un objet
US10648789B2 (en) * 2012-11-07 2020-05-12 ARTEC EUROPE S.á r.l. Method for monitoring linear dimensions of three-dimensional objects
WO2019161155A1 (en) * 2018-02-19 2019-08-22 Gentex Corporation Imaging device for rearview assembly
JP2020003276A (ja) * 2018-06-27 2020-01-09 リョーエイ株式会社 油検出装置、油検出装置の利用方法
US10845189B2 (en) 2019-03-27 2020-11-24 Raythoen Technologies Corporation Calibration for laser inspection
US11772223B2 (en) 2019-05-17 2023-10-03 Vitaly Tsukanov Systems for blade sharpening and contactless blade sharpness detection
US11904428B2 (en) 2019-10-25 2024-02-20 Vitaly Tsukanov Systems for blade sharpening and contactless blade sharpness detection
JP2023173018A (ja) * 2022-05-25 2023-12-07 セイコーエプソン株式会社 カメラのキャリブレーション状態を可視化する方法、システム、及び、コンピュータープログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3837198A (en) 1973-04-16 1974-09-24 Bendix Corp Stereoscopic gage and gaging system
US4226536A (en) * 1979-02-23 1980-10-07 Dreyfus Marc G Electro-optical contour measuring system
DE3070433D1 (en) 1980-12-18 1985-05-09 Ibm Method for the inspection and automatic sorting of objects with configurations of fixed dimensional tolerances, and device for carrying out the method
CH646516A5 (fr) 1982-02-25 1984-11-30 Speno International Procede et dispositif de mesure du profil transversal du champignon d'un rail d'une voie ferree.
US4563095A (en) 1982-12-20 1986-01-07 Essex Group, Inc. Method and apparatus for monitoring the surface of elongated objects
US4908782A (en) 1983-05-19 1990-03-13 Compressor Components Textron Inc. Airfoil inspection method
GB2149094B (en) * 1983-11-01 1987-03-18 Rolls Royce Observing change in a shape of rotating blade
GB8508391D0 (en) 1985-03-30 1985-05-09 Ae Plc Measurement of engineering components
GB2175396B (en) 1985-05-22 1989-06-28 Filler Protection Developments Apparatus for examining objects
US4827436A (en) 1987-04-22 1989-05-02 Micro Component Technology, Inc. Non-contact high resolution displacement measurement technique
US4875777A (en) * 1987-09-30 1989-10-24 Industrial Technology Institute Off-axis high accuracy structured light profiler
US5028799A (en) 1988-08-01 1991-07-02 Robotic Vision System, Inc. Method and apparatus for three dimensional object surface determination using co-planar data from multiple sensors
US5090811A (en) 1989-05-31 1992-02-25 General Electric Company Optical radius gauge
EP0502930B1 (de) 1989-12-05 1994-08-03 The Broken Hill Proprietary Company Limited Verfahren und anordnung zur optoelektronischen vermessung von gegenständen
US5325443A (en) 1990-07-06 1994-06-28 Westinghouse Electric Corporation Vision system for inspecting a part having a substantially flat reflective surface
US5162659A (en) * 1991-03-06 1992-11-10 Northwest Airlines, Inc. Method and apparatus for noncontact inspection of engine blades
US5619587A (en) * 1991-05-10 1997-04-08 Aluminum Company Of America System and method for contactlessly gauging the thickness of a contoured object, such as a vehicle wheel
NO174025C (no) * 1991-10-11 1994-03-02 Metronor Sa System for punktvis maaling av romlige koordinater
US5444536A (en) 1992-04-28 1995-08-22 Mtu Motoren- Und Turbinen-Union Muenchen Gmbh Apparatus for measuring the curvature of a profile, such as an edge of a turbine blade
US5500737A (en) 1993-07-21 1996-03-19 General Electric Company Method for measuring the contour of a surface
JPH0815718B2 (ja) * 1993-08-20 1996-02-21 株式会社島精機製作所 裁断刃の刃幅測定装置
US5552822A (en) 1993-11-12 1996-09-03 Nallakrishnan; Ravi Apparatus and method for setting depth of cut of micrometer surgical knife
AU2612095A (en) 1994-06-23 1996-01-19 Leif Gronskov Arrangement for measuring the quality of rails, in which a movable frame is connected to the bogie
US5517310A (en) * 1994-06-30 1996-05-14 Solar Turbines Incorporated Method and apparatus for obtaining and analyzing an image of a elongate slot

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009010355A1 (de) * 2009-02-25 2010-09-02 Solving 3D Gmbh Profilerfassungseinrichtung
DE102010036762B4 (de) * 2010-06-16 2017-12-28 Wincor Nixdorf International Gmbh Verfahren und Vorrichtung zur Formerkennung von Leergutgebinden in Leergutrücknahmeautomaten mittels eines Lichtschnitt Triangulationsverfahren
DE102010047137A1 (de) * 2010-09-30 2012-04-05 Kronoplus Technical Ag Verfahren und Vorrichtung zur Überwachung der Herstellung von Verlege- und Verriegelungsprofilen von Laminatpaneelen
DE102011007520A1 (de) * 2011-04-15 2012-10-18 Krones Aktiengesellschaft Verfahren und Vorrichtung zum Kalibrieren einer Ausrichteiheit für Behälter und zum Ausrichten von Behältern

Also Published As

Publication number Publication date
EP0866308A2 (de) 1998-09-23
JPH10311711A (ja) 1998-11-24
US6205240B1 (en) 2001-03-20
DE69826753D1 (de) 2004-11-11
EP0866308A3 (de) 2000-01-05
US6175415B1 (en) 2001-01-16
EP0866308B1 (de) 2004-10-06

Similar Documents

Publication Publication Date Title
DE69826753T2 (de) Optischer Profilsensor
AT506110B1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102015116047B4 (de) Prüfvorrichtung und Steuerverfahren für eine Prüfvorrichtung
DE112010004767B4 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102013008273B4 (de) Dreidimensionale Bilderfassungsvorrichtung
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
DE69428686T2 (de) Bildaufnahmevorrichtung und verfahren zur bestimmung von fokusinformationen
DE602005000598T2 (de) Dreidimensionaler optischer Sensor
DE69027272T2 (de) Digitalisierung einer Oberfläche eines unregelmässig geformten Körpers, zum Beispiel einer Schuhsohle
DE69723213T2 (de) System zum Messen des Spiels und der Koplanarität zweier nebeneinander liegender Objekte
DE112010002174T5 (de) Verfahren und vorrichtung für ein praktisches 3d-sehsystem
DE112013004489T5 (de) Laserscanner mit Dynamischer Einstellung der Winkel-Abtastgeschwindigkeit
DE102009046295A1 (de) Optische Abweichungskorrektur für maschinelle Sichtinspektionssysteme
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
DE102018115334B3 (de) Verfahren zum Kalibrieren einer elektromagnetische Strahlung abstrahlenden Vorrichtung mittels einer Sensoreinheit
WO2014000738A2 (de) Verfahren zur bilderfassung einer vorzugsweise strukturierten oberfläche eines objekts und vorrichtung zur bilderfassung
DE19902401C2 (de) Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon
DE4212404A1 (de) Vorrichtung zum messen der raeumlichen form eines langgestreckten bauteils
DE10328523B4 (de) Verfahren und Meßvorrichtung zur berührungslosen Vermessung einer Kontur einer Oberfläche
DE102004058655B4 (de) Verfahren und Anordnung zum Messen von Geometrien eines Objektes mittels eines Koordinatenmessgerätes
EP4220077A1 (de) Kalibriersystem zum kalibrieren eines kamerasystems und zugehöriges kalibriersystem
EP3628995A1 (de) Kalibriervorlage und kalibrierverfahren zum geometrischen kalibrieren einer vielzahl von kameras eines kamera-arrays
CH702255A1 (de) Vorrichtung zur räumlichen Erfassung eines Objekts mittels optischer Abtastung.

Legal Events

Date Code Title Description
8364 No opposition during term of opposition