-
Die
Erfindung betrifft eine Bildsignalverarbeitung, die es dem Benutzer
ermöglicht,
ein Zielobjekt in einem mit einem elektronischen Endoskop aufgenommenen
Gesamtbild zu erkennen.
-
Ein
elektronisches Endoskop, das eine Abbildungsvorrichtung am Ende
eines Einführrohrs
aufweist, wird zu medizinischen Untersuchungen, industriellen Untersuchungen
und dergleichen eingesetzt. Dabei wird Licht aus dem Ende des Einführrohrs
ausgesendet, um das zu betrachtende Objekt zu beleuchten. Die Abbildungsvorrichtung
nimmt dann ein durch das reflektierte Licht erzeugtes optisches
Bild auf, das auf einem Monitor dargestellt wird.
-
Ein
medizinisches Endoskop wird häufig dazu
eingesetzt, abnormes Gewebe oder eine krankhafte Veränderung
innerer Organe zu erkennen. So sieht abnormes Gewebe oder eine krankhafte
Veränderung
anders aus als gesundes Gewebe. Indem der Benutzer das Gewebe betrachtet,
kann er abnormes Gewebe oder eine krankhafte Veränderung identifizieren.
-
Dagegen
ist das äußere Erscheinungsbild
einer krankhaften Veränderung,
die tief unter der Oberfläche
eines Organs sitzt, nicht klar gegenüber dem Erscheinungsbild von
gesundem Gewebe abgrenzbar. Deshalb ist es häufig schwierig, solch eine
krankhafte Veränderung
zu erkennen.
-
Aufgabe
der Erfindung ist es, einen Endoskopprozessor, ein Computerprogrammprodukt
und ein Endoskopsystem anzugeben, die eine Signalverarbeitung eines
Bildsignals, das von einem elektronischen Endoskop erzeugt wird,
in der Weise ermöglichen,
dass eine krankhafte Veränderung
in dem dargestellten Bild, das dem Bildsignal entspricht, leicht erkennbar
ist.
-
Die
Erfindung löst
diese Aufgabe durch die Gegenstände
der unabhängigen
Ansprüche.
Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
-
Weitere
Wirkungen und Vorteile der vorliegenden Erfindung werden im Folgenden
anhand der Figuren erläutert.
Darin zeigen:
-
1 ein
Blockdiagramm, das den inneren Aufbau eines Endoskopsystems mit
einem Endoskopprozessor zeigt, der ein erstes Ausführungsbeispiel
darstellt;
-
2 ein
Blockdiagramm, das den inneren Aufbau eines Bildsignalverarbeitungsblocks
nach erstem Ausführungsbeispiel
darstellt;
-
3 ein
Flussdiagramm, das die Verarbeitung zur Bildhervorhebung zeigt,
die der Bildsignalverarbeitungsblock nach erstem Ausführungsbeispiel durchführt;
-
4 ein
Blockdiagramm, das den inneren Aufbau des Bildsignalverarbeitungsblocks
nach zweitem Ausführungsbeispiel
zeigt;
-
5 ein
Flussdiagramm, das die Verarbeitung zur Bildhervorhebung zeigt,
die der Bildsignalverarbeitungsblock nach zweitem Ausführungsbeispiel
durchführt;
-
6 ein
Diagramm, das die Umsetzung von ursprünglichen Pixelsignalen, die
von in einer Zeile angeordneten Pixeln stammen, anhand eines festen
Schwellwertes in eine geringere Zahl an Quantisierungsstufen erläutert; und
-
7 ein
Diagramm, das die Umsetzung von ursprünglichen Pixelsignalen, die
von in einer Zeile angeordneten Pixeln stammen, anhand eines veränderlichen
Schwellwertes in eine geringere Zahl an Quantisierungsstufen nach
zweitem Ausführungsbeispiel
gewandelt werden.
-
Beschreibung
bevorzugter Ausführungsbeispiele
-
Die
Erfindung wird im Folgenden anhand der in den Figuren gezeigten
Ausführungsbeispiele
beschrieben.
-
1 zeigt
ein Endoskopsystem 10, das einen Endoskopprozessor 20,
ein elektronisches Endoskop 40 und einen Monitor 50 enthält. Der
Endoskopprozessor 20 ist über nicht gezeigte Verbindungsstücke an das
elektronische Endoskop 40 und den Monitor 50 angeschlossen.
-
Im
Folgenden wird der Gesamtaufbau des Endoskopsystems 10 kurz
dargestellt. In dem Endoskopprozessor 20 ist eine Lichtquelle 21 zum
Beleuchten eines nicht gezeigten Objektes untergebracht. Das von
der Lichtquelle 21 ausgesendete Licht wird über einen
Lichtleiter 41, der in dem elektronischen Endoskop 40 untergebracht
ist, auf das Objekt gestrahlt.
-
In
dem elektronischen Endoskop 40 ist eine Abbildungsvorrichtung 42,
z.B. ein CCD-Bildsensor, montiert. Die Abbildungsvorrichtung 42 nimmt
ein Bild des mit dem Beleuchtungslicht bestrahlten Objektes auf.
Anschließend
erzeugt die Abbildungsvorrichtung 42 ein Bildsignal, das
dem eingefangenen Objektbild entspricht. Das Bildsignal wird an
den Endoskopprozessor 20 gesendet, in dem an dem Bildsignal
eine vorbestimmte Signalverarbeitung vorgenommen wird. Das dieser
vorbestimmten Signalverarbeitung unterzogene Bildsignal wird in
ein Video-Mischsignal gewandelt und an den Monitor 50 gesendet,
auf dem das resultierende Bild dargestellt wird.
-
Im
Folgenden werden die einzelnen Komponenten des Endoskopsystems 10 genauer
beschrieben. In dem Strahlengang, der von der Lichtquelle 21 zu
einer Eintrittsfläche 41a des
Lichtleiters 41 führt, sind
eine Blende 22 und eine Kondensorlinse 23 montiert.
Das Licht, das nahezu vollständig
aus parallelen, von der Lichtquelle 21 ausgesendeten Lichtstrahlen besteht,
fällt durch
die Kondensorlinse 23 gebündelt auf die Eintrittsfläche 41a des
Lichtleiters 41.
-
Die
Intensität
des Lichtes, die auf das Eintrittsende 41a fällt, wird
durch Einstellen der Blende 22 gesteuert. Die Blende 22 wird
von einem Motor 25 eingestellt. Der Motor 25 wird
wiederum von einer Blendenschaltung 24 gesteuert. Die Blendenschaltung 24 ist über eine
Systemsteuerung 26 mit einem Bildsignalverarbeitungsblock 30 verbunden.
Der Bildsignalverarbeitungsblock 30 erfasst die Größe des in dem
eingefangenen Objektbild empfangenen Lichtes anhand des von der
Abbildungsvorrichtung 42 erzeugten Bildsignals. Die Blendenschaltung 24 berechnet
anhand der Lichtstärke
die erforderliche Stellgröße für den Motor 25.
-
Eine
Stromversorgungsschaltung 27, welche die Lichtquelle 21 mit
Energie speist, ist mit der Systemsteuerung 26 elektrisch
verbunden. Die Systemsteuerung 26 gibt an die Stromversorgungsschaltung 27 ein
Steuersignal zum Ein- und Ausschalten der Lichtquelle 21 aus.
So wird der Beleuchtungszustand (Ein- und Aus-Zustand) der Lichtquelle 21 von
der Systemsteuerung 26 eingestellt.
-
Die
Systemsteuerung 26 gibt an eine Treiberschaltung 28 ein
Treibersignal aus, das zur Ansteuerung der Abbildungsvorrichtung 42 benötigt wird.
Die Abbildungsvorrichtung 42, die von der Treiberschaltung 28 angesteuert
wird, erzeugt ein Bildsignal, das dem eingefangenen Objektbild entspricht.
-
Die
Systemsteuerung 26 steuert den Betrieb des gesamten Endoskopprozessors 20.
Auch der Bildsignalverarbeitungsblock 30 wird von der Systemsteuerung 26 in
später
beschriebener Weise gesteuert.
-
Das
Licht, das auf das Eintrittsende 41a fällt, wird über den Lichtleiter 41 an
ein Austrittsende 41b übertragen.
Das so übertragene
Licht beleuchtet einen um das Kopfende des Einführrohrs des Endoskops 40 liegenden
Bereich, nachdem es durch eine Zerstreuungslinse 43 getreten
ist. Eine Objektivlinse 44 fokussiert ein optisches Bild
des beleuchteten Objektes auf die Lichtempfangsfläche der
Abbildungsvorrichtung 42.
-
Auf
der Lichtempfangsfläche
der Abbildungsvorrichtung 42 ist in zwei Dimensionen eine Vielzahl
von Pixeln (nicht gezeigt) angeordnet. Jedes Pixel ist von einem
Rot-, einem Grün-
oder einem Blau-Farbfilter bedeckt. Durch das jeweilige Rot-, Grün- bzw.
Blau-Farbfilter kann nur eine rote, eine grüne bzw. eine blaue Lichtkomponente
treten. Die Lichtkomponente, die von dem jeweiligen Farbfilter erzeugt
wird, fällt
auf das Pixel, das von diesem Farbfilter bedeckt ist. Jedes Pixel
erzeugt ein Pixelsignal entsprechend der Größe der erfassten Lichtkomponente.
-
Das
Bildsignal umfasst eine Vielzahl von Pixelsignalen, die von den
Pixeln erzeugt werden und das Gesamtbild darstellen, das einem einzigen
Vollbild (Frame) oder einem einzigen Halb- oder Teilbild (Field)
entspricht, das von der Abbildungsvorrichtung 42 aufgenommen
wird.
-
Das
von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird
an den Bildsignalverarbeitungsblock 30 gesendet, der in
dem Endoskopprozessor 20 untergebracht ist. Der Bildsignalverarbeitungsblock 30 nimmt
an dem Bildsignal eine Normalbildverarbeitung (Standardbildverarbeitung)
oder eine zur Bildhervorhebung bestimmte Bildverarbeitung vor, so
dass auf dem Monitor 50 ein Normalbild (Standardbild) oder
ein hervorgehobenes Bild dargestellt wird. Dabei ist das Normalbild
gleich dem aufgenom menen Bild, während
das hervorgehobene Bild ein hervorgehobener Teil des Normalbildes
ist.
-
Wie
in 2 gezeigt, enthält der Bildsignalverarbeitungsblock 30 einen
ersten Verarbeitungsblock 31, einen Mittelungsblock 32,
einen Differenzblock 33, einen Hervorhebungsblock 34,
einen Syntheseblock 35 und einen zweiten Verarbeitungsblock 36.
-
Bei
der Durchführung
der hervorhebenden Bildverarbeitung sind der erste Verarbeitungsblock 31,
der Mittelungsblock 32, der Differenzblock 33,
der Hervorhebungsblock 34, der Syntheseblock 35 und der
zweite Verarbeitungsblock 36 in Betrieb, wie später beschrieben
wird. Bei der Durchführung
der Normalbildverarbeitung sind dagegen nur der erste und der zweite
Verarbeitungsblock 31, 37 in Betrieb.
-
Das
von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird
an den ersten Verarbeitungsblock 31 gesendet. Der erste
Verarbeitungsblock 31 führt
eine vorbestimmte Signalverarbeitung durch, die eine Farbseparation
und eine Farbinterpolation beinhalten.
-
Bei
der Farbseparation wird das Bildsignal in Rot-, Grün- und Blau-Signalkomponenten
separiert. Diese Signalkomponenten sind Pixelsignale, die entsprechend
ihrer jeweiligen spezifischen Stärke
an rotem, grünem
bzw. blauem Licht eingeordnet sind. Dabei besteht jedes einzelne
Pixelsignal nur aus einer einzigen Signalkomponente, nämlich einer
Rot-, Grün-
oder Blau-Signalkomponente, da jedes Pixel entsprechend dem Farbfilter,
von dem es bedeckt ist, direkt nur eine einzige Farbsignalkomponente
erzeugen kann.
-
Während der
Farbinterpolation werden zusätzlich
zu der erzeugten Farbsignalkomponente zwei weitere Farbsignalkomponenten,
die jedem Pixelsignal vor der Farbinterpolation inhärent sind,
synthetisiert. Beispielsweise werden in einem Pixelsignal, das von
einem von einem Grün-Farbfilter
bedeckten Pixel erzeugt wird und einer Grün-Signalkomponente besteht,
die Rot- und die Blau-Signalkomponente, die zu dem Pixel gehören, synthetisiert, d.h.
künstlich
erzeugt. Jedes Pixelsignal besteht dann aus allen drei Farbsignalkomponenten.
-
Das
analoge Bildsignal wird dann in digitale Bilddaten gewandelt.
-
Bei
Durchführung
der Normalbildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an
den zweiten Verarbeitungsblock 37 gesendet. Bei der hervorhebenden
Bildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an
den Mittelungsblock 32 und den Differenzblock 33 gesendet.
-
Der
Mittelungsblock 32 empfängt
für jedes Pixel
eine Rot-, eine Grün- und eine Blau-Datenkomponente,
die Bilddaten enthalten. Die Rot-, die Grün- und die Blau-Datenkomponente
sind digitale Daten, die aus der Rot-, der Grün- bzw. der Blau-Signalkomponente
umgewandelt sind. Die Datenpegel jeder Farbdatenkomponente entspricht
dem Signalpegel der zugehörigen
Farbsignalkomponente.
-
Der
Mittelungsblick 32 bestimmt sämtliche Pixel nacheinander
als Zielpixel. Zusätzlich
zur Bestimmung dieses Zielpixels werden 24 Pixel, die in fünf Zeilen
und fünf
Spalten um das Zielpixel herum angeordnet sind, als Umgebungspixel
bestimmt. Der Mittelungsblock 32 berechnet für das jeweilige
Zielpixel einen Teilmittelwert. Der Teilmittelwert ist der Mittelwert
der Datenpegel der auf das Zielpixel und die 24 Umgebungspixel bezogenen
Datenkomponenten.
-
Der
Teilmittelwert wird für
die Rot-, die Grün- und
die Blau-Datenkomponente
separat berechnet. So werden die Teilmittelwerte, die zu der Rot-,
der Grün-
und der Blau-Datenkomponente gehören,
als Rot-, Grün-
bzw. Blau-Teilmittelwert bezeichnet. Die Daten, die dem auf jedes
einzelne Pixel bezogenen Rot-, Grün- und Blau-Teilmittelwert
entsprechen, werden an den Differenzblock 33 und den Syntheseblock 35 gesendet.
-
Der
Differenzblock 33 empfängt
zudem die Bilddaten, wie oben beschrieben wurden. Der Differenzblock 33 berechnet
für jedes
Pixel einen Rot-Differenzwert, indem er den empfangenen Rot-Teilmittelwert
von jedem der Datenpegel sämtlicher
Rot-Datenkomponenten subtrahiert. Entsprechend berechnet der Differenzblock 33 für jedes
Pixel einen Grün-Differenzwert, indem
er den empfangenen Grün-Teilmittelwert
von jedem der Datenpegel sämtlicher
Grün-Datenkomponenten
subtrahiert. Schließlich
berechnet der Differenzblock 33 für jedes Pixel einen Blau-Differenzwert, indem
er den empfangenen Blau-Teilmittelwert von jedem Datenpegel sämtlicher
Blau-Datenkomponenten subtrahiert.
-
Die
auf die Rot-, Grün-
und Blau-Differenzwerte bezogenen Daten werden an den Hervorhebungsblock 34 gesendet.
Der Hervorhebungsblock 34 berechnet für jedes Pixel einen Rot-, einen
Grün- und
einen Blau-Hervorhebungswert, indem er den Rot-, den Grün- bzw.
den Blau-Differenzwert mit einem vorbestimmten Verstärkungsfaktor
multipliziert, der größer als
eins ist.
-
Die
auf die Rot-, Grün-
und Blau-Hervorhebungswerte bezogenen Daten werden an den Syntheseblock 35 gesendet.
Auch die auf die Rot-, Grün- und Blau-Teilmittelwerte
bezogenen Daten werden an den Syntheseblock 35 gesendet,
wie oben beschrieben wurde.
-
Der
Syntheseblock 35 erzeugt Bildhervorhebungsdaten, die dem
hervorgehobenen Bild entsprechen. Die Bildhervorhebungsdaten werden
anhand der Rot-, Grün-
und Blau-Hervorhebungswerte und der Rot-, Grün- und Blau-Teilmittelwerte
erzeugt. Wie die Bildsynthesedaten erzeugt werden, wird unten im Einzelnen
erläutert.
-
Der
Syntheseblock 35 berechnet für jedes Pixel die Summe aus
dem Rot-Teilmittelwert
und dem Rot-Hervorhebungswert. Die Summe aus dem Rot-Teilmittelwert
und dem Rot-Hervorhebungswert wird in dem hervorgehobenen Bild für jedes
Pixel als Stärke
der Rot-Lichtkomponente festgelegt. Entsprechend berechnet der Syntheseblock 35 für jedes
Pixel die Summe aus dem Grün-Teilmittelwert
und dem Grün-Hervorhebungswert.
Die Summe aus dem Grün-Teilmittelwert
und dem Grün-Hervorhebungswert
wird in dem hervorgehobenen Bild für jedes Pixel als Stärke der
Grün-Lichtkomponente
festgelegt. Schließlich
berechnet der Syntheseblock 35 für jedes Pixel die Summe aus
dem Blau-Teilmittelwert und dem Blau-Hervorhebungswert. Die Summe
aus dem Blau-Teilmittelwert und dem Blau-Hervorhebungswert wird
in dem hervorgehobenen Bild für
jedes Pixel als Stärke
der Blau-Lichtkomponente festgelegt.
-
Die
Bildhervorhebungsdaten werden an den zweiten Verarbeitungsblock 36 gesendet.
Der zweite Verarbeitungsblock 36 nimmt an den Bildhervorhebungsdaten
eine vorbestimmte Signalverarbeitung vor, z.B. eine Kontrasteinstellung
und eine Verstärkung.
Zusätzlich
werden die Bildhervorhebungsdaten einer D/A-Wandlung unterzogen,
wodurch sie in ein analoges Signal gewandelt werden. Außerdem wird ein
Video-Mischsignal
erzeugt, welches das Bildsignal und ein Synchronisationssignal enthält.
-
Wird
dagegen die Normalbildverarbeitung durchgeführt, so werden die Bilddaten
von dem ersten Verarbeitungsblock 31 direkt an den zweiten
Verarbeitungsblock 36 gesendet, der an den empfangenen
Bilddaten die vorbestimmte Datenverarbeitung vornimmt und das dem
Normalbild entsprechende Video-Mischsignal erzeugt.
-
Das
Video-Mischsignal wird an den Monitor 50 gesendet, auf
dem auf Grundlage dieses Video-Mischsignals ein Bild dargestellt
wird.
-
Die
Verarbeitung der Bildhervorhebung wird von dem Bildsignalverarbeitungsblock 30 durchgeführt, wie
unten anhand des in 3 gezeigten Flussdiagramms erläutert wird.
Diese Verarbeitung zur Bildhervorhebung beginnt, wenn der Benutzer
einen Befehl zum Start des zur Bildhervorhebung bestimmten Prozesses
eingibt.
-
In
Schritt S100 empfängt
der erste Verarbeitungsblock 31 von der Abbildungsvorrichtung 42 ein Bildsignal
entsprechend einem einzigen Vollbild oder einem einzigen Teilbild.
In Schritt S101 führt
der erste Verarbeitungsblock 31 die vorbestimmte Signalverarbeitung
durch, die eine Farbseparation und eine Farbinterpolation beinhaltet.
Anschließend
werden für jedes
Pixel die Rot-, die Grün-
und die Blau-Datenkomponente erzeugt. Nach Beendigung der vorbestimmten
Signalverarbeitung fährt
der Prozess mit Schritt S102 fort.
-
In
Schritt S102 berechnet der Mittelungsblock 32 anhand der
empfangenen Bilddaten die Rot-, Grün- und Blau-Teilmittelwerte.
Nach Berechnung der Teilmittelwerte fährt der Prozess mit Schritt S103
fort.
-
In
Schritt S103 berechnet der Differenzblock 33 anhand der
in Schritt S102 berechneten Teilmittelwerte und der Datenpegel der
Rot-, Grün-
und Blau-Datenkomponenten für
jedes Pixel den Rot-, Grün-
und Blau-Differenzwert.
Nach Berechnung der Differenzwerte fährt der Prozess mit Schritt
S104 fort.
-
In
Schritt 5104 berechnet der Hervorhebungsblock 34 für jedes
Pixel den Rot-, den Grün- und
den Blau-Hervorhebungswert, indem er den Rot-, den Grün- und den
Blau-Differenzwert mit einem vorbestimmten Verstärkungsfaktor multipliziert. Nach
Berechnung der Hervorhebungswerte fährt der Prozess mit Schritt
S105 fort.
-
In
Schritt S105 erzeugt der Syntheseblock 35 Bildhervorhebungsdaten
anhand der Rot-, Grün-
und Blau-Teilmittelwerte, die in Schritt S102 berechnet werden,
und der Rot-, Grün-
und Blau-Hervorhebungswerte. In den Bildhervorhebungsdaten wird
die Summe aus dem auf jedes einzelne Pixel bezogenen Rot-Hervorhebungswert
und dem Rot-Teilmittelwert als Stärke der auf jedes Pixel bezogenen
Rot-Lichtkomponente bestimmt. Entsprechend wird in den Bildhervorhebungsdaten
die Summe aus dem auf jedes einzelne Pixel bezogenen Grün-Hervorhebungswert
und dem Grün-Teilmittelwert
als Stärke
der auf jedes Pixel bezogenen Grün-Lichtkomponente bestimmt.
Schließlich
wird in den Bildhervorhebungsdaten die Summe aus dem auf jedes einzelne
Pixel bezogenen Blau-Hervorhebungswert und dem Blau-Teilmittelwert
als Stärke
der auf jedes einzelne Pixel bezogenen Blau-Lichtkomponente bestimmt. Nach Erzeugung
der Bildhervorhebungsdaten fährt der
Prozess mit Schritt S106 fort.
-
In
Schritt S106 führt
der zweite Verarbeitungsblock 36 eine vorbestimmte Signalverarbeitung, die
eine Kontrasteinstellung und eine Verstärkung beinhaltet, an den Bildhervorhebungsdaten
durch und erzeugt ein Video-Mischsignal.
Der zweite Verarbeitungsblock 36 sendet das Video-Mischsignal an den
Monitor 50, auf dem ein diesem Video-Mischsignal entsprechendes
Bild dargestellt wird.
-
In
Schritt S107 wird ermittelt, ob ein Eingabebefehl zur Beendigung
der zur Bildhervorhebung dienenden Verarbeitung vorliegt. Liegt
ein solcher Eingabebefehl vor, so wird die bildhervorhebende Verarbeitung
des Bildsignals beendet. Liegt dagegen ein solcher Eingabebefehl
nicht vor, so kehrt der Prozess zu Schritt S100 zurück. Die
Schritte ab S110 bis S107 werden so lange wiederholt, bis ein Eingabebefehl zur
Beendigung der bildhervorhebenden Verarbeitung erfasst wird.
-
In
obigem erstem Ausführungsbeispiel
kann ein undeutliches Bild in ein deutliches Bild gewandelt werden.
Eine krankhafte Veränderung,
die in einem Normalbild nicht erkennbar ist, kann so deutlich dargestellt
werden, wie unten beschrieben wird.
-
Im
Stand der Technik wird vorgeschlagen, ein hervorgehobenes Bild nicht
auf Grundlage des Teilmittelwertes, sondern auf Grundlage des Mittelwertes
der Datenkomponenten des Gesamtbildes zu erzeugen. Jedoch kann in
einem solchen hervorgehobenen Bild eine starke Halo- oder Lichthofbildung auftreten,
oder es können
große
Bildbereiche vollständig
schwarz eingefärbt
sein, da die Differenz zwischen dem Mittelwert und dem Hervorhebungswert groß ist. Dagegen
ist in dem ersten Ausführungsbeispiel
der Differenzwert nur selten groß, da er die Differenz zwischen
dem Teilmittelwert, der anhand eines Zielpixels und anhand der dieses
Zielpixel umgebenden Pixel, d.h. der Umgebungspixel, berechnet wird,
und den Datenkomponenten des Zielpixels darstellt. Dementsprechend
werden die Bildbereiche reduziert, in denen eine Halobildung auftritt
oder die vollständig
schwarz eingefärbt
sind.
-
Im
Folgenden wird ein Endoskopprozessor als zweites Ausführungsbeispiel
beschrieben. Dieses zweite Ausführungsbeispiel
unterscheidet sich von dem beschriebenen ersten Ausführungsbeispiel
primär
durch Aufbau und Funktion des Bildsignalverarbeitungsblocks. Diejenigen
Elemente des zweiten Ausführungsbeispiels,
die denen des ersten Ausführungsbeispiels
entsprechen, sind mit den in dem ersten Ausführungsbeispiel verwendeten
Bezugszeichen versehen.
-
Wie
in 4 gezeigt, enthält ein Bildsignalverarbeitungsblock 300 einen
ersten Verarbeitungsblock 31, einen Schwellwertblock 37,
einen Stufenumsetzblock 38 und einen zweiten Verarbeitungsblock 36.
-
Bei
Durchführung
der bildhervorhebenden Verarbeitung werden der erste Verarbeitungsblock 31,
der Schwellwertblock 37, der Stufenumsetzblock 38 und
der zweite Verarbeitungsblock 36 in später beschriebener Weise betrieben.
Bei Durchführung der
Normalbildverarbeitung werden dagegen ähnlich wie in dem ersten Ausführungsbeispiel
nur der erste und der zweite Verarbeitungsblock 31, 36 betrieben.
-
Das
von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird
an den ersten Verarbeitungsblock 31 gesendet, der ähnlich wie
in dem ersten Ausführungsbeispiel
an den empfangenen Bilddaten eine vorbestimmte Signalverarbeitung
vornimmt, die eine Farbseparation und eine Farbinterpolation beinhaltet.
Zudem wandelt der erste Verarbeitungsblock 31 das analoge
Bildsignal in 256 Quantisierungsstufen in digitale Bilddaten.
-
Bei
Durchführung
der Normalbildverarbeitung werden ähnlich wie in dem ersten Ausführungsbeispiel
die Bilddaten von dem ersten Verarbeitungsblock 31 zu dem
zweiten Verarbeitungsblock 36 gesendet. Bei Durchführung der
der Bildhervorhebung dienenden Verarbeitung werden die Bilddaten
von dem ersten Verarbeitungsblock 31 an den Stufenumsetzblock 38 gesendet.
-
Der
Stufenumsetzblock 38 bestimmt sämtliche Pixel nacheinander
als Zielpixel und setzt die 256 Quantisierungsstufen der Rot-, Grün- und Blau-Datenkomponenten
in später
beschriebener Weise in 8 Quantisierungsstufen um, die die Datenkomponenten
dann aufweisen.
-
Dabei
wird der tiefste Datenpegel der Datenkomponenten der ersten Stufe
zugeordnet. Der zweittiefste Datenpegel der Datenkomponenten wird der
zweiten Stufe zugeordnet. Der dritttiefste Datenpegel der Datenkomponenten
wird der dritten Stufe zugeordnet. Der vierttiefste Datenpegel der
Datenkomponenten wird der vierten Stufe zugeordnet. Der fünfttiefste
Datenpegel der Datenkomponente wird der fünften Stufe zugeordnet. Der
sechsttiefste Datenpegel der Datenkomponenten wird der sechsten Stufe
zugeordnet. Der siebenttiefste Datenpegel der Datenkomponenten wird
der siebenten Stufe zugeordnet. Der höchste Datenpegel der Datenkomponenten
wird der achten Stufe zugeordnet.
-
Zusätzlich zur
Bestimmung des Zielpixels bestimmt der Stufenumsetzblock 38 zunächst 399
Pixel, die in 20 Zeilen und 20 Spalten um das Zielpixel herum angeordnet
sind, als Umgebungspixel. Die auf das Zielpixel und die Umgebungspixel
bezogenen Datenkomponenten werden an den Schwellwertblock 37 gesendet.
-
Der
Schwellwertblock 37 berechnet einen Mittelwert der Datenpegel
der auf das Zielpixel und die Umgebungspixel bezogenen empfangenen
Datenkomponenten als Anfangsschwellwert. Die diesem Anfangsschwellwert
entsprechenden Daten werden an den Stufenumsetzblock 38 gesendet.
-
Der
Stufenumsetzblock 38 vergleicht die Datenpegel der zu dem
Zielpixel gehörenden
Datenkomponente und der zu den Umgebungspixeln gehörenden Datenkomponenten
mit dem Anfangsschwellwert. Auf Grundlage dieses Vergleichs ordnet
der Stufenumsetzblock 38 das Zielpixel und die Umgebungspixel
entweder einer ersten höheren
Gruppe oder einer ersten tieferen Gruppe zu. Ein Pixel, bei dem
der Datenpegel der zugehörigen
Datenkomponente kleiner als der Anfangsschwellwert ist, wird der ersten
tieferen Gruppe zugeordnet. Dagegen wird ein Pixel, bei dem der
Datenpegel der zugehörigen
Datenkomponente größer als
der Anfangsschwellwert ist, der ersten höheren Gruppe zugeordnet. Die Gruppe,
der das Zielpixel zugeordnet ist, wird als erste Gruppe bezeichnet.
-
Die
Datenkomponenten, die zu dem Zielpixel und dem Umgebungspixel gehören und
der ersten Gruppe zugeordnet sind, werden dann an den Schwellwertblock 37 gesendet.
-
Der
Schwellwertblock 37 berechnet den Mittelwert der der ersten
Gruppe zugeordneten Datenpegel der empfangenen Datenkomponenten,
die zu dem Zielpixel und den Umgebungspixeln gehören, als ersten Schwellwert.
Daten, die dem ersten Schwellwert entsprechen, werden an den Stufenumsetzblock 38 gesendet.
-
Der
Stufenumsetzblock 38 vergleicht die der ersten Gruppe zugeordneten
Datenkomponenten, die zu dem Zielpixel und dem Umgebungspixel gehören, mit
dem ersten Schwellwert. Anhand dieses Vergleichs ordnet der Stufenumsetzblock 38 das
Zielpixel und die Umgebungspixel entweder einer zweiten höheren Gruppe
oder einer zweiten tieferen Gruppe zu. Ein Pixel, bei dem der Datenpegel
der zugehörigen
Datenkomponente kleiner als der erste Schwellwert ist, wird der
zweiten tieferen Gruppe zugeordnet. Dagegen wird ein Pixel, bei
dem der Datenpegel der zugehörigen
Datenkomponente größer als
ein erster Schwellwert ist, der zweiten höheren Gruppe zugeordnet. Die
Gruppe, der das Zielpixel zugeordnet ist, wird als zweite Gruppe
bezeichnet.
-
Datenkomponenten,
die zu dem Zielpixel und dem Umgebungspixel gehören, die der zweiten Gruppe
zugeordnet sind, werden dann an den Schwellwertblock 37 gesendet.
-
Der
Schwellwertblock 37 berechnet den Mittelwert der Datenpegel
der empfangenen Datenkomponenten, die zu dem Zielpixel und den Umgebungspixeln,
die der zweiten Gruppe zugeordnet sind, gehören, als zweiten Schwellwert.
Dem zweiten Schwellwert entsprechende Daten werden an den Stufenumsetzblock 38 gesendet.
-
Der
Stufenumsetzblock 38 vergleicht den Datenpegel der zu dem
Zielpixel gehörenden
Datenkomponente mit dem zweiten Schwellwert. Anhand dieses Vergleichs
ordnet der Stufenumsetzblock 38 das Zielpixel entweder
einer dritten höheren
oder einer dritten tieferen Gruppe zu. Ein Zielpixel, bei dem der
Datenpegel der zugehörigen
Datenkomponente kleiner als der zweite Schwellwert ist, wird der
dritten tieferen Gruppe zugeordnet. Dagegen wird ein Zielpixel,
bei dem der Datenpegel der zugehörigen
Datenkomponente größer als
der zweite Schwellwert ist, der dritten höheren Gruppe zugeordnet.
-
Der
Stufenumsetzblock 38 sortiert die Daten in eine der 8 auf
Zielpixel-Datenkomponenten
bezogenen Quantisierungsstufen ein, abhängig davon, ob das Zielpixel
der ersten tieferen oder der ersten höheren Gruppe, der zweiten tieferen
oder der zweiten höheren
Gruppe und der dritten tieferen oder der dritten höheren Gruppe
zugeordnet ist. Ist das Zielpixel der ersten tieferen Gruppe zugeordnet,
so wird die Datenkomponente des Zielpixels in die erste, zweite, dritte
oder vierte Datenkomponentenstufe einsortiert. Ist das Zielpixel
der ersten höheren
Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die
fünfte,
sechste, siebente oder achte Datenkomponentenstufe einsortiert.
Ist im nächsten
Schritt das Zielpixel auch der zweiten tieferen Gruppe zugeordnet,
so wird die Datenkomponente des Zielpixels in die erste, zweite,
fünfte
oder sechste Datenkomponentenstufe einsortiert. Ist dagegen das
Zielpixel der zweiten höheren
Gruppe zugeordnet, wird die Datenkomponente des Zielpixels in die
dritte, vierte, siebente oder achte Datenkomponentenstufe einsortiert.
Ist im nächsten
Schritt das Zielpixel auch der dritten tieferen Gruppe zugeordnet,
so wird die Datenkomponente des Zielpixels in die erste, dritte,
fünfte
oder siebente Datenkomponentenstufe einsortiert. Ist dagegen das
Zielpixel auch der dritten höheren Gruppe
zugeordnet, so wird die Datenkomponente des Zielpixels in die zweite,
vierte, sechste oder achte Datenkomponentenstufe einsortiert.
-
Ist
das Zielpixel der ersten tieferen, der zweiten tieferen und der
dritten tieferen Gruppe zugeordnet, so wird demzufolge die Datenkomponente
des Zielpixels in die erste der 8 Stufen einsortiert.
-
Ist
das Zielpixel der ersten tieferen, der zweiten tieferen und der
dritten höheren
Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die
zweite der 8 Stufen einsortiert.
-
Ist
das Zielpixel der ersten tieferen, der zweiten höheren und der dritten tieferen
Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die
dritte der 8 Stufen einsortiert.
-
Ist
das Zielpixel der ersten tieferen, der zweiten höheren und der dritten höheren Gruppe
zugeordnet, so wird die Datenkomponente des Zielpixels in die vierte
der 8 Stufen einsortiert.
-
Ist
das Zielpixel der ersten höheren,
der zweiten tieferen und der dritten tieferen Gruppe zugeordnet,
so wird die Datenkomponente des Zielpixels in die fünfte der
8 Stufen einsortiert.
-
Ist
das Zielpixel der ersten höheren,
der zweiten tieferen und der dritten höheren Gruppe zugeordnet, so
wird die Datenkomponente des Zielpixels in die sechste der 8 Stufen
einsortiert.
-
Ist
das Zielpixel der ersten höheren,
der zweiten höheren
und der dritten tieferen Gruppe zugeordnet, so wird die Datenkomponente
des Zielpixels in die siebente der 8 Stufen einsortiert.
-
Ist
das Zielpixel der ersten höheren,
der zweiten höheren
und der dritten höheren
Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in
die achte der 8 Stufen einsortiert.
-
Die
Umsetzung der 256 Stufen in 8 Datenkomponentenstufen wird separat
für die
Rot-, die Grün-
und die Blau-Datenkomponente durchgeführt.
-
Der
Stufenumsetzblock 38 erzeugt einem hervorgehobenen Bild
entsprechende Bildhervorhebungsdaten, indem er 256 Stufen in 8 Stufen
umsetzt. Die umgesetzten 8 Stufen der Rot-, Grün- und Blau-Datenkomponente
für jedes
Pixel entsprechen der Stärke
der Rot-, Grün-
bzw. Blau-Lichtkomponente
für jedes
Pixel in dem hervorgehobenen Bild.
-
Die
Bildhervorhebungsdaten werden dann an den zweiten Verarbeitungsblock 36 gesendet.
Der zweite Verarbeitungsblock 36 nimmt ähnlich wie in dem ersten Ausführungsbeispiel
die vorbestimmte Signalverarbeitung an den Bildhervorhebungsdaten vor.
Zusätzlich
werden die Bildhervorhebungsdaten einer D/A-Wandlung unterzogen,
wodurch sie in ein analoges Signal gewandelt werden. Außerdem wird in
Video-Mischsignal
erzeugt, das das Bildsignal und ein Synchronisationssignal enthält.
-
Bei
Durchführung
der Normalbildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 direkt
an den zweiten Verarbeitungsblock 36 gesendet, der ähnlich wie
in dem ersten Ausführungsbeispiel
an den empfangenen Bilddaten die vorbestimmte Datenverarbeitung
vornimmt und ein Video-Mischsignal erzeugt, das dem Normalbild entspricht.
-
Das
Video-Mischsignal wird ähnlich
wie in dem ersten Ausführungsbeispiel
an den Monitor 50 gesendet. Schließlich wird auf dem Monitor 50 auf Grundlage
des Video-Mischsignals ein Bild dargestellt.
-
Die
Verarbeitung zur Bildhervorhebung wird in dem Bildsignalverarbeitungsblock 300 durchgeführt, wie
unten unter Bezugnahme auf das in 5 gezeigte
Flussdiagramm beschrieben wird. Dieser Prozess beginnt, wenn der
Benutzer einen Befehl zum Start des Prozesses eingibt.
-
In
Schritt S200 empfängt
der erste Verarbeitungsblock 31 von der Abbildungsvorrichtung 42 ein Bildsignal
entsprechend einem einzigen Vollbild oder einem einzigen Teilbild.
In Schritt S201 nimmt der erste Verarbeitungsblock 31 eine
vorbestimmte Signalverarbeitung vor, die eine Farbseparation und eine
Farbinterpolation beinhaltet. Anschließend werden für jedes
Pixel eine Rot-, eine Grün-
und eine Blau-Datenkomponente erzeugt. Nach Beendigung der vorbestimmten
Signalverarbeitung fährt
der Prozess mit Schritt S202 fort.
-
In
Schritt S202 berechnet der Schwellwertblock 37 im Zusammenwirken
mit dem Stufenumsetzblock 38 anhand der Bildsignale einen
Rot-, einen Grün-
und einen Blau-Anfangsschwellwert. Nach Berechnung der Anfangsschwellwerte
fährt der
Prozess mit Schritt S203 fort.
-
In
Schritt S203 sortiert der Stufenumsetzblock 38 das Zielpixel
und die Umgebungspixel anhand der in Schritt S202 berechneten Anfangsschwellwerte
separat für
jede Farbkomponente entweder in die erste tiefere oder die erste
höhere
Gruppe ein. Nach dieser Sortierung fährt der Prozess mit Schritt
S204 fort.
-
In
Schritt S204 berechnet der Schwellwertblock 37 im Zusammenwirken
mit dem Stufenumsetzblock 38 anhand der in Schritt S203
vorgenommenen Sortierung einen ersten Rot-, Grün- und Blau-Schwellwert. Nach
Berechnung dieser ersten Schwellwerte fährt der Prozess mit Schritt
S205 fort.
-
In
Schritt S205 sortiert der Stufenumsetzblock 38 das Zielpixel
und die Umgebungspixel anhand der in S204 berechneten ersten Schwellwerte separat
für jede
Farbkomponente entweder in die zweite tiefere oder in die zweite
höhere
Gruppe ein. Nach dieser Sortierung fährt der Prozess mit Schritt S206
fort.
-
In
Schritt S206 berechnet der Schwellwertblock 37 im Zusammenwirken
mit dem Stufenumsetzblock 38 auf Grundlage der in Schritt
S205 vorgenommenen Sortierung einen zweiten Rot-, Grün- und Blau-Schwellwert. Nach
dieser Berechnung der zweiten Schwellwerte fährt der Prozess mit Schritt
S207 fort.
-
In
Schritt S207 sortiert der Stufenumsetzblock 38 das Zielpixel
anhand der in Schritt S206 berechneten zweiten Schwellwerte separat
für jede Farbkomponente
entweder in die dritte tiefere oder die dritte höhere Gruppe ein. Zusätzlich setzt
der Stufenumsetzblock 38 auf Grundlage der in den Schritten
S203, S205 und S207 vorgenommenen Sortierung die 256 Stufen der
Rot-, Grün-
und Blau-Datenkomponente für
das Zielpixel in 8 Stufen. Der Stufenumsetzblock 38 erzeugt
die Bildhervorhebungsdaten, indem er für alle Pixel die Quantisierungsabstufung
der Rot-, Grün-
und Blau-Datenkomponente umsetzt. Nach dieser Umsetzung fährt der
Prozess mit Schritt S208 fort.
-
In
Schritt S208 nimmt der zweite Verarbeitungsblock 36 an
den Bildhervorhebungsdaten eine vorbestimmte Signalverarbeitung
vor, die eine Kontrasteinstellung und eine Verstärkung beinhaltet, und erzeugt
ein Video-Mischsignal. Der zweite Verarbeitungsblock 36 sendet
das Video-Mischsignal
an den Monitor 50, auf dem ein dem Video-Mischsignal entsprechendes
Bild dargestellt wird.
-
In
Schritt S209 wird ermittelt, ob ein Eingabebefehl zur Beendigung
der der Bildhervorhebung dienenden Verarbeitung vorliegt. Liegt
ein solcher Eingabebefehl vor, so endet die der Bildhervorhebung dienende
Verarbeitung des Bildsignals. Liegt dagegen ein solcher Eingabebefehl
nicht vor, so kehrt der Prozess zu Schritt S200 zurück. Die
Schritte ab S200 bis S209 werden so lange wiederholt, bis ein Eingabebefehl
zur Beendigung der der Bildhervorhebung dienenden Verarbeitung erfasst
wird.
-
In
dem obigen zweiten Ausführungsbeispiel kann
ein Normalbild, in dem eine Kontur (Rand) undeutlich ist, in ein
hervorgehobenes Bild gewandelt werden, dessen undeutliche Kontur
schärfer
dargestellt wird. Demzufolge kann das Bild eines Adenoms, das in
dem Normalbild nicht deutlich identifizierbar ist, deutlicher als
bisher dargestellt werden.
-
Ein
hervorgehobenes Bild kann erzeugt werden, indem 256 Datenkomponentenstufen
unter Anwendung eines festen Schwellwertes für sämtliche Pixel in dem Gesamtbild
in mehrere Stufen, z.B. 8 Stufen, umgesetzt werden. Jedoch werden
bei einer solchen Umsetzung Datenkomponenten zweier benachbarter
Pixel, die sicherlich unterschiedlich sind, jedoch beide entweder
größer oder
kleiner als ein fester Schwellwert sind, in die gleiche Stufe einsortiert.
Demzufolge ist eine Kontur (Rand), die durch die beiden Pixel eigentlich
zu sehen sein sollte, in dem Bild nicht zu sehen.
-
Andererseits
ist es möglich,
einen in Abhängigkeit
der Datenpegel der Umgebungspixel veränderlichen Schwellwert zu verwenden,
indem wie in dem ersten Ausführungsbeispiel
der Schwellwert in Abhängigkeit
des Mittelwertes der Datenkomponenten berechnet wird, die von Pixeln
in einem Teilbereich erzeugt werden (vergl. 7). Eine
undeutliche Kontur, die in einem dunklen oder hellen Bereich vorhanden
ist, kann so durch Komprimierung der Datenkomponentenstufen mittels
eines solch variierenden Schwellwertes schärfer dargestellt werden.
-
In
dem oben beschriebenen ersten Ausführungsbeispiel wird der Teilmittelwert
anhand der Rot-, der Grün-
und Blau-Datenkomponenten jedes einzelnen Pixels sowie der dieses
Pixel umgebenden Pixel berechnet. Dabei ist der Teilmittelwert ein
Standardwert, der zum Erzeugen der Bildhervorhebungsdaten verwendet
wird. In dem oben beschriebenen zweiten Ausführungsbeispiel werden zusätzlich die
Anfangs- sowie die ersten und die zweiten Rot-, Grün- und Blau-Schwellwerte anhand
der Rot-, Grün-
und Blau-Datenkomponente jedes einzelnen Pixels sowie der dieses
Pixel umgebenden Pixel als Standardwerte berechnet. Diese Standardwerte
werden zum Erzeugen der Bildhervorhebungsdaten verwendet. Ein solcher
Standardwert, der anhand der Rot-, Grün- und Blau-Datenkomponenten
berechnet wird, kann jedoch auch für jede andere Signalverarbeitung
genutzt werden.
-
In
dem oben beschriebenen ersten Ausführungsbeispiel werden die Teilmittelwerte,
die Differenzwerte und die Hervorhebungswerte anhand sämtlicher
Arten von Farbdatenkomponenten, nämlich anhand der Rot-, Grün- und Blau-Datenkomponenten,
berechnet, und die Bildhervorhebungsdaten anhand der Teilmittelwerte
und der Hervorhebungswerte erzeugt. Selbst wenn diese Werte nur
für mindestens
eine Art von Farbdatenkomponenten berechnet und daraus die Bildhervorhebungsdaten
erzeugt werden, wird jedoch die gleiche technische Wirkung wie in
dem ersten Ausführungsbeispiel
erzeugt.
-
In
dem oben beschriebenen zweiten Ausführungsbeispiel werden 256 Stufen
der Rot-, Grün-
und Blau-Datenkomponenten in 8 Stufen umgesetzt und die Bildhervorhebungsdaten
anhand dieser stufenumgesetzten Datenkomponenten erzeugt. Selbst wenn
eine solche Umsetzung nur für
zumindest eine Art von Farbdatenkomponente durchgeführt und
daraus die Bildhervorhebungsdaten erzeugt werden, wird jedoch die
gleiche technische Wirkung wie in dem zweiten Ausführungsbeispiel
erzielt.
-
In
den beiden oben beschriebenen Ausführungsbeispielen ist jedes
einzelne Pixel der Abbildungsvorrichtung 42 von einem Rot-,
Grün- oder Blau-Filter
bedeckt. Die Bildhervorhebungsdaten werden auf Grundlage der Rot-,
Grün- und
Blau-Datenkomponenten erzeugt. Jedoch kann auch jedes einzelne Pixel
von einem Farbfilter anderer Art bedeckt sein. Die Bildhervorhebungsdaten
können
in diesem Fall anhand einer Farbdatenkomponente erzeugt werden,
die der Farbe dieses das jeweilige Pixel bedeckenden Filters entspricht.
-
In
dem ersten und dem zweiten Ausführungsbeispiel
werden die Bildhervorhebungsdaten anhand der Rot-, der Grün- und der
Blau-Datenkomponenten
erzeugt. Die Bildhervorhebungsdaten können jedoch auch anhand anderer
Datenkomponenten erzeugt werden, die in einem aufgenommenen Bild
zur Farberzeugung genutzt werden können. Werden beispielsweise
ein Luminanzsignal und ein Farbdifferenzsignal anhand der Rot-,
Grün- und Blau-Signalkomponenten
erzeugt und die Bildhervorhebungsdaten anhand des Luminanzsignals
und des Farbdifferenzsignals erzeugt, so wird die gleiche technische
Wirkung wie in dem ersten und dem zweiten Ausführungsbeispiel erzielt.
-
In
dem ersten Ausführungsbeispiel
werden zur Berechnung des Teilmittelwertes 24 Pixel verwendet, die
ein Zielpixel umgeben. In dem zweiten Ausführungsbeispiel werden zur Berechnung
der Anfangsschwellwerte sowie der ersten und der zweiten Schwellwerte
999 Pixel verwendet, die das Zielpixel umgeben. Zur Berechnung der
vorstehend genannten Werte kann jedoch auch eine andere Zahl an
Pixeln verwendet werden, die das jeweilige Zielpixel umgeben.
-
In
dem zweiten Ausführungsbeispiel
werden 256 Datenkomponentenstufen in 8 Datenkomponentenstufen umgesetzt.
Die Erfindung ist jedoch nicht auf eine Umsetzung in 8 Stufen beschränkt. So
erhält man
die gleiche technische Wirkung wie in dem zweiten Ausführungsbeispiel,
sofern die ursprüngliche Datenabstufung
in eine Abstufung mit geringerer Stufenzahl umgesetzt wird.
-
In
dem zweiten Ausführungsbeispiel
beträgt die
Zahl der Datenkomponentenstufen der Bilddaten vor der Umsetzung
der Absetzung 256. Die Zahl der Stufen der ursprünglichen Bilddaten kann jedoch auch
eine andere sein. So erzielt man die gleiche technische Wirkung
wie in dem zweiten Ausführungsbeispiel,
sofern die ursprüngliche
Zahl an Stufen vor der Umsetzung größer als nach der Umsetzung
ist.
-
Das
erste und das zweite Ausführungsbeispiel
können
implementiert werden, indem ein Programm zur Bildhervorhebung auf
einem Allzweck-Endoskopprozessor
installiert wird. Dieses Programm zur Bildhervorhebung umfasst ein
Steuerungs-Codesegment für
den Datenempfang und ein Standardwert-Berechungscodesegment.
-
In
den obigen Ausführungsbeispielen
verarbeitet der Endoskopprozessor ein Bildsignal, das von einem
elektronischen Endoskop erzeugt wird, das ein von außen einführbares
Einführrohr
aufweist. Der Endoskopprozessor kann jedoch auch ein Bildsignal verarbeiten,
das von einem elektronischen Endoskop anderen Typs, z.B. einem Kapselendoskop,
erzeugt wird.
-
In
den obigen Ausführungsbeispielen
empfängt
der Endoskopprozessor das Bildsignal und nimmt an diesem empfangenen
Bildsignal die oben beschriebene Signalverarbeitung in Echtzeit
vor. Es kann jedoch auch ein Endoskopbild-Wiedergabegerät vorgesehen
werden, das ein auf einem internen oder einem externen Speicher
gespeichertes Bildsignal empfängt
und dann die oben beschriebene Signalverarbeitung einschließlich der
Bildhervorhebung an dem gespeicherten Bildsignal vornimmt, während es
das gespeicherte Bild wiedergibt.