[go: up one dir, main page]

DE102007022957A1 - Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem - Google Patents

Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem Download PDF

Info

Publication number
DE102007022957A1
DE102007022957A1 DE102007022957A DE102007022957A DE102007022957A1 DE 102007022957 A1 DE102007022957 A1 DE 102007022957A1 DE 102007022957 A DE102007022957 A DE 102007022957A DE 102007022957 A DE102007022957 A DE 102007022957A DE 102007022957 A1 DE102007022957 A1 DE 102007022957A1
Authority
DE
Germany
Prior art keywords
signal
target pixel
pixel
surrounding
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007022957A
Other languages
English (en)
Inventor
Yosuke Ikemoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Publication of DE102007022957A1 publication Critical patent/DE102007022957A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Astronomy & Astrophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Analysis (AREA)

Abstract

Ein Endoskopprozessor (20) umfasst eine Signalempfangseinheit und eine Recheneinheit. Die Signalempfangseinheit empfängt ein Bildsignal, das anhand eines optischen Bildes erzeugt wird, das auf einer Lichtempfangsfläche einer Abbildungsvorrichtung (42) aufgenommen wird. Das Bildsignal beinhaltet mehrere Pixelsignale, die von mehreren Pixeln entsprechend den empfangenen Lichtmengen erzeugt werden. Die Pixel sind auf der Lichtempfangsfläche angeordnet. Die Recheneinheit berechnet anhand eines Zielpixelsignals und anhand von Umgebungspixelsignalen einen Standardwert. Die Umgebungspixelsignale sind die Pixelsignale von Pixeln, die das Zielpixel umgeben. Der Standardwert wird zur Signalverarbeitung des Zielpixelsignals verwendet.

Description

  • Die Erfindung betrifft eine Bildsignalverarbeitung, die es dem Benutzer ermöglicht, ein Zielobjekt in einem mit einem elektronischen Endoskop aufgenommenen Gesamtbild zu erkennen.
  • Ein elektronisches Endoskop, das eine Abbildungsvorrichtung am Ende eines Einführrohrs aufweist, wird zu medizinischen Untersuchungen, industriellen Untersuchungen und dergleichen eingesetzt. Dabei wird Licht aus dem Ende des Einführrohrs ausgesendet, um das zu betrachtende Objekt zu beleuchten. Die Abbildungsvorrichtung nimmt dann ein durch das reflektierte Licht erzeugtes optisches Bild auf, das auf einem Monitor dargestellt wird.
  • Ein medizinisches Endoskop wird häufig dazu eingesetzt, abnormes Gewebe oder eine krankhafte Veränderung innerer Organe zu erkennen. So sieht abnormes Gewebe oder eine krankhafte Veränderung anders aus als gesundes Gewebe. Indem der Benutzer das Gewebe betrachtet, kann er abnormes Gewebe oder eine krankhafte Veränderung identifizieren.
  • Dagegen ist das äußere Erscheinungsbild einer krankhaften Veränderung, die tief unter der Oberfläche eines Organs sitzt, nicht klar gegenüber dem Erscheinungsbild von gesundem Gewebe abgrenzbar. Deshalb ist es häufig schwierig, solch eine krankhafte Veränderung zu erkennen.
  • Aufgabe der Erfindung ist es, einen Endoskopprozessor, ein Computerprogrammprodukt und ein Endoskopsystem anzugeben, die eine Signalverarbeitung eines Bildsignals, das von einem elektronischen Endoskop erzeugt wird, in der Weise ermöglichen, dass eine krankhafte Veränderung in dem dargestellten Bild, das dem Bildsignal entspricht, leicht erkennbar ist.
  • Die Erfindung löst diese Aufgabe durch die Gegenstände der unabhängigen Ansprüche. Vorteilhafte Weiterbildungen sind in den Unteransprüchen angegeben.
  • Weitere Wirkungen und Vorteile der vorliegenden Erfindung werden im Folgenden anhand der Figuren erläutert. Darin zeigen:
  • 1 ein Blockdiagramm, das den inneren Aufbau eines Endoskopsystems mit einem Endoskopprozessor zeigt, der ein erstes Ausführungsbeispiel darstellt;
  • 2 ein Blockdiagramm, das den inneren Aufbau eines Bildsignalverarbeitungsblocks nach erstem Ausführungsbeispiel darstellt;
  • 3 ein Flussdiagramm, das die Verarbeitung zur Bildhervorhebung zeigt, die der Bildsignalverarbeitungsblock nach erstem Ausführungsbeispiel durchführt;
  • 4 ein Blockdiagramm, das den inneren Aufbau des Bildsignalverarbeitungsblocks nach zweitem Ausführungsbeispiel zeigt;
  • 5 ein Flussdiagramm, das die Verarbeitung zur Bildhervorhebung zeigt, die der Bildsignalverarbeitungsblock nach zweitem Ausführungsbeispiel durchführt;
  • 6 ein Diagramm, das die Umsetzung von ursprünglichen Pixelsignalen, die von in einer Zeile angeordneten Pixeln stammen, anhand eines festen Schwellwertes in eine geringere Zahl an Quantisierungsstufen erläutert; und
  • 7 ein Diagramm, das die Umsetzung von ursprünglichen Pixelsignalen, die von in einer Zeile angeordneten Pixeln stammen, anhand eines veränderlichen Schwellwertes in eine geringere Zahl an Quantisierungsstufen nach zweitem Ausführungsbeispiel gewandelt werden.
  • Beschreibung bevorzugter Ausführungsbeispiele
  • Die Erfindung wird im Folgenden anhand der in den Figuren gezeigten Ausführungsbeispiele beschrieben.
  • 1 zeigt ein Endoskopsystem 10, das einen Endoskopprozessor 20, ein elektronisches Endoskop 40 und einen Monitor 50 enthält. Der Endoskopprozessor 20 ist über nicht gezeigte Verbindungsstücke an das elektronische Endoskop 40 und den Monitor 50 angeschlossen.
  • Im Folgenden wird der Gesamtaufbau des Endoskopsystems 10 kurz dargestellt. In dem Endoskopprozessor 20 ist eine Lichtquelle 21 zum Beleuchten eines nicht gezeigten Objektes untergebracht. Das von der Lichtquelle 21 ausgesendete Licht wird über einen Lichtleiter 41, der in dem elektronischen Endoskop 40 untergebracht ist, auf das Objekt gestrahlt.
  • In dem elektronischen Endoskop 40 ist eine Abbildungsvorrichtung 42, z.B. ein CCD-Bildsensor, montiert. Die Abbildungsvorrichtung 42 nimmt ein Bild des mit dem Beleuchtungslicht bestrahlten Objektes auf. Anschließend erzeugt die Abbildungsvorrichtung 42 ein Bildsignal, das dem eingefangenen Objektbild entspricht. Das Bildsignal wird an den Endoskopprozessor 20 gesendet, in dem an dem Bildsignal eine vorbestimmte Signalverarbeitung vorgenommen wird. Das dieser vorbestimmten Signalverarbeitung unterzogene Bildsignal wird in ein Video-Mischsignal gewandelt und an den Monitor 50 gesendet, auf dem das resultierende Bild dargestellt wird.
  • Im Folgenden werden die einzelnen Komponenten des Endoskopsystems 10 genauer beschrieben. In dem Strahlengang, der von der Lichtquelle 21 zu einer Eintrittsfläche 41a des Lichtleiters 41 führt, sind eine Blende 22 und eine Kondensorlinse 23 montiert. Das Licht, das nahezu vollständig aus parallelen, von der Lichtquelle 21 ausgesendeten Lichtstrahlen besteht, fällt durch die Kondensorlinse 23 gebündelt auf die Eintrittsfläche 41a des Lichtleiters 41.
  • Die Intensität des Lichtes, die auf das Eintrittsende 41a fällt, wird durch Einstellen der Blende 22 gesteuert. Die Blende 22 wird von einem Motor 25 eingestellt. Der Motor 25 wird wiederum von einer Blendenschaltung 24 gesteuert. Die Blendenschaltung 24 ist über eine Systemsteuerung 26 mit einem Bildsignalverarbeitungsblock 30 verbunden. Der Bildsignalverarbeitungsblock 30 erfasst die Größe des in dem eingefangenen Objektbild empfangenen Lichtes anhand des von der Abbildungsvorrichtung 42 erzeugten Bildsignals. Die Blendenschaltung 24 berechnet anhand der Lichtstärke die erforderliche Stellgröße für den Motor 25.
  • Eine Stromversorgungsschaltung 27, welche die Lichtquelle 21 mit Energie speist, ist mit der Systemsteuerung 26 elektrisch verbunden. Die Systemsteuerung 26 gibt an die Stromversorgungsschaltung 27 ein Steuersignal zum Ein- und Ausschalten der Lichtquelle 21 aus. So wird der Beleuchtungszustand (Ein- und Aus-Zustand) der Lichtquelle 21 von der Systemsteuerung 26 eingestellt.
  • Die Systemsteuerung 26 gibt an eine Treiberschaltung 28 ein Treibersignal aus, das zur Ansteuerung der Abbildungsvorrichtung 42 benötigt wird. Die Abbildungsvorrichtung 42, die von der Treiberschaltung 28 angesteuert wird, erzeugt ein Bildsignal, das dem eingefangenen Objektbild entspricht.
  • Die Systemsteuerung 26 steuert den Betrieb des gesamten Endoskopprozessors 20. Auch der Bildsignalverarbeitungsblock 30 wird von der Systemsteuerung 26 in später beschriebener Weise gesteuert.
  • Das Licht, das auf das Eintrittsende 41a fällt, wird über den Lichtleiter 41 an ein Austrittsende 41b übertragen. Das so übertragene Licht beleuchtet einen um das Kopfende des Einführrohrs des Endoskops 40 liegenden Bereich, nachdem es durch eine Zerstreuungslinse 43 getreten ist. Eine Objektivlinse 44 fokussiert ein optisches Bild des beleuchteten Objektes auf die Lichtempfangsfläche der Abbildungsvorrichtung 42.
  • Auf der Lichtempfangsfläche der Abbildungsvorrichtung 42 ist in zwei Dimensionen eine Vielzahl von Pixeln (nicht gezeigt) angeordnet. Jedes Pixel ist von einem Rot-, einem Grün- oder einem Blau-Farbfilter bedeckt. Durch das jeweilige Rot-, Grün- bzw. Blau-Farbfilter kann nur eine rote, eine grüne bzw. eine blaue Lichtkomponente treten. Die Lichtkomponente, die von dem jeweiligen Farbfilter erzeugt wird, fällt auf das Pixel, das von diesem Farbfilter bedeckt ist. Jedes Pixel erzeugt ein Pixelsignal entsprechend der Größe der erfassten Lichtkomponente.
  • Das Bildsignal umfasst eine Vielzahl von Pixelsignalen, die von den Pixeln erzeugt werden und das Gesamtbild darstellen, das einem einzigen Vollbild (Frame) oder einem einzigen Halb- oder Teilbild (Field) entspricht, das von der Abbildungsvorrichtung 42 aufgenommen wird.
  • Das von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird an den Bildsignalverarbeitungsblock 30 gesendet, der in dem Endoskopprozessor 20 untergebracht ist. Der Bildsignalverarbeitungsblock 30 nimmt an dem Bildsignal eine Normalbildverarbeitung (Standardbildverarbeitung) oder eine zur Bildhervorhebung bestimmte Bildverarbeitung vor, so dass auf dem Monitor 50 ein Normalbild (Standardbild) oder ein hervorgehobenes Bild dargestellt wird. Dabei ist das Normalbild gleich dem aufgenom menen Bild, während das hervorgehobene Bild ein hervorgehobener Teil des Normalbildes ist.
  • Wie in 2 gezeigt, enthält der Bildsignalverarbeitungsblock 30 einen ersten Verarbeitungsblock 31, einen Mittelungsblock 32, einen Differenzblock 33, einen Hervorhebungsblock 34, einen Syntheseblock 35 und einen zweiten Verarbeitungsblock 36.
  • Bei der Durchführung der hervorhebenden Bildverarbeitung sind der erste Verarbeitungsblock 31, der Mittelungsblock 32, der Differenzblock 33, der Hervorhebungsblock 34, der Syntheseblock 35 und der zweite Verarbeitungsblock 36 in Betrieb, wie später beschrieben wird. Bei der Durchführung der Normalbildverarbeitung sind dagegen nur der erste und der zweite Verarbeitungsblock 31, 37 in Betrieb.
  • Das von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird an den ersten Verarbeitungsblock 31 gesendet. Der erste Verarbeitungsblock 31 führt eine vorbestimmte Signalverarbeitung durch, die eine Farbseparation und eine Farbinterpolation beinhalten.
  • Bei der Farbseparation wird das Bildsignal in Rot-, Grün- und Blau-Signalkomponenten separiert. Diese Signalkomponenten sind Pixelsignale, die entsprechend ihrer jeweiligen spezifischen Stärke an rotem, grünem bzw. blauem Licht eingeordnet sind. Dabei besteht jedes einzelne Pixelsignal nur aus einer einzigen Signalkomponente, nämlich einer Rot-, Grün- oder Blau-Signalkomponente, da jedes Pixel entsprechend dem Farbfilter, von dem es bedeckt ist, direkt nur eine einzige Farbsignalkomponente erzeugen kann.
  • Während der Farbinterpolation werden zusätzlich zu der erzeugten Farbsignalkomponente zwei weitere Farbsignalkomponenten, die jedem Pixelsignal vor der Farbinterpolation inhärent sind, synthetisiert. Beispielsweise werden in einem Pixelsignal, das von einem von einem Grün-Farbfilter bedeckten Pixel erzeugt wird und einer Grün-Signalkomponente besteht, die Rot- und die Blau-Signalkomponente, die zu dem Pixel gehören, synthetisiert, d.h. künstlich erzeugt. Jedes Pixelsignal besteht dann aus allen drei Farbsignalkomponenten.
  • Das analoge Bildsignal wird dann in digitale Bilddaten gewandelt.
  • Bei Durchführung der Normalbildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an den zweiten Verarbeitungsblock 37 gesendet. Bei der hervorhebenden Bildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an den Mittelungsblock 32 und den Differenzblock 33 gesendet.
  • Der Mittelungsblock 32 empfängt für jedes Pixel eine Rot-, eine Grün- und eine Blau-Datenkomponente, die Bilddaten enthalten. Die Rot-, die Grün- und die Blau-Datenkomponente sind digitale Daten, die aus der Rot-, der Grün- bzw. der Blau-Signalkomponente umgewandelt sind. Die Datenpegel jeder Farbdatenkomponente entspricht dem Signalpegel der zugehörigen Farbsignalkomponente.
  • Der Mittelungsblick 32 bestimmt sämtliche Pixel nacheinander als Zielpixel. Zusätzlich zur Bestimmung dieses Zielpixels werden 24 Pixel, die in fünf Zeilen und fünf Spalten um das Zielpixel herum angeordnet sind, als Umgebungspixel bestimmt. Der Mittelungsblock 32 berechnet für das jeweilige Zielpixel einen Teilmittelwert. Der Teilmittelwert ist der Mittelwert der Datenpegel der auf das Zielpixel und die 24 Umgebungspixel bezogenen Datenkomponenten.
  • Der Teilmittelwert wird für die Rot-, die Grün- und die Blau-Datenkomponente separat berechnet. So werden die Teilmittelwerte, die zu der Rot-, der Grün- und der Blau-Datenkomponente gehören, als Rot-, Grün- bzw. Blau-Teilmittelwert bezeichnet. Die Daten, die dem auf jedes einzelne Pixel bezogenen Rot-, Grün- und Blau-Teilmittelwert entsprechen, werden an den Differenzblock 33 und den Syntheseblock 35 gesendet.
  • Der Differenzblock 33 empfängt zudem die Bilddaten, wie oben beschrieben wurden. Der Differenzblock 33 berechnet für jedes Pixel einen Rot-Differenzwert, indem er den empfangenen Rot-Teilmittelwert von jedem der Datenpegel sämtlicher Rot-Datenkomponenten subtrahiert. Entsprechend berechnet der Differenzblock 33 für jedes Pixel einen Grün-Differenzwert, indem er den empfangenen Grün-Teilmittelwert von jedem der Datenpegel sämtlicher Grün-Datenkomponenten subtrahiert. Schließlich berechnet der Differenzblock 33 für jedes Pixel einen Blau-Differenzwert, indem er den empfangenen Blau-Teilmittelwert von jedem Datenpegel sämtlicher Blau-Datenkomponenten subtrahiert.
  • Die auf die Rot-, Grün- und Blau-Differenzwerte bezogenen Daten werden an den Hervorhebungsblock 34 gesendet. Der Hervorhebungsblock 34 berechnet für jedes Pixel einen Rot-, einen Grün- und einen Blau-Hervorhebungswert, indem er den Rot-, den Grün- bzw. den Blau-Differenzwert mit einem vorbestimmten Verstärkungsfaktor multipliziert, der größer als eins ist.
  • Die auf die Rot-, Grün- und Blau-Hervorhebungswerte bezogenen Daten werden an den Syntheseblock 35 gesendet. Auch die auf die Rot-, Grün- und Blau-Teilmittelwerte bezogenen Daten werden an den Syntheseblock 35 gesendet, wie oben beschrieben wurde.
  • Der Syntheseblock 35 erzeugt Bildhervorhebungsdaten, die dem hervorgehobenen Bild entsprechen. Die Bildhervorhebungsdaten werden anhand der Rot-, Grün- und Blau-Hervorhebungswerte und der Rot-, Grün- und Blau-Teilmittelwerte erzeugt. Wie die Bildsynthesedaten erzeugt werden, wird unten im Einzelnen erläutert.
  • Der Syntheseblock 35 berechnet für jedes Pixel die Summe aus dem Rot-Teilmittelwert und dem Rot-Hervorhebungswert. Die Summe aus dem Rot-Teilmittelwert und dem Rot-Hervorhebungswert wird in dem hervorgehobenen Bild für jedes Pixel als Stärke der Rot-Lichtkomponente festgelegt. Entsprechend berechnet der Syntheseblock 35 für jedes Pixel die Summe aus dem Grün-Teilmittelwert und dem Grün-Hervorhebungswert. Die Summe aus dem Grün-Teilmittelwert und dem Grün-Hervorhebungswert wird in dem hervorgehobenen Bild für jedes Pixel als Stärke der Grün-Lichtkomponente festgelegt. Schließlich berechnet der Syntheseblock 35 für jedes Pixel die Summe aus dem Blau-Teilmittelwert und dem Blau-Hervorhebungswert. Die Summe aus dem Blau-Teilmittelwert und dem Blau-Hervorhebungswert wird in dem hervorgehobenen Bild für jedes Pixel als Stärke der Blau-Lichtkomponente festgelegt.
  • Die Bildhervorhebungsdaten werden an den zweiten Verarbeitungsblock 36 gesendet. Der zweite Verarbeitungsblock 36 nimmt an den Bildhervorhebungsdaten eine vorbestimmte Signalverarbeitung vor, z.B. eine Kontrasteinstellung und eine Verstärkung. Zusätzlich werden die Bildhervorhebungsdaten einer D/A-Wandlung unterzogen, wodurch sie in ein analoges Signal gewandelt werden. Außerdem wird ein Video-Mischsignal erzeugt, welches das Bildsignal und ein Synchronisationssignal enthält.
  • Wird dagegen die Normalbildverarbeitung durchgeführt, so werden die Bilddaten von dem ersten Verarbeitungsblock 31 direkt an den zweiten Verarbeitungsblock 36 gesendet, der an den empfangenen Bilddaten die vorbestimmte Datenverarbeitung vornimmt und das dem Normalbild entsprechende Video-Mischsignal erzeugt.
  • Das Video-Mischsignal wird an den Monitor 50 gesendet, auf dem auf Grundlage dieses Video-Mischsignals ein Bild dargestellt wird.
  • Die Verarbeitung der Bildhervorhebung wird von dem Bildsignalverarbeitungsblock 30 durchgeführt, wie unten anhand des in 3 gezeigten Flussdiagramms erläutert wird. Diese Verarbeitung zur Bildhervorhebung beginnt, wenn der Benutzer einen Befehl zum Start des zur Bildhervorhebung bestimmten Prozesses eingibt.
  • In Schritt S100 empfängt der erste Verarbeitungsblock 31 von der Abbildungsvorrichtung 42 ein Bildsignal entsprechend einem einzigen Vollbild oder einem einzigen Teilbild. In Schritt S101 führt der erste Verarbeitungsblock 31 die vorbestimmte Signalverarbeitung durch, die eine Farbseparation und eine Farbinterpolation beinhaltet. Anschließend werden für jedes Pixel die Rot-, die Grün- und die Blau-Datenkomponente erzeugt. Nach Beendigung der vorbestimmten Signalverarbeitung fährt der Prozess mit Schritt S102 fort.
  • In Schritt S102 berechnet der Mittelungsblock 32 anhand der empfangenen Bilddaten die Rot-, Grün- und Blau-Teilmittelwerte. Nach Berechnung der Teilmittelwerte fährt der Prozess mit Schritt S103 fort.
  • In Schritt S103 berechnet der Differenzblock 33 anhand der in Schritt S102 berechneten Teilmittelwerte und der Datenpegel der Rot-, Grün- und Blau-Datenkomponenten für jedes Pixel den Rot-, Grün- und Blau-Differenzwert. Nach Berechnung der Differenzwerte fährt der Prozess mit Schritt S104 fort.
  • In Schritt 5104 berechnet der Hervorhebungsblock 34 für jedes Pixel den Rot-, den Grün- und den Blau-Hervorhebungswert, indem er den Rot-, den Grün- und den Blau-Differenzwert mit einem vorbestimmten Verstärkungsfaktor multipliziert. Nach Berechnung der Hervorhebungswerte fährt der Prozess mit Schritt S105 fort.
  • In Schritt S105 erzeugt der Syntheseblock 35 Bildhervorhebungsdaten anhand der Rot-, Grün- und Blau-Teilmittelwerte, die in Schritt S102 berechnet werden, und der Rot-, Grün- und Blau-Hervorhebungswerte. In den Bildhervorhebungsdaten wird die Summe aus dem auf jedes einzelne Pixel bezogenen Rot-Hervorhebungswert und dem Rot-Teilmittelwert als Stärke der auf jedes Pixel bezogenen Rot-Lichtkomponente bestimmt. Entsprechend wird in den Bildhervorhebungsdaten die Summe aus dem auf jedes einzelne Pixel bezogenen Grün-Hervorhebungswert und dem Grün-Teilmittelwert als Stärke der auf jedes Pixel bezogenen Grün-Lichtkomponente bestimmt. Schließlich wird in den Bildhervorhebungsdaten die Summe aus dem auf jedes einzelne Pixel bezogenen Blau-Hervorhebungswert und dem Blau-Teilmittelwert als Stärke der auf jedes einzelne Pixel bezogenen Blau-Lichtkomponente bestimmt. Nach Erzeugung der Bildhervorhebungsdaten fährt der Prozess mit Schritt S106 fort.
  • In Schritt S106 führt der zweite Verarbeitungsblock 36 eine vorbestimmte Signalverarbeitung, die eine Kontrasteinstellung und eine Verstärkung beinhaltet, an den Bildhervorhebungsdaten durch und erzeugt ein Video-Mischsignal. Der zweite Verarbeitungsblock 36 sendet das Video-Mischsignal an den Monitor 50, auf dem ein diesem Video-Mischsignal entsprechendes Bild dargestellt wird.
  • In Schritt S107 wird ermittelt, ob ein Eingabebefehl zur Beendigung der zur Bildhervorhebung dienenden Verarbeitung vorliegt. Liegt ein solcher Eingabebefehl vor, so wird die bildhervorhebende Verarbeitung des Bildsignals beendet. Liegt dagegen ein solcher Eingabebefehl nicht vor, so kehrt der Prozess zu Schritt S100 zurück. Die Schritte ab S110 bis S107 werden so lange wiederholt, bis ein Eingabebefehl zur Beendigung der bildhervorhebenden Verarbeitung erfasst wird.
  • In obigem erstem Ausführungsbeispiel kann ein undeutliches Bild in ein deutliches Bild gewandelt werden. Eine krankhafte Veränderung, die in einem Normalbild nicht erkennbar ist, kann so deutlich dargestellt werden, wie unten beschrieben wird.
  • Im Stand der Technik wird vorgeschlagen, ein hervorgehobenes Bild nicht auf Grundlage des Teilmittelwertes, sondern auf Grundlage des Mittelwertes der Datenkomponenten des Gesamtbildes zu erzeugen. Jedoch kann in einem solchen hervorgehobenen Bild eine starke Halo- oder Lichthofbildung auftreten, oder es können große Bildbereiche vollständig schwarz eingefärbt sein, da die Differenz zwischen dem Mittelwert und dem Hervorhebungswert groß ist. Dagegen ist in dem ersten Ausführungsbeispiel der Differenzwert nur selten groß, da er die Differenz zwischen dem Teilmittelwert, der anhand eines Zielpixels und anhand der dieses Zielpixel umgebenden Pixel, d.h. der Umgebungspixel, berechnet wird, und den Datenkomponenten des Zielpixels darstellt. Dementsprechend werden die Bildbereiche reduziert, in denen eine Halobildung auftritt oder die vollständig schwarz eingefärbt sind.
  • Im Folgenden wird ein Endoskopprozessor als zweites Ausführungsbeispiel beschrieben. Dieses zweite Ausführungsbeispiel unterscheidet sich von dem beschriebenen ersten Ausführungsbeispiel primär durch Aufbau und Funktion des Bildsignalverarbeitungsblocks. Diejenigen Elemente des zweiten Ausführungsbeispiels, die denen des ersten Ausführungsbeispiels entsprechen, sind mit den in dem ersten Ausführungsbeispiel verwendeten Bezugszeichen versehen.
  • Wie in 4 gezeigt, enthält ein Bildsignalverarbeitungsblock 300 einen ersten Verarbeitungsblock 31, einen Schwellwertblock 37, einen Stufenumsetzblock 38 und einen zweiten Verarbeitungsblock 36.
  • Bei Durchführung der bildhervorhebenden Verarbeitung werden der erste Verarbeitungsblock 31, der Schwellwertblock 37, der Stufenumsetzblock 38 und der zweite Verarbeitungsblock 36 in später beschriebener Weise betrieben. Bei Durchführung der Normalbildverarbeitung werden dagegen ähnlich wie in dem ersten Ausführungsbeispiel nur der erste und der zweite Verarbeitungsblock 31, 36 betrieben.
  • Das von der Abbildungsvorrichtung 42 erzeugte Bildsignal wird an den ersten Verarbeitungsblock 31 gesendet, der ähnlich wie in dem ersten Ausführungsbeispiel an den empfangenen Bilddaten eine vorbestimmte Signalverarbeitung vornimmt, die eine Farbseparation und eine Farbinterpolation beinhaltet. Zudem wandelt der erste Verarbeitungsblock 31 das analoge Bildsignal in 256 Quantisierungsstufen in digitale Bilddaten.
  • Bei Durchführung der Normalbildverarbeitung werden ähnlich wie in dem ersten Ausführungsbeispiel die Bilddaten von dem ersten Verarbeitungsblock 31 zu dem zweiten Verarbeitungsblock 36 gesendet. Bei Durchführung der der Bildhervorhebung dienenden Verarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 an den Stufenumsetzblock 38 gesendet.
  • Der Stufenumsetzblock 38 bestimmt sämtliche Pixel nacheinander als Zielpixel und setzt die 256 Quantisierungsstufen der Rot-, Grün- und Blau-Datenkomponenten in später beschriebener Weise in 8 Quantisierungsstufen um, die die Datenkomponenten dann aufweisen.
  • Dabei wird der tiefste Datenpegel der Datenkomponenten der ersten Stufe zugeordnet. Der zweittiefste Datenpegel der Datenkomponenten wird der zweiten Stufe zugeordnet. Der dritttiefste Datenpegel der Datenkomponenten wird der dritten Stufe zugeordnet. Der vierttiefste Datenpegel der Datenkomponenten wird der vierten Stufe zugeordnet. Der fünfttiefste Datenpegel der Datenkomponente wird der fünften Stufe zugeordnet. Der sechsttiefste Datenpegel der Datenkomponenten wird der sechsten Stufe zugeordnet. Der siebenttiefste Datenpegel der Datenkomponenten wird der siebenten Stufe zugeordnet. Der höchste Datenpegel der Datenkomponenten wird der achten Stufe zugeordnet.
  • Zusätzlich zur Bestimmung des Zielpixels bestimmt der Stufenumsetzblock 38 zunächst 399 Pixel, die in 20 Zeilen und 20 Spalten um das Zielpixel herum angeordnet sind, als Umgebungspixel. Die auf das Zielpixel und die Umgebungspixel bezogenen Datenkomponenten werden an den Schwellwertblock 37 gesendet.
  • Der Schwellwertblock 37 berechnet einen Mittelwert der Datenpegel der auf das Zielpixel und die Umgebungspixel bezogenen empfangenen Datenkomponenten als Anfangsschwellwert. Die diesem Anfangsschwellwert entsprechenden Daten werden an den Stufenumsetzblock 38 gesendet.
  • Der Stufenumsetzblock 38 vergleicht die Datenpegel der zu dem Zielpixel gehörenden Datenkomponente und der zu den Umgebungspixeln gehörenden Datenkomponenten mit dem Anfangsschwellwert. Auf Grundlage dieses Vergleichs ordnet der Stufenumsetzblock 38 das Zielpixel und die Umgebungspixel entweder einer ersten höheren Gruppe oder einer ersten tieferen Gruppe zu. Ein Pixel, bei dem der Datenpegel der zugehörigen Datenkomponente kleiner als der Anfangsschwellwert ist, wird der ersten tieferen Gruppe zugeordnet. Dagegen wird ein Pixel, bei dem der Datenpegel der zugehörigen Datenkomponente größer als der Anfangsschwellwert ist, der ersten höheren Gruppe zugeordnet. Die Gruppe, der das Zielpixel zugeordnet ist, wird als erste Gruppe bezeichnet.
  • Die Datenkomponenten, die zu dem Zielpixel und dem Umgebungspixel gehören und der ersten Gruppe zugeordnet sind, werden dann an den Schwellwertblock 37 gesendet.
  • Der Schwellwertblock 37 berechnet den Mittelwert der der ersten Gruppe zugeordneten Datenpegel der empfangenen Datenkomponenten, die zu dem Zielpixel und den Umgebungspixeln gehören, als ersten Schwellwert. Daten, die dem ersten Schwellwert entsprechen, werden an den Stufenumsetzblock 38 gesendet.
  • Der Stufenumsetzblock 38 vergleicht die der ersten Gruppe zugeordneten Datenkomponenten, die zu dem Zielpixel und dem Umgebungspixel gehören, mit dem ersten Schwellwert. Anhand dieses Vergleichs ordnet der Stufenumsetzblock 38 das Zielpixel und die Umgebungspixel entweder einer zweiten höheren Gruppe oder einer zweiten tieferen Gruppe zu. Ein Pixel, bei dem der Datenpegel der zugehörigen Datenkomponente kleiner als der erste Schwellwert ist, wird der zweiten tieferen Gruppe zugeordnet. Dagegen wird ein Pixel, bei dem der Datenpegel der zugehörigen Datenkomponente größer als ein erster Schwellwert ist, der zweiten höheren Gruppe zugeordnet. Die Gruppe, der das Zielpixel zugeordnet ist, wird als zweite Gruppe bezeichnet.
  • Datenkomponenten, die zu dem Zielpixel und dem Umgebungspixel gehören, die der zweiten Gruppe zugeordnet sind, werden dann an den Schwellwertblock 37 gesendet.
  • Der Schwellwertblock 37 berechnet den Mittelwert der Datenpegel der empfangenen Datenkomponenten, die zu dem Zielpixel und den Umgebungspixeln, die der zweiten Gruppe zugeordnet sind, gehören, als zweiten Schwellwert. Dem zweiten Schwellwert entsprechende Daten werden an den Stufenumsetzblock 38 gesendet.
  • Der Stufenumsetzblock 38 vergleicht den Datenpegel der zu dem Zielpixel gehörenden Datenkomponente mit dem zweiten Schwellwert. Anhand dieses Vergleichs ordnet der Stufenumsetzblock 38 das Zielpixel entweder einer dritten höheren oder einer dritten tieferen Gruppe zu. Ein Zielpixel, bei dem der Datenpegel der zugehörigen Datenkomponente kleiner als der zweite Schwellwert ist, wird der dritten tieferen Gruppe zugeordnet. Dagegen wird ein Zielpixel, bei dem der Datenpegel der zugehörigen Datenkomponente größer als der zweite Schwellwert ist, der dritten höheren Gruppe zugeordnet.
  • Der Stufenumsetzblock 38 sortiert die Daten in eine der 8 auf Zielpixel-Datenkomponenten bezogenen Quantisierungsstufen ein, abhängig davon, ob das Zielpixel der ersten tieferen oder der ersten höheren Gruppe, der zweiten tieferen oder der zweiten höheren Gruppe und der dritten tieferen oder der dritten höheren Gruppe zugeordnet ist. Ist das Zielpixel der ersten tieferen Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die erste, zweite, dritte oder vierte Datenkomponentenstufe einsortiert. Ist das Zielpixel der ersten höheren Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die fünfte, sechste, siebente oder achte Datenkomponentenstufe einsortiert. Ist im nächsten Schritt das Zielpixel auch der zweiten tieferen Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die erste, zweite, fünfte oder sechste Datenkomponentenstufe einsortiert. Ist dagegen das Zielpixel der zweiten höheren Gruppe zugeordnet, wird die Datenkomponente des Zielpixels in die dritte, vierte, siebente oder achte Datenkomponentenstufe einsortiert. Ist im nächsten Schritt das Zielpixel auch der dritten tieferen Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die erste, dritte, fünfte oder siebente Datenkomponentenstufe einsortiert. Ist dagegen das Zielpixel auch der dritten höheren Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die zweite, vierte, sechste oder achte Datenkomponentenstufe einsortiert.
  • Ist das Zielpixel der ersten tieferen, der zweiten tieferen und der dritten tieferen Gruppe zugeordnet, so wird demzufolge die Datenkomponente des Zielpixels in die erste der 8 Stufen einsortiert.
  • Ist das Zielpixel der ersten tieferen, der zweiten tieferen und der dritten höheren Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die zweite der 8 Stufen einsortiert.
  • Ist das Zielpixel der ersten tieferen, der zweiten höheren und der dritten tieferen Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die dritte der 8 Stufen einsortiert.
  • Ist das Zielpixel der ersten tieferen, der zweiten höheren und der dritten höheren Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die vierte der 8 Stufen einsortiert.
  • Ist das Zielpixel der ersten höheren, der zweiten tieferen und der dritten tieferen Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die fünfte der 8 Stufen einsortiert.
  • Ist das Zielpixel der ersten höheren, der zweiten tieferen und der dritten höheren Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die sechste der 8 Stufen einsortiert.
  • Ist das Zielpixel der ersten höheren, der zweiten höheren und der dritten tieferen Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die siebente der 8 Stufen einsortiert.
  • Ist das Zielpixel der ersten höheren, der zweiten höheren und der dritten höheren Gruppe zugeordnet, so wird die Datenkomponente des Zielpixels in die achte der 8 Stufen einsortiert.
  • Die Umsetzung der 256 Stufen in 8 Datenkomponentenstufen wird separat für die Rot-, die Grün- und die Blau-Datenkomponente durchgeführt.
  • Der Stufenumsetzblock 38 erzeugt einem hervorgehobenen Bild entsprechende Bildhervorhebungsdaten, indem er 256 Stufen in 8 Stufen umsetzt. Die umgesetzten 8 Stufen der Rot-, Grün- und Blau-Datenkomponente für jedes Pixel entsprechen der Stärke der Rot-, Grün- bzw. Blau-Lichtkomponente für jedes Pixel in dem hervorgehobenen Bild.
  • Die Bildhervorhebungsdaten werden dann an den zweiten Verarbeitungsblock 36 gesendet. Der zweite Verarbeitungsblock 36 nimmt ähnlich wie in dem ersten Ausführungsbeispiel die vorbestimmte Signalverarbeitung an den Bildhervorhebungsdaten vor. Zusätzlich werden die Bildhervorhebungsdaten einer D/A-Wandlung unterzogen, wodurch sie in ein analoges Signal gewandelt werden. Außerdem wird in Video-Mischsignal erzeugt, das das Bildsignal und ein Synchronisationssignal enthält.
  • Bei Durchführung der Normalbildverarbeitung werden die Bilddaten von dem ersten Verarbeitungsblock 31 direkt an den zweiten Verarbeitungsblock 36 gesendet, der ähnlich wie in dem ersten Ausführungsbeispiel an den empfangenen Bilddaten die vorbestimmte Datenverarbeitung vornimmt und ein Video-Mischsignal erzeugt, das dem Normalbild entspricht.
  • Das Video-Mischsignal wird ähnlich wie in dem ersten Ausführungsbeispiel an den Monitor 50 gesendet. Schließlich wird auf dem Monitor 50 auf Grundlage des Video-Mischsignals ein Bild dargestellt.
  • Die Verarbeitung zur Bildhervorhebung wird in dem Bildsignalverarbeitungsblock 300 durchgeführt, wie unten unter Bezugnahme auf das in 5 gezeigte Flussdiagramm beschrieben wird. Dieser Prozess beginnt, wenn der Benutzer einen Befehl zum Start des Prozesses eingibt.
  • In Schritt S200 empfängt der erste Verarbeitungsblock 31 von der Abbildungsvorrichtung 42 ein Bildsignal entsprechend einem einzigen Vollbild oder einem einzigen Teilbild. In Schritt S201 nimmt der erste Verarbeitungsblock 31 eine vorbestimmte Signalverarbeitung vor, die eine Farbseparation und eine Farbinterpolation beinhaltet. Anschließend werden für jedes Pixel eine Rot-, eine Grün- und eine Blau-Datenkomponente erzeugt. Nach Beendigung der vorbestimmten Signalverarbeitung fährt der Prozess mit Schritt S202 fort.
  • In Schritt S202 berechnet der Schwellwertblock 37 im Zusammenwirken mit dem Stufenumsetzblock 38 anhand der Bildsignale einen Rot-, einen Grün- und einen Blau-Anfangsschwellwert. Nach Berechnung der Anfangsschwellwerte fährt der Prozess mit Schritt S203 fort.
  • In Schritt S203 sortiert der Stufenumsetzblock 38 das Zielpixel und die Umgebungspixel anhand der in Schritt S202 berechneten Anfangsschwellwerte separat für jede Farbkomponente entweder in die erste tiefere oder die erste höhere Gruppe ein. Nach dieser Sortierung fährt der Prozess mit Schritt S204 fort.
  • In Schritt S204 berechnet der Schwellwertblock 37 im Zusammenwirken mit dem Stufenumsetzblock 38 anhand der in Schritt S203 vorgenommenen Sortierung einen ersten Rot-, Grün- und Blau-Schwellwert. Nach Berechnung dieser ersten Schwellwerte fährt der Prozess mit Schritt S205 fort.
  • In Schritt S205 sortiert der Stufenumsetzblock 38 das Zielpixel und die Umgebungspixel anhand der in S204 berechneten ersten Schwellwerte separat für jede Farbkomponente entweder in die zweite tiefere oder in die zweite höhere Gruppe ein. Nach dieser Sortierung fährt der Prozess mit Schritt S206 fort.
  • In Schritt S206 berechnet der Schwellwertblock 37 im Zusammenwirken mit dem Stufenumsetzblock 38 auf Grundlage der in Schritt S205 vorgenommenen Sortierung einen zweiten Rot-, Grün- und Blau-Schwellwert. Nach dieser Berechnung der zweiten Schwellwerte fährt der Prozess mit Schritt S207 fort.
  • In Schritt S207 sortiert der Stufenumsetzblock 38 das Zielpixel anhand der in Schritt S206 berechneten zweiten Schwellwerte separat für jede Farbkomponente entweder in die dritte tiefere oder die dritte höhere Gruppe ein. Zusätzlich setzt der Stufenumsetzblock 38 auf Grundlage der in den Schritten S203, S205 und S207 vorgenommenen Sortierung die 256 Stufen der Rot-, Grün- und Blau-Datenkomponente für das Zielpixel in 8 Stufen. Der Stufenumsetzblock 38 erzeugt die Bildhervorhebungsdaten, indem er für alle Pixel die Quantisierungsabstufung der Rot-, Grün- und Blau-Datenkomponente umsetzt. Nach dieser Umsetzung fährt der Prozess mit Schritt S208 fort.
  • In Schritt S208 nimmt der zweite Verarbeitungsblock 36 an den Bildhervorhebungsdaten eine vorbestimmte Signalverarbeitung vor, die eine Kontrasteinstellung und eine Verstärkung beinhaltet, und erzeugt ein Video-Mischsignal. Der zweite Verarbeitungsblock 36 sendet das Video-Mischsignal an den Monitor 50, auf dem ein dem Video-Mischsignal entsprechendes Bild dargestellt wird.
  • In Schritt S209 wird ermittelt, ob ein Eingabebefehl zur Beendigung der der Bildhervorhebung dienenden Verarbeitung vorliegt. Liegt ein solcher Eingabebefehl vor, so endet die der Bildhervorhebung dienende Verarbeitung des Bildsignals. Liegt dagegen ein solcher Eingabebefehl nicht vor, so kehrt der Prozess zu Schritt S200 zurück. Die Schritte ab S200 bis S209 werden so lange wiederholt, bis ein Eingabebefehl zur Beendigung der der Bildhervorhebung dienenden Verarbeitung erfasst wird.
  • In dem obigen zweiten Ausführungsbeispiel kann ein Normalbild, in dem eine Kontur (Rand) undeutlich ist, in ein hervorgehobenes Bild gewandelt werden, dessen undeutliche Kontur schärfer dargestellt wird. Demzufolge kann das Bild eines Adenoms, das in dem Normalbild nicht deutlich identifizierbar ist, deutlicher als bisher dargestellt werden.
  • Ein hervorgehobenes Bild kann erzeugt werden, indem 256 Datenkomponentenstufen unter Anwendung eines festen Schwellwertes für sämtliche Pixel in dem Gesamtbild in mehrere Stufen, z.B. 8 Stufen, umgesetzt werden. Jedoch werden bei einer solchen Umsetzung Datenkomponenten zweier benachbarter Pixel, die sicherlich unterschiedlich sind, jedoch beide entweder größer oder kleiner als ein fester Schwellwert sind, in die gleiche Stufe einsortiert. Demzufolge ist eine Kontur (Rand), die durch die beiden Pixel eigentlich zu sehen sein sollte, in dem Bild nicht zu sehen.
  • Andererseits ist es möglich, einen in Abhängigkeit der Datenpegel der Umgebungspixel veränderlichen Schwellwert zu verwenden, indem wie in dem ersten Ausführungsbeispiel der Schwellwert in Abhängigkeit des Mittelwertes der Datenkomponenten berechnet wird, die von Pixeln in einem Teilbereich erzeugt werden (vergl. 7). Eine undeutliche Kontur, die in einem dunklen oder hellen Bereich vorhanden ist, kann so durch Komprimierung der Datenkomponentenstufen mittels eines solch variierenden Schwellwertes schärfer dargestellt werden.
  • In dem oben beschriebenen ersten Ausführungsbeispiel wird der Teilmittelwert anhand der Rot-, der Grün- und Blau-Datenkomponenten jedes einzelnen Pixels sowie der dieses Pixel umgebenden Pixel berechnet. Dabei ist der Teilmittelwert ein Standardwert, der zum Erzeugen der Bildhervorhebungsdaten verwendet wird. In dem oben beschriebenen zweiten Ausführungsbeispiel werden zusätzlich die Anfangs- sowie die ersten und die zweiten Rot-, Grün- und Blau-Schwellwerte anhand der Rot-, Grün- und Blau-Datenkomponente jedes einzelnen Pixels sowie der dieses Pixel umgebenden Pixel als Standardwerte berechnet. Diese Standardwerte werden zum Erzeugen der Bildhervorhebungsdaten verwendet. Ein solcher Standardwert, der anhand der Rot-, Grün- und Blau-Datenkomponenten berechnet wird, kann jedoch auch für jede andere Signalverarbeitung genutzt werden.
  • In dem oben beschriebenen ersten Ausführungsbeispiel werden die Teilmittelwerte, die Differenzwerte und die Hervorhebungswerte anhand sämtlicher Arten von Farbdatenkomponenten, nämlich anhand der Rot-, Grün- und Blau-Datenkomponenten, berechnet, und die Bildhervorhebungsdaten anhand der Teilmittelwerte und der Hervorhebungswerte erzeugt. Selbst wenn diese Werte nur für mindestens eine Art von Farbdatenkomponenten berechnet und daraus die Bildhervorhebungsdaten erzeugt werden, wird jedoch die gleiche technische Wirkung wie in dem ersten Ausführungsbeispiel erzeugt.
  • In dem oben beschriebenen zweiten Ausführungsbeispiel werden 256 Stufen der Rot-, Grün- und Blau-Datenkomponenten in 8 Stufen umgesetzt und die Bildhervorhebungsdaten anhand dieser stufenumgesetzten Datenkomponenten erzeugt. Selbst wenn eine solche Umsetzung nur für zumindest eine Art von Farbdatenkomponente durchgeführt und daraus die Bildhervorhebungsdaten erzeugt werden, wird jedoch die gleiche technische Wirkung wie in dem zweiten Ausführungsbeispiel erzielt.
  • In den beiden oben beschriebenen Ausführungsbeispielen ist jedes einzelne Pixel der Abbildungsvorrichtung 42 von einem Rot-, Grün- oder Blau-Filter bedeckt. Die Bildhervorhebungsdaten werden auf Grundlage der Rot-, Grün- und Blau-Datenkomponenten erzeugt. Jedoch kann auch jedes einzelne Pixel von einem Farbfilter anderer Art bedeckt sein. Die Bildhervorhebungsdaten können in diesem Fall anhand einer Farbdatenkomponente erzeugt werden, die der Farbe dieses das jeweilige Pixel bedeckenden Filters entspricht.
  • In dem ersten und dem zweiten Ausführungsbeispiel werden die Bildhervorhebungsdaten anhand der Rot-, der Grün- und der Blau-Datenkomponenten erzeugt. Die Bildhervorhebungsdaten können jedoch auch anhand anderer Datenkomponenten erzeugt werden, die in einem aufgenommenen Bild zur Farberzeugung genutzt werden können. Werden beispielsweise ein Luminanzsignal und ein Farbdifferenzsignal anhand der Rot-, Grün- und Blau-Signalkomponenten erzeugt und die Bildhervorhebungsdaten anhand des Luminanzsignals und des Farbdifferenzsignals erzeugt, so wird die gleiche technische Wirkung wie in dem ersten und dem zweiten Ausführungsbeispiel erzielt.
  • In dem ersten Ausführungsbeispiel werden zur Berechnung des Teilmittelwertes 24 Pixel verwendet, die ein Zielpixel umgeben. In dem zweiten Ausführungsbeispiel werden zur Berechnung der Anfangsschwellwerte sowie der ersten und der zweiten Schwellwerte 999 Pixel verwendet, die das Zielpixel umgeben. Zur Berechnung der vorstehend genannten Werte kann jedoch auch eine andere Zahl an Pixeln verwendet werden, die das jeweilige Zielpixel umgeben.
  • In dem zweiten Ausführungsbeispiel werden 256 Datenkomponentenstufen in 8 Datenkomponentenstufen umgesetzt. Die Erfindung ist jedoch nicht auf eine Umsetzung in 8 Stufen beschränkt. So erhält man die gleiche technische Wirkung wie in dem zweiten Ausführungsbeispiel, sofern die ursprüngliche Datenabstufung in eine Abstufung mit geringerer Stufenzahl umgesetzt wird.
  • In dem zweiten Ausführungsbeispiel beträgt die Zahl der Datenkomponentenstufen der Bilddaten vor der Umsetzung der Absetzung 256. Die Zahl der Stufen der ursprünglichen Bilddaten kann jedoch auch eine andere sein. So erzielt man die gleiche technische Wirkung wie in dem zweiten Ausführungsbeispiel, sofern die ursprüngliche Zahl an Stufen vor der Umsetzung größer als nach der Umsetzung ist.
  • Das erste und das zweite Ausführungsbeispiel können implementiert werden, indem ein Programm zur Bildhervorhebung auf einem Allzweck-Endoskopprozessor installiert wird. Dieses Programm zur Bildhervorhebung umfasst ein Steuerungs-Codesegment für den Datenempfang und ein Standardwert-Berechungscodesegment.
  • In den obigen Ausführungsbeispielen verarbeitet der Endoskopprozessor ein Bildsignal, das von einem elektronischen Endoskop erzeugt wird, das ein von außen einführbares Einführrohr aufweist. Der Endoskopprozessor kann jedoch auch ein Bildsignal verarbeiten, das von einem elektronischen Endoskop anderen Typs, z.B. einem Kapselendoskop, erzeugt wird.
  • In den obigen Ausführungsbeispielen empfängt der Endoskopprozessor das Bildsignal und nimmt an diesem empfangenen Bildsignal die oben beschriebene Signalverarbeitung in Echtzeit vor. Es kann jedoch auch ein Endoskopbild-Wiedergabegerät vorgesehen werden, das ein auf einem internen oder einem externen Speicher gespeichertes Bildsignal empfängt und dann die oben beschriebene Signalverarbeitung einschließlich der Bildhervorhebung an dem gespeicherten Bildsignal vornimmt, während es das gespeicherte Bild wiedergibt.

Claims (9)

  1. Endoskopprozessor (20), umfassend. – eine Signalempfangseinheit, die ein Bildsignal empfängt, das aus einem optischen Bild erzeugt wird, das auf einer Lichtempfangsfläche einer Abbildungsvorrichtung (42) aufgenommen wird, wobei das Bildsignal mehrere Pixelsignale beinhaltet, die von mehreren Pixeln, die auf der Lichtempfangsfläche der Abbildungsvorrichtung (42) angeordnet sind, entsprechend den empfangenen Lichtmengen erzeugt werden; und – eine Recheneinheit, die einen Standardwert anhand eines von einem Zielpixel stammenden Zielpixelsignals und anhand von Umgebungspixelsignalen, die von das Zielpixel umgebenden Umgebungspixeln erzeugt werden, berechnet, wobei die Pixel nacheinander jeweils als Zielpixel und die dieses Zielpixel umgebenden Pixel als Umgebungspixel bestimmt werden und der Standardwert zur Signalverarbeitung des Zielpixelsignals verwendet wird.
  2. Endoskopprozessor (20) nach Anspruch 1, ferner umfassend: – einen Signalprozessor (30), der – einen Signaldifferenzwert berechnet, der gleich der Differenz zwischen dem Signalpegel des Zielpixelsignals und dem Standardwert ist, – einen Hervorhebungswert berechnet, indem er den Signaldifferenzwert mit einem vorbestimmten Verstärkungsfaktor verstärkt, und – das Bildsignal in ein Bildhervorhebungssignal umsetzt, indem er das Zielpixelsignal durch ein Signal ersetzt, das der Summe aus dem Standardwert und dem Hervorhebungswert entspricht, – wobei der Standardwert gleich dem Mittelwert der Signalpegel des Zielpixelsignals und der Umgebungspixelsignale ist.
  3. Endoskopprozessor (20) nach Anspruch 2, bei dem – jedes Pixel von einem ersten oder einem zweiten Farbfilter bedeckt ist, – ein erstes und ein zweites Pixel, die von dem ersten bzw. dem zweiten Farbfilter bedeckt sind, ein erstes bzw. ein zweites Pixelsignal erzeugen, – die Recheneinheit einen ersten und einen zweiten Standardwert berechnet, welche die zu dem ersten bzw. zweiten Pixelsignal gehörenden Standardwerte sind, und – der Signalprozessor – einen ersten und einen zweiten Signaldifferenzwert berechnet, welche die zu dem ersten bzw. zweiten Pixelsignal gehörenden Signaldifferenzwerte sind, – einen ersten und einen zweiten Hervorhebungswert berechnet, welche die zu dem ersten bzw. zweiten Pixelsignal gehörenden Hervorhebungswerte sind, und – das Bildsignal in das Bildhervorhebungssignal wandelt, indem er das erste und das zweite Zielpixelsignal durch ein Signal, das der Summe aus dem ersten bzw. zweiten Standardwert und dem ersten bzw. zweiten Hervorhebungswert entspricht, ersetzt, – wobei das erste und das zweite Zielpixelsignal das zu dem ersten bzw. zweiten Pixelsignal gehörende Zielpixelsignal ist.
  4. Endoskopprozessor (20) nach Anspruch 1, ferner umfassend einen Signalprozessor (30), der das Bildsignal in ein Bildhervorhebungssignal wandelt, indem er die ursprüngliche Zahl an Quantisierungsstufen des Pixelsignals von einem Wert größer als 2° anhand des Standardwertes in eine Zahl an Quantisierungsstufen umsetzt, die gleich 2° ist, wobei – der Standardwert der Mittelwert der Signalpegel des Zielpixelsignals und der Umgebungspixelsignale ist.
  5. Endoskopprozessor (20) nach Anspruch 4, bei dem – die Recheneinheit einen Anfangsstandardwert berechnet, der gleich dem Mittelwert des Zielpixelsignals und der Umgebungspixelsignale ist, die von einer vorbestimmten Zahl an Umgebungspixeln erzeugt werden, die relativ zu dem Zielpixel jeweils an einem vorbestimmten Ort angeordnet sind, – der Signalprozessor das Zielpixelsignal oder die Umgebungspixelsignale, deren Signalpegel jeweils kleiner oder größer als der Anfangsstandardwert ist, einer ersten tieferen oder einer ersten höheren Gruppe zuordnet; – der Signalprozessor den Signalpegel des Zielpixels in eine Stufe zwischen der ersten und der 2(n–1)-ten Stufe einsortiert, wenn das Zielpixel der ersten tieferen Gruppe zugeordnet ist, und das Zielpixel in eine Stufe zwischen der 2n(–1)+1-ten und der 2n-ten Stufe einsortiert, wenn das Zielpixelsignal der ersten höheren Gruppe zugeordnet ist wird.
  6. Endoskopprozessor (20) nach Anspruch 5, bei dem – die Recheneinheit einen ersten Standardwert berechnet, der gleich dem Mittelwert des Zielpixelsignals und der Umgebungspixelsignale ist, die der ersten tieferen oder der ersten höheren Gruppe mit dem Zielpixel zugeordnet sind, – der Signalprozessor das Zielpixelsignal oder die Umgebungspixelsignale, deren Signalpegel jeweils kleiner oder größer als der erste Standardwert sind, einer zweiten tieferen oder einen zweiten höheren Gruppe zuordnet; – der Signalprozessor den Signalpegel des Zielpixelsignals in eine Stufe zwischen der ersten und der 2(n–2)-ten Stufe in der ersten tieferen oder der ersten höheren Gruppe einsortiert, wenn das Zielpixelsignal der zweiten tieferen Gruppe zugeordnet ist, und – der Signalprozessor den Signalpegel des Zielpixelsignals in eine Abstufung zwischen der 2(n–2)+1-ten und der 2(n–1)-ten Stufe in der ersten tieferen oder der ersten höheren Gruppe einsortiert, wenn das Zielpixelsignal der zweiten höheren Gruppe zugeordnet ist.
  7. Endoskopprozessor (20) nach Anspruch 4, bei dem – jedes der Pixel von einem ersten oder einem zweiten Farbfilter bedeckt ist, – ein erstes und ein zweites Pixel, die jeweils von dem ersten bzw. dem zweiten Farbfilter bedeckt sind, ein erstes bzw. zweites Pixelsignal erzeugen, – die Recheneinheit einen ersten und einen zweiten Standardwert berechnet, wobei der erste bzw. zweite Standardwert der zu dem ersten bzw. zweiten Pixelsignal gehörende Standardwert ist, und – der Signalprozessor die ursprüngliche Abstufung des ersten bzw. zweiten Pixelsignals anhand des ersten bzw. zweiten Standardwerts in die umgesetzte Abstufung umsetzt.
  8. Computerprogrammprodukt, umfassend: – eine Steuerungseinheit, die eine Signalempfangseinheit so ansteuert, dass diese ein Bildsignal empfängt, das anhand eines auf einer Lichtempfangsfläche einer Abbildungsvorrichtung (42) erzeugten optischen Bildes erzeugt wird und mehrere Pixelsignale beinhaltet, die von mehreren Pixeln, die auf der Lichtempfangsfläche der Abbildungsvorrichtung (42) angeordnet sind, entsprechend den empfangenen Lichtmengen erzeugt werden; und – eine Recheneinheit, die einen Standardwert anhand eines von einem Zielpixel stammenden Zielpixelsignals und anhand von Umgebungspixelsignalen, die von das Zielpixel umgebenden Umgebungspixeln erzeugt werden, berechnet, wobei die Pixel nacheinander jeweils als Zielpixel und die dieses Zielpixel umgebenden Pixel als Umgebungspixel bestimmt werden und der Standardwert zur Signalverarbeitung des Zielpixelsignals verwendet wird.
  9. Endoskopsystem (10), umfassend: – ein Endoskop (40) mit einer Abbildungsvorrichtung (42), die aus einem optischen Bild, das auf ihrer Lichtempfangsfläche aufgenommen wird, ein Bildsignal erzeugt, das mehrere Pixelsignale beinhaltet, die von mehreren Pixeln, die auf der Lichtempfangsfläche der Abbildungsvorrichtung (42) angeordnet sind, entsprechend den empfangenen Lichtmengen erzeugt werden; und – eine Recheneinheit, die einen Standardwert anhand eines von einem Zielpixel stammenden Zielpixelsignals und anhand von Umgebungspixelsignalen, die von das Zielpixel umgebenden Umgebungspixeln erzeugt werden, berechnet, wobei die Pixel nacheinander jeweils als Zielpixel und die dieses Zielpixel umgebenden Pixel als Umgebungspixel bestimmt werden und der Standardwert zur Signalverarbeitung des Zielpixelsignals verwendet wird.
DE102007022957A 2006-05-16 2007-05-16 Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem Withdrawn DE102007022957A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-136691 2006-05-16
JP2006136691A JP5124102B2 (ja) 2006-05-16 2006-05-16 内視鏡プロセッサ、画像処理プログラム、および内視鏡システム

Publications (1)

Publication Number Publication Date
DE102007022957A1 true DE102007022957A1 (de) 2007-11-22

Family

ID=38608319

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007022957A Withdrawn DE102007022957A1 (de) 2006-05-16 2007-05-16 Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem

Country Status (3)

Country Link
US (1) US7822248B2 (de)
JP (1) JP5124102B2 (de)
DE (1) DE102007022957A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4835459B2 (ja) * 2007-02-16 2011-12-14 富士通株式会社 表認識プログラム、表認識方法および表認識装置
US20080231694A1 (en) * 2007-03-23 2008-09-25 Pentax Corporation Image processor of endoscope system
JP5296396B2 (ja) * 2008-03-05 2013-09-25 オリンパスメディカルシステムズ株式会社 生体内画像取得装置、生体内画像受信装置、生体内画像表示装置およびノイズ除去方法
JP5244455B2 (ja) * 2008-05-21 2013-07-24 Hoya株式会社 内視鏡プロセッサおよび内視鏡システム
JP5388630B2 (ja) * 2009-03-03 2014-01-15 Hoya株式会社 画像処理装置および内視鏡装置
US9058651B2 (en) * 2011-01-04 2015-06-16 Edda Technology, Inc. System and methods for functional analysis of soft organ segments in SPECT-CT images
US9412155B2 (en) 2012-12-31 2016-08-09 Karl Storz Imaging, Inc. Video system with dynamic contrast and detail enhancement
CN110381806B (zh) * 2017-03-31 2021-12-10 Hoya株式会社 电子内窥镜系统
US10510233B2 (en) * 2017-05-26 2019-12-17 Jemez Technology LLC Reducing and eliminating the effects of bright lights in a field-of-view of a camera

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2575476B2 (ja) * 1988-10-20 1997-01-22 富士写真フイルム株式会社 画像信号処理方法およびその装置
JPH1042182A (ja) * 1996-07-26 1998-02-13 Canon Inc 撮像装置
JP3961736B2 (ja) * 2000-02-04 2007-08-22 株式会社リコー 画像処理装置
JP2001333374A (ja) * 2000-05-23 2001-11-30 Asahi Optical Co Ltd 連写画像処理装置
JP3480924B2 (ja) * 2000-09-04 2003-12-22 株式会社リコー 画像形成方法、画像形成装置および記録媒体
JP2003000536A (ja) 2001-06-26 2003-01-07 Pentax Corp 電子内視鏡装置
US7050086B2 (en) 2001-06-26 2006-05-23 Pentax Corporation Electronic endoscope system with color-balance alteration process
JP4512294B2 (ja) * 2001-06-26 2010-07-28 Hoya株式会社 電子内視鏡装置
JP3869698B2 (ja) * 2001-10-23 2007-01-17 ペンタックス株式会社 電子内視鏡装置
JP4199510B2 (ja) * 2002-09-30 2008-12-17 Hoya株式会社 診断補助用装置
JP2004246644A (ja) * 2003-02-14 2004-09-02 Pentax Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2004313413A (ja) * 2003-04-15 2004-11-11 Olympus Corp 内視鏡装置
JP2006061454A (ja) * 2004-08-27 2006-03-09 Pentax Corp 電子内視鏡装置と制御システム
JP4540492B2 (ja) * 2005-01-28 2010-09-08 Hoya株式会社 色変換マトリクス算出方法および画像信号処理装置
JP2006239002A (ja) 2005-03-01 2006-09-14 Pentax Corp 内視鏡用データ生成装置および内視鏡システム
JP4731248B2 (ja) * 2005-08-25 2011-07-20 Hoya株式会社 電子内視鏡システム
JP5271631B2 (ja) * 2008-08-07 2013-08-21 Hoya株式会社 画像処理ユニット、撮像装置、合成画像作成プログラム

Also Published As

Publication number Publication date
US7822248B2 (en) 2010-10-26
JP5124102B2 (ja) 2013-01-23
JP2007306982A (ja) 2007-11-29
US20070269088A1 (en) 2007-11-22

Similar Documents

Publication Publication Date Title
DE102007022957A1 (de) Endoskopprozessor, Computerprogrammprodukt und Endoskopsystem
DE112008001990B4 (de) Belichtungssteuerung für ein Bildgebungssystem
DE102009022331B4 (de) Endoskopprozessor und Endoskopsystem
DE10055725B4 (de) Elektronisches Endoskopsystem
DE102008005679B4 (de) Bildsignalverarbeitungseinheit
DE102006038814B4 (de) Elektronisches Endoskop, Endoskoplichtquelleneinheit, Endoskopprozessor und elektronisches Endoskopsystem
DE19619734C2 (de) Elektronisches Endoskopsystem
DE102006042670B4 (de) Elektronisches Endoskopsystem
DE10212915B4 (de) Elektroendoskopsystem mit Elektroendoskopen mit verschiedenen Pixelanzahlen
DE69125146T2 (de) Vorrichtung und verfahren zur verarbeitung von endoskopischen bildsignalen
DE102006039932A1 (de) Elektronisches Endoskopsystem
DE102004006260B4 (de) Videoendoskopeinrichtung
DE19721713C2 (de) Elektronisches Endoskop
DE3432391A1 (de) Endoskopanordnung
DE69523043T2 (de) Zusammenstellung eines bildes aus teilbildern
DE102008056921A1 (de) Endoskopprozessor und Endoskopsystem
DE19816481A1 (de) Elektronisches Endoskopsystem
DE4129656C2 (de) Wiedergabevorrichtung für Videosignale auf einem Monitor
DE112016000142B4 (de) Endoskopsystem
DE10164297A1 (de) Elektronisches Endoskopsystem
DE10239801A1 (de) Verfahren zum Extrahieren von Texturmerkmalen aus einem mehrkanaligen Bild
DE10351024A1 (de) Elektronische Endoskopeinrichtung
DE10345418A1 (de) Diagnoseunterstützungsvorrichtung
DE102004032921B4 (de) Elektronische Endoskopeinrichtung
DE112018001730T5 (de) Elektronisches Endoskopsystem

Legal Events

Date Code Title Description
8127 New person/name/address of the applicant

Owner name: HOYA CORP., TOKIO/TOKYO, JP

8110 Request for examination paragraph 44
R082 Change of representative

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE GBR, DE

Representative=s name: SCHAUMBURG UND PARTNER PATENTANWAELTE MBB, DE

Representative=s name: SCHAUMBURG & PARTNER PATENTANWAELTE MBB, DE

R016 Response to examination communication
R120 Application withdrawn or ip right abandoned