[go: up one dir, main page]

DE69714873T2 - Verfahren und Vorrichtung zur Bildinterpolation - Google Patents

Verfahren und Vorrichtung zur Bildinterpolation

Info

Publication number
DE69714873T2
DE69714873T2 DE69714873T DE69714873T DE69714873T2 DE 69714873 T2 DE69714873 T2 DE 69714873T2 DE 69714873 T DE69714873 T DE 69714873T DE 69714873 T DE69714873 T DE 69714873T DE 69714873 T2 DE69714873 T2 DE 69714873T2
Authority
DE
Germany
Prior art keywords
data
density
image
pixel
picture element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69714873T
Other languages
English (en)
Other versions
DE69714873D1 (de
Inventor
Yoshiyuki Nakai
Tomoki Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of DE69714873D1 publication Critical patent/DE69714873D1/de
Publication of DE69714873T2 publication Critical patent/DE69714873T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

    Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Bildverarbeitungsverfahren und eine Bildverarbeitungsvorrichtung, die für eine Bildeingabe-/-ausgabeeinrichtung, wie etwa ein digitales Kopiergerät, verwendet werden und ein Bild liest und das gelesene Bild in Blöcke teilt, die aus einer Vielzahl von Bildelementen bestehen; um so einen variablen Skalierungsprozess auf dem Bild durchzuführen, indem jedes Bildelement interpoliert oder dezimiert wird.
  • Hintergrund der Erfindung
  • In herkömmlicher Weise genügt es, in dem Falle wo eine variable Skalierung eines Eingangsbilds von einem digitalen Diktiergerät durchgeführt wird, nämlich das Eingangsbild von einem digitalen Kopiergerät vergrößert oder verkleinert wird, entweder eine Nächste-Nachbar-Interpolation oder Interpolationen erster bis dritter Grade pro Seite zu wählen.
  • In der Nächste-Nachbar-Interpolation wird ein Bild in Blöcke geteilt, die aus einer Vielzahl von Bildelementen bestehen, und wenn das Bild vergrößert wird, werden die Daten des Bildelements, das in der nächsten Nachbarschaft des Zielbildelements existiert, als Daten des Zielbildelements verwendet. Das Vergrößerungsverfahren mittels der Nächste-Nachbar-Interpolation weist eine bevorzugte Eigenschaft auf, dass eine Kante eines Zeichens klar wird.
  • Zusätzlich werden in der Interpolation erster bis dritter Grade Daten eines Zielbildelements in geteilten Blöcken bestimmt, indem ein berechnetes Mittel der Daten des Nächste-Nachbar- Bildelements des Zielbildelements und Daten eines weiteren Nachbarbildelements, das durch Formeln der ersten bis dritten Grade erhalten wird, verwendet wird, so dass ein Bild vergrößert wird. Dieses Verfahren wird auch als eine lineare Interpolation bezeichnet. Spezifischer werden die Daten des Nächste-Nachbar-Bildelements des Zielbildelements und die Daten eines weiteren Nachbarbildelements jeweils mit einer inversen Zahl eines Abstands von dem Zielbildelement gewichtet, und ein gewichtetes Mittel wird erhalten. Die von den gewichteten Mitteln erhaltenen Daten werden als Daten des Zielbildelements spezifiziert.
  • Das Vergrößerungsverfahren durch die Interpolationen erster bis dritter Grade ist als der Vergrößerungsprozess in dem Fall eines Verarbeitens eines Bilds vorzuziehen, in welchem sich eine Dichte allmählich ändert, wie ein photographisches Bild, weil neue Daten eines Bildelements, die zwischen den jeweiligen Bildelementen (Interpolations-Bildelementdaten) interpoliert werden, Mittel von Bildelementdaten werden, die auf beiden benachbarten Seiten existieren:
  • In dem Fall jedoch, wo zwei oder mehrere Typen von Bilddaten, wie etwa Zeichen, Fotografien und Gitterpunkte, auf einer Seite des Bilds zusammen existieren, wenn eine variable Vergrößerung eines derartigen Bilds durch entweder die Nächste- Nachbar-Interpolation oder die Interpolationen erster bis dritter Grade verarbeitet wird, wird eine Bildqualität der Zeichen oder Fotografien etc. verschlechtert.
  • Deswegen offenbart die ungeprüfte japanische Patentanmeldung Nr. 6-286221/1994 (Tokukaihei 6-286221) ein Druckverfahren, das fähig ist, einen variablen Skalierungsprozess gemäß zwei Typen von Daten in dem Fall, wo Zeichen, Fotografien, Gitterpunkte, etc. auf einer Seite zusammen existieren, zu ändern.
  • In diesem Druckverfahren werden Eingangsdaten, wie etwa eine Zeicheninformation, wie etwa Zeichencodes, und eine Form- Information von einem Host als einer externen Einrichtung in einen Pufferspeicher eines Druckers eingegeben. Der Drucker schafft ein Zeichenmuster und ein Formmuster gemäß der Information der eingegebenen Daten, um so ein Bild zu drucken.
  • In dem Fall, wo ein Vergrößerungs- oder Verkleinerungsprozess vor einem Drucken ausgeführt wird, wird, wenn ein spezielles Vergrößerungs- und Verkleinerungsverfahren in den Drucker gemäß des Zeichenmusters etc. katalogisiert ist, eine variable Skalierung durch den Vergrößerungs- oder Verkleinerungsprozess durchgeführt. Deswegen kann der variable Skalierungsprozess gemäß jeden Typs von Daten durchgeführt werden.
  • Jedoch werden, da das obige herkömmliche Bildverarbeitungsverfahren auf einen Drucker angewandt wird, und der variable Skalierungsprozess eines derartigen Druckers zuvor durch eine Information von einem externen Host beurteilt werden kann, diese Zeichen, Vektorzeichnungen und Bitbilder als Bilddaten eingegeben. Deswegen weist in Bildeingabe- und -ausgabeeinrichtungen, wie etwa einem Kopiergerät, das oben erwähnte Bildverarbeitungsverfahren einen Nachteil auf, dass in dem Fall, wo ein Dokumentbild durch einen Scanner gelesen wird, und Zeichen, Fotografien und Gitterpunkte auf einer Seite des gelesenen Dokumentbilds zusammen existieren, ein variabler Skalierungsprozess gemäß des Typs von Bilddaten nicht durchgeführt werden kann.
  • Die EP-A-0 645 736 offenbart eine Bilderverarbeitungseinrichtung zum Konvertieren eines Bilds niedriger Auflösung in ein Bild einer N+M hohen Auflösung, wie in Fig. 1 und in Fig. 7 gezeigt, einschließend: Eine lineare Interpolationseinrichtung 101 zum Erzeugen eines Bilds einer hohen Auflösung (lineare Interpolationsinformation) von einem Bild einer niedrigen Auflösung durch eine lineare Polarisation; eine Quantisierungseinrichtung 102 zum Erzeugen einer Kanteninformation aus der linearen Interpolationsinformation; Multiplizierer 105, 106; einen Addierer 106 zum Berechnen eines gewichteten Durchschnitts der Kanteninformation und einer linearen Interpolationsinformation mit Faktoren (Zuordnungsverhältnis) a und (1 - a); und eine Zuordnungsverhältnis-Bestimmungseinrichtung 103 zum Bestimmen der Zuordnungsverhältnisses a. Die Zuordnungsverhältnis-Bestimmungseinrichtung 103 ist ausgelegt, das Zuordnungserhältnis a auf der Grundlage des Unterschieds zwischen einem maximalen Dichtewert und einem minimalen Dichtewert in einem Fenster 122 zu bestimmen, das das interessierende Pixel und seine umgebenden Pixel in einem Eingangsbild (Bild niedriger Auflösung) enthält, wie in Fig. 6 gezeigt. Die Quantisierungseinrichtung 102 ist ausgelegt, einen Dichtekonversionsprozess auf einer linearen Interpolationsinformation für eine Kantenverstärkung auszuführen. Dementsprechend weist das Ausgangsbild mit einer größeren Wahrscheinlichkeit für einen Zeichenabschnitt seine Kante zunehmend verstärkt auf.
  • In der JP 05 135 165 A ist eine Bildverarbeitungseinrichtung zum Ausführen eines Vergrößerungs-/Verkleinerungsprozesses auf einer Bildinformation offenbart, wobei eine Interpolation durch eine SPC (Nächste-Nachbar-Interpolation) in einem Zeichenbereich und durch einen lineare Interpolation in einem photographischen Bereich auf der Grundlage einer Merkmalsgröße (δDmax) eines interessierenden Pixels ausgeführt wird.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung ist von einem Standpunkt des obigen herkömmlichen Problems ausgeführt, und es ist eine Aufgabe der vorliegenden Erfindung, ein Bildverarbeitungsverfahren und eine Bildverarbeitungsvorrichtung bereitzustellen, die befähigt sind, auch dann, wenn Zeichen, Fotografien und Gitterpunkte in einem Bild, das durch einen Scanner gelesen wird, zusammen existieren, eine Verschlechterung in einer Bildqualität durch ein variables Skalieren des Bilds gemäß der Zeichen, Fotografien und Gitterpunkte zu verhindern.
  • Um die obige Aufgabe zu lösen, stellt die vorliegende Erfindung ein Bildverarbeitungsverfahren gemäß Anspruch 1 bereit. Weiter stellt die vorliegende Erfindung eine Bildverarbeitungsvorrichtung gemäß Anspruch 13 bereit.
  • Mit anderen Worten, treten, in dem Fall, wo Zeichen, Fotografien, etc. in einem Dokumentenbild zusammen existieren, wenn die herkömmliche Nächste-Nachbar-Interpolation oder die Interpolation erster bis dritter Grade für eine Vergrößerung verwendet wird, die folgenden Probleme auf. Es tritt nämlich, wenn die Nächste-Nachbar-Interpolation gewählt wird, eine Pseudokontur, auf einer Fotografie auf, und wenn die Interpolation erster bis dritter Grade gewählt wird, wird eine Kante von Zeichen unklar.
  • Jedoch werden, in Übereinstimmung mit dem obigen Verfahren, Bereichssegmentationsdaten, die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten eines Zielbildelements auf einem Bild darstellen, durch die Bereichssegmentationseinrichtung erfasst, und interpolierte Bildelementdaten pro Bildelement werden durch die Berechnungseinrichtung gemäß der Gleichung berechnet, in welcher eine Dichte einer Vielzahl benachbarter Bildelemente in der Nähe des Zielbildelements eingegeben wird. Zu dieser Zeit wird ein Gewicht der Dichte jedes benachbarten Bildelements in der Gleichung auf der Grundlage des Ergebnisses, das durch die Bereichssegmentationseinrichtung erfasst wird, eingestellt.
  • Deswegen wird ein Abschnitt, wo die Wahrscheinlichkeit von Zeichen hoch ist, durch die Nächste-Nachbar-Interpolation oder dergleichen vergrößert, so dass verhindert werden kann, dass die Kante der vergrößerten Zeichen unklar wird. Unterdessen wird ein Abschnitt, wo die Wahrscheinlichkeit von Fotografien hoch ist, durch die Interpolation erster bis dritter Grade oder dergleichen vergrößert, so dass verhindert werden kann, dass die Pseudokontur auf der vergrößerten Fotografie auftritt.
  • Folglich wird, auch wenn Zeichen, Fotografien und Gitterpunkte auf einem Bild, das durch einen Scanner gelesen ist, zusammen existieren, das Bild gemäß der Zeichen, Fotografien oder Gitterpunkte skaliert, so dass eine Verschlechterung einer Bildqualität verhindert werden kann.
  • Es ist wünschenswert, dass das Bildverarbeitungsverfahren ein derartiges Verfahren ist, dass in dem Erfassungsschritt die Bereichssegmentationsdaten so eingestellt werden, einen Wert X anzunehmen, der in den Bereich von 0 bis N-1 (N, ist eine ganze Zahl nicht geringer als 2) fällt, und so, dass, wenn die Wahrscheinlichkeit von Zeichen höher ist, die Bereichssegmentationsdaten einen kleineren Wert annehmen, und wenn die Wahrscheinlichkeiten von Fotografien und Gitterpunkten höher sind, die Bereichssegmentationsdaten einen größeren Wert annehmen, und in dem Berechnungsschritt eine Dichte Dp eines Bildelements P, das ein Zielbildelement ist, dessen Dichte bestimmt werden sollte, gemäß der folgenden Gleichung berechnet wird:
  • Dp = (1-K) · Da + K · Db .................... (1)
  • (Jedoch, K = (Xp/(N-1)) · (PA/(PA+PB)))
  • wobei Xp Bereichssegmentationsdaten des Bildelements P sind, Da eine Dichte eines Bildelements A ist, das am nächsten zu dem Bildelement P liegt, Db eine Dichte eines Bildelements B ist, das das zweitnächste zu dem Bildelement P ist, PA ein Abstand zwischen dem Bildelement P und dem Bildelement A ist, und PB ein Abstand zwischen dem Bildelement P und dem Bildelement B ist.
  • Mit anderen Worten, existieren Zeichen, Fotografien und Gitterpunkte meistens auf einem tatsächlichen Bild zusammen, und wenn eine Musteranpassung oder dergleichen als ein variables Skalierungsverfahren für ein Zielbildelement eines derartigen Bilds verwendet wird, sind viele Speicher zum genauen Durchführen des variablen Skalierungsprozesses erforderlich, und eine Zeit, die für den Prozess erforderlich ist, wird erhöht.
  • Jedoch berechnet die Berechnungseinrichtung in Übereinstimmung mit dem obigen Verfahren die Dichte Dp des Bildelements P gemäß der Gleichung (1). In der Gleichung (1) ist, in dem Fall, wo die Bereichssegmentationsdaten 2% einen Wert 0, der ausschließlich Zeichen darstellt, erhalten, beispielsweise K = 0 und Dp = Da. Dies bedeutet nämlich den variablen Skalierungsprozess durch die Nächste-Nachbar-Interpolation.
  • Unterdessen ist, in dem Fall, wo die Bereichssegmentationsdaten Xp einen Wert N-1, der ausschließlich eine Fotografie darstellt, beispielsweise
  • Dp = (PB·Da + PA·Db)/(PA + PB).
  • Deswegen wird Dp ein linear gewichtetes Mittel der Dichte Da des Bildelements A, das am nächsten zu dem Bildelement P liegt, und der Dichte Db des Bildelements B, das das zweitnächste zu dem Bildelement P ist.
  • Deswegen kann, auch wenn Zeichen, Fotografien und Gitterpunkte in einem Bild zusammen existieren, wenn die Nächste-Nachbar- Interpolation oder dergleichen für einen Abschnitt verwendet wird, wo die Wahrscheinlichkeit von Zeichen hoch ist, und ein Verfahren, das näher an der Interpolation ersten Grads liegt, für einen Abschnitt verwendet wird, wo die Wahrscheinlichkeit von Fotografien zu der Zeit eines Durchführens des variablen Skalierungsprozesses hoch ist, eine geeignetere Dichte von skalierungsverarbeiteten Daten gemäß einer einfachen Summierungs- und Multiplizierungsoperation der Gleichung (1) auf der Grundlage der Bereichssegmentationsdaten erhalten werden, die die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten darstellen, die von der Bereichssegmentationseinrichtung erfasst werden. Eine Dichte kann nämlich, da eine Dichte durch eine hervorragende Software, die für die Zeichen, Fotografien und Gitterpunkte pro Zielbildelement geeignet ist, gewählt werden kann, schnell bestimmt werden, und die Verschlechterung einer Bildqualität kann durch eine einfache Anordnung einer Hardware verhindert werden.
  • Zusätzlich weist das Bildverarbeitungsverfahren weiter auf: Den Schritt eines Erhaltens von Abfalldaten einer Bildelementdichte, die einen Dichteabfall des Bildelements P bezüglich der Bildelemente darstellen, die neben dem Bildelement P liegen, nach dem Berechnungsschritt; und den Schritt eines Konvertierens auf einem Bildelement P, dessen Bereichssegmentationsdaten Xp 0 sind und dessen Dichte Dp eine Grauwertdichte ist, und auf einem Bildelement A, das dem Bildelement P am nächsten liegt, wenn die Abfalldaten der Bildelementdichte Daten sind, die eine Beziehung Da < Dp < Db darstellen, Konvertieren der Dichte Dp in einen Wert, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößung einer variablen Skalierung erhalten wird, und ein Einstellen einer Dichte Da auf 0, hingegen eines Konvertierens, wenn die Abfalldaten der Bildelementdichte Daten sind, die eine Beziehung Db < Dp < Da darstellen, der Dichte Da in einen Wert, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößerung erhalten wird, und eines Einstellens der Dichte Dp auf 0.
  • In dem Fall, wo das gelesene Bild Zeichendaten sind und Bildelemente in der gelesenen Position eine Kante des Zeichens sind, ist die Dichte dieses Bildelements meistens eine Grauwertdichte. Dann setzt sich, wenn das Bild dem variablen Skalierungsprozess durch die Summierungs- und Multiplizierungsoperation in der Gleichung (1) unterworfen wird, die Grauwertdichte fort, und somit wird die Kante unklar.
  • Jedoch wird, in Übereinstimmung mit dem obigen Verfahren, wenn die Dichte Da des Bildelements A, das dem Bildelement P am nächsten liegt, eine Grauwertdichte ist (d. h. größer als 0 und kleiner als die maximale Dichte) und die Abfalldaten Sp der Bildelementdichte des Bildelements P Daten sind; die eine Beziehung Da < Dp < Db (positiv) darstellen, die Dichte Dp in einen Wert konvertiert, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößerung erhalten wird, und die Dichte Da wird auf 0 eingestellt, wohingegen, wenn die Dichte Da keine Grauwertdichte ist und die Abfalldaten Sp der Bildelementdichte des Bildelements P Daten sind, die eine Beziehung Db < Dp < Da (negativ) darstellen, die Dichte Da in ein einen Wert konvertiert wird, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößerung erhalten wird, und die Dichte Dp wird auf 0 eingestellt.
  • Deswegen wird die Dichte der beiden Bildelemente in dem Kantenabschnitt der Zeichendaten (Pulsbreite zum Ausgeben eines Lasers) dem variablen Skalierungsprozess unterworfen, so dass die Dichte des Bildelements innerhalb eines Zeichens gemäß einer Vergrößerung variiert wird, und die Dichte des Bildelements außerhalb des Zeichens 0 wird. Folglich wird der Kantenabschnitt der Zeichendaten weiter verstärkt und somit kann verhindert werden, dass der Kantenabschnitt der Zeichen unklar wird.
  • Es ist wünschenswert, dass das Bildverarbeitungsverfahren weiter aufweist: Den Schritt eines Ausgebens eines Lasers gemäß der Dichtedaten bezüglich des Zielbildelements nach dem Konvertierungsschritts, wobei in dem Laserausgangsschritt ein Laser zu dem Zielbildelement ausgegeben wird, welchem der Wert, der durch ein Multiplizieren der Grauwertdichte mit der Vergrößerung der verschiedenen Skalierung erhalten wird, gegeben ist, in einer Position, die zu einer Seite des Bildelements verschoben ist, wo die Dichte höher ist, auf der Grundlage der Abfalldaten der Bildelementdichte des Zielbildelements.
  • Mit anderen Worten weist, in dem Fall, wo das gelesene Bild Zeichendaten sind und das Bildelement an der gelesenen Position eine Kante des Bilds ist, wenn das Bildelement, das dem Prozess von beispielsweise 8 Bit/Bildelement unterworfen wurde, eine Grauwertdichte aufweist, das Bildelement die Dichte von 128, d. h. 80 H (H stellt eine hexadezimale Bezeichnung dar), auf. Deswegen werden in einer Bildau gabeeinrichtung, die ein Grauwertbild durch ein Variieren einer Pulsbreite eines Bildelements ausgibt, die Bilddaten von 80 H an der zentralen Position des Bildelements für einen Halbpunkt eines Bildelements erzeugt. Dann erscheint, in dem Fall, wo das Bildelement, auf welchem die Bilddaten für einen Halbpunkt an dieser zentralen Position erzeugt werden, dem Vergrößerungsprozess unterworfen wird, ein weißes Bildelement eines Grauwerts zwischen dem Bildelement und einem benachbarten Bildelement. Ein derartiges weißes Bildelement setzt sich pro Bildelement fort, und somit tritt eine so genannte Geisterkontur auf.
  • Jedoch wird, in Übereinstimmung mit dem obigen Verfahren, ein Laser für ein Zielbildelement ausgegeben, welchem der Wert, der durch ein Multiplizieren der Grauwertdichte mit der Vergrößerung erhalten wird, gegeben wird, an einer Position, die zu einer Seite des Bildelements verschoben ist, wo die Dichte höher ist, auf der Grundlage der Abfalldaten der Bildelementdichte des Zielbildelements.
  • Deswegen wird, wenn das Bildelement für den Kantenabschnitt der Zeichendaten dem variablen Vergrößerungsprozess gemäß einer Vergrößerung über das Bildverarbeitungsverfahren unterworfen wird, verhindert, dass die Geisterkontur zur Linken oder zur Rechten eines Bildelements an der Kante der Zeichendaten auftritt.
  • Es ist wünschenswert, dass das Bildverarbeitungsverfahren ein derartiges Verfahren ist, dass in dem Berechnungsschritt, wenn die Daten jedes interpolierten Bildelements von der Berechnungseinrichtung berechnet werden, die Bildsegmentationsdaten, die von der Bereichssegmentationseinrichtung erfasst werden, variabel skaliert werden, um so zusammen mit den skalierungsverarbeiteten Bilddaten ausgegeben zu werden.
  • Mit anderen Worten, in dem Fall, wo es gewünscht wird; dass die Bilddaten, die dem variablen Skalierungsprozess unterworfen wurden, in eine externe asynchrone Bildeingabe-/-ausgabeeinrichtung, wie etwa ein Faxgerät und ein Personalcomputer, zusammen mit den Bereichssegmentationsdaten ausgegeben werden, wenn auch die Bereichssegmentationsdaten dem variablen Skalierungsprozess nicht unterworfen werden, stimmt eine Anzahl von Bildelementen der skalierungsverarbeiteten Bilddaten nicht mit jenen der Bereichssegmentationsdaten überein. Aus diesem Grund können die Bereichssegmentationsdaten nicht verwendet werden.
  • Jedoch werden in Übereinstimmung mit dem obigen Verfahren die Bereichssegmentationsdaten, die durch die Bereichssegmentationseinrichtung erfasst werden, auch dem variablen Skalierungsprozess auf der Grundlage des Ergebnisses, das durch die Bereichssegmentationseinrichtung erfasst wird, unterworfen, um so zusammen mit den skalierungsverarbeiteten Bilddaten ausgegeben zu werden.
  • Deswegen kann eine Anzahl von Bildelementen der in der Vergrößerung variieren Bilddaten mit jenen der Bereichssegmentationsdaten übereinstimmen. Folglich können auch in dem Fall, wo diese Daten zu einer externen, asynchronen Bildeingabe-/-ausgabeeinrichtung, wie etwa ein Faxgerät und ein Personalcomputer, ausgegeben werden, die Bereichssegmentationsdaten verwendet werden.
  • Es ist wünschenswert, dass der variable Skalierungsprozess für die Bereichssegmentationsdaten in dem Berechnungsschritt auf der Grundlage des Ergebnisses durchgeführt wird, das von der Bereichssegmentationseinrichtung erfasst wird.
  • Folglich kann, da die Daten, die die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten darstellen, auch in die skalierungsverarbeiteten Bereichssegmentationsdaten gegeben werden, das skalierungsverarbeitete. Bild zu einer externen Bildeingabe-/-ausgabeeinrichtung, wie etwa einem Faxgerät und einem Personalcomputer, durch ein Kombinieren dieser Daten mit den Bereichssegmentationsdaten ausgegeben werden.
  • Es ist wünschenswert, dass das Bildverarbeitungsverfahren weiter aufweist Den Schritt eines gleichzeitigen Ausgebens der skalierungsverarbeiteten Bilddaten und der skalierungsverarbeiteten Bereichssegmentationsdaten nach dem Berechnungsschritt, wobei in dem Ausgabeschritt Anweisungsdaten, die eine Vorderseite und eine Hinterseite jeder Zeile vielfacher Bildelemente auf den Ausgangsdaten und ein Ende der Bilddaten darstellen, zusammen mit den skalierungsverarbeiteten Bilddaten und den skalierungsverarbeiteten Bereichssegmentationsdaten ausgegeben werden.
  • Mit anderen Worten sollte, in dem Fall, wo die skalierungsverarbeiteten Bilddaten zu einer externen, asynchronen Bildeingabe-/-ausgabeeinrichtung, wie etwa einem Faxgerät und einem Personalcomputer, ausgegeben werden, wenn die Daten, die eine Vorderseite und eine Hinterseite jeder Zeile und ein Ende der Bilddaten darstellen und ein Ende der Bilddaten darstellen, nicht in den vergrößerungsvariierten Bereichssegmentationsdaten existieren, sollte eine Anzahl von Bildelementen einer Zeile und eine Gesamtzahl von Zeilen zu einer anderen externen asynchronen Bildeingabe-/-ausgabeeinrichtung übertragen werden. Überdies sollte, auch in dem Fall, wo diese Übertragung ausgeführt wird, ein Zeilenzähler immer bereitgestellt werden.
  • Jedoch müssen in Übereinstimmung mit dem obigen Verfahren, da die Anweisungsdaten, die die Vorderseite und die Hinterseite jeder Zeile einer Vielzahl von Bildelementen auf den Ausgangsdaten und das Ende der Bilddaten darstellen, gleichzeitig ausgegeben werden, eine Anzahl von Bildelementen für eine Zeile und eine Gesamtzahl von Zeilen nicht zu einer externen synchronen Bildeingabe-/-ausgabeeinrichtung übertragen werden. Außerdem kann eine Installation eines Zeilenzählers vermieden werden.
  • Eine Bildverarbeitungsvorrichtung der vorliegenden Vorrichtung zur Skalierung eines eingegebenen Bilds, um so das skalierungsverarbeitete Bild auszugeben, ist dadurch gekennzeichnet, dass diese aufweist: Eine Bereichssegmentationseinrichtung zur Teilung des Eingangsbilds in Blöcke, die jeweils aus einer Vielzahl von Bildelementen bestehen, und zur Erfassung von Bereichssegmentationsdaten, die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten eines Blocks eines Zielbildelements pro Zielbildelement darstellen; und eine Berechnungseinrichtung zum Berechnen einer Dichte des Zielbildelements auf dem Ausgangsbild unter Verwendung einer Gleichung, in welcher eine Dichte einer Vielzahl benachbarter Bildelemente in der Nähe des Zielbildelements eingegeben wird,
  • wobei die Berechnungseinrichtung ein Gewicht der Dichte jedes benachbarten Bildelements in der Gleichung gemäß der Bereichssegmentationsdaten des Zielbildelements einstellt.
  • In Übereinstimmung mit der obigen Anordnung werden die Bereichssegmentationsdaten, die die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten in einem Bild darstellen, von der Bereichssegmentationseinrichtung erfasst, und die interpolierten Bildelementdaten pro Bildelement werden von der Berechnungseinrichtung gemäß der Gleichung berechnet, in welche die Dichte einer Vielzahl benachbarter Bildelemente in der Nähe des Zielbildelements eingegeben wird. Zu dieser Zeit kann ein Gewicht der Dichte jedes benachbarten Bildelements in der Gleichung auf der Grundlage des Ergebnisses eingestellt werden, das von der Bereichssegmentationseinrichtung erfasst wird.
  • Deswegen wird der Abschnitt, wo die Wahrscheinlichkeit von Zeichen hoch ist, durch die Nächste-Nachbar-Interpolation oder dergleichen vergrößert, so dass verhindert werden kann, dass die Kante der vergrößerten Zeichen unklar wird. Unterdessen wird der Abschnitt, wo die Wahrscheinlichkeit einer Fotografie hoch ist, durch die Interpolation erster bis dritter Grade oder dergleichen vergrößert, so dass verhindert wird, dass eine Pseudokontur auf der vergrößerten Fotografie auftritt.
  • Folglich kann, auch in dem Fall, wo Zeichen, Fotografien und Gitterpunkte in einem Bild, das von einem Scanner gelesen wird, zusammen existieren, eine Verschlechterung einer Bildqualität durch den variablen Skalierungsprozess gemäß der Zeichen, Fotografien und Gitterpunkte verhindert werden.
  • Für ein vollständigeres Verständnis der Natur und Vorteile der Erfindung sollte Bezug auf die folgende detaillierte Beschreibung genommen werden, die in Verbindung mit den zugehörigen Zeichnungen genommen wird.
  • Kurze Beschreibung der Zeichnungen
  • In den Zeichnungen zeigen:
  • Fig. 1 ein Blockdiagramm, das eine Anordnung eines digitalen Kopiergeräts als eine Bildverarbeitungsvorrichtung zeigt, die einen Aspekt der vorliegenden Erfindung veranschaulicht;
  • Fig. 2 eine erklärende Zeichnung, die eine Bildverarbeitungsfunktion des digitalen Kopiergeräts erklärt;
  • Fig. 3 eine erklärende Zeichnung, die einen Berechnungsprozess eines variablen Skalierungsabschnitts in dem digitalen Kopiergerät zeigt;
  • Fig. 4 ein Blockdiagramm, das einen Ausgabesteuerabschnitt und einen Bildausgabeabschnitt in dem digitalen Kopiergerät zeigt;
  • Fig. 5(a) bis 5(c) erklärende Zeichnungen, die Ausgangsbeispiele eines Pulsbreitenmodulators auf jedem Bildelement zeigen: Fig. 5(a) ist eine Zeichnung, die einen Ausgang des Pulsbreitenmodulators in dem Fall zeigt, wo Grauwertdaten verschoben nach links ausgegeben werden; Fig. 5 (b) ist eine Zeichnung, die einen Ausgang des Pulsbreitenmodulators in dem Fall zeigt, wo Grauwertdaten verschoben nach rechts ausgegeben werden; und Fig. 5(c) ist eine Zeichnung, die einen Ausgang des Pulsbreitenmodulators in dem Fall zeigt, wo Grauwertdaten zentriert ausgegeben werden;
  • Fig. 6 einen Graphen, der ein ursprüngliches Bild zeigt, das einen Grauwert aufweist;
  • Fig. 7 einen Graphen, der eine Dichte gelesener Bildelemente zeigt, wenn das in Fig. 6 gezeigte ursprüngliche Bild gelesen ist;
  • Fig. 8 einen Graphen, der einen Ausgang in dem Fall eines Verwendens einer Nächste-Nachbar-Interpolation zeigt, wenn die gelesenen Bildelemente, die in Fig. 7 gezeigt sind, zweifach vergrößert sind;
  • Fig. 9 einen Graphen, der einen Ausgang in dem Fall eines Verwendens einer Interpolation ersten Grads zeigt, wenn die gelesenen Bildelemente, die in Fig. 7 gezeigt sind, zweifach vergrößert sind;
  • Fig. 10 einen Graphen, der gelesene Dichtedaten zeigt, wenn ein Bild, in welchem Zeichen und Fotografien zusammen existieren, gelesen ist;
  • Fig. 11 einen Graphen, der einen Ausgang in dem Fall eines Verwendens der Nächste-Nachbar-Interpolation zeigt, wenn die gelesenen Bildelemente, die in Figur. 10 gezeigt sind, zweifach vergrößert sind;
  • Fig. 12 einen Graphen, der einen Ausgang in dem Fall eines Verwendens einer Interpolation ersten Grads zeigt, wenn die gelesenen Bildelemente, die in Fig. 10 gezeigt sind, zweifach vergrößert sind;
  • Fig. 13 einen Graphen, der einen Ausgang in dem Fall eines Verwendens der Nächste-Nachbar-Interpolation in einem Abschnitt, von dem beurteilt wird, dass er Zeichen enthält, und eines Verwendens der Interpolation ersten Grads in einem Abschnitt, von dem beurteilt wird, dass er eine Fotografie enthält, zeigt, wenn die gelesenen Bildelemente, die in Fig. 10 gezeigt sind, zweifach vergrößert sind;
  • Fig. 14 einen Graphen, der die gelesenen Dichtedaten zeigt, wenn ein Bild, in welchem Zeichen und Fotografien zusammen existieren, gelesen ist;
  • Fig. 15 einen Graphen, der einen Ausgang in dem Fall eines Verwendens der Nächste-Nachbar-Interpolation zeigt, wenn die gelesenen Bildelemente, die in Fig. 14 gezeigt sind, auf die Hälfte verkleinert sind;
  • Fig. 16 einen Graphen, der einen Ausgang in dem Fall eines Verwendens der Interpolation ersten Grads zeigt, wenn die gelesenen Bildelemente, die in Fig. 14 gezeigt sind, auf die Hälfte verkleinert sind;
  • Fig. 17 einen Graphen; der einen Ausgang in dem Fall eines Verwendens der Nächste-Nachbar-Interpolation in einem Abschnitt, von dem beurteilt wird, dass er Zeichen enthält, und eines Verwendens der Interpolation ersten Grads in einem Abschnitt, von dem beurteilt wird, dass er eine Fotografie enthält, zeigt, wenn die gelesenen Bildelemente, die in Fig. 14 gezeigt sind, auf 1/2 verkleinert sind;
  • Fig. 18 einen Graphen, der einen Ausgang in dem Fall eines Vorgebens eines Kantenprozesses für einen Abschnitt zeigt, von dem beurteilt wird, dass er Zeichen enthält, in Fig. 13;
  • Fig. 19(a) bis 19(c) erklärende Zeichnungen, die Effekte eines EIN-Signalpositionsbetriebs in den Bildelementen mittels des Pulsbreitenmodulators zeigen: Fig. 19(a) ist eine. Zeichnung; die Dichtewerte (256 Grauwerte) der Bildelemente zeigt;
  • Fig. 19(b) ist eine Zeichnung, die einen Ausgang zeigt, wenn Abfalldaten einer Bildelementdichte in dem Zentrum fixiert sind; und Fig. 19(c) ist eine Zeichnung, die einen Ausgang zeigt, wenn die Pulsbreite verschoben zu der Seite ausgegeben wird, wo die Dichte hoch ist, auf der Grundlage von Daten, die den Dichteabfall darstellen;
  • Fig. 20 ein Blockdiagramm, das eine Anordnung des digitalen Kopiergeräts zeigt, das einen Aspekt der vorliegenden Erfindung veranschaulicht;
  • Fig. 21 ein Blockdiagramm, das eine Anordnung eines variablen Skalierungsabschnitts in dem digitalen Kopiergerät zeigt;
  • Fig. 22(a) und 22(b) erklärende Zeichnungen, die Zustände zeigen, dass, wenn skalierungsverarbeitete Bilddaten und skalierungsverarbeitete Bereichssegmentationsdaten gleichzeitig ausgegeben werden, ihre jeweiligen Anweisungsdaten gleichzeitig ausgegeben werden: Fig. 22(a) ist eine Zeichnung, die die Vorderseite jeder Zeile jeweiliger Daten zeigt, die in den variablen Vergrößerungsverarbeitungsabschnitt eingegeben sind; und
  • Fig. 22(b) ist eine Zeichnung, die die Vorderseite jeder Zeile jeweiliger Daten zeigt, die von dem variablen Vergrößerungsabschnitt ausgegeben werden;
  • Fig. 23(a) und 23(b) erklärende Zeichnungen, die Zustände zeigen, dass, wenn skalierungsverarbeitete Bilddaten und skalierungsverarbeitete Bereichssegmentationsdaten gleichzeitig ausgegeben werden, ihre jeweiligen Anweisungsdaten gleichzeitig ausgegeben werden: Fig. 23(a) ist eine Zeichnung, die die Hinterseite jeder Zeile jeweiliger Daten zeigt, die in den variablen Skalierungsabschnitt eingegeben sind; und Fig. 23(b) ist eine Zeichnung, die die Hinterseite jeder Zeile jeweiliger Daten zeigt, die von dem variablen Skalierungsabschnitt ausgegeben werden;
  • Fig. 24(a) und 24(b) erklärende Zeichnungen, die Zustände zeigen, dass, wenn skalierungsverarbeitete Daten und skalierungsverarbeitete Bereichssegmentationsdaten gleichzeitig ausgegeben werden, ihre jeweiligen Anweisungsdaten gleichzeitig ausgegeben werden: Fig. 24(a) ist eine Zeichnung, die einen Endabschnitt von Bilddaten jeweiliger Daten zeigt, die in den variablen Skalierungsabschnitt eingegeben werden; und Fig. 24(b) ist eine Zeichnung, die einen Endabschnitt von Bilddaten jeweiligen Daten zeigt, die von dem variablen Vergrößerungsverarbeitungsabschnitt ausgegeben werden.
  • Detaillierte Beschreibung der bevorzugten Ausführungsform
  • Das Folgende beschreibt eine Ausführungsform eines digitalen Kopiergeräts, die für das Verständnis der vorliegenden Erfindung nützlich ist, unter Bezugnahme auf die Fig. 1 bis 17.
  • Wie in Fig. 1 gezeigt, ist ein digitales Kopiegerät als eine Bildverarbeitungsvorrichtung der vorliegenden Erfindung mit einem Bildeingabeabschnitt 1, einem Schattierungskorrektur- /automatischen Belichtungsabschnitt 2, einem Bereichssegmentationsabschnitt 3 als eine Bereichssegmentationseinrichtung, einem variablen Skalierungsabschnitt 4 als eine Berechnungseinrichtung, einem &gamma;-Korrekturabschnitt 5, einem Ausgabesteuerabschnitt 6 und einem Bildausgangsabschnitt 7 versehen.
  • Der Bildeingabeabschnitt 1 liest ein Dokumentenbild von einem Scanner, der nicht gezeigt ist, um so das gelesene Bild in digitale Eingangsbilddaten 1a zu konvertieren. Der Schattierungskorrektur-/automatische Belichtungsabschnitt 2 verarbeitet eine Schattierungskorrektur und eine automatische Belichtung der Eingangsbilddaten 1a.
  • Während Bezug genommen wird auf eine Dichte etc. von Bildelementen in der Nähe von Zielbildelementen der Bilddaten 2a, die der Schattierungskorrektur und der automatischen Belichtung unterworfen wurden, erfasst der Bereichssegmentationsabschnitt eine Wahrscheinlichkeit von Zeichen, eine Wahrscheinlichkeit von Fotografien und eine Wahrscheinlichkeit von Gitterpunkten der Zielbildelemente der Bilddaten 2a, um so Bilddaten 3a und Bereichssegmentationsdaten 3b auszugeben.
  • Die Bereichssegmentationsdaten 3b, die die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten darstellen, nehmen einen Wert X an, der innerhalb des Bereichs von 0 bis N-1 (N: eine Ganzzahl nicht geringer als 2) fällt. Je kleiner der Wert X ist, desto höher ist die Wahrscheinlichkeit von Zeichen, und je größer der Wert X ist, desto höher sind die Wahrscheinlichkeiten von Fotografien und Gitterpunkten. In der vorliegenden Ausführungsform wird beispielsweise N = 8 angenommen. Deswegen nehmen, wenn die Wahrscheinlichkeiten von Fotografien und Gitterpunkten am höchsten sind, die Bereichssegmentationsdaten 3b den Wert X = 7 an.
  • Das Folgende beschreibt eine Technik zum Erfassen der Wahrscheinlich keiten von Zeichen, Fotografien und Gitterpunkten in jedem Bildelement. Die Wahrscheinlichkeiten von Zeichen, etc. kann durch den Stand der Technik erfasst werden, aber in der vorliegenden Erfindung werden bezüglich des Stands der Technik einige Verbesserungen ausgeführt.
  • Wie im Stand der Technik, existiert beispielsweise eine Lehre eines Teilens eines Bilds in Blöcke, die aus einer Vielzahl von Bildelementen bestehen, und eines Identifizierens des Bilds pro Block unter Verwendung einer Musteranpassung oder von Merkmalsparametern, die Eigenschaften eines Zeichenbilds und eines Punktbilds darstellen, um so die Wahrscheinlichkeiten von Zeichen etc. zu erfassen.
  • Da das Bildidentifikationsverfahren, das die Musteranpassung verwendet, eine Aufbereitung vieler Muster erfordert, tritt ein Problem auf, dass eine Speicherkapazität enorm wird, und dass diesem Verfahren eine Vielseitigkeit fehlt. Aus diesem Grund wird das Bildidentifikationsverfahren, das die Merkmalsparameter verwendet, gegenwärtig zunehmend angewandt.
  • Als das Bildidentifikationsverfahren, das die Merkmalsparameter verwendet, offenbart die ungeprüfte japanische Patentanmeldung Nr. 61-194968/1986 (Tokukaisho 61-194968) ein fotografisches Gitterpunkt-Bereichsidentifikationsverfahren von einzeln gemessenen Änderungen in Signalpegeln zweier Bildelemente, die sich in zwei Fällen räumlich fortsetzen, wo sich die beiden Bildelementen in einer horizontalen Abtastrichtung fortsetzen, und fährt in einer vertikalen Abtastrichtung fort und vergleicht Gesamtsummen gemessener Beträge in den Blöcken jeweils mit vorbestimmten Werten, um so das Bild gemäß der verglichenen Ergebnisse zu identifizieren.
  • Zusätzlich offenbart, als ein weiteres Verfahren unter Verwendung der Merkmalsparameter, die ungeprüfte japanische Patentanmeldung Nr.. 62-14786.0/1987 (Tokukaisho 62-147860) ein Grauwert-Fax-Signalverarbeitungsverfahren. In diesem Verfahren wird ein Unterschied zwischen einem maximalen Signalpegel und einem minimalen Signalpegel in den Blöcken erhalten, und der Differenzwert wird mit einem vorbestimmten Wert verglichen. Dann wird, wenn der Pegelunterschied kleiner als der vorbestimmte Wert ist, ein Beurteilungssignal, das darstellt, dass der Signalpegel in einem Abschnitt, der eine Fotografie einschließt, geringfügig geändert wird, ausgegeben, wohingegen, wenn der Pegelunterschied größer als der vorbestimmte Wert ist, ein Beurteilungssignal, das darstellt; dass der Signalpegel in einem Abschnitt, der eine Kontur von Zeichen und eine Fotografie oder eine Gitterpunktfotografie einschließt, intensiv geändert wird, ausgegeben wird. Überdies wird eine Anzahl von Änderungen zwischen zwei Signalpegeln der Bildelemente, die sich räumlich fortsetzen, mit einem vorbestimmten Wert gemäß einer Reihenfolge eines Zugriffs verglichen, der in den Blöcken vorbestimmt ist, und gemäß der verglichenen Ergebnisse wird, wenn die Anzahl von Änderungen größer als der vorbestimmte Wert ist, ein Beurteilungssignal, das darstellt, dass der Block ein Gitterpunktabschnitt ist, ausgegeben, wohingegen, wenn die Anzahl von Änderungen kleiner als der vorbestimmte Wert ist, ein Beurteilungssignal, das darstellt, dass der Block nicht ein Gitterpunktabschnitt ist, ausgegeben wird. Dann werden die Bildelemente in den Blöcken einem Signalprozess gemäß der jeweiligen Beurteilungssignale unterworfen.
  • Als ein Bildprozess, der einen Bildqualität verbessert, wird ein Raumfilterungsprozess herkömmlicherweise verwendet. Als ein Bildverarbeitungsverfahren zum Verbessern der Bildqualität unter Verwendung des Filterprozesses offenbart beispielsweise die geprüfte japanische Patentanmeldung Nr. 5-147860/1993 (Tokukohei 5-147860) ein Grauwert-Fax-Signalverarbeitungsverfahren. In diesem Verfahren werden ein Raumfilter, der ein Bildsignal glatt macht, und ein Raumfilter, der ein Bildsignal verstärkt, aufbereitet, und ein Signal, das das Bildsignal glättete, und/oder ein Signal, das das Bildsignal verstärkte, werden/wird auf der Grundlage eines Ausgangs einer erkannten Erfassungseinrichtung, die einen Kantenabschnitt des Bildsignals erfasst, gemischt oder gewählt. Überdies ist in der ungeprüften japanischen Patentanmeldung Nr. 63-246076/1988 (Tokukaisho 63-2460T6) ein weiteres Verfahren offenbart. In diesem Verfahren wird ein Raumfilter, wie etwa eine Filterverarbeitungseinrichtung, die eine Gitterpunktkomponente entfernt, aufbereitet, und wenn ein Kantenabschnitt von einer Kantenextraktionseinrichtung, die einen Kantenabschnitt des Bildsignals extrahiert, nicht extrahiert wird, wird ein Signal, das einem Filterungsprozess zum Entfernen der Gitterpunktkomponente unterworfen worden ist, ausgegeben, wohingegen, wenn ein Kantenabschnitt extrahiert wird, ein Signal, das dem Filterungsprozess noch nicht unterworfen worden ist, ausgegeben wird.
  • Jedoch weist das oben erwähnte herkömmliche Bildidentifikationsverfahren einen Nachteil dahingehend auf, dass eine Fehlbeurteilung der Bildidentifikation auftritt.
  • Der Grund für eine Fehlbeurteilung der Bildidentifikation wird in ungeeigneten Merkmalsparametern gesehen, nämlich darin, dass die Merkmalsparameter jeweilige Eigenschaften der Bereiche nicht ausreichend darstellen. Daneben verursachen ein ungeeignetes Klassifizierungsverfahren für die Bildidentifikation gemäß eines Betrags von Merkmalen, die durch die Merkmalsparameter erhalten werden, und eine ungeeignete Auswahl eines Schwellenwerts für die Klassifikation auch die Fehlinterpretation der Bildidentifikation.
  • In dem herkömmlichen Verfahren eines Klassifizierens und einer Identifikation der Blöcke gemäß eines Betrags der Merkmale, die von den Merkmalsparametern erhalten werden, um so den Filterungsprozess auf Zielbildelementen in den Blöcken unter Verwendung eines aufbereiteten Raumfilters gemäß der identifizierten Ergebnisse auszuführen, wird ein großer Einfluss auf eine Bildqualität zu der Zeit einer Fehlinterpretation ausgeübt, und ein Betrag von Merkmalen, die den Zielbildelementen zu eigen sind, gibt nur begrenzte Filtereigenschaften wieder. Aus diesem Grund tritt ein Problem auf, dass ein empfindlicher Prozess, wie der Filterungsprozess, am geeignetsten für die Zielbildelemente nicht durchgeführt werden kann.
  • Deswegen wird in der vorliegenden Ausführungsform, wie in der EP-A-0 710 004 (japanische Patentanmeldung Nr. 6-264232/1994) durch die Erfinder der vorliegenden Erfindung offenbart, ein Bildsignal, das durch ein Abtasten eines Dokuments erhalten wird, einem Identifikationsprozess unterworfen, der identifiziert, ob jedes Bildelement in einem Zeichenbereich, einen fotografischen Bereich oder einem Gitterpunktbereich existiert, und wenn jedes Bildelement einem Bildprozess gemäß der Ergebnisses des Identifikationsprozesses unterworfen ist, werden bestimmte Bildelementdaten des Bildsignals als ein Zielbildelement verwendet, und Bilddaten in einem lokalen Block, der aus dem Zielbildelement und einer Vielzahl von Bildelementen in der Nähe des Zielbildelements besteht, werden in einem Blockspeicher gespeichert.
  • Als Nächstes wird gemäß der Bilddaten in dem lokalen Block, die in dem Blockspeicher gespeichert sind, eine Vielzahl von Merkmalsparametern, die jeweils Merkmale des Zeichenbereichs, des fotografischen Bereichs und des Gitterpunktsbereichs darstellen, erhalten. Ein mehrdimensionaler Identifikationsprozess wird durch eine Identifikationseinrichtung ausgeführt, die jeweils den Zeichenbereich, den fotografischen Bereich und den Gitterpunktbereich wählt, die durch Grenzlinien geteilt sind, die eine nichtlineare Eigenschaft in einer mehrdimensionalen Ebene einschließen, die eine Achse der obigen Merkmalsparameter einschließt, und die aus einem neuronalen Netz besteht, das zuvor lernte, jedes Merkmal der mehrfachen Merkmalsparameter zu empfangen und eine Bereichsidentifikationsinformation gemäß jeder Eingabe auszugebene Der Identifikationsprozess wird nämlich nicht durch ein Einstellen eines Schwellenwertes für jedes Merkmal ausgeführt, sondern auf der Grundlage von Grenzlinien, die eine nichtlineare Eigenschaft einschließen, auf der Grundlage welcher der mehrdimensionale Raum durch Merkmalsparameter geteilt wird.
  • Gemäß dem beschriebenen Verfahren kann, auch wenn eine Identifikation mit einer gewünschten Genauigkeit nicht durchgeführt werden kann, wenn nur ein Merkmalsparameter berücksichtigt wird, indem mehrfache. Merkmalsparameter berücksichtigt werden, die Identifikation des Bereichs, wo da Zielbildelement angeordnet ist, mit einer verbesserten Genauigkeit durchgeführt werden. Außerdem kann, da ein mehrdimensionaler Identifikationsprozess unter Verwendung eines neuronalen Netzes, das jeden Eingang mehrfacher Parameter empfängt, durchgeführt wird, eine Identifikation mit sehr hoher Präzision durchgeführt werden.
  • Zusätzlich sind die Bereichsidentifikationsinformation, die von der Identifikationseinrichtung ausgegeben wird, Daten, die jeweils Wahrscheinlichkeiten des Zeichenbereichs, des fotografischen Bereichs und des Gitterpunktbereichs in einem Bereich des Blocks, in welchem das Zielbildelement existiert, durch Bezugszeichen darstellen. Die Identifikationseinrichtung gibt nämlich eine Wahrscheinlichkeit von Zeichen, die ein Bezugszeichen ist, das einen Zeichenbereich in einem Bereich eines Blocks darstellt, wo ein Zielbildelement existiert, eine Wahrscheinlichkeit von Fotografien, die ein Bezugszeichen ist, das einen fotografischen Bereich in einem Bereich eines Blocks darstellt, wo ein Zielbildelement existiert, und eine Wahrscheinlichkeit von Gitterpunkten, die ein Bezugszeichen ist, die einen fotografischen Bereich in einem Bereich eines Blocks darstellt, wo ein Zielbildelement existiert, aus.
  • Gemäß der obigen Weise werden die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten in jedem Bildelement erfasst. Dann sind Daten, die zum Erhalten der Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten von den Merkmalsparametern erhalten werden (beispielsweise ein Unterschied zwischen dem maximalen Dichtewert und dem minimalen Dichtewert in einem bestimmten Block für Bildelemente in der Nähe des Zielbildelements), Bereichssegmentationsdaten, und die Bereichssegmentationsdaten werden durch das zuvor erwähnte Verfahren bestimmt.
  • Dann können, wie oben erwähnt, in der vorliegenden Ausführungsform die oben erwähnten Daten, nämlich die Bereichssegmentationsdaten 3b, einen Wert X annehmen, der innerhalb des Bereichs von 0 bis N-1 (N: eine Ganzzahl nicht geringer als 2) annehmen.
  • In dem Raumfilterungsprozess, der in der EP-A-0 710 004 vorgeschlagen wird, werden verschiedene Filter, in welchen Filterkoeffizienten vorbestimmt wurden, auf der Grundlage des Identifikationssignals gewählt. Konkreter werden die Filterkoeffizienten pro verarbeitetes Bildelement auf der Grundlage der Daten bestimmt, die eine Wahrscheinlichkeit jedes Bereichs durch Bezugszeichen darstellen, so dass der Filterungsprozess durchgeführt wird.
  • Als Nächstes führt der variable Skalierungsabschnitt 4 den variablen Skalierungsprozess auf den eingegebenen Bilddaten 3a und den Bereichssegmentationsdaten 3b durch, vergrößert oder verkleinert nämlich die eingegebenen Bilddaten 3a und die Bereichssegmentationsdaten 3b, um so skalierungsverarbeitete Bilddaten 4a, die skalierungsverarbeitete Bilddaten sind, und vergrößerungsvariierte Bereichssegmentationsdaten 4b, die skalierungsverarbeitete Bereichssegmentationsdaten sind, auszugeben, und beurteilt einen Abfall einer Dichte eines gegenwärtigen Bildelements durch ein Beziehen auf eine Umgebung des Bildelements, um so spezielle Daten 4c auszugeben.
  • Zu der Zeit des variablen Skalierungsprozesses wird eine Interpolation, die durch einen Operationsausdruck dargestellt wird; der später erwähnt wird, als die Bilddaten 3a verwendet, und eine Nächste-Nachbar-Interpolation wird zum Verarbeiten der Bereichssegmentationsdaten 3b verwendet. Überdies bestehen die speziellen Daten 4c aus Anweisungsdaten, die die Vorderseite und Hinterseite einer Zeile der Bereichssegmentationsdaten 3b und eine Ende der Bilddaten darstellen, und Daten, die einen Abfall einer Dichte eines Bildelements, das gegenwärtig verarbeitet wird, darstellen (d. h. Abfalldaten einer Bildelementdichte").
  • Zusätzlich werden die Abfalldaten der Bildelementdichte als Daten ausgegeben, die "Kein Abfall" darstellen, außer dass die Bereichssegmentationsdaten 3b eine höhere Wahrscheinlichkeit von Zeichen aufweisen. Der variable Skalierungsabschnitt 4 gibt "Kein Abfall" als die Abfalldaten der Bildelementdichte aus, außer dass die Bereichssegmentationsdaten 3b einen Wert aufweisen, der eine hohe Wahrscheinlichkeit von Zeichen darstellt (hier, 0).
  • Da der variable Skalierungsprozess für ein Bild in der vertikalen Abtastrichtung eines digitalen Kopiergeräts durch ein Ändern einer Geschwindigkeit eines optischen Systems eingestellt wird, werden die Bilddaten 3a dem variablen Skalierungsprozess durch den variablen Vergrößerungsverarbeitungsabschnitt 4 nur in der horizontalen Abtastrichtung des digitalen Kopiergeräts unterworfen.
  • Der &gamma;-Korrekturabschnitt 5 führt den &gamma;-Korrekturprozess auf den eingegebenen skalierungsverarbeiteten Bilddaten 4a durch.
  • Der Ausgabesteuerabschnitt 6 wird auch als ein Pulsbreitenmodulator bezeichnet und steuert eine Ausgabe eines Bilds. Der Bildausgabeabschnitt 7 gibt einen Laser auf der Grundlage eines Signals der Ausgangsbilddaten 6a aus, die in den Bildausgabeabschnitt T eingegeben werden.
  • In dem digitalen Kopiergerät der vorliegenden Erfindung beste hen die Eingangsbilddaten 1a, die Bilddaten 2a und 3a, die skalierungsverarbeiteten Bilddaten 4a und die skalierungsverarbeiteten, &gamma;-korrigierten Bilddaten 5a jeweils aus 8 Bit pro Bildelement (jedes Bildelement nimmt nämlich einen Wert von 256 ein). Überdies sind die Ausgangsbilddaten 6ä eine Ansammlung von Signalen 256 Pulsen pro Bildelement. Der Ausgabesteuerabschnitt 6 schafft Daten derart, wie viele Pulse von 256 Pulsen, die durch ein Teilen eines Bildelements durch 256 erhalten werden, eingeschaltet ist, auf der Grundlage eines Werts der eingegebenen, skalierungsverarbeiteten, &gamma;-korrigierten Bilddaten 5a und stellt eine Dichte durch ein Ausgeben der geschaffenen Daten dar.
  • Zusätzlich bestehen die Bereichssegmentationsdaten 3b und die skalierungsverarbeiteten Segmentationsdaten 4b jeweils aus 3 Bit pro Bildelement (jedes Bildelement nimmt nämlich einen Wert von 8 ein). Weiter bestehen die speziellen Daten 4c aus einer Gesamtheit von 5 Bit 2 Bit von Anweisungsdaten, die die Vorderseite und Hinterseite einer Zeile und ein Ende von Bilddaten darstellen; und 3 Bit von Abfalldaten der Bildelementdichte in einem Bildelement, das gegenwärtig verarbeitet wird. Außerdem sind die, speziellen Daten 4c mit den skalierungsverarbeiteten Bereichssegmentationsdaten 4b kombiniert, um so einen Wert von 8 Bit pro Bildelement anzunehmen.
  • Das Folgende beschreibt ein Bildverarbeitungsverfahren, das sich auf den variablen Skalierungsprozess in dem digitalen Kopiergerät bezieht, das die obige Anordnung aufweist.
  • Wie in Fig. 2 gezeigt wird, wenn eine Dichte an einer Position P eines Bildelements nach dem variablen Skalierungsprozess, nämlich eine Ausgangsbildelementdichte Dp bestimmt wird, eine einfache Summations- und Multiplikationsoperation durchgeführt, indem ein Bildelement A, das eine Dichte Da und Bereichssegmentationsdaten Xa aufweist und das nächste zu dem Bildelement P ist (d. h. "Nächste-Nachbar-Bildelement"), ein Bildelement B, das eine Dichte Db und Bereichssegmentationsdaten 2% aufweist und das zweitnächste zu dem Bildelement P ist (d. h. "Zweitnächste-Nachbar-Bildelement"), und Abstände PA und PB zwischen den Bildelementen P, A und B verwendet werden.
  • Die obige Summations- und Multiplikationsoperation wird in dem variablen Skalierungsabschnitt 4 durchgeführt.
  • Wie in Fig. 3 gezeigt, werden die Bereichssegmentationsdaten 2% und die Dichte Da in dem Nächste-Nachbar-Bildelement A und die Bereichssegmentationsdaten Xb und die Dichte Db in dem Zweitnächste-Nachbar-Bildelement B in den variablen Skalierungsabschnitt 4 eingegeben. Ausgänge des variablen Skalierungsabschnitts 4 sind Ausgangsbildelement-Bereichssegmentationsdaten Xp als die vergrößerungsvariierten Bereichssegmentationsdaten 4b, eine Ausgangsbildelementdichte Dp, Daten, die eine Position des Ausgangsbildelements darstellen, die in dem Ausgabesteuerabschnitt 6 verwendet wird, d. h. Abfalldaten Sp einer Bildelementdichte, und Bits zum Steuern der Anweisungsdaten; die die Vorderseite und Hinterseite einer Zeile und das Ende von Bilddaten darstellen.
  • In dem variablen Skalierungsabschnitt 4 wird, wenn die Ausgangsbildelement-Bereichssegmentationsdaten 2% berechnet werden, eine Beziehung 2% 2% durch die Nächste-Nachbar-Interpolation erfüllt. Die Nächste-Nachbar-Interpolation verwendet nämlich direkt Daten eines Bildelements, die in dem nächsten Nachbar existieren, als die Ausgangsdaten des Bildelements.
  • Unterdessen wird die Ausgangsbildelementdichte Dp gemäß der folgenden Gleichung berechnet.
  • (1-K) · Da + K · Db........................(1)
  • (Hier, K = (Xp/IV-1) · (PA/(PA + PB)).......... (2)
  • In der vorliegenden Ausführungsform wird, da eine Anzahl von Trennungen der Bereichssegmentationsdaten auf 8 eingestellt ist, der Wert N-1 in der Gleichung (2) gemäß der Gleichung N-1 = 8 - 1 = 7 berechnet.
  • Wenn die Ausgangsbildelement-Bereichssegmentationsdaten Xp einen Wert annehmen, der darstellt, dass die Wahrscheinlichkeit von Zeichen am höchsten ist, nämlich Xp = 0, wird die Gleichung (1) wie folgt:
  • Dp = Da
  • und somit stellt die Gleichung (1) die Nächste-Nachbar-Interpolation dar. Die Nächste-Nachbar-Interpolation verwendet nämlich direkt die Dichte des Bildelements A als die Dichte des Ausgangsbildelements D.
  • Zusätzlich wird, wenn die Ausgangsbildelement-Bereichssegmentationsdaten Xp einen Wert annehmen, der die höchste Wahrscheinlichkeit von Fotografien darstellt, nämlich Xp = N-1 = 7, die Gleichung (1) wie folgt:
  • Dp = (PB·Da + PA·Db)/(PA + PB)
  • und somit stellt die Gleichung (1) die Interpolation ersten Grads dar. Die Interpolation ersten Grads verwendet nämlich ein linear gewichtetes Mittel eines Wichtens der Dichte des Bildelements A mit der Dichte des Bildelements B, wenn die Dichte des Ausgangsbildelements D bestimmt wird.
  • Als Nächstes ist, wenn XP = 0, nämlich in dem Bereichssegmentationsprozess beurteilt wird, dass der Block eines Bildelements Zeichen sind, die Beziehung Da < Dp < Db erfüllt. Überdies werden, wenn Dp auf der linken Seite von Da liegt, Daten, die die Position eines Ausgangsbildelements in einem Bildelement darstellen, d. h. die Abfalldaten Sp der Bildelementdichte, Daten, die darstellen, dass ein Bildelement an einer Position ausgegeben wird, die zur Linken verschoben ist, nämlich Sp = 01B (B ist eine binäre Anzeige).
  • Unterdessen wird, wenn Xp = 0, Da > Dp > Db, und Dp auf der rechten Seite von Da liegt, Sp Daten, die darstellen, dass ein Bildelement an einer Position ausgegeben wird, die zu der Rechten verschoben ist, nämlich Sp = 10B. Außerdem wird, wenn Xp = 0 und die Bedingungen von Da, Db und Dp anders als oben ist, Sp Daten, die darstellen, dass ein Bildelement an einer zentralen Position ausgegeben wird, nämlich Sp = 00B.
  • Zusätzlich werden, wenn Xp &ne; 0, nämlich in dem Bereichssegmentationsprozess beurteilt wird, dass die Abfalldaten Sp der Bildelementdichte nicht Zeichen sind, SP Daten, die darstellen, dass ein Bildelement an einer zentralen Position ausgegeben wird, nämlich Sp = 00B.
  • Wenn ein Ausgangsbildelement P eine Vorderseite oder eine Hinterseite einer Zeile oder ein Ende einer Seite ist, werden entsprechende Anweisungsdaten zu den Abfalldaten Sp der Bildelementdichte addiert, so dass die speziellen Daten 4c ausgegeben werden.
  • Wie in Fig. 1 gezeigt, werden die Daten der Ausgangsbildelemente P, nämlich die skalierungsverarbeiteten Bilddaten 4a, die skalierungsverarbeiteten Bereichssegmentationsdaten 4b und die speziellen Daten 4c jeweils in den Steuerabschnitt 6 eingegeben, nachdem die skalierungsverarbeiteten Bilddaten 4a der &gamma;-Korrektur unterworfen werden.
  • Das Folgende beschreibt einen detaillierten Betrieb des Ausgabesteuerabschnitt 6.
  • Wie in Fig. 4 gezeigt, wird in dem Ausgabesteuerabschnitt 6 eine Pulsbreite von einem Pulsbreitenmodulator 16 moduliert.
  • Eingänge des Pulsbreitenmodulators 16 sind Bilddaten von 8 Bit pro Bildelement, die aus den skalierungsverarbeiteten, &gamma;- korrigierten Bilddaten 5a und den vergrößerungsvariierten Bereichssegmentationsdaten 4b bestehen, und Abfalldaten der Bildelementdichte von 3 Bit pro Bildelement, die in den speziellen Daten 4c eingeschlossen sind.
  • Die Bilddaten und die Abfalldaten der Bildelementdichte werden synchron in den Pulsbreitenmodulator parallel eingegeben. Ausgänge des Pulsbreitenmodulators 16 sind serielle Videodaten, die in 256 pro Bildelement geteilt sind. Der Pulsbreitenmodulator 16 steuert eine Laser des Bildausgabeabschnitts 7 gemäß der Pulse eines EIN-Signals eines 1/256-Bildelements auf der Grundlage der Eingangsbilddaten von 8 Bit pro Bildelement, nämlich mit einem Wert von 256, und steuert die Dichte eines Bildelements in 256 Schritten.
  • Zusätzlich bezieht sich der Pulsbreitenmodulator 16 auf die Abfalldaten der Dichte, um so eine Position eines Bildelements zu bestimmen, wo zugelassen wird, dass kontinuierliche EIN- Signale erzeugt werden. Es wird nämlich, wenn die Abfalldaten Sp der Bildelementdichte von 3 Bit pro Bildelement 01B sind, was darstellt, dass sie zur Linken verschoben sind, zugelassen, dass die kontinuierlichen EIN-Signale an der Vorderseite des Bildelements erzeugt werden und wenn die Abfalldaten der Bildelementdichte 10B sind, was darstellt, dass sie zur Rechten verschoben sind, wird zugelassen, dass die kontinuierlichen EIN-Signale an der Hinterseite des Bildelements erzeugt werden. Überdies wird, wenn die Abfalldaten Sp der Bildelementdichte 00B sind, was darstellt, dass sie zentriert sind, zugelassen, dass die kontinuierlichen EIN-Signale in dem Zentrum des Bildelements erzeugt werden.
  • Genauer wird, wird in Fig. 5(a) gezeigt, wenn Eingangsbilddaten 80 H sind, d. h. eine 128/256-Dichte aufweisen, und die Abfalldaten der Eingangsbildelementdichte der speziellen Daten 10B sind, sie nämlich zu der Linken verschoben sind, ein halbes (128/256) Bildelement von der Vorderseite des Bildelements eingeschaltet, und der Rest des halben Bildelements wird ausgeschaltet.
  • Zusätzlich wird, wie in Fig. 5(b) gezeigt, wenn Eingangsbildelementdaten 80 H sind, d. h. eine Dichte 128/256 aufweisen, und die Abfalldaten der Eingangsbildelementdichte der speziellen Daten 01B sind, nämlich zu der Rechten verschoben sind, ein halbes (128/256) Bildelement von der Vorderseite des Bildelements ausgeschaltet, und der Rest eines halben Bildelements wird eingeschaltet.
  • Außerdem wird, wie in Fig. 5(c) gezeigt, wenn Eingangsbilddaten 80 H sind, d. h. eine 128/256-Dichte aufweisen, und die Abfalldaten der Eingangsbilddichte der speziellen Daten 00B sind, nämlich sie zentriert sind, ein viertel (64/256) Bildelement von der Vorderseite des Bildelements ausgeschaltet, ein nächstes halbes Bildelement eingeschaltet, und der Rest eines viertel Bildelements wird ausgeschaltet.
  • Auf diese Weise stellt der Pulsbreitenmodulator 16 den Laser ein, um so eine Position von EIN-Daten innerhalb eines Bildelements zu ändern.
  • Das Folgende stellt einen variablen Skalierungsprozess eines Bilds mit einer variablen Dichte detailliert dar, d. h. eines Bilds mit einem Dichtegrauwert gemäß der Gleichung (1).
  • Ein Beispiel ist gegeben, das ein ursprüngliches Bild betrifft, das einen Dichtegrauwert aufweist, der in Fig. 6 gezeigt ist. Eine vertikale Achse stellt die Dichte des ursprünglichen Bilds dar, In diesem Fall ist, wenn das ursprüngliche Bild ein weißes Bild ist, der Dichtewert 0, und wenn das ursprüngliche Bild ein schwarzes Bild ist, ist der Dichtewert 255, Überdies stellt eine horizontale Achse eine Position dar, wo die obige Dichte erhalten wird.
  • Wenn ein ursprüngliches Bild, das einen Dichtegrauwert aufweist, der in Fig. 6 gezeigt ist, von dem Bildeingabeabschnitt 1 gelesen wird, wie in Fig. 7 gezeigt, wird das ursprüngliche Bild gemäß jedes Bildelements geteilt. Eine vertikale Achse in Fig. 7 stellt Dichtewerte dar, die Ganzzahlen von 8 Bit sind, d. h. 0 bis 255. Auf der horizontalen Achse ist die Position in Fig. 6 in einer Einheit eines Bildelements geteilt, und Rechtecke des Graphen stellen jeweils Dichtewerte der gelesenen Bildelemente pro gelesener Bildelementeinheit dar.
  • Als Nächstes sind, wenn die gelesenen Bildelemente, die in Fig. 7 gezeigt sind, unter Verwendung der Nächste-Nachbar- Interpolation zweifach vergrößert sind, die gelesenen Bildelemente durch Fig. 8 dargestellt. In Fig. 8 stellt eine vertikale Achse Dichtewerte dar, die Ganzzählen von 8 Bit sind, d. h. 0 bis 255. Überdies stellt eine horizontale Achse eine Position in einer Schreib-Bildelementeinheit dar. Weiter stellen Rechtecke des Graphen jeweils Dichtewerte eines Schreibbildelements in einer Einheit eines Schreibbildelements dar.
  • Da der variable Skalierungsprozess in diesem Fall die Nächste- Nachbar-Interpolation ist, werden Daten, in welchen ein Rechteck mit der gleichen Form neben jedem Rechteck der gelesenen Bildelementeinheit, die in Fig. 7 gezeigt ist, angeordnet ist, nämlich Daten, in welchen zwei Bildelemente, die die gleiche Dichte aufweisen, ein Paar ausbilden, erhalten. Gemäß diesem Verfahren wird ein Bild, das eine vergleichsweise klare Kante aufweist, für ein Binärbild wie etwa Zeichen erhalten. Jedoch kann eine Variation der Dichte nicht präzise für ein Bild, wie etwa ein fotografisches Bild, wiedergegeben werden, dessen Dichte sukzessive geändert ist. Folglich wird eine so genannte Pseudokontur herbeigeführt.
  • Hier ist die Pseudokontur eine Kontur, die herbeigeführt wird, wenn eine Fortdauer einer Variation einer Dichte in einem Bild variabler Dichte verloren geht, und in einem ursprünglichen Bild nicht existiert (siehe S. 481, "Handbook of Image Analysis", erste Ausgabe, veröffentlicht von der Publishing Foundation, Universität Tokyo; Supervision von Mikio Takagi und Shimoda).
  • Deswegen ist es, für ein Bild, wie etwa ein fotografisches Bild, dessen Dichte sukzessive geändert ist, vorzuziehen, dass der variable Skalierungsprozess durchgeführt wird, indem die Interpolation ersten Grads verwendet wird.
  • Mit anderen Worten, die gelesenen Daten des ursprünglichen Bilds, die in Fig. 7 gezeigt ist, werden zweifach vergrößert, indem die Interpolation ersten Grads verwendet wird, sie sind in Fig. 9 dargestellt.
  • Gemäß der Interpolation ersten Grads wird ein Bildelement, das eine Dichte aufweist, die die gleiche wie ein Mittel von Dichten zweier gelesener Bilddaten ist, zwischen den beiden kontinuierlichen gelesenen Bilddaten interpoliert. Gemäß dieses Verfahrens kann, für ein Bild, wie etwa ein fotografisches Bild, dessen Dichte sukzessive geändert ist, die Variation einer Dichte des ursprünglichen Bilds vergleichsweise deutlich und naturgetreu wiedergegeben werden, aber was ein Binärbild, wie etwa Zeichen, betrifft, wird ein Bild, dessen Kontur nicht klar ist, wiedergegeben.
  • Deswegen tritt in dem Fall, wo Zeichen, Fotografien, etc. in einem Bild zusammen existieren, wenn die Nächste-Nachbar-Interpolation oder die Interpolation ersten Grads wahllos gewählt wird, ein Problem auf.
  • Dies wird genau unter Bezugnahme auf die Zeichnungen beschrieben.
  • Als Erstes sind gelesene Dichtedaten, die durch ein Lesen eines Bilds erhalten werden, in welchem Zeichen und Fotografien zusammen existieren, beispielsweise in Fig. 10 gezeigt. Die linke Hälfte der Fig. 10 veranschaulicht einen Zeichenbereich, und sein Merkmal besteht darin, dass sich die Dichte schnell ändert. Im Gegensatz dazu veranschaulicht die rechte Hälfte der Fig. 10 einen fotografischen Bereich, und sein Merkmal besteht darin, dass sich die Dichte kontinuierlich und relativ sanft ändert.
  • Wenn das gelesene Bild durch die Nächste-Nachbar-Interpolation zweifach vergrößert wird, wird das Bild, das in Fig. 11 dargestellt ist, erhalten.
  • In diesem Fall wird, da die Nächste-Nachbar-Interpolation verwendet wird, die Kante der linken Hälfte, nämlich der Zeichenbereich des Bilds vergleichsweise verstärkt, und somit wird das Bild klar. Jedoch weist die rechte Hälfte, nämlich der fotografische Bereich, eine nicht zufrieden stellende Grauwerterzeugung auf, und somit wird eine Pseudokontur wahrscheinlich herbeigeführt.
  • Unterdessen wird, wenn das gelesene Bild, das in Fig. 10 gezeigt ist, durch die Interpolation ersten Grads zweifach vergrößert wird, das Bild, das durch Fig. 12 dargestellt ist, erhalten.
  • In diesem Fall führt die Interpolation ersten Grads ein Bild herbei, dessen linke Hälfte, nämlich der Zeichenbereich, eine unklare Kante aufweist. Jedoch weist die rechte Hälfte, nämlich der fotografische Bereich, eine zufrieden stellende Grauwerterzeugung auf, und somit wird eine Pseudokontur schwerlich herbeigeführt.
  • Auf diese Weise ist es nicht vorzuziehen, dass die Nächste- Nachbar-Interpolation oder die Interpolation ersten Grads unterschiedslos für ein ganzes Bild gewählt wird.
  • Deswegen wird in der vorliegenden Ausführungsform, in dem Fall, wo Zeichen und Fotografien in einem gelesenen Bild zusammen existieren, die Nächste-Nachbar-Interpolation oder dergleichen für die Zeichen verwendet, und die Interpolation ersten Grads oder dergleichen wird für die Fotografien verwendet.
  • Das Folgende beschreibt den variablen Vergrößerungsprozess unter Verwendung der obigen Verfahren.
  • Mit anderen Worten erfasst in der vorliegenden Ausführungsform der Bereichssegmentationsabschnitt 3 Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten auf einem Bildelement, um so die erfassten Wahrscheinlichkeiten als die Bereichssegmentationsdaten 3b auszugeben. Dann wird eine Berechnung gemäß der Gleichung (1) auf der Grundlage der Bereichssegmentationsdaten 3b ausgeführt. Wenn die Bereichssegmentationsdaten XP des Ausgangsbildelements einen Wert annehmen, der die höchste Wahrscheinlichkeit von Zeichen darstellt, nämlich Xp = 0, wird die, Gleichung (1) wie folgt:
  • Dp = Da
  • und somit wird die Nächste-Nachbar-Interpolation verwendet. Überdies wird, wenn die Bereichssegmentationsdaten Xp des Ausgangsbildelements einen Wert annehmen, der die höchste Wahrscheinlichkeit von Fotografien darstellt, nämlich Xp = 7, die Gleichung (1) wie folgt:
  • Dp = (PB·Da + PA·Db)/(PA + PB)
  • und somit wird die Interpolation ersten Grads verwendet.
  • Ein Ausgangsbild, das durch die obige Berechnung erhalten wird, ist in Fig. 13 gezeigt. Mit anderen Worten, Fig. 13 ist ein Graph, der Ausgängen in dem Fall zeigt, wo, wenn das gelesene Bildelement, das in Fig. 10 gezeigt ist, zweifach gemäß der Bereichssegmentationsdaten 3b vergrößert ist, zwei Arten der variablen Skalierungsprozesse Verwendet werden. Wenn beurteilt wird, dass das Bildelement ein Zeichenabschnitt ist, wird nämlich die Nächste-Nachbar-Interpolation verwendet, und wenn beurteilt wird, dass das Bildelement ein fotografischer Abschnitt ist, wird die Interpolation ersten Grads verwendet.
  • In diesem Fall wird auf den Abschnitt, von dem beurteilt wurde, dass er der Zeichenabschnitt in dem Bereichssegmentationsabschnitt 3 ist, nämlich der linke Abschnitt, die Kante durch ein Verwenden der Nächste-Nachbar-Interpolation als das variable Skalierungsverfahren verstärkt, und somit wird ein klares Bild erhalten. Überdies wird in dem Bereichssegmentationsabschnitt 3, wenn die Interpolation ersten Grads als das variable Skalierungsverfahren für den Abschnitt verwendet wird, von dem beurteilt wurde, dass er ein fotografischer Abschnitt ist, nämlich die rechte Hälfte, die Grauwerterzeugung zufrieden stellen, und somit wird eine Pseudokontur schwerlich herbeigeführt.
  • Auf diese Weise wird zu der Zeit eines variablen Vergrößerungsprozesses, unter Bezugnahme auf die Bereichssegmentation daten 3b, der variable Vergrößerungsprozess, der näher, bei der Nächste-Nachbar-Interpolation liegt, auf einem Abschnitt verwendet, der die hohe Wahrscheinlichkeit von Zeichen aufweist, und der variable Vergrößerungsprozess, der näher bei der Interpolation ersten Grads liegt, wird auf einem Abschnitt mit der hohen Wahrscheinlichkeit von Fotografien verwendet. Folglich können die Dichtedaten, die skalierungsverarbeitet sind, am geeignetsten ausgelegt werden.
  • Wie oben erwähnt, werden in dem Bildverarbeitungsverfahren der vorliegenden Ausführungsform, das ein Bild liest und das gelesene Bild in Blöcke teilt, die aus einer Vielzahl von Bildelementen bestehen, und einen variablen Skalierungsprozess, wie etwa eine Vergrößerung oder ein Verkleinern eines Bilds durch Ausführen einer Interpolation pro Bildelement, durchführt, Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten auf jedem Bildelement auf dem gelesenen Bild durch den Bereichssegmentationsabschnitt 3 erfasst, und die interpolierten Bilddaten pro Bildelement werden durch den variablen Skalierungsabschnitt 4 auf der Grundlage der Ergebnisse der Erfassung berechnet, so dass ein Skalieren des Bilds durchgeführt wird.
  • Mit anderen Worten, in dem herkömmlichen Verfahren eines Auswählens der Nächste-Nachbar-Interpolation oder der Interpolation erster bis dritter Grade zu der Zeit des Vergrößerungsprozesses des variablen Skalierungsprozesses, d. h. einer Vergrößerung, wenn die Nächste-Nachbar-Interpolation für den Fall gewählt wird, wo Zeichen, Fotografien, etc. in einem Dokumentenbild zusammen existieren, wird gelegentlich eine Pseudokontur auf dem fotografischen Bereich herbeigeführt, und wenn die Interpolation erster bis dritter Grade gewählt wird, wird eine Kante der Zeichen unklar.
  • Jedoch werden in Übereinstimmung mit dem obigen Verfahren die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten auf jedem Bildelement auf einem Bild durch den Bereichssegmentationsabschnitt 3 erfasst, und die interpolierten Bildelementdaten pro Bildelement werden durch den variablen Skalierungsprozess 4 auf der Grundlage der erfassten Ergebnisse berechnet, so dass ein Skalieren des Bilds durchgeführt wird.
  • Deswegen wird ein Abschnitt mit der hohen Wahrscheinlichkeit von Zeichen durch die Nächste-Nachbar-Interpolation oder dergleichen vergrößert, und somit wird verhindert, dass eine Kante der vergrößerten Zeichen unklar wird. Unterdessen wird ein Abschnitt mit der hohen Wahrscheinlichkeit von Fotografien durch eine Berechnung vergrößert, die näher bei der Interpolation erster bis dritter Grade liegt, und somit wird verhindert, dass eine Pseudokontur der vergrößerten Fotografie herbeigeführt wird.
  • Folglich kann, auch wenn Zeichen, Fotografien und Gitterpunkte in einem Bild existieren, das von einem Scanner gelesen wird, eine Verschlechterung in einer Bildqualität durch ein Skalieren des Bilds gemäß der Zeichen, Fotografien oder Gitterpunkte verhindert werden.
  • Zusätzlich können in dem Bildverarbeitungsverfahren der vorliegenden Ausführungsform die Bereichssegmentationsdaten, die die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten darstellen, die durch den Bereichssegmentationsabschnitt 3 erfasst werden, einen Wert X annehmen, der innerhalb eines Bereichs von 0 bis N-1 fällt (N ist eine Ganzzahl nicht geringer als 2) (je kleiner der Wert X ist, desto höher ist die Wahrscheinlichkeit von Zeichen, und je größer der Wert X ist, desto höher ist die Wahrscheinlichkeit von Fotografien oder Gitterpunkten). Überdies berechnet, wenn die Bereichssegmentationsdaten eines Interpolations-Bildelements P, dessen Dichte bestimmt werden sollte, durch Xp dargestellt werden, die Dichte des Bildelements A, das am nächsten zu dem Bildelement P liegt, durch Da dargestellt wird, die Dichte des Bildelements B, das am zweitnächsten zu dem Bildelement P liegt, durch Db dargestellt wird, ein Abstand zwischen den Bildelementen P und A durch PA dargestellt wird, und ein Abstand zwischen den Bildelementen P und B durch PB dargestellt wird, der variable Vergrößerungsverarbeitungsabschnitt 4 die Dichte Dp des Bildelements P gemäß der zuvor erwähnten Gleichung (1).
  • Mit anderen Worten, Abschnitte von Zeichen und Abschnitte von Fotografien und Gitterpunkten existieren meistens zusammen in einem tatsächlichen Bild, und somit tritt, wenn das variable Vergrößerungsverfahren, wie etwa eine Musteranpassung, für jedes Bildelement des oben erwähnten Bilds verwendet wird, ein Problem auf, dass viele Speichereinheiten zum Durchführen eines präzisen variablen Vergrößerungsprozesses erforderlich sind und dass die Verarbeitungszeit länger wird.
  • Jedoch führt in Übereinstimmung mit dem obigen Verfahren der variable Vergrößerungsverarbeitungsabschnitt 4 die Berechnung gemäß der Gleichung (1) durch. Dann wird in der Gleichung (1), wenn die Bereichssegmentationsdaten Xp einen Wert 0 annehmen, der ein vollständiges Zeichen darstellt, K = 0 und Dp = Da. Dies bedeutet nämlich den variablen Skalierungsprozess mittels der Nächste-Nachbar-Interpolation.
  • Unterdessen wird, wenn die Bereichssegmentationsdaten Xp einen Wert N-1 annehmen, der eine perfekte Fotografie darstellt, die Dichte Dp beispielsweise wie folgt:
  • Dp = (PB·Da + PA·Db)/(PA + PB)
  • und somit wird Dp ein gewichtetes, linear arithmetisches Mittel der Dichte Da des Bildelements A, das am nächsten zu dem Bildelement P liegt, und der Dichte Dp des Bildelements B, das am zweitnächsten zu dem Bildelement P liegt. Dies bedeutet nämlich den variablen Skalierungsprozess mittels der Interpolation ersten Grads.
  • Wenn die Bereichssegmentationsdaten Xp einen Wert zwischen den Wahrscheinlichkeiten von Zeichen und Fotografien annehmen, die innerhalb eines Bereichs von mehr als 0% bis weniger als 100% fallen, kann die Dichte auf der Grundlage des Gewichts gemäß der Gleichung (1) berechnet werden.
  • Hier kann, wenn das gewichtete, linear arithmetische Mittel von Da und Db durch Dab dargestellt wird, die zuvor erwähnte Gleichung (T) wie folgt geändert werden:
  • Dp = (1-(Xp/(N-1))) · Da + (Xp/(N-1)) · Dab
  • Wie aus der obigen Gleichung klar ist, erfüllen, wenn N eine Ganzzahl nicht geringer als 3 ist, die Bereichssegmentationsdaten 2% eine Beziehung 0 < 2% < N-1, erhalten nämlich einen Wert zwischen den Wahrscheinlichkeiten von Zeichen und Fotografien, der innerhalb eines Bereichs von mehr als X bis weniger als 100% fällt, Dp wird ein gewichtetes, linear arithmetisches Mittel von Da und Dab. Dann nimmt, wenn X kleiner wird, Dp einen Wert an, der näher bei Da liegt, und wenn 2% größer wird, nimmt Dp einen Wert an, der näher bei Dab liegt.
  • Deswegen wird, auch wenn Zeichen und Fotografien oder Gitterpunkte in einem Bild während des variablen Skalierungsprozesses zusammen existieren, eine einfache Summations- und Multiplikätionsoperation, die durch die Gleichung (19 dargestellt ist, auf der Grundlage der Bereichssegmentationsdaten durchgeführt, die die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten darstellen, die durch die Bereichssegmentationseinrichtung erfasst werden. Spezifischer wird das variable Skalierungsverfahren, das näher bei der Nächste-Nachbar- Interpolation liegt, für den Abschnitt mit der hohen Wahrscheinlichkeit von Zeichen verwendet (Xp ist klein), und wird das variable Skalierungsverfahren, das näher an der Interpolation ersten Grads liegt, für den Abschnitt mit der hohen Wahrscheinlichkeit von Fotografien verwendet (2% ist groß). Folglich kann eine geeignetere Dichte für die vergrößerungsvariierten Daten bestimmt werden. Es kann nämlich, da die Dichte geeignet für die Zeichen, Fotografien oder Gitterpunkte auf jedem Bildelement durch eine ausgezeichnete Software bestimmt werden kann, die Dichte schnell durch eine einfache Anordnung einer Hardware bestimmt werden; und eine Verschlechterung in einer Bildqualität kann verhindert werden.
  • In der vorliegenden Ausführungsform wird die Interpolation erster Ordnung zum Bestimmen einer Dichte verwendet, aber das Verfahren ist darauf nicht beschränkt, und somit kann beispielsweise die Interpolation zweiten oder dritten Grads verwendet werden.
  • Zusätzlich bezieht sich die obige Erklärung auf den Vergrößerungsprozess des variablen Vergrößerungsprozesses, aber das Bildverarbeitungsverfahren der vorliegenden Ausführungsform ist nicht notwendigerweise darauf beschränkt, und somit ist dieser Prozess auf den Fall anwendbar, wo ein Verkleinerungsprozess durchgeführt wird.
  • Beispielsweise werden, wenn ein Bild, in welchem Zeichen und Fotografien zusammen existieren, gelesen wird, die gelesenen Bilddaten durch einen Graphen dargestellt, der in Fig. 14 gezeigt ist. Die linke Hälfte der Fig. 14 zeigt einen Zeichenbereich, wo sich die Dichte schnell ändert, und die rechte Hälfte zeigt einen fotografischen. Bereich, in welchem sich die Dichte kontinuierlich und vergleichsweise sanft ändert.
  • Wenn die Nächste-Nachbar-Interpolation, in welcher eine Dichte eines Bildelements, das in der nächsten Nachbarschaft eines Zielbildelements eines verkleinerten Bilds existiert, als die Dichte des Zielbildelements verwendet wird, für das gesamte Bild zur der Zeit eines Verkleinerns der gelesenen Daten auf die Hälfte verwendet wird, wird ein Ausgangsbild, das in Fig. 15 gezeigt ist, erhalten. Es wird nämlich in der linken Hälfte des Ausgangsbilds, d. h. dem Zeichenbereich, eine Kante vergleichsweise verstärkt, und somit wird das Bild klar, aber in der rechten Hälfte, d. h. dem fotografischen Bereich, wird eine Grauwerterzeugung verschlechtert, und somit wird wahrscheinlich eine Pseudokontur herbeigeführt.
  • Zusätzlich wird, wenn die gelesenen Bilddaten, die in Fig. 14 gezeigt sind, auf die Hälfte durch die Interpolation ersten Grads verkleinert werden, die ein gewichtetes linear arithmetisches Mittel der Dichte eines Bildelements, das in der nächsten Nachbarschaft eines Zielbildelements existiert, und der Dichte eines Bildelements, das am zweitnächsten zu dem Zielbildelement liegt, als die Dichte des Zielbildelements verwendet wird, ein Ausgangsbild, das in Fig. 16 gezeigt ist, erhalten. Es wird nämlich in der rechten Hälfte des Ausgangsbilds, d. h. dem fotografischen Bereich, die Grauwerterzeugung zufrieden stellend, und somit wird die Pseudokontur kaum herbeigeführt, aber in der linken Hälfte, d. h. dem Zeichenbereich, wird eine Kante unklar.
  • Deswegen wird in der vorliegenden Ausführungsform, wenn beurteilt wird dass die Bereichssegmentationsdaten der Zeichenabschnitt sind, die Nächste-Nachbar-Interpolation verwendet, und wenn beurteilt wird, dass die Bereichssegmentationsdaten der fotografische Abschnitt sind, die Interpolation ersten Grads verwendet. Eine Graphik von Ausgangsbilddaten, die durch das obige Verfahren erhalten werden, ist in Fig. 17 gezeigt. In der linken Hälfte der Fig. 12, d. h. dem Bereich, von dem beurteilt wird, dass er der Zeichenabschnitt ist, wird die Kanten verstärkt, und somit wird ein klares Bild erhalten, und in der rechten Hälfte, d. h. dem Bereich, von dem beurteilt wird, dass er der fotografische Abschnitt ist, wird die Grauwerterzeugung zufriedenstellend, und somit wird eine Pseudokontur kaum herbeigeführt.
  • Auf eine derartige Weise wird auf die Bereichssegmentationsdaten zu der Zeit eines Verkleinerns Bezug genommen, und das variable Vergrößerungsverarbeitungsverfahren, das näher an der Nächste-Nachbar-Interpolation liegt, wird in einem Abschnitt mit der hohen Wahrscheinlichkeit vom Zeichen verwendet, und das variable Vergrößerungsverfahren, das näher an der Interpolation ersten Grads liegt, wird in einem Abschnitt mit der hohen Wahrscheinlichkeit von Fotografien verwendet. Folglich kann die Dichte der verkleinerten Daten geeigneter bestimmt werden.
  • Das Folgende beschreibt, eine bevorzugte Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf die Fig. 5, 10, 18 und 19. Hier werden zur Erleichterung jene Elemente, die gleiche Anordnung und Funktionen aufweisen und die in der zuvor erwähnten Ausführungsform 1 beschrieben sind, durch die gleichen Bezugszeichen angezeigt, und die Beschreibung davon ist weggelassen.
  • In dem Bildverarbeitungsverfahren der zuvor erwähnten Ausführungsform wird, wenn die Wahrscheinlichkeit von Zeichen hoch ist, die Vergrößerung durch die Nächste-Nachbar-Interpolation variiert. Jedoch wird, wenn die Nächste-Nachbar-Interpolation für eine Kante eines Zeichens verwendet wird, die Kante nicht ausreichend verstärkt.
  • Deswegen wird in den Bildverarbeitungsverfahren der vorliegenden Ausführungsform die Nächste-Nachbar-Interpolation nicht nur für eine Kante eines Zeichens verwendet, sondern ein Verfahren eines Multiplizierens von Dichtedaten, die durch die Nächste-Nachbar-Interpolation durch eine Vergrößerungsskala des unterschiedlichen Skalierens erhalten werden (d. h. "die Vergrößerung zu erhöhen"), wird eingesetzt.
  • Ein Ausgangsbild, das dem variablen Skalierungsprozess unterworfen wurde, ist in Fig. 18 gezeigt.
  • Mit anderen Worten, wird, um ein gelesenes Bildelement, das in Fig. 10 gezeigt ist, zweifach zu vergrößern, wenn Bereichssegmentationsdaten auf einen Zeichenabschnitt bezogen sind und beurteilt werden, ein derartiger zu sein, die Nächste-Nachbar- Interpolation verwendet. Überdies wird der variable Skalierungsprozess auf einem Abschnitt durchgeführt, von dem beurteilt wurde, dass er ein fotografischer Abschnitt ist, durch die Interpolation ersten Grads. Deswegen wird ein Ausgangsbild, das in Fig. 13 gezeigt ist, erhalten.
  • Jedoch wird in der vorliegenden Ausführungsform, wenn beurteilt wird, dass die Dichte eines Bildelements ein Zeichenabschnitt ist, der einen Wert annimmt, der einen Grauwert darstellt, nämlich in dem Fall einer Kante eines Zeichens, die Nächste-Nachbar-Interpolation nicht nur verwendet, sondern die Vergrößerung der Dichtedaten, die durch die Nächste-Nachbar- Interpolation erhalten werden, wird durch eine Vergrößerung verstärkt, und die Pulsbreite wird korrigiert.
  • Eine Beurteilung kann ausgeführt werden, ob die Dichte des Bildelements einen Wert annimmt, der einen Grauwert darstellt, durch welchen die Dichte des Bildelements einen Wert aufweist, der innerhalb eines Bereichs von 0 bis 255 fällt, oder nicht.
  • Spezifischer werden, wie in Fig. 18 gezeigt, Pulsbreiten (Dichte eines Bildelements) auf Abschnitten der Kanten a und a' und b und b' von Zeichen korrigiert. Zuerst wird eine Dichte, die durch ein Multiplizieren der Dichte des Bildelements erhalten wurde, das durch die Nächste-Nachbar-Interpolation durch die Vergrößerung erhalten wurde, einem Bildelement auf jeder Seite des Dichteabfalls gegeben; wo die Dichte hoch in zwei Bildelementen der Kanten ist, nämlich dem Bildelement auf der Seite der Kante a' und dem Bildelement auf der Seite der Kante b.
  • Unterdessen wird die Dichte 0 einem Bildelement auf jeder Seite des Dichteabfalls gegeben, wo die Dichte in zwei Bildelementen der Kanten niedrig ist, nämlich dem Bildelement auf der Seite der Kante a und dem Bildelement auf der Seite der Kante b'.
  • Gemäß dieser Korrektur der Pulsbreite (Dichte eines Bildelements) wird die Dichte der Bildelemente auf der Innenseite in den beiden Bildelementen der Kanten, von Zeichen mit der Vergrößerung multipliziert, und die Dichte der Bildelemente auf der Außenseite wird auf 0 geändert. Folglich wird die Kante von Zeichen mehr verstärkt, als beider Verwendung der Nächste-Nachbar-Interpolation, und somit kann ein klares Bild erhalten werden.
  • Die Nächste-Nachbar-Interpolation wird im Prinzip für den Abschnitt verwendet, dem von dem Bereichssegmentationsabschnitt 3 beurteilt wurde, dass er der Zeichenabschnitt ist, nämlich der linke Abschnitt der Zeichnung (der Abschnitt, der mit "beurteilt, ein Zeichenabschnitt zu sein" markiert ist), und die Pulsbreiten auf den Kanten der Zeichen werden korrigiert. Folglich werden die Kanten mehr verstärkt als in dem Fall der Fig. 13, und somit kann ein klares Bild erhalten werden.
  • Zusätzlich wird in dem Abschnitt, der durch den Bereichssegmentationsabschnitt 3 beurteilt wurde, ein fotografischer Abschnitt zu sein, nämlich die rechte Hälfte der Zeichnung (der Abschnitt, der mit "beurteilt, ein fotografischer Abschnitt zu sein" markiert ist), die Grauwerterzeugung durch ein Annehmen der Interpolation ersten Grads zufrieden stellend, und eine Pseudokontur wird kaum herbeigeführt.
  • Der Pulsbreitenmodulator 16 gibt Bilder für jedes Bildelement auf der Grundlage der speziellen Daten 4c, die die Abfalldaten der Bildelementdichte einschließen, und der skalierungsverarbeiteten, &gamma;-korrigierten Bilddaten 5a aus. Wie in der Ausführungsform 1 erwähnt, erzeugt, wenn die speziellen Daten 4c von 2 Bit pro Bildelement 00B annehmen, was darstellt, dass sie zentriert sind, der Pulsbreitenmodulator 16 kontinuierliche EIN-Signale, um so auf dem Bildelement zentriert zu sein.
  • Spezifischer sind, wie in Fig. 5(c) gezeigt, die Eingangsbilddaten 80H, d. h. weisen eine Dichte von 128/256 auf, und die Abfalldaten der Eingangsbildelementdichte sind 00B, was darstellt, dass sie zentriert sind, ein Viertel (64/256) Bildelement von der Vorderseite wird ausgeschaltet, und die nächste Hälfte des Bildelements wird eingeschaltet, und das restliche Viertel des Bildelements wird ausgeschaltet. Auf eine derartige Weise ändert der Pulsbreitenmodulator 16 die EIN-Datenposition eines Bildelements durch ein Einstellen eines Ausgangs eines Lasers.
  • Deswegen werden die Bilddaten, die dem Zeichenkantenprozess unterworfen wurden, durch Fig. 19(a) beispielsweise dargestellt. Die kleinen Rechtecke 8 stellen jeweils ein Ausgangsbildelement dar, und numerische Werte der Rechtecke 8 stellen eine Dichte jedes Bildelements (256 Grauwerte) dar.
  • Wenn die Abfalldaten der Eingangsbildelementdichte 00B sind, was darstellt, dass sie zentriert sind, wird ein Bild, das auf der Grundlage dieser Bilddaten ausgegeben wird, durch Fig. 19(b) dargestellt. Es wird nämlich, wenn die Abfalldaten der Eingangsbild-Elementdichte 00B sind, was darstellt, dass sie zentriert sind, eine Lücke eines AUS-Signals auf einem Kantenabschnitt erzeugt. Dies wird als eine Geisterkontur bezeichnet.
  • Deswegen ändert in der vorliegenden Ausführungsform, wenn die Position des EIN-Signals in einem Bildelement zentriert ist, in Fig. 19(b) der Ausgabesteuerabschnitt 6 die Position des EIN-Signals in einem Bildelement durch ein Modulieren der Pulsbreite dieses Bildelements, um so eine Geisterkontur zu verhindern.
  • Mit anderen Worten sind Bildelemente auf zweiten bis vierten Rechtecken auf der am weitesten links gelegenen Datei von der Oberseite 80H (d. h. 128), wie in Fig. 19(a) gezeigt, und die zweite Datei von links ist. FFH (d. h.. 255). Folglich ist der Dichteabfall auf diesen Bildelementen derart, dass die Dichte auf der linken Seite niedrig ist und die Dichte auf der rechten Seite hoch ist.
  • Zusätzlich sind in Fig. 19(b) Bildelemente auf den zweiten bis vierten Rechtecken auf der am weitesten rechts gelegenen Datei 801-1, wie in Fig. 19(a) gezeigt, die zweite Datei von rechts ist FFH. Folglich ist ein Dichteabfall dieses Bildelements derart, dass die Dichte auf der linken Seite hoch ist und die Dichte auf der rechten Seite niedrig ist.
  • Deswegen wird gemäß dieser Information, wenn der Dichteabfall von Zielbildelementen derart ist, dass die Dichte auf der linken Seite niedrig ist und die Dichte auf der rechten Seite hoch ist, ein Bildelementausgang zu Daten (10B) geändert, die darstellen, dass sie nach rechts verschoben sind, und wenn der Dichteabfall von Zielbildelementen derart ist, dass die Dichte auf der linken Seite hoch ist und die Dichte auf der rechten Seite niedrig ist, wird ein Bildelementausgang zu Daten (01B) geändert, die darstellen, dass sie nach links verschoben sind.
  • Auf diese Weise ändert der Ausgabesteuerabschnitt 6 die Position des EIN-Signals in einem Bildelement durch ein Modulieren der Pulsbreite. Folglich wird, wie in Fig. 19(c) gezeigt, eine Lücke des AUS-Signals auf einem Kantenabschnitt von Zeichen nicht erzeugt, wodurch es ermöglicht wird, die Geisterkontur zu verhindern.
  • In Übereinstimmung mit dem Bildverarbeitungsverfahren der vorliegenden Ausführungsform werden Abfalldaten 5 der Bildelementdichte benachbarter Bildelemente jedem Bildelement in einem Bild gegeben. Unterdessen wird, in dem Fall, wo die Bereichssegmentationsdaten XP des Bildelements P 0 sind (Xp = 0), die Dichte Da des Bildelements A, das dem Bildelement P am nächsten liegt, eine Grauwertdichte ist, und die Abfalldaten Sp der Bildelementdichte des Bildelements 9 positiv sind, nämlich Daten, die darstellen, dass. Da < Dp < Db, die Dichte Dp des Bildelements 9 in den Wert konvertiert, der durch ein Multiplizieren der. Grauwertdichte mit einer Vergrößerung erhalten wird, und die Dichte Da des Bildelements A wird auf 0 eingestellt. Überdies wird, wenn die Dichte Da des Bildelements A eine Grauwertdichte ist, und die Abfalldaten Sp der Bildelementdichte des Bildelements P negativ sind, nämlich Daten, die darstellen, dass Da > Dp > Db, die Dichte Da des Bildelements A in einen Wert konvertiert, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößerung erhalten wird, und die Dichte Dp des Bildelements P wird auf 0 eingestellt.
  • Mit anderen Worten, wenn das gelesene Bild Zeichendaten ist und die Bildelemente einer Leseposition eine Kante der Zeichen sind, weisen die Bildelemente meistens eine Grauwertdichte auf. Danach setzen sich, wenn der variable Skalierungsprozess gemäß der Gleichung (1) durchgeführt wird, die Bildelemente, die die Grauwertdichte aufweisen, fort, und somit wird die Kante unklar.
  • Jedoch wird, in Übereinstimmung mit dem obigen Verfahren, wenn die Dichte Da des Bildelements A, das am nächsten zu dem Bildelement P liegt, eine Grauwertdichte ist, und die Abfalldaten Sp der Bildelementdichte des Bildelements P positiv sind, nämlich Da < Dp < Db, die Dichte Dp des Bildelements P in einen Wert konvertiert, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößerung erhalten wird, und die Dichte D des Bildelements A wird auf 0 eingestellt. Unterdessen wird, wenn die Dichte Da des Bildelements A eine Grauwertdichte ist, und die Abfalldaten Sp der Bildelementdichte des Bildelements P negativ sind, nämlich Da > Dp > Db, die Dichte Da des Bildelements A in einen Wert konvertiert, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößerung erhalten wird, und die Dichte Dp des Bildelements P wird auf 0 eingestellt.
  • Deswegen wird, wenn eine Pulsbreite von Bildelementen zum Ausgeben eines Lasers gemäß einer Vergrößerung moduliert wird, die Dichte der Kanten von Zeichen weiter verstärkt, und ein klareres Bild kann erhalten werden, verglichen mit dem Fall, wo, nur die. Nächste-Nachbar-Interpolation verwendet wird.
  • Zusätzlich wird in dem Bildverarbeitungsverfahren der vorliegenden Erfindung ein Laser zu einem Abschnitt von Bildelementen ausgegeben, wo die Dichte hoch ist, auf der Grundlage der Abfalldaten der Bildelementdichte auf den Bildelementen, welchen ein Wert, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößerung erhalten wurde, gegeben wurde.
  • Es beträgt nämlich in dem Fall, wo das gelesene Bild Zeichendaten ist, und das Bildelement an der Leseposition die Kante des Bilds ist, wenn beispielsweise 8 Bit/Bildelement verarbeitet werden und das Bildelement die Grauwertdichte aufweist, die Dichte des Bildelements 128, d. h. 80H. Deswegen erzeugen in einer Bildausgabevorrichtung, die die Pulsbreite auf einem Bildelement moduliert, um so ein Grauwertbild auszugeben, Bilddaten von 8OH einen Halbpunkt eines Bildelements in einer zentralen Position der Bildelemente. Dann erscheint in dem Fall, wo das Bildelement, wo der Halbpunkt in seiner zentralen Position vergrößert ist, ein weißes Bildelement eines halben Punkts zwischen dem obigen Bildelement und dem benachbarten Bildelement, und die Erscheinung dieses weißen Bildelements wird für ein Bildelement wiederholt. Deswegen tritt ein Problem auf, dass eine Geisterkontur auftritt.
  • Jedoch wird in Übereinstimmung mit dem obigen Verfahren ein Laser zu einem Abschnitt von Bildelementen ausgegeben, wo die Dichte hoch ist, auf der Grundlage der Abfalldaten der Bildelementdichte auf den Bildelementen, welchen ein Wert, der durch ein Multiplizieren der Grauwertdichte mit einer Vergrößerung erhalten wurde, gegeben wurde.
  • Deswegen wird, wenn die Kante der Zeichendaten dem variablen Skalierungsprozess durch das Bildverarbeitungsverfahren in Anspruch 5 unterworfen wird, verhindert, dass eine Geisterkontur auf der Linken oder Rechten eines Bildelements an der Kante der Zeichendaten herbeigeführt wird.
  • Das Folgende beschreibt noch eine weitere Ausführungsform eines digitalen Kopiergeräts, die nützlich zum Verständnis der vorliegenden Erfindung ist, unter Bezugnahme auf die Fig. 12 und 24. Hier sind jene Elemente, die die gleiche Anordnung und Funktionen aufweisen, und die zuvor beschrieben worden sind, durch die gleichen Bezugszeichen angezeigt, und die Beschreibung davon ist weggelassen.
  • Wie in Fig. 20 gezeigt, ist das digitale Kopiergerät der vorliegenden Ausführungsform so angeordnet, dass neben der Anordnung, die in Fig. 1 gezeigt ist, ein zweiter Bildverarbeitungsabschnitt 15 zwischen dem variablen Skalierungsabschnitt 4 und dem Ausgabesteuerabschnitt 6 bereitgestellt ist. Ein skalierungsverarbeitetes Bild kann von dem zweiten Bildverarbeitungsabschnitt 15 zu einer asynchronen Einheit 10, wie etwa einem Faxgerät und einem Personalcomputer, übertragen werden.
  • Mit anderen Worten liest, wie in der Ausführungsform 1 beschrieben, in dem digitalen Kopiergerät der Bildeingabeabschnitt 1 ein Dokumentenbild von einem Scanner, der nicht gezeigt ist, und konvertiert das gelesene Bild in die digitalen Eingangsbilddaten 1a. Als Nächstes führt der Schattierungskorrektur-/automatische Belichtungsabschnitt 2 die Schattierungskorrektur und die automatische Belichtung für die Eingangsbilddaten 1a durch.
  • Zusätzlich bezieht sich der Bereichssegmentationsabschnitt 3 auf eine Dichte etc. von Bildelementen in der Nähe eines Zielbildelements der Bilddaten 2a, die der Schattierungskorrektur und der automatischen Belichtung unterworfen wurden, um so Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten des Zielbildelements zu erfassen. Dann gibt der Bereichssegmentationsabschnitt 3 Bilddaten 3a und Bereichssegmentationsdaten 3b aus.
  • Der variable Skalierungsabschnitt 4 führt einen Skalierungsprozess auf den eingegebenen Bilddaten 3a und den Bereichssegmentationsdaten 3b durch und bezieht sich auf Bildelemente in der Nähe des Zielbildelements, um so einen Dichteabfall des Zielbildelements zu bestimmen. Dann gibt der variable Skalierungsabschnitt 4 skalierungsverarbeitete Bilddaten 4a, skalierungsverarbeitete Bereichssegmentationsdaten 4b und spezielle Daten 4c aus.
  • Zu der Zeit des obigen variablen Skalierungsprozesses wird die Gleichung (1) für die Bilddaten 3a verwendet, und die Nächste- Nachbar-Interpolation wird für die Bereichssegmentationsdaten 3b verwendet. Überdies bestehen die speziellen Daten 4c aus Anweisungsdaten, die die Vorderseite und Hinterseite der Zeile der Bereichssegmentationsdaten 3b und das Ende der Bilddaten zeigen, und Abfalldaten S der Bildelementdichte bezüglich eines Bildelements, das gegenwärtig dem Prozess unterworfen ist. Weiter werden, wenn die Bereichssegmentationsdaten 3b andere Daten sind als die, die eine hohe Wahrscheinlichkeit von Zeichen darstellen, die Abfalldaten S der Bildelementdichte als "kein Abfall" ausgegeben.
  • Diese Ausgaben werden zu dem zweiten Bildverarbeitungsabschnitt 15 ausgegeben. Dann werden sie zu der asynchronen Einheit 20, wie etwa einem Faxgerät und einem Personalcomputer, ausgegeben, die zusätzlich bereitgestellt ist, durch ein Verfahren, das später erwähnt wird.
  • Im Gegensatz dazu wird ein Bild, das von einem weiteren digitalen Kopiergerät skaliert ist, über die asynchrone Einheit 10, wie etwa ein Faxgerät, von dem zweiten Bildverarbeitungsabschnitt 15 empfangen und in diesen eingegeben.
  • Die skalierungsverarbeiteten Bilddaten 4a, die in den zweiten Bildverarbeitungsabschnitt 15 eingegeben sind, die skalierungsverarbeiteten Bereichssegmentationsdaten 4b und die speziellen Daten 4c oder das empfangene und eingegebene, mit variabler Vergrößerung verarbeitete Bild werden als skalierungsverarbeitete, &gamma;-korrigierte Bilddaten 15a, skalierungsverarbeitete Bereichssegmentationsdaten 15b und spezielle Daten 15c ausgegeben. Dann wird eine Bildausgabe durch den Ausgabesteuerabschnitt 6 gesteuert, und ein Laser wird auf der Grundlage eines Signals von durch den Bildausgabeabschnitt 7 eingegebenen Ausgangsbilddaten 6a ausgegeben.
  • Das Folgende beschreibt eine Eingabe und eine Ausgabe von Daten von dem variablen Skalierungsabschnitt 4 in dem zweiten Bildverarbeitungsabschnitt 15.
  • Wie in Fig. 21 gezeigt, werden die Bilddaten 3a, die in einem Zeilenspeicher 17a gespeichert sind, und die Bereichssegmentationsdaten 3b, die in einem Zeilenspeicher 17b gespeichert sind, in den variablen Vergrößerungsverarbeitungsabschnitt 4 eingegeben.
  • Zusätzlich sind die Ausgangsdaten von dem variablen Vergrößerungsverarbeitungsabschnitt 4 die speziellen Daten 4c, die in einem Zeilenspeicher 18a gespeichert sind, die vergrößerungsvariierten Bilddaten 4a, die in einem Zeilenspeicher 18b gespeichert sind, und die vergrößerungsvariierten Bereichssegmentationsdaten 4d, die in einem Zeilenspeicher 18c gespeichert sind.
  • Wenn die skalierungsverarbeiteten Bilddaten 4a und die skalierungsverarbeiteten Bereichssegmentationsdaten 4b ausgegeben werden, werden Anweisungsdaten, die einen Start von Daten, die Hinterseite jeder Zeile und ein Ende von Bilddaten darstellen, zu den speziellen Daten 4c hinzugefügt. Die Information, die den Start von Daten, die Hinterseite jeder Zeile und das Ende der Bilddaten darstellt, wird zu der gleichen Zeit gegeben, wenn die Eingangsbilddaten von dem Bildeingabeabschnitt 1 eingegeben werden.
  • Spezifischer werden, um den Start von skalierungsverarbeiteten Bilddaten 4a und skalierungsverarbeiteten Bereichssegmentationsdaten 4b, wie in den Fig. 22(a) und 22(b) gezeigt, darzustellen, Start-Anweisungsdaten 20 als die Anweisungsdaten, die den Start von Daten darstellen, auf speziellen Ausgangsdaten ausgegeben, wie durch einen Kreis in Fig. 22(b) angezeigt. Überdies werden, um die 1-Unterseiten der Zeilen der skalierungsverarbeiteten Bilddaten 4a und der skalierungsverarbeiteten Bereichssegmentationsdaten 4b, wie in den Fig. 23(a) und 23(b) gezeigt, darzustellen, Hinterseiten-Anweisungsdaten 21 als Anweisungsdaten, die die Hinterseiten der Zeilen darstellen, auf den speziellen Ausgangsdaten ausgegeben, wie durch einen Kreis in Fig. 23(b) angezeigt. Weiter werden, um das Ende der gesamten Bilddaten der vergrößerungsvariierten Bilddaten 4a und der skalierungsverarbeiteten Bereichssegmentationsdaten 4b, wie in den Fig. 24(a) und 24(b) dargestellt, Endanweisungsdaten 22 der Bilddaten als Anweisungsdaten, die das Ende der gesamten Bilddaten darstellen, auf den speziellen Ausgangsdaten ausgegeben, wie durch einen Kreis in Fig. 24(b) angezeigt.
  • Auf eine derartige Weise werden Anweisungsdaten 20, 21 und 22, die jeweils die Vorderseite und Hinterseite einer Zeile und das Ende von Bilddaten darstellen, zu den speziellen Daten 4c gegeben, und die skalierungsverarbeiteten Bilddaten 4a und die skalierungsverarbeiteten Bereichssegmentationsdaten 4b werden kombiniert, um so ausgegeben zu werden. Folglich ist ein Zeilenzähler oder dergleichen auch in dem zweiten Bildverarbeitungsabschnitt 15 nicht erforderlich, und Ausgangsdaten können durch eine einfache Anordnung einer Hardware erzeugt werden, um so zu der asynchronen Einheit 10 ausgegeben zu werden.
  • Wie oben erwähnt, liest das Bildverarbeitungsverfahren der vorliegenden Ausführungsform ein Bild, teilt das gelesene Bild in Blöcke, die aus einer Vielzahl von Bildelementen bestehen, und interpoliert jedes Bildelement, um so das Bild variabel zu skalieren. In Übereinstimmung mit diesem Bildverarbeitungsverfahren werden Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten jedes Bildelements des Bilds von dem Bereichssegmentationsabschnitt 3 erfasst, und die skalierungsverarbeiteten Bilddaten 4a werden als interpolierte Bildelementdaten jedes Bildelements von dem variablen Skalierungsabschnitt 4 auf der Grundlage des erfassten Ergebnisses berechnet, um so das Bild zu skalieren. Unterdessen werden zu der Zeit der Berechnung der skalierungsverarbeiteten Bilddaten 4a pro Bildelement die Bereichssegmentationsdaten 3b, die von dem Bereichssegmentationsabschnitt 3 erfasst werden, dem variablen Skalierungsprozess auf der Grundlage des Ergebnisses, das von dem Bereichssegmentationsabschnitt 3 erfasst wird, unterworfen, um so als skalierungsverarbeitete Bereichssegmentationsdaten 4b zusammen mit den skalierungsverarbeiteten Bilddaten 4a ausgegeben zu werden.
  • In dem Fall, wo gewünscht wird, dass die skalierungsverarbeiteten Bilddaten 4a zu der asynchronen Einheit 10, wie etwa beispielsweise einem Faxgerät und einem Personalcomputer, ausgegeben werden, stimmt, auch wenn die Bereichssegmentationsdaten 3b nicht dem variablen Skalierungsprozess unterworfen werden, eine Anzahl von Bildelementen nicht mit den skalierungsverarbeiteten Bilddaten 4a überein. Deswegen tritt ein Problem auf, dass die Bereichssegmentationsdaten 3b nicht verwendet werden können.
  • Jedoch werden in dem obigen Verfahren auch die Bereichssegmentationsdaten 3b, die von dem Bereichssegmentationsabschnitt 3 erfasst werden, dem variablen Skalierungsprozess auf der Grundlage des Ergebnisses, das von dem Bereichssegmentationsabschnitt 3 erfasst wird, unterworfen, um so als die skalierungsverarbeiteten Bereichssegmentationsdaten 4b zusammen mit den skalierungsverarbeiteten Bilddaten 4a ausgegeben zu werden.
  • Deswegen können, da eine Anzahl von Bildelementen der vergrößerungsvariierten Bilddaten mit jener der Bereichssegmentationsdaten übereinstimmt, auch wenn diese Daten zu einer externen, asynchronen Bildeingabe-/-ausgabeeinrichtung, wie etwa einem Faxgerät und einem Personalcomputer, ausgegeben werden, Bereichssegmentationsdaten verwendet werden.
  • Zusätzlich werden sie, da die Wahrscheinlichkeiten von Zeichen, Fotografien und Gitterpunkten auch den skalierungsverarbeiteten Bereichssegmentationsdaten 4b eingegeben werden, zusammen kombiniert, so dass das skalierungsverarbeitete Bild zu der asynchronen Einheit 10 ausgegeben werden kann.
  • Zusätzlich gibt, in dem Fall, wo die skalierungsverarbeiteten Bilddaten 4a und die skalierungsverarbeiteten Bereichssegmentationsdaten 4b gleichzeitig ausgegeben werden, das Bildverarbeitungsverfahren der vorliegenden Ausführungsform gleichzeitig die Anweisungsdaten 20, 21 und 22, die die Vorderseite und Hinterseite jeder Zeile mehrfacher Bildelemente auf den Ausgangsdaten und das Ende von Bilddaten darstellen, aus.
  • Mit anderen Worten sollte, in dem Fall, wo die skalierungsverarbeiteten Bilddaten 4a zu der asynchronen Einheit 10, wie etwa einem Faxgerät und einem Personalcomputer, ausgegeben werden, wenn die Anweisungsdaten, die die Vorderseite und Hinterseite der Zeilen und das Ende der Bilddaten darstellen, in den skalierungsverarbeiteten Bereichssegmentationsdaten 4b nicht existieren, eine Anzahl von Bildelementen für eine Zeile und eine Gesamtzahl von Zeilen zu einer externen asynchronen Einheit 10 übertragen werden. Weiter sollte, auch wenn die obigen Anzahlen zu der synchronen Einheit 10 übertragen werden, ein Zeilenzähler immer bereitgestellt werden.
  • Jedoch müssen, in Übereinstimmung mit dem obigen Verfahren, da die Anweisungsdaten 20, 21 und 22, die die Vorderseite und Hinterseite jeder Zeile mehrfacher Bildelemente auf den Ausgangsdaten und das Ende der Bilddaten darstellen, gleichzeitig ausgegeben werden, eine Anzahl von Bildelementen einer Zeile und eine Gesamtzahl von Zeilen nicht zu einer externen asynchronen Einheit 10 übertragen werden, wodurch es ermöglicht wird, eine Installation des Zeilenzählers zu vermeiden.
  • In der vorliegenden Ausführungsform wird die Nächste-Nachbar- Interpolation für den variablen Skalierungsprozess der Bereichssegmentationsdaten 3b verwendet, aber das Verfahren ist darauf nicht beschränkt, und somit kann der Skalierungsprozess auf der Grundlage der Bereichssegmentationsdaten 3b wie ein Skalieren von Bilddaten durchgeführt werden.

Claims (13)

1. Bildverarbeitungsverfahren zum Skalieren eines Bilds, umfassend die Schritte:
- Teilen eines Bilds in Blöcke, die jeweils aus einer Vielzahl von Bildelementen bestehen,
- Erfassen jeweiliger Bereichssegmentationsdaten (3b) der Blöcke, die jeweils eine Wahrscheinlichkeit eines Auftretens von Zeichen, Fotografien oder Punktbildern innerhalb der Blöcke darstellen, indem eine Bereichssegmentationseinrichtung (3) pro Bildelement verwendet wird,
- Berechnen einer Dichte eines Zielbildelements (P) auf dem Ausgabebild indem eine Berechnungseinrichtung (4) verwendet wird, gemäß einer Interpolationsformel, die Dichten einer Vielzahl benachbarter Bildelemente (A, B) in der Nähe des Zielbildelements (P) als Eingabewerte verwendet,
gekennzeichnet durch
- Einstellen der Interpolationsformel für jedes Zielbildelement (P) durch Gewichten der Dichten jeweiliger benachbarter Bildelemente (A, B) in der Interpolationsformel gemäß entsprechender Bereichssegmentationsdaten (3b), bevor die resultierende angepasste Interpolationsformel zum Interpolieren der Dichte des Zielbildelements (P) verwendet wird,
- Erhalten von Abfalldaten (Sp) einer Zielbildelementdichte, die einen Dichteabfall des Zielbildelements (P) bezüglich der Bildelemente (A, B) darstellen, die neben dem Zielbildelement (P) nach dem Berechnungsschritt liegen; und
- Konvertieren auf einem Zielbildelement (P), dessen Bereichssegmentationsdaten eine hohe Wahrscheinlichkeit eines Zeichenabschnitts anzeigen, und dessen berechnete Dichte Dp eine Halbtondichte ist, und auf einem Bildelement (A), das dem Zielbildelement (P) am nächsten liegt, der Dichte Dp in einen Wert, der durch ein Multiplizieren der Dichte Dp mit einem Vergrößerungsfaktor, der verwendet wird wenn das Zielbildelement (P) interpoliert wird, und ein Einstellen einer Dichte Da des Bildelements, das dem Zielbildelement (P) am nächsten liegt, auf 0 erhalten wird, wenn die Abfalldaten der Bildelementdichte (Sp) Daten sind, die eine Beziehung Da < Dp < Db darstellen, während, wenn die Abfalldaten (Sp) der Bildelementdichte eine Beziehung Db < Dp < Da darstellen, Konvertieren der Dichte Da in einen Wert, der durch ein Multiplizieren der Dichte Da mit dem Vergrößerungsfaktor und ein Einstellen der Dichte Dp auf 0 erhalten wird, während Db die Dichte eines Bildelements (B) ist, das dem Zielbildelement (P) am zweitnächsten liegt.
2. Bildverarbeitungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass in dem Berechnungsschritt, wenn die Daten jedes Zielbildelements (P) durch die Berechnungseinrichtung berechnet werden, jeweils ein Skalieren der entsprechenden Bereichssegmentationsdaten in Übereinstimmung mit der Interpolation des Zielbildelements (P) durchgeführt wird.
3. Bildverarbeitungsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Skalieren für die entsprechenden Bereichssegmentationsdaten (3b) durchgeführt wird, indem die Nächste-Nachbar-Interpolation verwendet wird.
4. Bildverarbeitungsverfahren nach Anspruch 2, dadurch gekennzeichnet, dass das Skalieren für die korrespondierenden Bereichssegmentationsdaten (3b) auf der Grundlage des Ergebnisses, das durch die Bereichssegmentationseinrichtung (3) erfasst wird, durchgeführt wird.
5. Bildverarbeitungsverfahren nach Anspruch 2, weiter umfassend den Schritt eines gleichzeitigen Ausgebens der skalierten Bilddaten (4a) und der skalierten Bildsegmentationsdaten (4b) nach dem Berechnungsschritt, wobei in dem Ausgabeschritt Anweisungsdaten (20, 21, 22), die eine Vorderseite und eine Hinterseite jeder Zeile der vielfachen Bildelemente auf den skalierten Bilddaten (4a) und ein Ende der skalierten Bilddaten (4a) darstellen, zusammen mit den skalierten Bilddaten (4a) und den skalierten Bereichssegmentationsdaten (3b) ausgegeben werden.
6. Bildverarbeitungsverfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass das Gewichten der Dichten jeweiliger benachbarter Bildelemente (A, B) zu dem Zielbildelement (P) ausgeführt wird, um so eine Interpolationsformel zu erhalten, die der Nächste-Nachbar- Interpolation, wenn die Bereichssegmentationsdaten eine hohe Wahrscheinlichkeit eines Zeichenabschnitts anzeigen, oder Interpolationen erster Grade entspricht, wenn die Bereichssegmentationsdaten eine hohe Wahrscheinlichkeit eines fotografischen Abschnitts anzeigen.
7. Bildverarbeitungsverfahren nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass in dem Berechnungsschritt dann, wenn die Wahrscheinlichkeit von Zeichen, die durch die Bereichssegmentationsdaten dargestellt werden, höher ist, ein Gewicht einer Dichte eines benachbarten Bildelements (A), das das nächste zu dem Zielbildelement (P) in der Interpolationsformel ist, größer eingestellt wird, und dann, wenn die Wahrscheinlichkeit von Fotografien und Gitterpunkten, die in den Bereichssegmentationsdaten (3b) dargestellt werden, höher ist, das Gewicht kleiner eingestellt wird.
8. Bildverarbeitungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass
- in dem Erfassungsschritt die Bereichssegmentationsdaten (3b) so eingestellt werden, einen Wert X anzunehmen, der innerhalb des Bereichs von 0 bis N-1 (N ist eine Ganzzahl nicht geringer als 2) fällt, und so dass, wenn die Wahrscheinlichkeit von Zeichen höher ist, die Bereichssegmentationsdaten (3b) einen kleineren Wert annehmen, und wenn die Wahrscheinlichkeiten von Fotografien und Punktbildern höher sind, die Bereichssegmentationsdaten (Jb) einen größeren Wert annehmen,
- in dem Berechnungsschritt die Dichte Dp des Zielbildelements (P) gemäß der folgenden Gleichung berechnet wird:
Dp = (1-K) · Da + K · Db (1)
(Jedoch, K = (Xp/N-1)) · (PA/(PA+pB)))
wobei Xp Segmentationsdaten (3b) des Zielbildelements (P) sind, PA ein Abstand zwischen dem Bildelement P und dem Bildelement A ist, und PB ein Abstand zwischen dem Bildelement P und dem Bildelement B ist.
9. Bildverarbeitungsverfahren nach Anspruch 1, weiter umfassend den Schritt eines Ausgebens von EIN-Daten, indem ein Laser verwendet wird, wobei in dem Ausgabeschritt eine Pulsbreite der EIN-Daten gemäß der Dichtedaten bezüglich des Zielbildelements (P) nach dem Konvertierungsschritt moduliert wird, und eine Position der EIN-Daten innerhalb des Zielbildelements (P), für welchen der Wert, der durch ein Multiplizieren der Dichte Dp mit dem Vergrößerungsfaktor gegeben ist, an eine Position angepasst wird, die zu einer Seite des benachbarten Bildelements (A oder B) verschoben ist, wo die Dichte auf der Grundlage der Abfalldaten der Bildelementdichte des Bildelements P höher ist.
10. Bildverarbeitungsverfahren nach Anspruch 1, weiter umfassend den Schritt eines Lesens eines Dokumentenbilds und eines Konvertierens des gelesenen Bilds in Bilddaten (2a), um so die Bilddaten (2a) in die Bereichssegmentationseinrichtung (3) vor dem Erfassungsschritt einzugeben.
11. Bildverarbeitungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass
- das Bildverarbeitungsverfahren ein Verfahren eines Vergrößerns eines Bilds ist, das aus einer Vielzahl von Bildelementen besteht, indem interpolierte Bildelemente (P) jeweils zwischen die Bildelemente (A, B) eingefügt werden,
- das Zielbildelement (P), dessen Dichte in dem Berechnungsschritt berechnet wird, das interpolierte Bildelement (P) ist.
12. Bildverarbeitungsverfahren nach Anspruch 11, weiter umfassend den Schritt eines Lesens eines Dokumentenbilds und eines Konvertierens des gelesenen Bilds in Bilddaten (2a), um so die Bilddaten (2a) in die Bereichssegmentationseinrichtung (3) vor dem Erfassungsschritt einzugeben.
13. Bildverarbeitungsvorrichtung zur Skalierung eines eingegebenen Bilds, um ein in einer Vergrößerung variiertes Bild auszugeben, umfassend:
- eine Bereichssegmentationseinrichtung (3) zur Teilung eines Bilds in Blöcke, die jeweils aus einer Vielzahl von Bildelementen bestehen, und zur Erfassung, auf der Grundlage der Bildelemente, jeweiliger Bereichssegmentationsdaten (3b) der Blöcke, die jeweils ein Auftreten von Zeichen, Fotografien und Punktbildern innerhalb der Blöcke darstellen,
- eine Berechnungseinrichtung zur Berechnung einer Dichte eines Zielbildelements (P) auf dem Ausgabebild unter Verwendung einer Berechnungseinrichtung (4) gemäß einer Interpolationsformel, die Dichten einer Vielzahl benachbarter Bildelemente (A, B) in der Nähe des Zielbildelements (P) als Eingabewerte verwendet, dadurch gekennzeichnet, dass die Berechnungseinrichtung
- die Interpolationsformel für jedes Zielbildelement (P) durch eine Gewichtung der Dichten der jeweiligen benachbarten Bildelemente (A, B) in der Interpolationsformel gemäß der entsprechenden Bereichssegmentationsdaten (3b) anpasst, bevor die resultierende angepasste Interpolationsformel zur Interpolation der Dichte des Zielbildelements (P) verwendet wird, wobei
- Abfalldaten (Sp) der Zielbildelementdichte, die einen Dichteabfall des Zielbildelements (P) bezüglich der Bildelemente (A, B) darstellt, die benachbart zu dem Zielbildelement (P) sind, nach dem Berechnungsschritt erhalten werden; und
- auf einem Zielbildelement (P), dessen Bereichssegmentationsdaten eine hohe Wahrscheinlichkeit eines Zeichenabschnitts anzeigen und dessen berechnete Dichte Dp eine Halbtondichte ist, und auf einem Bildelement (A) , das dem Zielbildelement (P) am nächsten liegt, die Dichte Dp in einen Wert konvertierbar ist, der durch ein Multiplizieren der Dichte Dp mit einem Vergrößerungsfaktor, der verwendet wird, wenn das Zielbildelement (P) interpoliert wird, und ein Einstellen einer Dichte Da des Bildelements, das dem Zielbildelement (P) am nächsten liegt, auf 0 erhalten wird, wenn die Abfalldaten (Sp) der Bildelementdichte Daten sind, die eine Beziehung Da < Dp < Db darstellen, während, wenn die Abfalldaten (Sp) der Bildelementdichte eine Beziehung Db < Dp < Da darstellen, die Dichte Da in einen Wert konvertierbar ist, der durch ein Multiplizieren der Dichte Da mit dem Vergrößerungsfaktor und ein Einstellen der Dichte Dp auf 0 erhalten wird, während Db die Dichte eines Bildelements ist, das (B) dem Zielbildelement (P) am zweitnächsten liegt.
DE69714873T 1996-01-17 1997-01-15 Verfahren und Vorrichtung zur Bildinterpolation Expired - Lifetime DE69714873T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00598396A JP3357776B2 (ja) 1996-01-17 1996-01-17 画像処理方法

Publications (2)

Publication Number Publication Date
DE69714873D1 DE69714873D1 (de) 2002-10-02
DE69714873T2 true DE69714873T2 (de) 2003-04-30

Family

ID=11626058

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69714873T Expired - Lifetime DE69714873T2 (de) 1996-01-17 1997-01-15 Verfahren und Vorrichtung zur Bildinterpolation

Country Status (4)

Country Link
US (1) US5953463A (de)
EP (1) EP0785529B1 (de)
JP (1) JP3357776B2 (de)
DE (1) DE69714873T2 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3585703B2 (ja) * 1997-06-27 2004-11-04 シャープ株式会社 画像処理装置
US6760489B1 (en) 1998-04-06 2004-07-06 Seiko Epson Corporation Apparatus and method for image data interpolation and medium on which image data interpolation program is recorded
WO1999053441A1 (fr) * 1998-04-10 1999-10-21 Seiko Epson Corporation Dispositif et procede d'interpolation de donnees d'images, et support sur lequel le programme d'interpolation de donnees d'images est enregistre
EP1838084A3 (de) 1998-06-23 2007-12-26 Sharp Kabushiki Kaisha Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Medium, auf dem das Bildverarbeitungsprogramm aufgezeichnet ist
JP3713205B2 (ja) * 1999-01-08 2005-11-09 マクロニクス インターナショナル カンパニー リミテッド 局所的に選択された補間関数でもってイメージをスケーリングする方法及び装置
JP3611742B2 (ja) 1999-05-31 2005-01-19 シャープ株式会社 画像処理装置
JP4547752B2 (ja) * 2000-01-14 2010-09-22 ソニー株式会社 画像処理装置および方法、並びに記録媒体
EP1180743B1 (de) * 2000-04-24 2007-11-07 Seiko Epson Corporation Vorrichtung und Verfahren zur Interpolation von Bilddaten
US6990236B2 (en) * 2001-11-30 2006-01-24 Sharp Laboratories Of America, Inc. Fast method of finding approximate nearest neighbor in high-dimensional space with a dynamically changing sample
AU2003228063A1 (en) * 2002-06-03 2003-12-19 Koninklijke Philips Electronics N.V. Adaptive scaling of video signals
US20050201640A1 (en) * 2004-03-10 2005-09-15 Wen-Kuo Lin Digital picture scaling
US8749543B2 (en) * 2006-08-15 2014-06-10 Microsoft Corporation Three dimensional polygon mesh deformation using subspace energy projection
DE102007009209B3 (de) * 2007-02-26 2008-08-28 Siemens Ag Verfahren zur Erzeugung von zeitlich hochaufgelösten MR-Aufnahmen durch Multiplikation unterabgetasteter Bilder mit einem Mittelwertbild
WO2010124599A1 (zh) 2009-04-30 2010-11-04 华为终端有限公司 图像转换方法、转换装置及显示系统
JP6408884B2 (ja) * 2014-11-28 2018-10-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4194221A (en) * 1978-12-26 1980-03-18 Xerox Corporation Automatic multimode continuous halftone line copy reproduction
GB2103449B (en) * 1981-06-29 1985-05-30 Nippon Telegraph & Telephone Method and apparatus for gray level signal processing
DE3413699A1 (de) * 1983-04-12 1984-10-18 Canon K.K., Tokio/Tokyo Bildverarbeitungssystem
JPS62147860A (ja) * 1985-12-23 1987-07-01 Nippon Telegr & Teleph Corp <Ntt> 中間調フアクシミリ信号処理方式
JPH0666884B2 (ja) * 1985-02-23 1994-08-24 日本電信電話株式会社 網点写真領域識別方法
JPS63246076A (ja) * 1987-03-31 1988-10-13 Fuji Xerox Co Ltd フイルタ処理装置
JPH01211085A (ja) * 1988-02-19 1989-08-24 Fujitsu Ltd 画像拡大方式
US4991092A (en) * 1988-08-12 1991-02-05 The Regents Of The University Of California Image processor for enhancing contrast between subregions of a region of interest
US5132788A (en) * 1989-02-25 1992-07-21 Minolta Camera Kabushiki Kaisha Image processing apparatus for processing respective image data obtained by reading an outputting image signal corresponding to pixels forming the original image
US5289293A (en) * 1989-03-14 1994-02-22 Canon Kabushiki Kaisha Pixel density conversion and processing
US5153925A (en) * 1989-04-27 1992-10-06 Canon Kabushiki Kaisha Image processing apparatus
US5008752A (en) * 1989-06-16 1991-04-16 Eastman Kodak Company Digital image interpolator with multiple interpolation algorithms
DE69031769T2 (de) * 1989-07-07 1998-07-02 Toshiba Kawasaki Kk Bildverarbeitungsgerät
JP2650759B2 (ja) * 1989-07-21 1997-09-03 富士写真フイルム株式会社 画像処理装置
DE69032318T2 (de) * 1989-08-31 1998-09-24 Canon Kk Vorrichtung zur Bildverarbeitung
US5054100A (en) * 1989-11-16 1991-10-01 Eastman Kodak Company Pixel interpolator with edge sharpening
JP2991485B2 (ja) * 1990-11-29 1999-12-20 株式会社東芝 画像処理装置
JPH04271662A (ja) * 1991-02-27 1992-09-28 Nec Corp 画像領域判定装置
JP2784278B2 (ja) * 1991-06-13 1998-08-06 株式会社リコー 画像変倍処理装置
JPH0521384A (ja) * 1991-07-09 1993-01-29 Canon Inc 半導体装置および製造方法
DE69227886T2 (de) * 1991-11-01 1999-06-10 Konica Corp., Tokio/Tokyo Abbildungsgerät
JPH05135165A (ja) * 1991-11-13 1993-06-01 Toshiba Corp 画像処理装置
JPH06286221A (ja) * 1993-04-07 1994-10-11 Canon Inc 印刷方法およびその装置
JPH0766976A (ja) * 1993-06-18 1995-03-10 Ricoh Co Ltd 画像処理装置
DE69432093T2 (de) * 1993-09-27 2003-07-17 Canon Kk Bildverarbeitungsvorrichtung
DE69433603D1 (de) * 1993-10-26 2004-04-15 Canon Kk Bildverarbeitungsverfahren und -gerät
US5548415A (en) * 1994-06-03 1996-08-20 Riso Kagaku Corporation Image processing apparatus

Also Published As

Publication number Publication date
EP0785529A1 (de) 1997-07-23
US5953463A (en) 1999-09-14
JPH09200504A (ja) 1997-07-31
JP3357776B2 (ja) 2002-12-16
DE69714873D1 (de) 2002-10-02
EP0785529B1 (de) 2002-08-28

Similar Documents

Publication Publication Date Title
DE69736938T2 (de) Detektion und Wiedergabe von Text in gerasterten Bildbereichen
DE69714873T2 (de) Verfahren und Vorrichtung zur Bildinterpolation
DE60111756T2 (de) Verfahren zum verbessern der kompressionsfähigkeit und der bildqualität von abgetasteten dokumenten
DE69419682T2 (de) Raumfiltereinheit zur adaptiven Randverstärkung
DE69209540T2 (de) Bildverarbeitungsgerät
DE69511507T2 (de) Verfahren und Vorrichtung zur automatischen Bildsegmentierung unter Verwendung von Standardvergleichsmustern
DE69029229T2 (de) Digitale halbtonrasterung mit fehlerdiffusion
DE69620302T2 (de) Verfahren und Vorrichtung zur Verbesserung eines digitalen Bildes
DE69822545T2 (de) Bildverbesserung unter Benutzung einer Flächeninterpolation
DE69226825T2 (de) Verbessertes automatisches Segmentieren von Bildern
DE69108951T2 (de) Digitale photographische Halbtonbildreproduktion.
DE69306847T2 (de) Bildverarbeitungssystem und -methode unter Anwendung adaptiver Abtastung von Halbtonvorlagen um besser druckbare Bilder zu erzeugen
DE69921388T2 (de) Bildverarbeitungsvorrichtung
DE69230629T2 (de) Verfahren und Vorrichtung zur Bildverbesserung
DE69521448T2 (de) Verfahren zur Bildelementkorrektur und -glättung
DE69125414T2 (de) Bildverarbeitungsgerät
DE69706763T2 (de) Verfahren und Vorrichtung zum selektiven Bearbeiten von abgetasteten Bildvorlagen
DE60315568T2 (de) Verfahren zur Verbesserung der Schärfe eines Digitalbildes
DE69031769T2 (de) Bildverarbeitungsgerät
DE3751614T2 (de) Bildverarbeitungsverfahren und Vorrichtung dazu.
DE60127016T2 (de) Verfahren und Gerät zur Durchführung einer lokalen Farbkorrektur
DE69518467T2 (de) Bildverarbeitungsgerät
DE69818593T2 (de) Bildbereichsbeurteilungsvorrichtung
DE69122421T2 (de) Verfahren und Gerät zum Hervorheben der Bildschärfe
DE10136357A1 (de) Kombinierte Punktdichten- und Punktgrößen-Modulation

Legal Events

Date Code Title Description
8364 No opposition during term of opposition