[go: up one dir, main page]

DE69228893T2 - Vorrichtung und Verfahren zur Datenmischung und -entmischung - Google Patents

Vorrichtung und Verfahren zur Datenmischung und -entmischung

Info

Publication number
DE69228893T2
DE69228893T2 DE69228893T DE69228893T DE69228893T2 DE 69228893 T2 DE69228893 T2 DE 69228893T2 DE 69228893 T DE69228893 T DE 69228893T DE 69228893 T DE69228893 T DE 69228893T DE 69228893 T2 DE69228893 T2 DE 69228893T2
Authority
DE
Germany
Prior art keywords
image
blocks
data
video
groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69228893T
Other languages
English (en)
Other versions
DE69228893D1 (de
Inventor
Charles H. Coleman
Sidney D. Miller
Peter Smidth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ampex Corp
Original Assignee
Ampex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=24625949&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69228893(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ampex Corp filed Critical Ampex Corp
Publication of DE69228893D1 publication Critical patent/DE69228893D1/de
Application granted granted Critical
Publication of DE69228893T2 publication Critical patent/DE69228893T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/98Adaptive-dynamic-range coding [ADRC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • H04N5/9261Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction
    • H04N5/9264Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation involving data reduction using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/15Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

    HINTERGRUND DER ERFINDUNG
  • Diese Erfindung betrifft die Echtzeit-Komprimierung von digitalen Videosignalen, die für die Übertragung von digitalen Daten entweder über einen Übertragungskanal oder für die Aufzeichnung und Wiedergabe auf/von einem Magnetband-Aufzeichnungsgerät oder einem anderen Aufzeichnungsmedium geeignet ist. Insbesondere betrifft die vorliegende Erfindung ein Verfahren zum Mischen von Bilddaten, um deren Informationsgehalt auszugleichen, vor der Komprimierung der Daten zu festen Codeblocklängen, die dann auf/von einem Aufzeichnungsmedium aufgezeichnet und wiederhergestellt werden können.
  • Im allgemeinen besteht das Ziel der Datenkomprimierung darin, digitale Informationen unter Verwendung der geringsten Datenübermittlung wie möglich über einen Übertragungskanal von einem Punkt zu einem anderen zu senden. Mit anderen Worten, die Aufgabe besteht darin, die Übertragung von so viel redundanten Daten wie möglich zu beseitigen. Videobilder enthalten rein durch ihre Art eine große Menge an Redundanz und sind folglich gute Kandidaten für die Datenkomprimierung. Es ist auch gut bekannt, daß eine unkomplizierte digitale Darstellung eines Bildes auf statistischer Basis notwendigerweise eine Redundanz sowohl in räumlicher Hinsicht als auch in zeitlicher Hinsicht enthält. Durch Entfernen eines Teils der Redundanz aus den Bilddaten am Sender kann die Menge an über einen Übertragungskanal übertragenen oder auf einem Speichermedium aufgezeichneten Daten beträchtlich verringert werden. Das Bild kann dann durch Wiedereinführen der am Sender entfernten Redundanz am Empfänger oder, falls es aufgezeichnet ist, in der Wiedergabeelektronik des Aufzeichnungsgeräts rekonstruiert werden. Übrigens bezieht sich der hierin verwendete Ausdruck "Bilddaten" auf Daten, die ein in einem zweidimensionalen räumlichen Bild anzuzeigendes Bild definieren, das auch die Form eines zeitvariablen Bildes annehmen kann, welches aus mehreren Bildern besteht, die zeitlich gleich beabstandet sind. Die exakte Form oder Struktur der "Bilddaten" kann eine beliebige von einer Vielzahl gut bekannter Formen annehmen, und in dieser Hinsicht sollte beachtet werden, daß die vorliegende Erfindung auf eine beliebige Art Signal, das einen zweidimensionalen Raum darstellt, allgemein anwendbar ist. Ein solches Signal könnte beispielsweise eine von einer Videokamera stammende Bewegungsszene sein.
  • Aus einer sehr allgemeinen Perspektive gibt es zwei Klassen der Datenkomprimierung: eine verlustfreie Komprimierung und eine verlustbehaftete Komprimierung. Die verlustfreie Komprimierung, wie der Name besagt, ermöglicht, daß die ursprünglichen Daten nach der Komprimierung ohne jeglichen Informationsverlust exakt rekonstruiert werden. Wohingegen die verlustbehaftete Datenkomprimierung ein irreversibler Prozeß ist, der ein gewisses Ausmaß an Verzerrung in die komprimierten Daten einführt, so daß die ursprünglichen Daten nicht exakt wiedergegeben werden können. Um große Komprimierungsfaktoren für Bilder zu erhalten, ist es notwendig, verlustbehaftete Komprimierungsverfahren der hierin beschriebenen Art zu verwenden. Die verlustbehaftete Komprimierung kann eine annehmbare Alternative sein, solange das Ausmaß und die Art der im rekonstruierten Bild erzeugten Verzerrung nicht zu beanstanden sind. Was jedoch in einer Industrie als "zu beanstanden" betrachtet wird, ist es in einer anderen nicht. Beispielsweise muß in der professionellen Videoindustrie, wo der Rauschabstand typischerweise 50 Dezibel (dB) oder besser sein muß, das rekonstruierte Bild vom Original virtuell ununterscheidbar sein, d. h. mehr als 2 oder 3 dB Signalverschlechterung ist zu beanstanden, da sie für Betrachter einer Videoanzeige wahrnehmbar ist.
  • Die Bildkomprimierung zur Verwendung in Verbindung mit digitalen Videoband-Aufzeichnungsgeräten besitzt verschiedene eindeutige Anforderungen, die einem beliebigen verwendeten Komprimierungsverfahren zusätzliche Bedingungen auferlegen. Die ungewöhnlichen Bedingungen ergeben sich aus den typischen Verwendungsarten eines Videoband- Aufzeichnungsgeräts und aus der Tatsache, daß die Daten eher zur späteren Verwendung gespeichert als sofort übertragen werden müssen. Beispielsweise muß ein Bandaufzeichnungsgerät die Editierung der aufgezeichneten Informationen ermöglichen. Praktisch bedeutet dies, daß die gespeicherten Daten für ein Feld eine ganzzahlige Anzahl von Spuren auf dem Band belegen oder festgelegte Blöcke von Videodaten, wie z. B. ein Fernsehhalbbild, an vorhersagbaren Stellen oder Spuren auf dem Band belegen (insbesondere für Editierzwecke). Dies erlegt die Bedingung auf, daß ein Feld von Daten in der Länge konstant ist. Eine solche scheinbar einfache Bedingung erlegt jeglichem Komprimierungsschema eine schwere Konstruktionsanforderung auf. Da die meisten Bilder statistisch nicht-stationär sind (das heißt, die statistische Verteilung des Informationsgehalts ändert sich als Funktion der Position innerhalb des Bildes), wäre die offensichtliche Lösung zur Komprimierung eines digitalen Signals mit variablem Informationsgehalt zu ermöglichen, daß sich die codierte Datenflußrate auf bildweiser oder halbbildweiser Zeitbasis gemäß dem Informationsgehalt des Bildes ändert. Aufgrund der Editieranforderungen muß jedoch die codierte Datenflußrate eher fest als variabel sein. Im Editiermodus erfordert der Austausch von aufgezeichneten Informationen gegen neue Informationen, daß der kleinsten auszutauschenden Informationseinheit (bei Fernsehsignalen ist dies ein einzelnes Halbbild) eine feste Datenblocklänge im aufgezeichneten Datenformat zugeordnet wird. Dies ermöglicht, daß eine beliebige Einheit eines Videosignals durch irgendeine Einheit eines Videosignals mit gleicher Größe ersetzt wird.
  • Videoband-Aufzeichnungsgeräte für Fernsehsendeanwendungen müssen auch ermöglichen, daß Bilder mit höheren als normalen Aufzeichnungs-/Wiedergabe- Bandtransportgeschwindigkeiten wiedergegeben werden (Bildpendelsuchlauf). Bei den extrem höheren Wiedergabegeschwindigkeiten, die mit dem Bildpendelsuchlauf-Modus verbunden sind, wird nur ein Bruchteil der Daten auf jeder Spur wiederhergestellt. Dies erfordert, daß die komprimierten aufgezeichneten Daten in kleinen vollständigen Datenblöcken gespeichert werden, von denen ein bedeutendster Teil des Bildes selbst bei der höheren Geschwindigkeit wiederhergestellt werden kann.
  • Um beim Aufzeichnen eine maximale Effizienz aufrechtzuerhalten und die Lücken für Aufzeichnungsüberläufe zu minimieren, ist es am besten, ein Aufzeichnungsformat zu verwenden, das eine feste kurze Periode besitzt, die mit der ursprünglichen unkomprimierten Information in Beziehung steht. Dies vereinfacht die Auslegung des Datendeformatierers durch Vorsehen einer regelmäßigen und voraussichtlichen Struktur für den vom Band wiederhergestellten Datenstrom. Diese regelmäßige Struktur ermöglicht ein "intelligentes" Deformatieren der Daten, da bestimmte Muster als Fehler identifiziert und ignoriert werden können.
  • Bisher haben sich verschiedene Untersuchungen der digitalen Videokomprimierung auf die zweidimensionale diskrete Cosinustransformation (die DCT) zur Verwendung als bevorzugtes adaptives Codierhilfsmittel aufgrund ihrer Energieverdichtungseigenschaften und relativ leichten Implementierung mit digitalen Schaltungen konzentriert. (Siehe "Discrete Cosine Transform," IEEE Transaction on Computers, Band C-23, Seiten 90-93, Jan. 1974.) Um eine Transformation an einem Videobild auszuführen, wird das Bild zuerst in Blöcke von Pixeln (z. B. 16 · 16 oder 8 · 8) unterteilt, und dann durch eine Cosinustransformation in einen Satz von Transformationskoeffizienten transformiert, von denen jeder einen skalaren Gewichtungsparameter (d. h. einen Koeffizienten) für eine zweidimensionale Cosinustransformationsfunktion darstellt. In der Cosinustransformationsdomäne konzentrieren sich die Amplitudenkoeffizienten bei den niedrigeren Frequenztermen, wobei viele der oberen Frequenzen mit Null gewertet werden. Wenn die Koeffizienten grob in ganzzahlige Werte quantisiert werden und dann einer Huffman-Codierung unterzogen werden, wird die Anzahl der Bits, die zur Darstellung des Bildes erforderlich ist, stark verringert. Ein Schlüsselfaktor dabei, dieses Schema effektiv arbeiten zu lassen, ist der Quantisierungsprozeß. Wenn die Quantisierung zu fein ist, überschreiten die vom Huffman- Codierer erzeugten Daten die Datenflußrate des Kanals (oder Aufzeichnungsgeräts), während eine zu grobe Quantisierung zu unannehmbarer Verzerrung/unannehmbarem Rauschen führt.
  • Ein Verfahren zum Bestimmen eines geeigneten Quantisierungsparameters für die erforderliche Datenflußrate überwacht einfach einen Ausgabepufferspeicher und verwendet ein Rückkopplungsschema, um das Quantisierungsniveau so einzustellen, daß ein Gleichgewicht der Daten in dem Puffer aufrechterhalten wird. Somit gehen bei einem weniger komplexen Teil eines Bildes weniger Daten in den Pufferspeicher ein, um den Inhalt zu verringern, während bei einem komplexeren Teil des Bildes die Puffer- Eingangsdatenflußrate zunimmt, um den Pufferinhalt zu steigern. Dieses Verfahren ist in dem Artikel "Scene Adaptive Coder" von Chen et al., das in IEEE Transactions on Communications, Band Com. 32, Nr. 3 (März 1984), erschienen ist, beschrieben. Es ist auch im US-Patent Nr. 4 302 775 beschrieben. Bei Aufzeichnungsprozessen eignen sich jedoch Verfahren, die die Puffergesamtheit verwenden, nicht zu einer genauen Ratensteuerung über kleine Informationsmengen und ermöglichen folglich keine effiziente und genaue Editierung und keinen Bildpendelsuchlauf. Bitzuordnungsverfahren, wie in der Vergangenheit verwendet, erzeugen nicht die Qualität von Bildern, die erwünscht ist, wenn ein relativ breiter Bereich von verschiedenen Bildern, die durch die Daten definiert sind, verringert werden soll.
  • In einigen Fällen, wie z. B. dem unmittelbar vorstehend beschriebenen, wird ein Schwellenwert auf die transformierten Datenkoeffizienten angewendet. Das heißt, alle Werte unterhalb einer bestimmten Schwelle werden als Null betrachtet. Diese Schwellenwertfestlegung wird auch häufig als Quantisierung betrachtet, und wie hierin verwendet, soll die Terminologie Anwenden einer "Quantisierung" oder eines Quantisierungsparameters die Anwendung eines Schwellenwerts, eines Skalierungsfaktors oder eines anderen numerischen Verarbeitungsparameters beinhalten.
  • Es ist im allgemeinen erwünscht, die Quantisierungsparameter so zu verändern, daß die kleinste Zunahme der sichtbaren Verzerrung eines komprimierten Videobildes erzeugt wird, während dennoch eine gewünschte Ausgangsdatenflußrate vorgesehen wird. Der Parameter, der am vorteilhaftesten verändert werden kann, ändert sich, wenn sich die Datenflußrate ändert, die eine Funktion des Informationsgehalts des Bildes ist. Verschiedene Datenquellen und in einem geringeren Grad verschiedene Bilder werden durch verschiedene Strategien optimal quantisiert, da sich deren Informationsgehalt ändert. Das Verzerrungsproblem ist besonders akut bei vielen Fernsehanwendungen, bei denen die Qualität eines weiterverarbeiteten Bildes wichtig ist. Es ist auch bei den meisten solcher Anwendungen erforderlich, daß mehrere Komprimierungsgenerationen, das heißt, mehrere Komprimierungs-/Expansionszyklen, ohne merkliche Verschlechterung durchgeführt werden.
  • Um die Probleme zu umgehen, die bei dem Versuch erzeugt werden, Daten, wie beispielsweise über Videoband- Aufzeichnungsgeräte aufzuzeichnende Videosignale, zu komprimieren, wobei spezielle Einheiten von Videodaten in eine zugeordnete aufgezeichnete Datensynchronisationsblocklänge passen müssen, sollten die Videobilddaten vorzugsweise nicht nacheinander genommen werden, und die Daten sollten auch nicht fortlaufend von demselben Bereich des Bildes genommen werden. Bei einem solchen Auswahlprozeß werden die Teile des Bildes mit geringer Komplexität fein quantisiert, wohingegen die komplexen Teile des Bildes grob quantisiert werden. Das resultierende Bild weist in den Bereichen mit geringer Komplexität eine sehr hohe Qualität und in den komplexen Bereichen eine schlechte Qualität auf.
  • Zur Erläuterung wird angenommen, daß ein zu komprimierendes und aufzuzeichnendes oder zu übertragendes Bild eine Szene eines Hafens mit den relativ komplexen Booten, Leuten und Geschäften gegen einen Hintergrund eines Meeres und eines klaren blauen Himmels ist. Wenn Daten nacheinander genommen werden, können die Bereiche mit geringerer Komplexität, wie z. B. der Himmel oder das Meer, mit weniger Bits codiert werden, während der Bereich der Szene mit den Booten und Leuten eine größere Komplexität aufweist und eine größere Anzahl an Codierungsbits erfordert, um eine Bildverzerrung zu verhindern. Wenn die codierten Daten in Synchronisationsblöcke mit vorgewählter fester Länge eingefügt werden sollen, wie z. B. beim Aufzeichnen auf Band, aber die Daten nacheinander genommen werden, wird den Bereichen des Himmels und des Meeres dieselbe Anzahl an Bits pro Synchronisationsblock zugeordnet wie den Bereichen der Boote und Leute. Da jedoch der Himmel oder das Meer weniger komplex ist, ist nur ein kleiner Bruchteil der Bits in dem Synchronisationsblock für die codierten Transformationskoeffizienten zum vollständige Codieren der Information erforderlich. Den restlichen Bits des Synchronisationsblocks werden einfach Nullen zugeordnet und sie werden daher verschwendet. Ferner werden während des Prozesses der Komprimierung der Daten der Hafenszene die komplexeren Daten, die den Booten und Leuten entsprechen, codiert, und nun sind ungenügend Bits verfügbar, um die Daten ohne Verzerrung zu codieren. Das heißt, die Anzahl der Bits, die erforderlich ist, um die komplexeren Teile des Bildes mit minimaler Verzerrung zweckmäßig zu codieren, paßt nicht in den auf dem Band zugeordneten Raum. Somit müssen die komplexen Teile des Bildes grob quantisiert werden, um die Information in die feste Synchronisationsblocklänge "zwangsweise" einzufügen. Dies gilt selbst dann, wenn die festen Synchronisationsblocklängen, die die weniger komplexen Bilddaten des Himmels und des Meeres enthalten, fein quantisiert werden mit viel verschwendetem Raum innerhalb jeder Blocklänge. Es ist zu sehen, daß dieses Problem der effizienten Zuteilung von Bits zu Bildbereichen mit unterschiedlichen Komplexitäten durch das Zuführen der Daten entsprechend dem Bild in fortlaufender Reihenfolge, wie es üblicherweise gemacht wird, verschlimmert wird.
  • Somit ist zu sehen, daß es beim Versuch, Datenkomprimierungsverfahren in Kombination mit professionellen Videoaufzeichnungsgeräten zu verwenden, zwei im Widerspruch stehende Anforderungen gibt. Einerseits ist es vom Standpunkt der Auslegung des Videoaufzeichnungsgeräts erwünscht, einem Synchronisationsblock ein festes Segment auf dem Aufzeichnungsmedium zuzuordnen. Andererseits ist es vom Standpunkt der effizienten Datenkomprimierung erwünscht, ein variables Ausgabeformat zuzuordnen, um eine Bildübertragung mit minimaler Verzerrung bereitzustellen. Was folglich erwünscht ist, ist eine Möglichkeit, diese zwei scheinbar im Widerspruch stehenden Anforderungen zu erfüllen.
  • Der Stand der Technik ist durch EP-A-0 359 729 dargestellt, das die Darstellung eines Videobildes durch eine Menge von Bildblöcken, das Verwürfeln der Bildblöcke zum Zweck der Verschlüsselung und das Komprimieren der Daten in den Bildblöcken offenbart.
  • Die vorliegende Erfindung, wie in den Ansprüchen definiert, umgeht die vorstehend erörterten Probleme beim Versuch, Daten, wie beispielsweise ein Fernsehsignal, zu komprimieren und zu dekomprimieren, durch Bereitstellung eines Misch-/Entmischverfahrens, das Teile der komplexeren Bereiche des Bildes mit Teilen von weniger komplexen Bereichen kombiniert, um dadurch die Komplexität jedes Datensatzes, der codiert wird, auszugleichen. Insbesondere stellt das Mischverfahren vorgewählte Teile des Bildes zu aufeinanderfolgenden Datensätzen derart zusammen, daß jeder Datensatz im wesentlichen dieselbe Menge an Bildinformation enthält. Zu diesem Zweck wird das Videobild in dem Videohalbbild in eine Menge von kleinen geometrischen Blöcken unterteilt, die hierin als Bildblöcke bezeichnet werden, wobei jeder Bildblock einen speziellen Teil eines Videohalbbildes oder Videobildes darstellt, der von einer jeweiligen Stelle in dem Bild genommen wird. Eine vorbestimmte Anzahl an Bildblöcken, die von verschiedenen räumlichen Stellen in dem Bild genommen werden, werden kombiniert, um einen "Datensatz" zu bilden. Eine große Vielzahl von Datensätzen, die jeweils aus der gleichen Anzahl von Bildblöcken bestehen, enthalten folglich jeweils Informationen, deren Komplexität im allgemeinen der Komplexität des gesamten Videobildes entspricht. Jeder dieser Datensätze wird so komprimiert, daß er in einen zugeordneten Raum oder aufgezeichneten Datensynchronisationsblock auf dem Aufzeichnungsmedium paßt. Das heißt, die Anzahl der Datenbits von jedem codierten Datensatz entspricht der Länge des Datensynchronisationsblocks im Aufzeichnungsformat. Es folgt, daß ein Halbbild oder Bild von komprimierten Daten vorteilhafterweise eine feste Menge an aufgezeichnetem Datenraum in Anspruch nimmt, wodurch ermöglicht wird, daß die aufgezeichneten Daten leicht wiederhergestellt und editiert werden. Außerdem wird der Prozeß des Bildpendelsuchlaufs vereinfacht, da jeder aufgezeichnete Datensynchronisationsblock im Aufzeichnungsformat nun mit einem speziellen Teil des Videohalbbildes oder Videobildes in Beziehung steht, das bei solchen höheren Geschwindigkeiten des Aufzeichnungsmediums wiederhergestellt werden kann.
  • Insbesondere sieht das erfindungsgemäße Verfahren die Auswahl von Bilddaten von verschiedenen räumlichen Stellen in dem Bild nach Vorschrift durch einen ausgewählten Algorithmus vor, wodurch der statistische Informationsgehalt für jeden von einer Vielzahl von Datensätzen, die aus den Bildblöcken bestehen, einander sowie dem mittleren Informationsgehalt für das gesamte Halbbild oder Bild ähnlich ist. Daher ist das Quantisierungsniveau, das anschließend erforderlich ist, um den gewünschten Komprimierungsgrad vorzusehen, für aufeinanderfolgende Datensätze, die aus demselben Videobild genommen werden, gewöhnlich dasselbe. Dies hält die Qualität des komprimierten/dekomprimierten Bildes unabhängig von lokalen Änderungen in der Bildkomplexität aufrecht. Obwohl ein bevorzugter Algorithmus hierin als Beispiel beschrieben wird, sollte es selbstverständlich sein, daß verschiedene andere Algorithmen verwendet werden können, wie nachstehend weiter erörtert.
  • Folglich stellt eine bevorzugte Ausführungsform der Erfindung ein Verfahren bereit, welches das Datenbild in beispielsweise eine 92 · 61-Matrix von kleinen geometrischen Bildblöcken unterteilt, und das dann ausgewählte Gruppen der großen Anzahl von Bildblöcken über beispielsweise einen geeigneten Speicher und ausgewählte Schreib- und Leseadressierungssequenzen selektiv mischt. Das Mischen gleicht die Komplexität des Bildes im resultierenden Datenstrom, der zum nachfolgenden Codierungs- und Komprimierungssystem geliefert wird, aus. Nur als Beispiel werden 23 Bildblöcke von verschiedenen räumlichen Stellen in dem Videobild ausgewählt, wie durch den ausgewählten Algorithmus festgelegt, um einen "Datensatz" von 23 Bildblöcken festzulegen. Außerdem wird jeder Bildblock eines Datensatzes aus einer anderen Spalte oder Zeile ausgewählt als irgendein anderer Bildblock dieses Datensatzes und jeder Bildblock wird verwendet, aber nur einmal. Dies hebt gewöhnlich die häufigsten Arten der weitreichenden Korrelation zwischen den Blöcken in dem Videobild in horizontaler und vertikaler Richtung auf. Aufeinanderfolgende Datensätze (beispielsweise 244 Datensätze) aus jeweils 23 Bildblöcken werden über den hierin als Beispiel dargestellten Algorithmus und die Speicheradressierungssequenzen zusammengestellt, wobei sich die Komplexität jedes Datensatzes sehr nahe an die Komplexität jedes anderen Datensatzes annähert. Das heißt, die festgelegte Auswahl der Bildblöcke stellt eine optimale statistische Abtastung der Komplexität des Videobildes bereit. Anschließend, wenn der resultierende Datenstrom komprimiert wird, wird jeder Datensatz unter Verwendung von im wesentlichen demselben Quantisierungsparameter komprimiert und benötigt im wesentlichen dieselbe Menge an Raum auf dem Aufzeichnungsmedium.
  • Beim Entmischprozeß werden die aufgezeichneten Datensynchronisationsblöcke wiederhergestellt, werden dekomprimiert und werden zu einer Entmischschaltung geliefert, die im allgemeinen der Mischschaltung ähnlich ist und einen Speicher umfaßt, der dem Speicher in der Mischerschaltung ähnlich ist. Der Speicher speichert selektiv aufeinanderfolgende gemischte Datensätze und liefert entmischte Bildblöcke, die das ursprüngliche Bild darstellen. Somit werden bei einer bevorzugten Ausführungsform die Bildblöcke der Bilddaten in einer fortlaufenden Rasterreihenfolge in Erwiderung auf die Schreibadresse in den Mischspeicher in der Mischschaltung geschrieben und werden in der gewünschten gemischten Reihenfolge, wie durch die Leseadresse entsprechend dem ausgewählten Algorithmus gesteuert, aus dem Speicher ausgelesen. In der Entmischschaltung werden die gemischten Bildblöcke der Bilddaten in der gemischten Reihenfolge, wie durch denselben Algorithmus festgelegt, in den Entmischspeicher geschrieben. Die Rollen der Schreib- und Leseadressengeneratoren sind jedoch gegenüber ihren Rollen in der Mischschaltung von Fig. 4 umgekehrt. Das heißt, die vom Leseadressengenerator der Entmischschaltung erzeugten Speicherstellen sind dieselben wie jene, die während des Mischens vom Schreibadressengenerator der Mischschaltung erzeugt werden. Die vom Schreibadressengenerator der Entmischschaltung erzeugten Speicherstellen sind dieselben wie jene, die während des Mischens vom Leseadressengenerator der Mischschaltung erzeugt werden. Folglich werden die gespeicherten Bilddaten in der fortlaufenden Rasterreihenfolge, die von der Schreibadresse angewendet wird, aus dem Entmischspeicher ausgelesen.
  • Bei einem alternativen Verfahren können die Schreib- und Lesereihenfolgen sowohl im Misch- als auch im Entmischspeicher umgekehrt werden, wobei die Bildblöcke in gemischter Reihenfolge in den Mischspeicher geschrieben werden und in fortlaufender Reihenfolge ausgelesen werden, und nach der anschließenden Wiederherstellung in fortlaufender Rasterreihenfolge in den Entmischspeicher geschrieben und in der gemischten Reihenfolge ausgelesen werden.
  • Obwohl die Erfindung hierin als den Schritt der Unterteilung der Bilddaten in eine Matrix von Bildblöcken beinhaltend beschrieben wird, sollte es selbstverständlich sein, daß die Bilddaten zuerst transformiert werden können und die resultierenden transformierten Datenkoeffizienten dann in die Menge der "Bildblöcke" oder genauer Koeffizientenblöcke unterteilt werden können. Das heißt, der Schritt der Zerlegung der Bilddaten kann durchgeführt werden, um Blöcke von Transformationskoeffizienten anstatt Blöcke von Pixeln zu definieren. Folglich soll der Begriff "Bildblöcke" hierin sehr kleine Blöcke von Daten, die die Bilddaten darstellen, bevor oder nachdem ein Transformationsprozeß, wie z. B. eine DCT, stattfindet, beinhalten.
  • Alternativ können die Bildblöcke nach Vorschrift durch einen entsprechenden Algorithmus in einer pseudozufälligen Weise ausgewählt werden, anstatt daß sie über den hierin als Beispiel beschriebenen geometrisch orientierten Algorithmus ausgewählt werden. Wie vorher kann nur ein Block von irgendeiner Zeile von Blöcken in irgendeiner horizontalen oder vertikalen Richtung genommen werden, und jeder Bildblock wird verwendet, um das Bild zu erzeugen. Außerdem können die Zahlen in dem nachstehend als Beispiel dargestellten Algorithmus verändert werden, um das Bildblock-Auswahlmuster dementsprechend zu modifizieren.
  • Die Erfindung wird hierin hinsichtlich zwei Dimensionen, das heißt, in einem einzelnen Videohalbbild, Videobild oder einer Videogruppe, beschrieben, wobei Datensätze aus Blöcken gebildet werden, die von räumlichen Stellen genommen werden. Das Verfahren kann jedoch verwendet werden, um Daten zu mischen, wobei Blöcke von verschiedenen raumzeitlichen Stellen, das heißt, von verschiedenen Halbbildern, Bildern oder Gruppen, die zeitlich nacheinander vorkommen, genommen werden.
  • Das Misch-/Entmischverfahren kann auch in einem System verwendet werden, in dem der Misch-/Entmischalgorithmus entsprechend der Konsistenz der Werte der für aufeinanderfolgende Datensätze im nachfolgenden Komprimierungsprozeß verwendeten Quantisierungsfaktoren adaptiv ausgewählt werden kann. Eine Bedingung, bei der sich der Quantisierungsfaktorwert im wesentlichen für jeden aufeinanderfolgenden Datensatz ändert, zeigt beispielsweise an, daß sich der relative Informationsgehalt von jedem Datensatz ebenfalls ändert. Dies zeigt wiederum an, daß die ausgewählte Mischreihenfolge für das spezielle Bild nicht die beste sein kann. Wenn ein Vergleich von aufeinanderfolgenden Quantisierungsfaktoren durchgeführt wird, und wenn die Differenz zwischen aufeinanderfolgenden Quantisierungsfaktoren für jeden Datensatz eine ausgewählte Schwelle überschreitet, wird daher ein Schaltsignal zur Mischschaltung geliefert, um die Reihenfolge der Mischung, die auf das nächste Datenfeld angewendet wird, zu ändern. Die ausgewählte Mischreihenfolge wird als Zusatzinformation auf dem Aufzeichnungsmedium ebenfalls aufgezeichnet, so daß sie anschließend zur Entmischschaltung geliefert werden kann, um zu ermöglichen, daß die letztere Schaltung das Inverse derselben Mischreihenfolge verwendet.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Für ein besseres Verständnis der Erfindung sowie der anderen Aufgaben und weiteren Merkmale derselben wird auf die folgende Beschreibung Bezug genommen, die in Verbindung mit den zugehörigen Zeichnungen gelesen werden soll, wobei gilt:
  • Fig. 1 ist eine Ansicht eines Videobildes, die die Art und Weise darstellt, in der das Videobild in eine Menge von Bildblöcken unterteilt wird.
  • Fig. 2 ist eine Ansicht, die eine Anzeige des Videobildes von Fig. 1 dargestellt, welche aber durch den Datenstrom hergestellt wird, der erzeugt wird, nachdem das Bild durch das vorliegende Mischverfahren gemischt wurde (d. h. das gemischte Bild).
  • Fig. 3 ist eine Draufsicht auf ein Datenbild, wie z. B. das in Fig. 1 dargestellte Videobild, welche die Verteilung der Bildblöcke darstellt, die über einen betreffenden Algorithmus zum Bilden einer Folge von Datensätzen, die das Bild darstellen, ausgewählt werden.
  • Fig. 4 und 5 sind Blockdiagramme, die beispielhafte Schaltungsimplementierungen zur Durchführung des Misch-/Entmischprozesses der erfindungsgemäßen Kombination darstellen.
  • Fig. 6 und 7 sind Blockdiagramme, die den Mischprozeß darstellen, der an Bilddaten und transformierten Bilddaten durchgeführt wird, und eine Implementierung zur Bereitstellung einer adaptiven Quantisierungsfaktor-Auswahl veranschaulichen.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Wie vorstehend bezüglich der Hafenszene erörtert, ist die zum Beschreiben des Himmels erforderlichen Menge an Daten geringer als jene, die zum Beschreiben des komplexeren Teils des Bildes, der die Boote und Leute enthält, erforderlich ist. Wenn die festen Synchronisationsblocklängen aus komprimierten aufeinanderfolgenden Teilen des Bildes, wie bei einer Fernsehrasterabtastung nacheinander wiederhergestellt, bestehen, dann weisen einige Synchronisationsblöcke fast keine Daten auf, während Synchronisationsblöcke aus komplexeren Teilen des Bildes übermäßig viele Daten aufweisen. Die letztere Bedingung erfordert die Verwendung von großen Quantisierungsfaktoren, was zu einer unerwünschten Verzerrung in den komplexen Teilen des Bildes führt. Andererseits erfordert dieselbe Szene einen kleineren Quantisierungsfaktorwert, wenn sie zuerst durch das erfindungsgemäße Verfahren gemischt wird, was zu einem Minimum an Verzerrung in den komplexen Teilen des Bildes führt.
  • Es ist erwünscht, beim Fernsehrundfunk eine Codierung mit variabler Rate zu verwenden, um Videodaten zu komprimieren. Wie vorher erwähnt, erzeugt jedoch die Codierung mit variabler Rate durch ihre Art von Natur aus Datenblöcke mit variabler Länge. Die vorliegende Erfindung vermindert dieses Problem durch die Bereitstellung eines statistisch gemittelten Segments von Videodaten, um die anschließende Bestimmung des beim Komprimierungsprozeß zu verwendenden Quantisierungsfaktors zu optimieren. Das statistische Mitteln des Informationsgehalts wird durch Zusammenstellen von kleinen Teilen der Daten von verschiedenen räumlichen Stellen in dem Bild (z. B. in dem Halbbild oder Bild), um die vorher erwähnten Datensätze mit statistisch gemittelter Informationskomplexität vorzusehen, durchgeführt. In der Praxis wird die Menge der Bildblöcke der Videodaten derart ausgewählt, daß die Blöcke, die einen Datensatz umfassen, bezüglich ihrer normalen Stelle in dem Bild verwürfelt oder "gemischt" werden. Die Blöcke, die einen Satz bilden, werden gemäß einem Algorithmus ausgewählt, wie nachstehend weiter erörtert. Der Quantisierungsfaktor wird bei dem Komprimierungsprozeß auf die Datensätze angewendet, wobei ein jeder der Datensätze (244 bei der bevorzugten Ausführungsform) einen fortlaufenden gemittelten Teil des zu komprimierenden Videobildes definiert.
  • Um für ein klareres Verständnis zu sorgen, zeigt Fig. 1 ein Fernsehbild 11, von dem ein kleiner Teil in der oberen, linken Ecke in eine vorbestimmte Menge von Bildblöcken 13 unterteilt ist. Es ist selbstverständlich, daß die Unterteilung des gesamten Bildes in die Bildblöcke nicht sichtbar ist, sondern elektronisch durchgeführt wird. Somit werden die Bildblöcke über den kleinen Teil des Bildes nur zum Zweck der Beschreibung durch gestrichelte Linien dargestellt. Jeder der Bildblöcke 13 enthält die Eigenschaft, das heißt den Informationsgehalt, der Bildanzeige an der entsprechenden räumlichen Stelle jedes Blocks. Bei der bevorzugten Ausführungsform entspricht das Videobild dem CCIR-601-Komponenten-Farbfernsehstandard (nur als Beispiel) und daher ist das Videobild durch drei Komponenten des Videosignals definiert; nämlich eine Luminanz-Komponente (Y) und zwei komplementäre Chrominanz- Komponenten (R-Y) und (B-Y). Jeder Bildblock wird aus einer gegebenen Anzahl von Pixeln und entsprechenden Abtastwerten des Bildes gebildet. Bei diesem Beispiel kann ein (Y)-Block vier Pixel vertikal und acht Pixel horizontal enthalten, wobei die in Fig. 1 innerhalb eines Bildblocks 13 dargestellten Daten nur die Luminanz-Komponente (Y) der 4 · 8-Gruppe von Pixeln in dem Bildblock an einer solchen räumlichen Stelle definieren. Das heißt, die in Fig. 1 gezeigten Bildblöcke enthalten nur die Luminanz- Videoinformation, die dem (Y)-Komponenten-Videosignal entspricht. Wenn das Bild 11 in Farbe angezeigt werden würde, dann würden die Bildblöcke 13 auch Farbinformationen in Form der Chrominanz-Komponenten (R-Y), (B-Y) sowie die (Y)-Komponente enthalten. Es sollte jedoch selbstverständlich sein, daß das Misch-/Entmischverfahren der Erfindung verwendet werden kann, um die Luminanz- und/oder Chrominanz-Datensignale oder andere Arten von korrelierten Datensignalen separat statistisch zu mitteln, wie über die Schaltungen von Fig. 4, 5 veranschaulicht. Die Luminanz- und Chrominanzsignale werden hierin nur als Beispiel als typisch für zu mischende Signale angeführt, und um die Beschreibung der bevorzugten Ausführungsform zu erleichtern, bei der das Misch-/Entmischverfahren verwendet wird.
  • Die Größe der Bildblöcke wird vorzugsweise relativ zum Transformations- und Codierungsschema ausgewählt, um das Videobild wahrheitsgemäß darzustellen. Das heißt, die ausgewählte Größe sollte nicht so groß sein, daß die Daten in der Mehrzahl der Bildblöcke nicht korreliert sind, und auch nicht so klein sein, daß eine starke Korrelation zwischen einem großen Bruchteil von benachbart angeordneten Blöcken besteht. Bei der speziellen beschriebenen Ausführungsform, bei der ein Videohalbbild codiert und komprimiert wird, sind folglich die Bildblöcke der Luminanz-Videodaten als vier Pixel vertikal und acht Pixel horizontal dargestellt. Ein Pixel ist ein Luminanz- Abtastwert der zeitlich kontinuierlichen analogen Videowellenform, der zu jedem Abtastzeitpunkt genommen wird. Folglich wird ein (Y)-Abtastwert am ersten Pixel in der oberen, linken Ecke der ersten Videozeile eines Bildblocks genommen. Zum Zeitpunkt des nächsten Pixels wird ein neuer (Y)-Abtastwert genommen, und so weiter nacheinander für jedes der acht Pixel über jede der vier aufeinanderfolgenden Zeilen in jedem Luminanz-Bildblock. Bei einer Implementierung, bei der Chrominanz-Komponenten (R-Y), (B-Y) gemischt werden, werden die Chrominanz- Komponenten mit der halben Rate der Luminanz-Abtastrate abgetastet, da die Chrominanz-Komponenten in dem Beispielstandard (d. h. CCIR-601) die halbe Bandbreite besitzen.
  • In Übereinstimmung mit der Erfindung werden die Bildblöcke, die jeden Datensatz von beispielsweise dem Bild von Fig. 1 bilden, über die Schaltung von Fig. 4 gemäß einem nachstehend beschriebenen, ausgewählten Algorithmus gemischt, um das statistische Mitteln der Datensätze vorzusehen. Bei dem umgekehrten Prozeß werden die Datensätze wiederhergestellt und über die Schaltung von Fig. 5 gemäß demselben Algorithmus entmischt. Fig. 2 stellt das Videobild dar, wie es erscheinen würde, nachdem die Daten gemäß der Erfindung gemischt wurden und der resultierende gemischte Datenstrom angezeigt wird. Die Bildblöcke 13 werden aus dem gesamten Videobild von Fig. 1 gemäß dem Mischalgorithmus, der das Auswahlmuster bereitstellt, genommen, wie insbesondere in Fig. 3 dargestellt. Es ist selbstverständlich, daß, obwohl das Bild, wie in Fig. 2 gezeigt, dekorreliert ist, die Pixel innerhalb der Bildblöcke 13 es nicht sind. Die Pixel innerhalb jedes Blocks werden während der gesamten Prozesse des Mischens, der Komprimierung, der Dekomprimierung und des Entmischens in derselben Reihenfolge gehalten, in der sie sich im Bild von Fig. 1 befinden. Wie vorher erwähnt, stellen Fig. 1 und 2, die Schwarzweißbilder sind, nur die Luminanz-Komponente der Videoanzeige anstatt die Vollfarben-Videoanzeige dar.
  • Bei dem Mischverfahren nach Vorschrift durch den Algorithmus wird jeder der 23 Bildblöcke, die zum Bilden eines Datensatzes kombiniert werden, aus einer anderen Spalte und einer anderen Zeile ausgewählt als jeder andere Bildblock dieses Datensatzes. Das heißt, für jeden Datensatz innerhalb eines Bildes wird nur ein Bildblock von irgendeiner Spalte oder Zeile von allen Spalten und Zeilen dieses Bildes genommen. Außerdem müssen alle Bildblöcke in dem Bild verwendet werden, aber nur einmal.
  • Insbesondere gibt es für ein einzelnes Videohalbbild aus 736 Pixeln horizontal und 244 Pixeln vertikal 736/8 = 92 Blöcke (8 Pixel breit) horizontal und 244/4 = 61 Blöcke (4 Pixel hoch) vertikal. (Obwohl der CCIR-601-Standard übrigens 720 aktive Pixel horizontal definiert, haben wir der Zahlenbequemlichkeit halber beschlossen, 736 zu verwenden). Wenn es 23 Blöcke pro Datensatz gibt, dann gibt es 92/23 = 4 Datensätze pro Zeile von Blöcken, wie in dem gemischten Bild von Fig. 2 zu sehen ist. Das heißt, wie in Fig. 2 als vier vertikal verlaufende Abschnitte gezeigt, erstrecken sich vier Datensätze aus jeweils 23 Bildblöcken über die Breite des gemischten "Bildes", um jede Zeile von Bildblöcken festzulegen. Es folgt, daß es 4 · 61 = 244 Datensätze gibt, die hierin mit 0 bis 243 numeriert sind.
  • Die Bildblöcke 13 von jedem Datensatz werden in Erwiderung auf das spezielle Auswahlmuster gemischt, um die Folge von gemischten Datensätzen bereitzustellen, wobei jeder gemischte Datensatz dann als Gruppe durch die anschließenden Transformations- und Komprimierungsprozesse verarbeitet wird, wie in Fig. 4, 6 dargestellt. Beginnend mit den Bildblöcken in der oberen, linken Ecke des angezeigten Videobildes von beispielsweise Fig. 1 können der x- und y-Index von jedem gemischten Bildblock durch den folgenden Algorithmus gegeben sein:
  • x, y = 4c + v mod 4, (17c + 25v) mod 61
  • wobei x = der horizontale Blockindex,
  • y = der vertikale Blockindex,
  • v = die Datensatznummer 0, 1, 2 ... 243,
  • c = die Ausgabe-Bildblocknummer 0, 1 ... 22 innerhalb eines Datensatzes, und
  • mod 4 und mod 61 = Modulo Basis 4 und Modulo Basis 61.
  • Diese Gleichung definiert die Zugehörigkeit eines Datensatzes, wobei (x, y) der Index des Blocks ist. Die Pixel, die Mitglieder eines Luminanzblocks sind, und die gemischte Ausgangsdatensequenz für den Block x, y ist gleich
  • Pixel Nr. Zeile Nr. = 8x4y, 8x + 14y, ... 8x + 74y, 8x4y+1, 8x + 14y+1 ... 8x + 74y+3
  • Fig. 3 erläutert den Prozeß der Auswahl der Bildblöcke (13 in Fig. 1, 2) von verschiedenen räumlichen Stellen in dem Bild, um jeden Datensatz von gemischten Bildblöcken gemäß dem vorstehend beschriebenen Algorithmus zu bilden. Zu diesem Zweck wird das Bild anhand des obigen Beispiels in Zeilen von Blöcken (mit der Nummer 10 bezeichnet) und Spalten von Blöcken (mit der Nummer 12 bezeichnet) mit 92 Spalten von Bildblöcken horizontal (mit 0-91 bezeichnet) und 61 Zeilen von Bildblöcken vertikal (mit 0-61 bezeichnet) unterteilt. Wie erwähnt, enthält jeder Luminanzblock acht Pixel horizontal und vier Pixel vertikal, wobei jeder insgesamt 32 Pixel von Luminanz- Komponenten-Videodaten enthält. Somit wird in dem Beispiel hierin das Luminanzbild in insgesamt 5612 Bildblöcke unterteilt und es gibt insgesamt 5612/23 oder 244 Datensätze. Fig. 3 zeigt die Verteilung der Bildblöcke, wie sie über den Algorithmus ausgewählt werden, um die ersten vier der möglichen 244 Datensätze zu bilden, wobei die 23 Bildblöcke des nullten, ersten, zweiten und dritten Datensatzes durch die Symbole (x), (o), (-) bzw. (+) in Fig. 3 dargestellt sind. Wie durch den Algorithmus festgelegt, wenn v = 0 (die Nummer des Datensatzes Null) und c = 0 (die Nummer des Ausgabebildblocks) ist, dann wird der nullte Bildblock, der hierin durch das Symbol (x) identifiziert ist, von der oberen, linken Ecke des Bildes, das heißt, von dem Block, der den Koordinaten der Spalte Null und der Zeile Null entspricht, genommen. Der nächste Bildblock (x) des Datensatzes Null wird aus der Spalte 4 und der Zeile 17 ausgewählt. Der nächste Bildblock (x) stammt aus der Spalte 8 und der Zeile 34, und so weiter über das Bild, bis der 23. (oder letzte) Bildblock (x) des Datensatzes Null von der Spalte 88 und der Zeile 8 genommen wird. Wie zu sehen ist, wird jeder Bildblock des Datensatzes Null von einer anderen Spalte oder Zeile der Matrix von Blöcken als irgendein anderer Block genommen. Das heißt, nur ein Bildblock eines Datensatzes wird von irgendeiner Spalte oder Zeile genommen.
  • Der nächste Datensatz (Eins) wird über den Algorithmus durch Auswählen der 23 Bildblöcke, die durch das Symbol (o) dargestellt sind und von verschiedenen räumlichen Stellen in dem in Fig. 3 gezeigten Bild genommen werden, zusammengestellt. Der nullte Bildblock des Datensatzes Eins wird aus der Spalte 1 und der Zeile 25 genommen. Der nächste Bildblock wird aus der Spalte 5 und der Zeile 42 genommen, und so weiter, bis der 23. (letzte) Bildblock des Datensatzes Eins aus der Spalte 89 und der Zeile 33 genommen wird. Wieder wird nur ein Bildblock in dem Datensatz Eins von irgendeiner Spalte oder Zeile genommen.
  • Der nächste oder der Datensatz Zwei wird dann aus den in Fig. 3 durch das Symbol Minus (-) dargestellten Bildblöcken zusammengestellt, gefolgt vom nächsten oder Datensatz Drei, der durch das Symbol Plus (+) dargestellt ist. Der Auswahlprozeß fährt unter Verwendung der Gleichungen des obigen Algorithmus fort, bis alle 244 Datensätze zusammengestellt sind, um ein Halbbild von Videodaten zu definieren. Wenn alle 244 Datensätze fertiggestellt wurden, wurden alle Blöcke in dem ursprünglichen Bild genommen und keine wurden ausgelassen oder wiederholt. Es ist zu sehen, daß die einzelnen Blöcke, die einen Datensatz bilden, beträchtlich voneinander getrennt sind und daß kein großer Bereich des ursprünglichen Bildes ohne jegliche Blöcke in jedem Datensatz ist.
  • Die Blöcke des Bildes, die in gemischter Reihenfolge am Ausgang der Mischerschaltung (Fig. 4) kontinuierlich verfügbar sind, werden zu den nachfolgenden Schaltungen geliefert, die die Transformations- und Komprimierungsprozesse (Fig. 4, 6) oder den Komprimierungsprozeß (Fig. 7) ausführen. Bei der hierin beschriebenen speziellen Implementierung werden die 23 Bildblöcke gruppiert, um jeweilige Datensätze der Folge der 244 Datensätze zu bilden, die ein Videofeld definieren. Jeder Bildblock eines Datensatzes ist in seiner Reihenfolge innerhalb des Satzes gekennzeichnet und ist insbesondere als Buchstabe c = 0, 1 ... 22 im obigen Algorithmus gekennzeichnet.
  • Wie vorher erwähnt, sieht das Zusammenstellen der Datensätze aus den Bildblöcken, die von verschiedenen räumlichen Stellen in dem Bild genommen werden, die Datensätze mit im wesentlichen ähnlichen statistischen Mittelwerten vor, was wiederum gewährleistet, daß die nachfolgenden Quantisierungsfaktoren, die für die Datensätze berechnet werden, eine enge Verteilung von Werten aufweisen. Mit anderen Worten, die statistische Mittelwertbildung, die durch das Mischen bereitgestellt wird, gewährleistet, daß die Quantisierungsfaktoren für die Datensätze einander ähnlich sind. Dies unterstützt die Bereitstellung einer konstanteren Codelänge, selbst wenn ein Codierprozeß mit variabler Rate verwendet wird. Da die statistische Mittelwertbildung im wesentlichen denselben Informationsgehalt pro Datensatz vorsieht, benötigt und füllt außerdem jeder Datensatz denselben zugeordneten Raum auf dem Aufzeichnungsmedium.
  • Es wird auf Fig. 4 und 5 für beispielhafte Implementierungen von Schaltungen zur Ausführung des Misch-/Entmischverfahrens der Erfindung Bezug genommen. Es gibt drei Signalkomponenten in einem Komponenten- Farbvideosignal; die Luminanz-Komponente (Y) ist jedoch hierin in Fig. 4 nur als Beispiel als Eingangssignal in die Misch-/Entmischschaltkreise dargestellt. Die Luminanz- Komponente umfaßt ein analoges Bildeingangssignal, das beispielsweise durch aufeinanderfolgende Fernsehrasterabtastungen gewonnen wird. Es sollte jedoch selbstverständlich sein, daß andere korrelierte Datensignale als Luminanz- oder Chrominanz-Videosignale durch das Verfahren der vorliegenden Erfindung gemischt und entmischt werden können, wie nachstehend weiter erörtert. Beispielsweise können die Blöcke der Koeffizienten, die sich aus einer diskreten Cosinustransformation der Blöcke von Pixeln ergeben, die Eingangssignale (Fig. 7) umfassen. Somit sollte es selbstverständlich sein, daß der Begriff "Bilddaten", der das zur Mischschaltung gelieferte Eingangssignal oder das Ausgangssignal aus der Entmischschaltung umfaßt, das fortlaufend abgetastete Bildsignal sein kann, das z. B. von einer Schwarzweißkamera, einer Farbkamera oder einem Videoband-Aufzeichnungsgerät geliefert wird, oder Blöcke der Transformationskoeffizienten sein kann, die beispielsweise aus einem Prozeß einer diskreten Cosinustransformation hergeleitet werden, der blockweise an dem Bild vor dem Datenmischprozeß durchgeführt wird. Ebenso soll der Begriff "Bildblöcke" Bildblöcke der Pixel, die das Bild erzeugen, oder Bildblöcke von Transformationskoeffizienten, die entsprechende Blöcke des Bildes darstellen, beinhalten.
  • In Fig. 4 wird die (Y)-Komponente des analogen Bildsignals über eine 8-Bit-(Y)-Eingangsleitung 16 zu einem Luminanzkanal 14 geliefert. Wenn ein Chrominanzsignal gemischt werden soll, würden die (R-Y)- und (B-Y)- Chrominanz-Komponenten über zwei 8-Bit-(R-Y)- und (B-Y)- Leitungen zu einem Chrominanzkanal geliefert werden. Der Chrominanzkanal wäre ähnlich dem Luminanzkanal 14, ist aber ferner dazu ausgelegt, die zwei (R-Y)-, (B-Y)- Farbkomponentensignale zu verarbeiten, wobei jedes etwa die halbe Bandbreite des (Y)-Luminanzsignals aufweist und folglich die Hälfte der Abtastrate, die Hälfte eines Halbbildspeichers usw. benötigt.
  • Insbesondere wird in Fig. 4 das (Y)-Bildsignal auf der Leitung 16 zu einer Abtast-Halte-(S/H)-Schaltung 20 geliefert, wo es mit beispielsweise einer Rate von 13,5 MHz über einen Takt auf einer Leitung 22 abgetastet wird. Die abgetasteten Signale werden über eine Leitung 26 zu einem Analog-Digital-Wandler (A/D) 24 geliefert. In der Praxis bildet die S/H-Schaltung 20 mit dem A/D 24 eine Einheit. Die resultierenden digitalen (Y)-Bilddaten werden über einen Bus 30 zu einer (Luminanz-) Mischschaltung 28 geliefert, die von dem Block mit gestrichelter Linie umschlossen ist. Nach dem Durchgang durch die Mischschaltung 28 werden die gemischten Daten über einen 8- Bit-Bus 32 zu einem Transformations- und Komprimierungssystem 34 geliefert. Das letztere System 34 umfaßt ein Mittel zum geeigneten Codieren der gemischten Datensätze und zum Berechnen des Quantisierungsfaktors für den Quantisierungsprozeß auf der Basis der statistisch gemittelten Datensätze, die durch den Mischprozeß der Erfindung bereitgestellt werden. Die codierten und komprimierten Daten können dann als aufeinanderfolgende Datensätze in zugeordneten Datensynchronisationsblöcken auf einem Aufzeichnungsmedium aufgezeichnet werden, welches hierin durch ein Aufzeichnungsgerät 36 dargestellt ist, oder können zu einem Übertragungskanal 38 geliefert werden.
  • Bei der letzteren Anwendung werden die Daten am Empfänger rekonstruiert, um nach der Übertragung ein geeignetes Videosignal zur Verwendung von zugehörigen Vorrichtungen bereitzustellen.
  • Typisch für ein Transformations- und Komprimierungssystem 34 zum Empfangen und Verarbeiten der durch die vorliegende Erfindung gemischten Daten ist das in EP-A-0 469 648 beschriebene System.
  • Die Luminanz-Mischschaltung 28 umfaßt ein Paar von Halbbildspeichern 40 und 42, die kontinuierlich die einer Rasterabtastung unterzogenen und digitalisierten Videobilddaten empfangen und die gemischten Bilddaten ausgeben, und zwar im digitalen 8-Bit-Abtastformat. Die Speicher 40, 42 werden auch mit der Halbbildrate abwechselnd umgeschaltet, um somit abwechselnde Datenfelder zu speichern und wiederherzustellen. Die wiederhergestellten Daten werden zum Transformations- und Komprimierungssystem 34 in dem gewünschten gemischten Format geliefert, das durch den obigen Algorithmus festgelegt ist. Zu diesem Zweck wird das digitalisierte Ausgangssignal des A/D 24 über den Bus 30 zu beiden Speichern 40 und 42 geliefert. Jeder der Speicher 40 und 42 enthält entsprechende Halbbildspeicherstellen für die Luminanz-(Y)-Daten und insbesondere für abwechselnde Felder von (Y)-Daten. Ein Taktgenerator 44 steuert, welcher Speicher zu irgendeinem gegebenen Zeitpunkt aktiviert wird, als Reaktion auf jeweilige Schreib- und Lesesignale auf RD/WR-Leitungen 46, 47 und Freigabesignale auf OE-Leitungen 48, 49. Wie dargestellt, werden die RD/WR-Leitung 46 und die OE-Leitung 48 zum Speicher 40 geführt. Die RD/WR- und OE-Steuersignale werden durch einen Inverter 50 invertiert, bevor sie über jeweils die Leitungen 47, 49 zum Speicher 42 geliefert werden. Somit wird in einen Speicher auf halbbildweiser Basis geschrieben, während aus dem anderen gelesen wird. Nach einem Datenfeld werden die Rollen der Speicher 40, 42 umgekehrt. Der Taktgenerator 44 liefert die Speichersteuersignale als Reaktion auf ein vertikales Austastsignal (Vertikalsynchronisierimpuls) auf einer Leitung 52, das von der Systemsteuerung (nicht dargestellt) zum Taktgenerator 44 geliefert wird.
  • Gemäß der Erfindung werden die Speicher 40, 42 abwechselnd verwendet, um die Daten im sequentiellen Format kontinuierlich zu empfangen und zu speichern und dann die Daten im gemischten Format kontinuierlich zu liefern, und zwar auf feldweiser Basis. Zu diesem Zweck steuert der Schreibadressengenerator 54 die abwechselnde Speicherung der Daten in den Speichern in einem Rasterabtast-, das heißt sequentiellen, Format und ein Leseadressengenerator 56 steuert das Auslesen der Daten aus dem Speicher, in den gerade nicht geschrieben wird, im gewünschten gemischten Format. Insbesondere empfangen der Schreib- und der Leseadressengenerator 54, 56 über jeweilige Leitungen 58, 60 Rücksetzsignale, die mit dem Vertikalsynchronisierimpuls aus dem Taktgenerator 44 in Beziehung stehen. Als Reaktion darauf liefern die Adressengeneratoren 54, 56 abwechselnd Schreib- oder Leseadressensignale zu einem oder dem anderen der Speicher 40, 42. Zu diesem Zweck wird das Ausgangssignal des Schreibadressengenerators 54 über einen Bus 62 zu den A- bzw. B-Eingängen eines Paars von Multiplexern 64 und 66, die den Speichern 40 und 42 zugeordnet sind, geliefert. Als Reaktion auf den Schreibadressengenerator 54 und entweder den Multiplexer 64 oder 66 lädt die Schreibadresse die Daten in den Speicher 40 oder 42 in der Reihenfolge, in der die Abtastwerte und Videozeilen in dem Bild abgetastet werden, nämlich in einem sequentiellen Fernseh-Rasterabtastformat. Die durch den Generator 44 ausgelösten und vom Leseadressengenerator 56 gelieferten Leseadressen werden über einen Bus 68 zu den B- bzw. A-Eingängen der Multiplexer 64 und 66 geleitet. Die Leseadressen entsprechen den Speicherstellen, die durch den ausgewählten Algorithmus festgelegt werden. Der Multiplexer 64 liefert das Lese- oder Schreibadressensignal, das zu irgendeinem gegebenen Zeitpunkt aktiv ist, über einen Adreßbus 70 zum Speicher 40. Der Multiplexer 66 liefert das Lese- oder Schreibadressensignal, das zu irgendeinem gegebenen Zeitpunkt aktiv ist, über einen Adreßbus 72 zum Speicher 42. Der Taktgenerator 44 steuert die einzelnen Multiplexer, um die Lese- oder Schreibadressen zu aktivieren, in Bezug auf den Vertikalsynchronisierimpuls über Busse 74 und 76, die mit den jeweiligen A/B-Eingängen der Multiplexer 64, 66 gekoppelt sind.
  • Der Leseadressengenerator 56 erzeugt Adressen derart, daß die nacheinander gespeicherten Bilddaten in der angeforderten gemischten Bildblockreihenfolge, die in diesem Beispiel durch den vorher beschriebenen Algorithmus festgelegt ist, aus den Speichern 40, 42 ausgelesen werden. Beispielsweise sind 736 Abtastwerte in einer Videozeile vorhanden, wie es beim CCIR-601-Komponenten- Farbfernsehstandard der Fall ist, und die Luminanz- Abtastwerte werden in aufeinanderfolgenden Speicherstellen über den Schreibadressengenerator 54 beginnend mit der Stelle 0, 1, 2, 3, 4, ... usw. gespeichert. Wenn ein (4 · 8)- Bildblock des Datensatzes c = 0 (Null) aus dem Speicher ausgelesen werden soll, sind die Leseadressen für die Daten 0, 1, 2, 3, 4, 5, 6, 7 für die erste Zeile des nullten Blocks, 736 ... 743 für die zweite Zeile des nullten Bildblocks, 1472 ... 1479 für die dritte Zeile des nullten Blocks und 2208 ... 2215 für die vierte Zeile. Jeder Bildblock wird vollständig aus dem Speicher ausgelesen, bevor zum Auslesen des nächsten Bildblocks eines Datensatzes übergegangen wird, wobei die Reihenfolge des nächsten Bildblocks (und der folgenden 21 Bildblöcke) des auszulesenden Datensatzes durch den Mischalgorithmus festgelegt ist. Der resultierende Datenstrom auf dem Bus 32 von den Speichern 40, 42 ist eine gemischte Folge von kohärenten Bildblöcken, wobei 23 aufeinanderfolgende gemischte Bildblöcke jeden Datensatz definieren. Die obigen Zahlen gelten, wenn die Bilddaten auf feldweiser Basis verarbeitet werden, und unter der Voraussetzung, daß jede Adreßstelle 1 Datenbyte hält und daß jedes Pixel durch 8 Bits definiert ist. Der nächste aus dem Speicher gelesene Bildblock (das heißt Block c = 1) stammt von einer Stelle, die gemäß dem Mischalgorithmus und wie in Fig. 3 dargestellt über das Bild verteilt ist und vom ersten Block selektiv beabstandet ist. Da die Bildblöcke, die jeden Datensatz bilden, von geometrisch in Beziehung stehenden Stellen genommen werden, die über das Bild verteilt sind, stellt die Komplexität jedes Datensatzes aus 23 Bildblöcken die Komplexität des gesamten Feldes dar. Bei der hierin veranschaulichten Implementierung der Erfindung ist der Mischalgorithmus und folglich das Auswahlmuster, das er darstellt, im Leseadressengenerator 56 in Form von Speicheradressengruppen enthalten.
  • Folglich ist zu sehen, daß in dem Beispiel hierin das Speichermittel, in das die Daten geschrieben werden, die Daten in einer fortlaufenden Reihenfolge entsprechend der Stelle des entsprechenden Bildblocks in dem Videobild als Reaktion auf den Schreibadressengenerator 54 speichert. Dann umfaßt der Leseadressengenerator 56 das Mittel zum Wiederherstellen der Daten in einer Reihenfolge, die relativ zu den tatsächlichen Stellen der Bildblöcke in dem Videobild gemischt ist, als Reaktion auf die Leseadressen darin, die durch den Algorithmus festgelegt sind. Obwohl das gemischte Bild selbst dekorreliert ist, sind die Daten innerhalb jedes Bildblocks nicht gemischt und bleiben innerhalb der Blöcke korreliert, wie vorstehend bezüglich Fig. 2 erörtert. Das heißt, die Pixel innerhalb jedes Bildblocks befinden sich an denselben relativen Stellen, wie sie in dem Videobild vor dem Mischprozeß waren.
  • Es ist selbstverständlich, daß die Reihenfolge, in der die Bildblöcke in den Speicher geschrieben und aus diesem ausgelesen werden, umgekehrt werden kann. Das heißt, die Speicher 40, 42 können unter Verwendung der gemischten Speicherstellen, die durch die Leseadresse geliefert werden, mit den Bildblöcken in gemischter Reihenfolge belegt werden. Dann können die Daten unter Verwendung der Schreibadresse, um die Speicherstellen abzutasten, nacheinander ausgelesen werden.
  • Nach dem Auslesen der Pixel aus den Halbbildspeichern 40, 42 unter Verwendung der Adressenfolge, die vom Leseadressengenerator 56 erzeugt wird, um die Datensätze der gemischten Bildblöcke zu erzeugen, werden die Datensätze über den Bus 32 zum Transformations- und Komprimierungssystem 34 geliefert. Das System 34 codiert dann die Daten und berechnet die Quantisierungsfaktoren zum Quantisieren der Datensätze unter Verwendung eines beliebigen von verschiedenen Datenquantisierungsprozessen. Da jeder Datensatz einen statistischen Mittelwert der Information in dem gesamten Bild darstellt, sind die Werte der Quantisierungsfaktoren im wesentlichen ähnlich, das heißt, es gibt eine enge Verteilung von Gewichtungskoeffizientenwerten. Dies erhöht die Effizienz des Komprimierungsprozesses.
  • Fig. 5 zeigt eine Ausführungsform von Schaltkreisen zum Durchführen des inversen Misch-(Entmisch-)-Prozesses, um das ursprüngliche analoge Bildsignal, wie es z. B. zum Eingabebus 16 von Fig. 4 geliefert wird, wiederherzustellen. Wie zu sehen ist, ist die Entmischschaltung ähnlich der beim Mischprozeß verwendeten Schaltung von Fig. 4. Die wiederhergestellten Daten werden mittels eines Aufzeichnungsgeräts, wie z. B. des Aufzeichnungsgeräts 36, oder über einen Übertragungskanal, wie z. B. den Bus 38 (Fig. 4), über einen Bus 110 zu einem System 108 zur Dekomprimierung und inversen Transformation geliefert. Das System 108 führt die inversen Funktionen des Transformations- und Komprimierungssystems 34 von Fig. 4 aus und liefert die resultierenden dekomprimierten und invers transformierten Daten zu einer Entmischschaltung 128. Die gemischten Bilddaten werden auf einem Bus 112 geliefert und sind im wesentlichen dieselben wie die gemischten Bilddaten auf dem Bus 32 von Fig. 4.
  • Die Entmischschaltung 128 ist anders als die Mischschaltung 28 insofern, als die Adreßsignale, die zu ähnlichen Halbbildspeichern 140, 142 geliefert werden, während der Schreib- und Lesezyklen vertauscht sind. Beispielsweise wird in die Speicher 140, 142 unter Verwendung des Leseadressensignals; das von einem Leseadressengenerator 156 geliefert wird, geschrieben und sie werden unter Verwendung des Schreibadressensignals, das von einem Schreibadressengenerator 154 geliefert wird, ausgelesen. Wie in Fig. 4 werden die Schreib- und Leseadressen als Reaktion auf die Rücksetzsignale von einem Taktgenerator 144 geliefert. Somit werden die gemischten Bildblöcke, die die gemischten Daten auf dem Bus 112 enthalten, an den vorstehend beschriebenen aufeinanderfolgenden Speicherstellen im Speicher gespeichert. Die gespeicherten Bildblöcke werden dann nacheinander von den Speicherstellen im Entmischspeicher abgerufen. Das resultierende Ausgangsdatensignal auf einem Ausgabebus 178 sind entmischte Bilddaten, die beispielsweise den ursprünglichen Bilddaten auf dem Bus 30 von Fig. 4 entsprechen. Die Bilddaten auf dem Bus 178 werden über einen Digital-Analog- Wandler 180 in ein analoges Format umgewandelt und werden über einen Rekonstruktionsfilter 182 gefiltert, um das ursprüngliche analoge Bildsignal auf einem Ausgabebus 184 wiederherzustellen.
  • Wie vorher erwähnt, stellen die Chrominanz-Bilddaten (R-Y), (B-Y) ein anderes Signal dar, das über einen betreffenden Chrominanzkanal separat von den Luminanzdaten (Y) gemischt werden kann. Der Kanal umfaßt eine Chrominanz- Mischschaltung, die im allgemeinen ähnlich der Luminanz- Mischschaltung 28 ist. Die gemischten Chrominanzdaten würden auch zu einem Transformations- und Komprimierungssystem, wie z. B. dem System 34 von Fig. 4, geliefert werden. Wenn ein vollständiges Komponenten- Farbsignal komprimiert wird, werden die Chrominanz- Komponenten im allgemeinen, aber nicht notwendigerweise, synchron mit den komplementären gemischten Luminanzdaten auf dem Bus 32 von Fig. 4 zum Transformations- und Komprimierungssystem geliefert.
  • Zur weiteren Beschreibung würden in dem vorliegenden Misch-/Entmischsystem die analogen (R-Y)- und (B-Y)- Chrominanz-Bilddaten ebenfalls zu jeweiligen Abtast-Halte- Schaltungen geliefert werden. Jeder der (R-Y)- und (B-Y)- Datenströme wird mit einer Rate von 6,75 MHz abgetastet, um analoge (R-Y)- und (B-Y)-Chrominanzsignale zu den zwei Eingängen eines analogen Multiplexers zu liefern. Der analoge Multiplexer wird mit einer Rate von 6,75 MHz über ein geeignetes Taktsignal geschaltet, um ein Farbdatensignal von abwechselnden (R-Y)-, (B-Y)-Werten zu einem A/D-Wandler zu liefern. Der A/D-Wandler liefert einen Datenstrom von digitalisierten (R-Y)-, (B-Y)-Chrominanz- Abtastwerten zu einem Paar von Halbbildspeichern in einer Konfiguration, die im allgemeinen ähnlich der des Luminanzkanals 14 ist. Die Speicher wären jedoch jeweils halbiert, so daß in diesem Beispiel die (R-Y)-Daten separat von den (B-Y)-Daten gespeichert werden. Dies erleichtert nicht nur das Schreiben der Farbdaten nacheinander in den Speicher, sondern erleichtert auch das Auslesen der (R-Y)- und (B-Y)-Daten aus jeweiligen Teilen der Speicher im gemischten Format. Ein Taktgenerator, wie z. B. der Generator 44, liefert R/W- und OE-Signale zu den Speichern. Die (R-Y)-Abtastwerte, die mit den (B-Y)-Abtastwerten in dem Datenstrom abwechseln, können nacheinander in den (R- Y)-Teil von einem der Speicher geschrieben werden, während die (B-Y)-Abtastwerte nacheinander in den (B-Y)-Teil desselben Speichers geschrieben werden würden, wenn der letztere freigegeben ist. Das heißt, wenn ein Signal, wie z. B. die Farbdifferenzsignale, gemischt wird, können die aus den Chrominanz-Abtastwerten gebildeten Datensätze in einer ersten Reihenfolge aller (R-Y)-Blöcke eines Datensatzes vorliegen, gefolgt von allen (B-Y)-Blöcken eines Datensatzes. In einer zweiten Reihenfolge können die Datensätze durch abwechselnde (R-Y)- und (B-Y)-Blöcke desselben Datensatzes gebildet werden, wie von dem Komprimierungssystem gefordert. Bei noch einer dritten Reihenfolge werden alle (R-Y)- oder alternativ (B-Y)-Blöcke für alle Datensätze zusammen gruppiert wiederhergestellt, gefolgt von den (B-Y)- (oder alternativ R-Y-)-Blöcken für alle zusammen gruppierten Datensätze. Somit ist zu sehen, daß die Erfindung auf verschiedene Reihenfolgen anwendbar ist, in denen die Bilddaten oder die transformierten Koeffizienten gespeichert und/oder wiederhergestellt werden können.
  • Bei jedem der Beispiele können wie im Luminanzkanal 14 die (R-Y)- und (B-Y)-Daten in einer der vorstehend erwähnten Reihenfolgen auf halbbildweiser Basis in die abwechselnden Speicher geschrieben werden, während der andere Speicher ausgelesen wird.
  • Das Auslesen der Chrominanzdaten kann auch in der Art und Weise der Luminanzdaten-Auslesung gemäß dem Mischmuster, das durch den Algorithmus festgelegt ist, durchgeführt werden. Der Ausleseprozeß sieht jedoch ein Mischen der nacheinander gespeicherten Bildblöcke der zwei Chrominanz- Komponenten (R-Y), (B-Y) vor, wenn die Daten abwechselnd von den (R-Y)- und (B-Y)-Teilen der Speicher wiederhergestellt werden. Beispielsweise würde ein (R-Y)- Block des Datensatzes Eins wiederhergestellt werden, gefolgt von einem (B-Y)-Block des Datensatzes Eins, gefolgt von einem weiteren (R-Y)-Block und (B-Y)-Block usw. Das Auslesen wird ferner abwechselnd vom einen Speicher oder dem anderen Speicher auf halbbildweiser Basis durchgeführt. Der Ausgangsstrom der gemischten (R-Y)-, (B-Y)-Chrominanz- Datenblöcke wird dann zu dem Transformations- und Komprimierungssystem, wie z. B. dem System 34 von Fig. 4, geliefert.
  • Fig. 6 stellt eine bevorzugte Umgebung des vorliegenden Mischverfahrens dar, wobei die Bilddaten in Form der aufeinanderfolgenden Datensätze von Bildblöcken zu einem Mischmittel, wie z. B. der Mischschaltung 28 und dem Kanal 14 von Fig. 4, geliefert werden. Die gemischten Daten werden zu einem Transformationsmittel, wie beispielsweise der hier abgebildeten Schaltung 131 für die diskrete Cosinustransformation, geliefert. Die resultierenden gemischten Blöcke von Transformationskoeffizienten werden zu einer Datenkomprimierungsschaltung 133 geliefert, wie z. B. jener, die in der vorstehend erwähnten EP-A-0 469 648 beschrieben ist, welche einen Quantisierungsfaktor für aufeinanderfolgende Datensätze bestimmt und den Komprimierungsprozeß durchführt, um eine Ausgabe von komprimierten Bilddaten bereitzustellen. In dem System von Fig. 6 wird die Datenmischung gemäß der Erfindung an den Bilddaten, die durch fortlaufendes Abtasten des Bildes gewonnen werden, durchgeführt.
  • Fig. 7 zeigt ein alternatives System, bei dem die Bilddaten zuerst beispielsweise durch die vorstehend erwähnte Schaltung 131 für die diskrete Cosinustransformation transformiert werden und dann gemäß der vorliegenden Erfindung gemischt werden. Zu diesem Zweck liefert die Transformationsschaltung 131 aufeinanderfolgende Datensätze von ein Bild darstellenden Blöcken von Transformationskoeffizienten zu einem Mischkanal 14 und einer Schaltung 28, wie z. B. in Fig. 4 beschrieben. Somit wird in dem System von Fig. 7 die Datenmischung gemäß der Erfindung an den Bilddaten durchgeführt, nachdem sie im Transformationskoeffizienten-Format vorliegen.
  • In beiden Systemen von Fig. 6 oder 7 kann der Entmischprozeß nach dem Dekomprimierungsprozeß und vor oder nach dem Prozeß der inversen diskreten Cosinustransformation durchgeführt werden.
  • Obwohl die Erfindung bezüglich verschiedener bevorzugter Ausführungsformen beschrieben wurde, wird für Fachleute zu erkennen sein, daß weitere Modifikationen und Veränderungen innerhalb des Schutzbereichs der Erfindung, wie in den Ansprüchen definiert, in Erwägung gezogen werden. Beispielsweise kann es erwünscht sein, eine statistische Mittelwertbildung beim Komprimieren von Videodaten ungeachtet dessen, ob solche Daten auf einem geeigneten Medium aufgezeichnet werden sollen, vorzusehen. Die gemischten und komprimierten Daten können stattdessen in einem Satellitenübettragungssystem verwendet werden. Obwohl bei der hierin beschriebenen beispielhaften Ausführungsform ein einzelnes Videohalbbild gemischt wird, ist darüber hinaus zu erkennen, daß verschiedene Mengen von Daten als Gruppe oder Datensatz gemischt werden können.
  • Beispielsweise können Videoinformationen, die ein Bild, eine Vielzahl von aufeinanderfolgenden Bildern oder eine andere Gruppe von Daten als Halbbilder oder Bilder definieren, gemischt werden, um die Eigenschaften des Prozesses der statistischen Mittelwertbildung zu nutzen. Beim Mischen und Codieren von Datenbildern werden verschiedene Zahlen geändert, beispielsweise kann jeder Bildblock aus zweimal den Daten in einer (8 · 8)-Pixelmatrix für die (Y)-Blöcke gebildet werden oder ein entsprechendes Verdoppeln der Pixelmatrix für die (R-Y) und (B-Y)- Chrominanzblöcke findet statt.
  • Wie vorher erwähnt, können alternative Algorithmen anstelle des hierin beschriebenen speziellen Algorithmus verwendet werden, um nicht nur geometrisch ausgewählte Blöcke, die von einer Matrix von Bildblöcken genommen werden, sondern auch pseudozufällig ausgewählte Blöcke vorzusehen, die aus der Matrix genommen werden. Jede derartige pseudozufällige Reihenfolge muß so angeordnet werden, daß alle Blöcke in dem Bild einmal ausgewählt werden, wobei keiner ausgelassen oder wiederholt wird. Außerdem sind die Zahlen des Algorithmus unterschiedlich, beispielsweise in einem Farbfernsehformat, das 625 Zeilen anstatt die hierin als Beispiel dargestellten 525 Zeilen verwendet.
  • Obwohl die Erfindung anhand der Auswahl und des Mischens von Daten, die von räumlichen, das heißt zweidimensionalen, Stellen in einem Bild genommen werden, beschrieben wird, ist sie ferner auch auf das Mischen von Daten anwendbar, die von raumzeitlichen oder 3-dimensionalen Stellen genommen werden. Da in der zeitlichen Dimension eine Redundanz vorhanden ist, kann beispielsweise eine Komprimierung unter Verwendung der 3. Dimension der Zeit, beispielsweise bei einem Prozeß einer 3-dimensionalen diskreten Cosinustransformation (DCT), verwendet werden. Bei einem solchen Schema würden 3-dimensionale Komprimierungsblöcke (Würfel) aus einer Anzahl von 2- dimensionalen Blöcken bestehen, die von denselben Stellen innerhalb verschiedener Bilder einer Mehrbildsequenz genommen werden. In diesem Fall kann das Mischen durch Bilden von Datensätzen aus Gruppen von 3-dimensionalen Würfeln durchgeführt werden.

Claims (12)

1. Verfahren zum Mischen von Daten, die zumindest einen Teil eines Videobildes definieren, umfassend: Darstellen des Videobildes durch eine Menge von Bildblöcken, von denen jeder einer entsprechenden räumlichen Stelle eines zusammenhängenden Teils des Videobildes zugeordnet ist und eine oder mehrere Eigenschaften des Bildes an der betreffenden räumlichen Stelle definiert; und Verwürfeln der Bildblöcke; dadurch gekennzeichnet, daß die Verwürfelung die Zusammenstellung einer Folge von Gruppen von Bildblöcken und für jede Gruppe die Auswahl einer Vielzahl von Bildblöcken von jeweiligen und räumlich verschiedenen Stellen in dem Bild umfaßt, um die Gruppe gemäß einem Auswahlalgorithmus zu bilden, welcher von der lokalen Variation der Komplexität des Bildes unabhängig ist und derart ist, daß das statistische Mittel des Videobildinformationsgehalts innerhalb jeder Gruppe im wesentlichen dasselbe ist wie das statistische Mittel des Informationsgehalts in dem Bild.
2. Verfahren nach Anspruch 1, wobei das Bild durch eine Matrix der Bildblöcke dargestellt wird und die Gruppen von Bildblöcken derart zusammengestellt werden, daß nur ein Bildblock von irgendeiner Zeile oder Spalte der Matrix für jede der Gruppen genommen wird.
3. Verfahren nach Anspruch 1 oder 2, wobei die Gruppen dieselbe Anzahl an Bildblöcken enthalten.
4. Verfahren nach Anspruch 3, wobei der Schritt der Verwürfelung das Speichern einer Vielzahl von Bildblöcken, die die Gruppen definieren, in einer ausgewählten Reihenfolge und Abrufen der gespeicherten Vielzahl von Bildblöcken in einer anderen Reihenfolge als der beim Schritt der Speicherung verwendeten umfaßt.
5. Verfahren zum Komprimieren von Videobilddaten, umfassend Aufteilen der Videobilddaten in eine Menge von Bildblöcken, von denen jeder mindestens eine Eigenschaft des Bildes an einer jeweiligen räumlichen Stelle definiert, gekennzeichnet durch Zusammenstellen der Blöcke in Gruppen, die jeweils eine Mehrzahl von Bildblöcken umfassen, und Komprimieren von jeder der Gruppen von Bildblöcken in einen zugeordneten Aufzeichnungsraum, wobei die Blöcke innerhalb jeder Gruppe von räumlich verschiedenen Stellen innerhalb des Bildes gemäß einem Auswahlalgorithmus genommen werden, der von der lokalen Variation der Komplexität der Bilddaten unabhängig ist und die Gruppen mit im wesentlichen gleichem Informationsgehalt statistisch wiedergibt.
6. Verfahren nach Anspruch 5, welches die Bestimmung von Quantisierungsfaktoren für eine Folge von Gruppen von Bildblöcken, das Vergleichen von aufeinanderfolgenden Quantisierungsfaktoren und, wenn die Differenz zwischen aufeinanderfolgenden Quantisierungsfaktoren eine ausgewählte Schwelle übersteigt, das Ändern der Reihenfolge der Mischung der Blöcke in nachfolgenden Bilddaten umfaßt.
7. Vorrichtung zum Mischen von Daten, die zumindest einen Teil eines Bildes definieren, mit einem Mittel zum Aufteilen des Videobildes in eine vorgewählte Menge von benachbarten Bildblöcken, gekennzeichnet durch ein Mittel zum Zusammenstellen einer Folge von Gruppen, die jeweils aus einer Mehrzahl der Bildblöcke bestehen und aus nichtbenachbarten, räumlich verschiedenen Stellen in dem Bild gemäß einem Blockauswahlalgorithmus ausgewählt sind, welcher derart ist, daß das statistische Mittel des Informationsgehalts innerhalb jeder Gruppe im wesentlichen dasselbe ist wie das statistische Mittel des Informationsgehalts in dem Bild.
8. Vorrichtung nach Anspruch 7, wobei die Blöcke eine Eigenschaft des Bildes an jeweiligen Stellen in einer Matrix von Zeilen und Spalten darstellen und das Mittel zum Zusammenstellen gestaltet ist, um die Bildblöcke derart zusammenzustellen, daß nur ein Bildblock von irgendeiner Zeile oder Spalte der Matrix für jede der Gruppen genommen wird.
9. Vorrichtung zum Komprimieren von Videobilddaten mit einem Mittel zum elektronischen Aufteilen der Videobilddaten in eine Menge von Bildblöcken, von denen jeder mindestens eine Eigenschaft eines Bildes an einer jeweiligen räumlichen Stelle definiert, gekennzeichnet durch ein Mittel zum Zusammenstellen der Blöcke in Gruppen, die jeweils eine Mehrzahl von Bildblöcken umfassen, und ein Mittel zum Komprimieren von jeder der Gruppen von Bildblöcken in einen zugeordneten Aufzeichnungsraum, wobei das Mittel zum Zusammenstellen gestaltet ist, um Bildblöcke innerhalb jeder Gruppe von räumlich verschiedenen Stellen innerhalb der Bilddaten gemäß einem Auswahlalgorithmus auszuwählen, welcher von der lokalen Variation der Komplexität der Bilddaten unabhängig ist und die Gruppen mit im wesentlichen gleichem Informationsgehalt statistisch wiedergibt.
10. Vorrichtung nach Anspruch 9 mit einem Mittel zum Transformieren des Bildes derart, daß die Bildblöcke durch Blöcke von Transformationskoeffizienten gebildet werden.
11. Vorrichtung nach Anspruch 9 oder Anspruch 10, wobei das Mittel zum Zusammenstellen einen Speicher, der zum Speichern von Bilddaten in einer Reihenfolge, die den ursprünglichen Stellen in den Bilddaten der Bildblöcke entspricht, gestaltet ist, und ein Mittel zum Abrufen der Bilddaten aus dem Speicher in einer Reihenfolge, in der die Bildblöcke relativ zu ihren ursprünglichen Stellen in dem Bild gemischt werden, umfaßt.
12. Vorrichtung nach Anspruch 9 oder Anspruch 10, wobei das Mittel zum Zusammenstellen einen Speicher, der zum Speichern von Bilddaten in einer Reihenfolge, in der die Bildblöcke relativ zu ihren ursprünglichen Stellen in den Bilddaten gemischt werden, gestaltet ist, und ein Mittel zum Abrufen der Bildblöcke aus aufeinanderfolgenden Speicherstellen in dem Speicher umfaßt.
DE69228893T 1991-02-13 1992-01-24 Vorrichtung und Verfahren zur Datenmischung und -entmischung Expired - Lifetime DE69228893T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US65471091A 1991-02-13 1991-02-13

Publications (2)

Publication Number Publication Date
DE69228893D1 DE69228893D1 (de) 1999-05-20
DE69228893T2 true DE69228893T2 (de) 2000-05-31

Family

ID=24625949

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69228893T Expired - Lifetime DE69228893T2 (de) 1991-02-13 1992-01-24 Vorrichtung und Verfahren zur Datenmischung und -entmischung

Country Status (8)

Country Link
US (1) US5301018A (de)
EP (1) EP0499303B1 (de)
JP (1) JP3283897B2 (de)
KR (1) KR100290983B1 (de)
CA (1) CA2058512A1 (de)
DE (1) DE69228893T2 (de)
MX (1) MX9200192A (de)
TW (1) TW223690B (de)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3141139B2 (ja) * 1991-03-13 2001-03-05 三菱電機株式会社 映像音声デジタル記録/再生装置
TW256010B (de) * 1991-04-18 1995-09-01 Ampex
JPH06153151A (ja) * 1992-10-31 1994-05-31 Sony Corp ディジタルビデオ信号記録装置
US5510897A (en) * 1993-02-04 1996-04-23 Matsushita Electric Industrial Co., Ltd. Digital video signal recording apparatus and method
JP2651100B2 (ja) * 1993-02-17 1997-09-10 松下電器産業株式会社 ディジタル磁気記録再生装置
JP2827790B2 (ja) * 1993-02-23 1998-11-25 日本電気株式会社 ビデオデータ圧縮装置
KR100285109B1 (ko) * 1993-04-27 2001-03-15 윤종용 디지탈 영상데이타 처리방법
US5706056A (en) * 1993-03-31 1998-01-06 Sony Corporation Signal processing apparatus for use with a digital video tape recorder
US6301390B1 (en) * 1993-03-31 2001-10-09 Canon Kabushiki Kaisha Encoding image data in blocks read out in a predetermined order
JP3141629B2 (ja) * 1993-06-22 2001-03-05 松下電器産業株式会社 映像信号の記録および再生装置
US6222881B1 (en) 1994-10-18 2001-04-24 Intel Corporation Using numbers of non-zero quantized transform signals and signal differences to determine when to encode video signals using inter-frame or intra-frame encoding
US5802213A (en) * 1994-10-18 1998-09-01 Intel Corporation Encoding video signals using local quantization levels
JPH08126014A (ja) * 1994-10-26 1996-05-17 Sony Corp 画像信号処理方法及び画像信号処理装置
US6104754A (en) 1995-03-15 2000-08-15 Kabushiki Kaisha Toshiba Moving picture coding and/or decoding systems, and variable-length coding and/or decoding system
US6704494B1 (en) 1995-03-15 2004-03-09 Kabushiki Kaisha Toshiba Moving picture coding and/or decoding systems, and variable-length coding and/or decoding system
DE69637068T2 (de) * 1995-03-15 2007-12-27 Kabushiki Kaisha Toshiba System zur Dekodierung von bewegten Bildern
US6173330B1 (en) * 1996-09-17 2001-01-09 Motorola, Inc. Delivery and acquisition of data segments with optimized inter-arrival time
AUPP248298A0 (en) * 1998-03-20 1998-04-23 Canon Kabushiki Kaisha A method and apparatus for hierarchical encoding and decoding an image
FR2788618B1 (fr) * 1999-01-14 2002-02-22 Enertec Systeme d'enregistrement d'ecran pour reconstitution d'operation
US7010737B2 (en) * 1999-02-12 2006-03-07 Sony Corporation Method and apparatus for error data recovery
US6505299B1 (en) * 1999-03-01 2003-01-07 Sharp Laboratories Of America, Inc. Digital image scrambling for image coding systems
US6473876B1 (en) 1999-06-29 2002-10-29 Sony Corporation Method and apparatus for encoding of bitstreams using rotation
US6389562B1 (en) * 1999-06-29 2002-05-14 Sony Corporation Source code shuffling to provide for robust error recovery
US6493842B1 (en) 1999-06-29 2002-12-10 Sony Corporation Time-varying randomization for data synchronization and implicit information transmission
US6480547B1 (en) 1999-10-15 2002-11-12 Koninklijke Philips Electronics N.V. System and method for encoding and decoding the residual signal for fine granular scalable video
US6539517B1 (en) 1999-11-09 2003-03-25 Sony Corporation Data transformation for explicit transmission of control information
US7151800B1 (en) * 2000-01-15 2006-12-19 Sony Corporation Implementation of a DV video decoder with a VLIW processor and a variable length decoding unit
JP3569205B2 (ja) 2000-06-09 2004-09-22 シャープ株式会社 記録再生装置
US6941516B2 (en) * 2001-08-06 2005-09-06 Apple Computer, Inc. Object movie exporter
CA2380105A1 (en) 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
JP3858845B2 (ja) * 2003-04-02 2006-12-20 ソニー株式会社 圧縮符号化装置及び方法、記録装置及び方法
KR100532490B1 (ko) * 2004-01-09 2005-12-01 삼성전자주식회사 멀티 제어 데이터 테이블 압축 설계 방법 및 이를 이용한광 디스크 드라이브
FR2886787A1 (fr) * 2005-06-06 2006-12-08 Thomson Licensing Sa Procede et dispositif de codage et de decodage d'une sequence d'images
US7644373B2 (en) 2006-01-23 2010-01-05 Microsoft Corporation User interface for viewing clusters of images
US7836050B2 (en) * 2006-01-25 2010-11-16 Microsoft Corporation Ranking content based on relevance and quality
US7814040B1 (en) 2006-01-31 2010-10-12 The Research Foundation Of State University Of New York System and method for image annotation and multi-modal image retrieval using probabilistic semantic models
US7707208B2 (en) * 2006-10-10 2010-04-27 Microsoft Corporation Identifying sight for a location
US7657504B2 (en) * 2006-10-10 2010-02-02 Microsoft Corporation User interface for displaying images of sights
WO2010150319A1 (en) * 2009-06-25 2010-12-29 Thomson Licensing Macroblock shuffling device, macroblock shuffling method, and macroblock shuffling program
US9027092B2 (en) * 2009-10-23 2015-05-05 Novell, Inc. Techniques for securing data access
US9734167B2 (en) 2011-09-21 2017-08-15 Horsetooth Ventures, LLC Interactive image display and selection system
US11068532B2 (en) 2011-09-21 2021-07-20 Horsetooth Ventures, LLC Interactive image display and selection system
US10482569B2 (en) * 2016-07-11 2019-11-19 DISC Intellectual Properties, LLC Image data encryption and rendering system

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4175270A (en) * 1970-03-27 1979-11-20 Zenzefilis George E Method and apparatus for recording and reproducing video
US3795763A (en) * 1972-04-18 1974-03-05 Communications Satellite Corp Digital television transmission system
US3803348A (en) * 1973-01-22 1974-04-09 Bell Telephone Labor Inc Method and apparatus for encoding color video signals
FR2305905A1 (fr) * 1975-03-28 1976-10-22 Thomson Brandt Procede de compression-extension d'un signal de television, enregistrements et appareils utilisant ce procede
US4023199A (en) * 1976-03-09 1977-05-10 Bell Telephone Laboratories, Incorporated Method and apparatus for encoding color video signals
US4025950A (en) * 1976-05-27 1977-05-24 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Sampling video compression system
GB1597484A (en) * 1977-03-21 1981-09-09 Rca Corp Television picture compressor
US4394774A (en) * 1978-12-15 1983-07-19 Compression Labs, Inc. Digital video compression system and methods utilizing scene adaptive coding with rate buffer feedback
US4302775A (en) * 1978-12-15 1981-11-24 Compression Labs, Inc. Digital video compression system and methods utilizing scene adaptive coding with rate buffer feedback
US4383272A (en) * 1981-04-13 1983-05-10 Bell Telephone Laboratories, Incorporated Video signal interpolation using motion estimation
GB2103455A (en) * 1981-07-22 1983-02-16 Post Office Method of transmitting an image and apparatus for carrying out the method
US4447886A (en) * 1981-07-31 1984-05-08 Meeker G William Triangle and pyramid signal transforms and apparatus
US4541012A (en) * 1982-01-04 1985-09-10 Compression Labs, Inc. Video bandwidth reduction system employing interframe block differencing and transform domain coding
US4494144A (en) * 1982-06-28 1985-01-15 At&T Bell Laboratories Reduced bandwidth video transmission
US4580134A (en) * 1982-11-16 1986-04-01 Real Time Design, Inc. Color video system using data compression and decompression
EP0122070B1 (de) * 1983-03-18 1990-10-03 Matsushita Electric Industrial Co., Ltd. Videosignalverarbeitungseinrichtung für Videobandaufzeichnungsgeräte
US4682248A (en) * 1983-04-19 1987-07-21 Compusonics Video Corporation Audio and video digital recording and playback system
JPS6075184A (ja) * 1983-09-30 1985-04-27 Nec Corp 動画像信号の符号化方式とその装置
DE3340113A1 (de) * 1983-11-05 1985-05-15 Robert Bosch Gmbh, 7000 Stuttgart System zur speicherung digital codierter signale auf magnetband
US4654696A (en) * 1985-04-09 1987-03-31 Grass Valley Group, Inc. Video signal format
DE3513074A1 (de) * 1985-04-12 1986-10-23 Telefunken Fernseh Und Rundfunk Gmbh, 3000 Hannover Verfahren zur digitalen nachrichtenuebertragung
JPS61271625A (ja) * 1985-05-27 1986-12-01 Hitachi Ltd デイジタルダビング方法
FR2582893B1 (fr) * 1985-06-04 1987-07-17 France Etat Circuit d'elaboration des signaux analogiques de couleurs primaires d'un signal de television a partir de ses composantes numeriques de luminance et de chrominance.
US4626829A (en) * 1985-08-19 1986-12-02 Intelligent Storage Inc. Data compression using run length encoding and statistical encoding
US4797741A (en) * 1985-08-28 1989-01-10 Canon Kabushiki Kaisha Information signal transmission system
JPS62195982A (ja) * 1986-02-24 1987-08-29 Konishiroku Photo Ind Co Ltd カラ−画像デ−タの圧縮方法及びその再生方法
US4802003A (en) * 1986-02-28 1989-01-31 Canon Kabushiki Kaisha Color picture information transmission system
JP2508457B2 (ja) * 1986-04-25 1996-06-19 ソニー株式会社 デイジタルビデオ信号の記録装置
GB2190560B (en) * 1986-05-08 1990-06-20 Gen Electric Plc Data compression
NL8601183A (nl) * 1986-05-12 1987-12-01 Philips Nv Discrete cosinus transformatie-inrichting.
US4740832A (en) * 1986-10-14 1988-04-26 Technology, Inc., 64 Image storage using separately scanned luminance and chrominance variables
US4679094A (en) * 1986-10-14 1987-07-07 The Associated Press Method for compression and transmission of video information
US4862167A (en) * 1987-02-24 1989-08-29 Hayes Microcomputer Products, Inc. Adaptive data compression method and apparatus
US4758881A (en) * 1987-06-02 1988-07-19 Eastman Kodak Company Still video frame store memory
US4764805A (en) * 1987-06-02 1988-08-16 Eastman Kodak Company Image transmission system with line averaging preview mode using two-pass block-edge interpolation
US4774562A (en) * 1987-06-02 1988-09-27 Eastman Kodak Company Image transmission system with preview mode
US4868653A (en) * 1987-10-05 1989-09-19 Intel Corporation Adaptive digital video compression system
JPH01114277A (ja) * 1987-10-28 1989-05-02 Sony Corp ブロック化回路
US4849807A (en) * 1988-04-27 1989-07-18 Universal Video Communications Corp. Method and system for compressing color video feature encoded data
US4857991A (en) * 1988-04-27 1989-08-15 Universal Video Communications Corp. Method and system for decompressing color video feature encoded data
US4847677A (en) * 1988-04-27 1989-07-11 Universal Video Communications Corp. Video telecommunication system and method for compressing and decompressing digital color video data
GB2219458A (en) * 1988-06-01 1989-12-06 Philips Electronic Associated Processing sub-sampled signals
SE503549C2 (sv) * 1988-09-15 1996-07-01 Telia Ab Kryptering med efterföljande källkodning
JP2845461B2 (ja) * 1988-10-27 1999-01-13 松下電器産業株式会社 可変長符号化装置
FR2646046B1 (fr) * 1989-04-18 1995-08-25 France Etat Procede et dispositif de compression de donnees d'image par transformation mathematique a cout reduit de mise en oeuvre, notamment pour la transmission a debit reduit de sequences d'images
JPH0313087A (ja) * 1989-06-09 1991-01-22 Matsushita Electric Ind Co Ltd 画像符号化装置
US5136371A (en) * 1990-03-15 1992-08-04 Thomson Consumer Electronics, Inc. Digital image coding using random scanning

Also Published As

Publication number Publication date
EP0499303A3 (en) 1993-07-28
KR100290983B1 (ko) 2001-06-01
TW223690B (de) 1994-05-11
US5301018A (en) 1994-04-05
MX9200192A (es) 1992-08-01
CA2058512A1 (en) 1992-08-14
DE69228893D1 (de) 1999-05-20
JPH0583674A (ja) 1993-04-02
EP0499303A2 (de) 1992-08-19
EP0499303B1 (de) 1999-04-14
KR920017081A (ko) 1992-09-26
JP3283897B2 (ja) 2002-05-20

Similar Documents

Publication Publication Date Title
DE69228893T2 (de) Vorrichtung und Verfahren zur Datenmischung und -entmischung
DE3871998T2 (de) Fernsehsystem, in dem digitalisierte transformationskodierte bildsignale von einer kodierstation zu einer dekodierstation uebertragen werden.
DE69228442T2 (de) Verfahren und vorrichtung zur bilddatenkompression durch luminanz/chrominanz-kodierung
DE69321856T2 (de) Vorrichtung und Verfahren zur Kodierung eines digitalen Bildsignals
DE69322110T2 (de) Vorrichtung und Verfahren zur digitalen Aufzeichnung und Wiedergabe eines Videosignals
DE69326366T2 (de) Verfahren und Vorrichtung zur Bildsignalkodierung mit merhstufigen Quantisierungnummernbestimmung
DE68923532T2 (de) Digitaler Videobandrecorder, geeignet zur Bildwiedergabe mit hoher Geschwindigkeit.
DE69321896T2 (de) Gerät und Verfahren zur Verarbeitung von digitalen Bildsignalen
DE69522504T2 (de) Videosignalaufnahmegerät und Videosignalaufnahme- und wiergabegerät
DE69220975T2 (de) Kodierschaltung zur Transformationskodierung eines Bildsignals und Dekodierschaltung zum Dekodieren desselben
DE69424582T2 (de) Digitaler Videorecorder für hochauflösende Fernsehsignale mit Betriebsarten für spezielle Wiedergabe
DE69226674T2 (de) Kodierung von komprimierten Datenbildern mit hohem Wirkungsgrad
DE69230922T2 (de) Videosignalkodierer mit Blockvertauschungstechnik
DE69226160T2 (de) Vorrichtung zur Kompressionskodierung von Videosignalen
DE3783823T2 (de) Verfahren und vorrichtung zur aufnahme und/oder wiedergabe von videoinformation auf/von einem aufnahmetraeger und mittels dieses verfahrens erhaltenen aufnahmetraeger.
DE69324958T2 (de) Kompression und Dekompression von Bildern
DE69119847T2 (de) Elektronische standbildkamera mit mehrformatspeicherung von bildern mit voller und beschränkter auflösung
DE69106033T2 (de) Verfahren und Vorrichtung zur Verwürfelung-Entwürfelung digitaler Bilddaten.
DE69122595T2 (de) Aufzeichnungs- und Abspielgerät
DE69324134T2 (de) Hdtv empfänger mit einer schaltung zur umsetzung von daten hoher auflösung in daten niedrigerer auflösung
DE3814627C2 (de)
DE3881213T2 (de) Bildübertragungssystem mit einer vorschaumode.
DE69322112T2 (de) Vorrichtung zum Multiplexen von digitalen Luminanz- und Chrominanzdaten
DE69312124T2 (de) Videocodec, insbesondere für ein Bildtelefon
DE69523439T2 (de) Verfahren und Vorrichtung zur Bildsignalkodierung mit einer Klassifizieranlage

Legal Events

Date Code Title Description
8364 No opposition during term of opposition